Geometrische Algebra und die Rolle des Clifford

Transcrição

Geometrische Algebra und die Rolle des Clifford
Geometrische Algebra
und die Rolle des Clifford-Produkts in der
Klassischen und Quantenmechanik
Diplomarbeit im Fachbereich Physik – Florian Jung
März 2006
Institut für Physik
Staudingerweg 7, 55128 Mainz, Germany
Johannes-Gutenberg-Universität Mainz
ii
Inhaltsverzeichnis
1 Einführung
1.1 Das Clifford-Produkt als Geometrisches Produkt . . . . . . . . .
1.2 Das Clifford-Produkt in der Quantenmechanik . . . . . . . . .
1.3 Aufbau und Ziel dieser Arbeit . . . . . . . . . . . . . . . . .
1
2
3
4
2 Grundlagen der Geometrischen Algebra
2.1 Die Bauelemente . . . . . . . . . . . . . . . . . . . . . .
2.2 Die Clifford-Algebra und das Geometrische Produkt . . . . . . .
2.3 Kanonische Automorphismen . . . . . . . . . . . . . . . . .
2.4 Inneres und äußeres Produkt . . . . . . . . . . . . . . . . . .
2.5 Das Skalarprodukt von Gn . . . . . . . . . . . . . . . . . .
2.6 Links- und Rechts-Kontraktion . . . . . . . . . . . . . . . . .
2.7 Wichtige algebraische Identitäten . . . . . . . . . . . . . . .
2.8 Unterräume, Projektionen und Hodge-Dualität . . . . . . . . . .
2.9 Grassmann-Basis und Koordinaten . . . . . . . . . . . . . .
2.10 Geometrische Algebra für nicht-euklidische Räume . . . . . . . .
2.11 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . .
7
7
8
11
13
17
19
22
28
37
42
45
3 Reflexionen und Rotationen
3.1 Spiegelung an einer Hyperebene . . . . . . . . . . . . . . . .
3.2 Der Satz von Cartan-Dieudonné . . . . . . . . . . . . . . . .
3.3 Einfache Drehungen im Euklidischen . . . . . . . . . . . . . .
3.4 Die Pin- und Spin-Gruppen . . . . . . . . . . . . . . . . . .
3.5 Minkowski-Geometrie . . . . . . . . . . . . . . . . . . . . .
3.6 Einfache Lorentz-Transformationen . . . . . . . . . . . . . .
3.7 Verallgemeinerung auf Multivektoren . . . . . . . . . . . . . .
3.8 Anwendung: Bewegung in Zentralkraftfeldern . . . . . . . . . .
3.9 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . .
51
52
53
57
62
67
72
76
77
82
4 Spezielle Relativität und Spacetime-Algebra
4.1 Teilchen und Weltlinien . . . . . . . . . . . . . . . . . . .
4.2 Beobachter und Bezugssysteme . . . . . . . . . . . . . . . . .
4.3 Der Raumzeit-Split . . . . . . . . . . . . . . . . . . . . .
4.4 Relativgeschwindigkeit . . . . . . . . . . . . . . . . . . . .
4.5 Weitere Raumzeit-Vektoren . . . . . . . . . . . . . . . . . .
4.6 Elektrodynamik . . . . . . . . . . . . . . . . . . . . . . .
4.7 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . .
85
85
87
90
93
94
96
98
iv Inhaltsverzeichnis
5 Reelle Quantenmechanik
5.1 Die Wellengleichungen von Schrödinger und Pauli . . . . . . . .
5.2 Der Pauli-Isomorphismus G3 ∼
= Mat(2, ) . . . . . . . . . . . .
5.3 Minimale Links-Ideale und Ideal-Spinoren . . . . . . . . . . . .
5.4 Die Pauli-Schrödinger-Hestenes-Gleichung . . . . . . . . . . .
5.5 Geometrische Interpretation der PSH-Gleichung . . . . . . . . .
5.6 Der Spin-Operator . . . . . . . . . . . . . . . . . . . . . .
5.7 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . .
99
99
102
104
105
108
110
112
6 Zusammenfassung und Ausblick
115
Anhang
A Wege zur Clifford-Algebra
117
A.1 Ein paar Grundlagen . . . . . . . . . . . . . . . . . . . . 117
A.2 Clifford-Algebra mittels Generatoren und Relationen . . . . . . . 121
A.3 Clifford-Algebra als Quotient der Tensor-Algebra . . . . . . . . 123
A.4 Universelle Eigenschaft, Kategorien und Funktoren . . . . . . . . 127
A.5 Chevalley-Deformation der Grassmann-Algebra . . . . . . . . . 133
A.6 Die Konstruktion von Lounesto . . . . . . . . . . . . . . . . 137
B Wichtige Isomorphien der Clifford-Algebra
141
C Geometrische Algebra und klassische Vektoranalysis
143
Literaturverzeichnis
145
1. Einführung
Gott kümmert sich nicht um unsere mathematischen
Schwierigkeiten. Er integriert empirisch.
Albert Einstein
Die Clifford-Algebra taucht in der Physik üblicherweise in Gestalt der Pauli- und
Dirac-Matrizen auf. Es erscheint deshalb so, als ob sie nur für die Beschreibung des
Spins in der Quantenmechanik relevant ist. Das Clifford-Produkt besitzt jedoch
eine weitere, zutiefst geometrische Bedeutung, die lange Zeit übersehen wurde. Wie
sich herausstellt, hat diese Geometrische Algebra nicht nur Anwendungen in der
Quantenmechanik, sondern auf allen wichtigen Gebieten der Physik.
Die Geometrische Algebra – wie die Clifford-Algebra übrigens auch von William
Kingdon Clifford persönlich bezeichnet wurde – besitzt eine interessante Entstehungsgeschichte. Auf der einen Seite hat sie ihre Ursprünge in der äußeren Algebra,
die Herrmann Grassmann 1844 in seiner „Linealen Ausdehungslehre“ [Gra69, Gra72]
formulierte. Das ursprüngliche Ziel der Grassmann-Algebra war eine Verallgemeinerung des Vektorbegriffs auf höhere Dimensionen, um orientierte Flächenelemente,
Volumina etc. zu beschreiben. Heutzutage spielt das antisymmetrische, äußere Produkt (oder auch Dachprodukt) „∧“ eine fundamentale Rolle in der Theorie der
Differentialformen nach Élie Cartan.
Weitere Ideen der Geometrische Algebra stammen aus der Algebra der Quaternionen , die 1843 von Sir William Rowan Hamilton entdeckt wurden. Die Quaternionen bilden eine vierdimensionale Verallgemeinerung der komplexen Zahlen. Ein
allgemeines Quaternion Q ∈ lässt sich schreiben als:
mit α, βi ∈
Q = α + β 1 i + β2 j + β3 k ,
.
(1.1)
Die Elemente i, j, k ∈ übernehmen dabei die Aufgabe von imaginären Einheiten.
Ihre algebraischen Eigenschaften lassen sich zusammenfassen in der fundamentalen
Formel:
i2 = j 2 = k2 = ijk = −1 .
(1.2)
Quaternionen eignen sich für eine höchst effiziente Beschreibung von Drehungen in
drei und vier Dimensionen. Eine wichtige Eigenschaft der Quaternionen ist ihre Invertierbarkeit, auf die wir später zurückkommen werden. Da man ihre geometrische
Bedeutung damals jedoch missverstand, wurden sie um 1881 durch die bekannte Vektoralgebra mit dem Kreuzprodukt „ד von Josiah Williard Gibbs abgelöst,
welche bis heute in der Physik verwendet wird.
Um 1880 konstruierte William Kingdon Clifford seine Geometrische Algebra,
um die äußere Algebra von Grassmann und die Quaternionen von Hamilton in
einem gemeinsamen mathematischen Rahmen zu vereinigen. Die Clifford-Algebra
zeichnet sich dabei durch eine Art „Kontraktionsregel“ für Vektoren a aus:
2
a2 = aa := kak ,
(1.3)
wobei wir das Clifford-Produkt durch einfache Juxtapposition der beiden Faktoren
bezeichnen werden. Mittels Gleichung (1.3) wird dem Quadrat eine Vektors a das
2 Kapitel 1. Einführung
Quadrat seiner Norm kak2 = ha|ai ∈ zugeordnet. Falls man eine negativ definite
Norm verwendet, ist das Quadrat von Basisvektoren (ei )2 = −1. Dadurch lassen
sich die Quaternionen innerhalb der Geometrischen Algebra beschreiben (Für Einzelheiten siehe Abschnitt A.2 im Anhang). Wie bei den Quaternionen ist auch das
Clifford-Produkt invertierbar, mit dem Inversen:
a−1 =
a
kak
2
=⇒
aa−1 =
a2
kak
2
=
kak2
kak
2
=1.
(1.4)
In der Geometrischen Algebra darf man deshalb durch Vektoren teilen, was einige
neue algebraische Möglichkeiten zur Manipulation von Formeln eröffnet!
Wie wir später sehen werden, lässt sich Gleichung (1.3) umschreiben zu:
ab + ba = 2ha|bi .
(1.5)
In dieser Form ist die definierende Relation der Clifford-Algebra von den Pauli- und
Dirac-Matrizen bekannt. Das Dachprodukt lässt sich im Rahmen der Geometrischen
Algebra beschreiben durch den antisymmetrischen Ausdruck:
ab − ba = 2a ∧ b .
(1.6)
Wie anfangs erwähnt, werden in der Clifford-Algebra also die äußere Algebra von
Grassmann und die Algebra der Hamilton’schen Quaternionen vereinigt.
Leider ging das Wissen über den geometrischen Hintergrund in den folgenden
Jahren weitgehend verloren, da man sich im Sinne der Bourbaki-Bewegung mehr
für die abstrakten algebraischen Eigenschaften der Clifford-Algebra interessierte.
Aus dieser Zeit stammen die Arbeiten von Claude Chevalley [Che97c, Che97a] sowie die Entdeckung der Cartan-Bott-Periodizität (siehe Anhang B). Erst um 1960
wurde auch die geometrische Bedeutung des Clifford-Produkts weiter untersucht.
Grundlegend ist dabei die Arbeit von Marcel Riesz [Rie93], sowie verschiedene Publikationen von David Hestenes, angefangen mit seinem Buch über Spacetime-Algebra [Hes66]. Mittlerweile sind die Geometrische Algebra und die darauf aufbauende
Geometrische Analysis aktive Forschungsgebiete, sowohl in der Physik als auch in
der Mathematik und Informatik.
1.1
Das Clifford-Produkt als Geometrisches Produkt
Wir wollen nun die Relevanz des Clifford-Produkts für die Geometrie erläutern. Das
Wort Geometrie stammt vom griechischen γεωµετρία, was soviel wie Vermessung
(„metria“) der Erde („geo“) bedeutet. Dabei beschäftigte man sich klassischerweise
mit Längen und räumlichen Beziehungen zueinander. In der modernen Geometrie
wurden diese Begriffe stark abstrahiert und man beschränkt sich natürlich auch
nicht mehr auf die Erde. Trotzdem ist das grundlegende Konzept der „metria“ in
Form der für die Geometrie notwendigen Metrik erhalten geblieben.
Durch diese Metrik – die oft in Form eines Skalarprodukts vorgegeben ist –
unterscheiden sich die geometrischen Vektoren von den algebraischen Vektoren. Als
algebraische Vektoren bezeichnen wir hierbei die Elemente eines Vektorraums, mit
den üblichen algebraischen Eigenschaften (siehe Definition A.5 auf Seite 119). Etwas
allgemeiner fallen unter diesen Begriff zum Beispiel auch Elemente der äußeren Algebra oder Tensoren. Man muss sich also nicht auf die üblichen, eindimensionalen
Vektoren einschränken.
1.2 Das Clifford-Produkt in der Quantenmechanik 3
Im Gegensatz dazu sind die geometrischen Vektoren die Elemente eines metrischen Vektorraums. Erst durch die Metrik lassen sich den Vektoren Eigenschaften
wie Länge und Richtung zuordnen! Wie der Begriff einer physikalischen Größe suggeriert, haben wir es deshalb in der Physik fast immer mit geometrischen Vektoren
zu tun. Außerdem ist die Metrik zwingend notwendig um Analysis auf diesen Räumen zu betreiben.
Wir kommen nun auf die fundamentale Rolle des Clifford-Produkts in der Geometrie zu sprechen. Wie sich mit einem einfachen Argument einsehen lässt, ist im
Clifford-Produkt ab nämlich die vollständige geometrische Beziehung der Vektoren
a und b zueinander kodiert!
Dazu nehmen wir einmal an, dass wir sowohl das Produkt P := ab, als auch den
Vektor b kennen. Falls sich daraus der ursprüngliche Vektor a rekonstruieren ließe,
dann müsste das Produkt P die komplette geometrische Beziehung von a relativ
zu b enthalten. Aufgrund der Invertierbarkeit des Clifford-Produkts ist die Lösung
dieser Aufgabe in der Geometrischen Algebra allerdings trivial. Um den Vektor a
zu erhalten, teilen wir P einfach durch den Vektor b:
P b−1 = (ab)b−1 = a(bb−1 ) = a ,
mit b−1 = b/ kbk2 .
(1.7)
Hierbei haben wir die bisher noch nicht erwähnte Assoziativität des Clifford-Produkts ausgenutzt. Das selbe Argument lässt sich mit dem Vektor a anstelle von b
wiederholen, wenn man in Gleichung (1.7) mit a−1 von links multipliziert.
Im Gegensatz zum Clifford-Produkt besitzen weder das Skalarprodukt, noch
das Dachprodukt allein diese Eigenschaft. Das Skalarprodukt ha|bi beschreibt zwar
den Winkel zwischen Vektoren, es ist allerdings unklar in welcher Ebene der Winkel
gemessen wird. Außerdem ist der Winkel nicht orientiert, so dass selbst bei Kenntnis
der Ebene unklar ist (wie zum Beispiel in zwei Dimensionen der Fall), ob man Links
oder Rechts herum drehen muss. Das Dachprodukt a ∧ b besitzt genau diese beiden
fehlenden Eigenschaften, nämlich die Ebene und die Orientierung. Im Gegenzug
lässt das äußere Produkt allerdings keinerlei Rückschlüsse auf den Winkel zwischen
den Vektoren a und b zu. Folglich beschreibt keines der beiden Produkte allein die
vollständige geometrische Beziehung der Vektoren zueinander.
Beide Produkte zusammen, also ha|bi und a ∧ b, erlauben dagegen die Rekonstruktion des einen Vektors aus dem jeweils anderen. Aufgrund der Gleichungen
(1.5) und (1.6) werden diese beiden Teile im Clifford-Produkt in einmaliger Weise
zusammengefügt:
ab = ha|bi + a ∧ b .
(1.8)
Nach David Hestenes [Hes03a] handelt es sich deshalb bei der Geometrischen Algebra um die universelle Sprache zur Beschreibung von geometrischen Sachverhalten.
Er belegt diese Aussage eindrucksvoll in seinem Buch [HS92] durch Übersetzung
verschiedenster geometrischer Kalküle (Tensoren, Differentialformen, Spinoren etc.)
in die Sprache der Clifford-Algebra.
1.2
Das Clifford-Produkt in der Quantenmechanik
In der nichtrelativistischen Quantenmechanik taucht das Clifford-Produkt im Zusammenhang mit den Pauli-Matrizen σi auf. Diese erfüllen die definierende Eigenschaft (1.5):
σi σj + σj σi = δij .
(1.9)
4 Kapitel 1. Einführung
Man verwendet nun einen formalen Vektor σ mit den drei Pauli-Matrizen als Einträgen und übersetzt damit Vektoren a ∈ 3 in Matrizen σ · a ∈ Mat(2, ). Zur
Vereinfachung der Rechnungen verwendet man die bekannte Rechenregel:
(σ · a)(σ · b) = ha|bi + iσ · (a × b) .
(1.10)
In Wirklichkeit handelt es sich bei Ausdrücken der Form σ · a nur um eine
unschöne Schreibweise für Vektoren in der Geometrischen Algebra. Dies sieht man,
indem man das formale Skalarprodukt σ · a in Koordinaten ausschreibt:
σ · a = σ i a i = a i σi =
b ai σ i ,
(1.11)
wobei sich die fettgedruckten σ i als Basisvektoren einer dreidimensionalen Clifford-Algebra interpretieren lassen. Außerdem hat die imaginäre Einheit i = σ1 σ2 σ3
in Gleichung (1.10) – wie wir später sehen werden – eine tiefere geometrische Bedeutung als Operator der Hodge-Dualität. Dadurch wird dem Kreuzprodukt a × b
das dazu orthogonale Flächenelement a ∧ b zugeordnet. Die Rechenregel (1.10)
entpuppt sich deshalb als nichts anderes als die fundamentale Zerlegung des Clifford-Produkts (1.8).
Diese versteckte geometrische Bedeutung des Clifford-Produkts lässt Zweifel an
der üblichen Beschreibung des Spins und der Bedeutung der komplexen Zahlen in
der Quantenmechanik aufkommen. Dementsprechend werden wir in Kapitel 5 zeigen, dass sich die Quantenmechanik vollständig innerhalb der reellen Geometrischen
Algebra in drei Dimensionen beschreiben lässt. Die konventionelle Pauli-Schrödinger-Gleichung wird dabei ersetzt durch die Pauli-Schrödinger-Hestenes-Gleichung
(siehe [HG71] und [Hes03a]):
∂t ψ ~Iσ 3 = Ĥψ +
e
(IB)ψ ~Iσ 3 .
2mc
(1.12)
Alle Terme in dieser Gleichung lassen sich geometrisch interpretieren. Speziell kann
der ursprüngliche komplexe Faktor i~ aus der Schrödinger-Gleichung mit dem Spin
in Verbindung gebracht werden.
1.3
Aufbau und Ziel dieser Arbeit
Das Ziel dieser Arbeit ist es, die Bedeutung der Geometrischen Algebra sowohl für
die klassische Physik als auch für die Quantenmechanik zu illustrieren.
In Kapitel 2 beschreiben wir die Grundlagen der Geometrischen Algebra in
Anlehung an das Buch von Hestenes [HS92]. Dabei bieten sich einige kleinere Modifikationen an, mit denen sich verschiedene Unstimmigkeiten beseitigen lassen.
Speziell werden wir das übliche innere Produkt der Geometrischen Algebra vollständig durch zwei „Kontraktionen“ ersetzen [DDL02, Lou01], die eine deutlich
einfachere geometrische Interpretation erlauben. Verschiedene alternative Zugänge zur Clifford-Algebra und deren mathematische Eigenheiten sind im Anhang A
zusammengefasst.
In Kapitel 3 widmen wir uns der Beschreibung von Reflexionen und Rotationen, die in der Geometrischen Algebra eine besonders einfache und auch rechnerisch
sehr effiziente Form erhalten. Neben den wichtigen Spin- und Pin-Gruppen werden
wir ausführlich die unterschiedlichen Typen von Lorentz-Transformationen diskutieren, die in diesem Zusammenhang als Isometrien von Minkowski-Vektorräumen
1.3 Aufbau und Ziel dieser Arbeit 5
auftreten. Ein spezielles Augenmerk liegt dabei auf den sogenannten parabolischen
Lorentz-Transformationen, die in der Literatur normalerweise übersehen werden.
Als Anwendung betrachten wir die Bewegung von Teilchen in Zentralkraftfeldern
und die Lösung des Kepler-Problems, welches sich in der Geometrischen Algebra
auf einen einfachen, harmonischen Oszillator reduzieren lässt.
Kapitel 4 beschäftigt sich mit der Speziellen Relativitätstheorie. Hier können die
koordinatenfreien Methoden der Geometrischen Algebra ihre volle Stärke entfalten
und liefern viele interessante Einsichten. Unter anderem kann den Dirac-Matrizen
eine geometrische Bedeutung als Darstellung der Basisvektoren der Geometrischen
Algebra über der Minkowski-Raumzeit zugeordnet werden. Als Anwendung des
Formalismus der Spacetime-Algebra zeigen wir, wie sich die Maxwellgleichungen in
der Geometrischen Algebra durch eine einzige kompakte Formel beschreiben lassen.
Die reelle Beschreibung der nichtrelativistischen Quantenmechanik durch die
Pauli-Schrödinger-Hestenes-Gleichung werden wir schließlich in 5. Kapitel untersuchen. Besonderer Wert liegt dabei auf dem Äquivalenzbeweis der reellen Quantenmechnik zur konventionellen Formulierung, da dieser in der Literatur nicht zu
finden ist. Als Folge der geometrischen Bedeutung der Pauli-Matrizen muss die
Beschreibung und Interpretation des Spins in der Quantenmechanik grundlegend
modifiziert werden. Dies liefert tiefe Einblicke in die Rolle der Pauli-Spinoren und
die Bedeutung der Faktoren i~ in der nichtrelativistischen Quantentheorie.
Die großen Leute haben eine Vorliebe für Zahlen.
Wenn ihr ihnen von einem neuen Freund erzählt, befragen sie euch nie über das Wesentliche.
Sie fragen euch nie: Wie ist der Klang seiner Stimme? Welche Spiele liebt er am meisten? Sammelt er
Schmetterlinge? Sie fragen euch: Wie alt ist er? Wieviele Brüder hat er? Wieviel wiegt er? Wieviel verdient
sein Vater? Dann erst glauben sie, ihn zu kennen.
Antoine de Saint-Exupéry, „Le petit prince“
6 Kapitel 1. Einführung
2. Grundlagen der Geometrischen Algebra
Mathematics is the language with
which God has written the universe.
Galileo Galilei
2.1
Die Bauelemente
Die Geometrische Algebra basiert auf einem Vektorraum, der mit
einer Metrik versehen ist. Einen geometrischen Vektor wollen
wir als ein gerichtetes Linienelement interpretieren. Er wird also vollständig durch einen Betrag und eine Richtung charakterisiert. Etwas abstrakter können wir einen Vektor als orientiertes
Element eines eindimensionalen (affinen) Untervektorraums auffassen. Algebraisch können wir Vektoren manipulieren, indem wir
sie addieren, mit Skalaren multiplizieren, und das Skalarprodukt bilden, welches eine Aussage über den Winkel zwischen zwei Vektoren macht.1
Neben Vektoren brauchen wir in der Geometrie weitere Objekte, wie Flächen,
Volumina, usw. In gewisser Weise stellen diese eine Verallgemeinerung des VektorKonzepts dar und werden von der Geometrischen Algebra gleichberechtigt als Basisobjekte betrachtet. Ein orientiertes Element eines k-dim. Untervektorraums (anschaulich eine k-dim. Hyperebene) wollen wir k-Spat oder k-Flächenelement
nennen. Analog zu oben wird ein k-Spat vollständig durch seinen Betrag und seine
Orientierung festgelegt. Ein 1-Spat ist also gerade ein Vektor, ein 0-Spat ist ein
Skalar.
An dieser Stelle ist noch eine kurze Bemerkung über den Begriff der Orientierung angebracht, welcher sich aus zwei Teilen zusammen setzt. Der erste Teil ist
die innere Orientierung, womit wir den Unterschied zwischen rechts- und linkshändigen Spaten bezeichnen wollen. Wie man in der lineare Algebra lernt, gibt
es immer genau diese beiden Möglichkeiten, unabhängig von der Dimension des
(Unter-)Vektorraums (vgl. [Fis03, Abschnitt 3.4]). Abgesehen von der inneren Orientierung gibt es auch eine äußere Orientierung, welche die Ausrichtung des k-Spats,
also anschaulich die Einbettung der k-dimensionalen Hyperfläche in den umgebenden Vektorraum, beschreibt.
Eine übliche Methode ist es, die k-Spate durch Vektoren aufzuspannen. Die Geometrische Algebra stellt uns dazu ein äußeres Produkt oder auch Dachprodukt zur
Verfügung, welches mit ∧ bezeichnet wird. Wir können den 2-Spat a∧b geometrisch
als Parallelogramm repräsentieren, welches von den Vektoren a und b aufgespannt
wird. An dieser Stelle müssen wir allerdings vorsichtig sein, da das gescherte Parallelgramm a ∧ b̃ (vgl. Abbildung 2.1 auf der nächsten Seite) sowohl die gleiche
Orientierung, als auch die gleiche Fläche hat. Nach der obigen Definition eines kSpats sind deshalb a ∧ b und a ∧ b̃ identisch. Die Form spielt demnach keine Rolle,
1 Eventuell vermisst man bei dieser Aufzählung das Gibbs’sche Kreuzprodukt. Da dieses aber
nur im dreidimensionalen Fall existiert, ist es für uns uninteressant. Später wird sich zudem herausstellen, dass die Geometrische Algebra einen deutlich flexibleren Ersatz dafür bietet.
8 Kapitel 2. Grundlagen der Geometrischen Algebra
b
a
=
b̃
=
a
Abbildung 2.1 Beim k-Spat ist die Form der Fläche irrelevant.
allein der Betrag der Fläche ist relevant. Damit ist ein k-Spat in Wirklichkeit eine
Äquivalenzklasse, und das Parallelogramm, welches von k Vektoren aufgespannt
wird, ein Repräsentant daraus. Die obige Aussage, a ∧ b = a ∧ b̃, bedeutet also
gerade, dass es egal ist, welchen Repräsentanten wir wählen. In diesem Sinne haben
die k-Spate eine von den aufspannenden Vektoren unabhängige Existenz.
Noch einen Schritt weiter können wir formale Linearkombinationen von k-dimensionalen Spaten bilden, ein sogenannter k-Vektor oder homogener Multivektor k-ter Stufe. Sogar eine Linearkombination von Spaten unterschiedlicher
Dimension ist möglich, welche wir Multivektor nennen wollen. Auf den ersten
Blick erscheint dies unsinnig, fast so als wollten wir Äpfel und Birnen zusammenzählen. Andererseits tun wir hier nichts anderes als bei den komplexen Zahlen, wo
wir die formale Linearkombination von Real- und Imaginärteil z = a + ib bilden.
Wie wir von den komplexen Zahlen wissen, ist dies weit mehr als ein fauler Trick.
Die Betrachtung der komplexen Zahl z als eigenständiges Objekt bringt nicht nur
rechnerisch enorme Vorteile mit sich, wie man zum Beispiel bei der Beschreibung
von Schwingungen sieht. Das Gleiche zeigt sich auch in der geometrischen Algebra,
wodurch die Multivektoren ihre eigenständige Daseinsberechtigung erhalten.
2.2
Die Clifford-Algebra und das Geometrische Produkt
Im Folgenden wollen wir eine solide Grundlage für die Geometrische Algebra schaffen. Die Basis bildet eine Clifford-Algebra G(V, Q) über einem Vektorraum V mit
quadratischer Form Q. Diese ist normalerweise das Quadrat der Norm, welche durch
das Skalarprodukt induziert wird. In der Mathematik definiert man die CliffordAlgebra gerne durch eine universelle Eigenschaft oder durch Faktorbildung ausgehend von einer Tensor-Algebra (beide Methoden finden sich in [BtD85, Kapitel 1.6]
oder [Jun05, Abschnitt 1]). Da wir aber vor allem auf die geometrische Interpretation und konkrete Anwendungen aus sind, wollen wir einen weniger abstrakten
Ansatz wählen und die Algebra über ihre Verknüpfungen definieren. Beliebige Multivektoren lassen sich danach als Summe über Produkte von Vektoren schreiben.
Wir sagen deshalb auch, dass die Algebra von den Vektoren generiert wird.
Im Folgenden beschränken wir uns zugunsten der Einfachheit auf den Vektorraum V = n mit quadratischer Form Q(a) = |a|2 für Vektoren a ∈ V, wobei
| · | die übliche euklidische Norm ist. Die zugehörige Clifford-Algebra bezeichnen
2
wir kurz mit Gn ≡ G( n , | · | ). Später werden wir dies auf kompliziertere Fälle
verallgemeinern.
Um die Übersicht zu behalten und unnötige Wiederholungen zu vermeiden,
bezeichnen wir Skalare mit kleinen griechischen Buchstaben α, β, γ. Für Vektoren verwenden wir Kleinbuchstaben a, b, c und für Multivektoren Großbuchstaben
A, B, C. Dies ist in Übereinstimmung mit der einschlägigen Literatur.

2.2 Die Clifford-Algebra und das Geometrische Produkt 9
Wie schon die Vektoren bilden auch die Multivektoren bezüglich Addition eine
abelsche Gruppe, d. h. für A, B, C ∈ Gn gilt:
kommutativ A + B = B + A ,
(2.1)
assoziativ (A + B) + C = A + (B + C) ,
Neutrales ∃!0 s. d. A + 0 = 0 ,
Inverses ∀A ∃!(−A) s. d. A + (−A) = 0 .
(2.2)
(2.3)
(2.4)
Das Clifford-Produkt von Multivektoren A und B, welches auch geometrisches
Produkt heißt, bezeichnen wir mit AB. Es erfüllt die Eigenschaften einer nichtkommutativen assoziativen Algebra mit Eins:
assoziativ (AB)C = A(BC) ,
distributiv A(B + C) = AB + AC ,
(B + C)A = BA + CA ,
Neutrales ∃!1 s. d. A1 = A = 1A .
(2.5)
(2.6)
(2.7)
(2.8)
Außerdem soll die Multiplikation mit der Skalarmultiplikation verträglich sein. Für
Skalare α ∈ fordern wir deshalb die Kommutativität:
(2.9)
αA = Aα .
Was die Clifford-Algebra von anderen assoziativen Algebren abgrenzt, ist eine Kontraktionsregel für Vektoren, wie wir sie vom Skalarprodukt her kennen. Für einen
Vektor a fordern wir nämlich zusätzlich:
a2 = Q(a) = |a|2 .
(2.10)
Es lohnt sich, diese Relation etwas näher zu betrachten. Auf der linken Seite
steht das geometrische Produkt von zwei Vektoren, auf der rechten Seite dagegen
ein Skalar. Es handelt sich demnach um eine Beziehung zwischen verschiedenen
Stufen von Multivektoren.
Für einen euklidischen Vektorraum definiert man die Norm |a| ausgehend vom
2
Skalarprodukt h · | · i mittels |a| = ha|ai. Dies lässt sich verallgemeinern: Jeder
symmetrischen Bilinearform B : V × V → K auf einem K-Vektorraum V ist mittels
Q(a) = B(a, a) eine quadratische Form Q : V → K zugeordnet. Ist die Charakteristik des Körpers char(K) 6= 2, so verliert man hierbei noch nicht einmal Information,
denn durch Polarisierung lässt sich die ursprüngliche Bilinearform zurückgewinnen:
B(a, b) = 12 Q(a + b) − Q(a) − Q(b) .
2
In unserem euklidischen Vektorraum mit Q(a) = |a| und B(a, b) = ha|bi gilt daher:
2
2
2
ha|bi = 12 |a + b| − |a| − |b| .
Andererseits ist aber auch:
(2.10)
(2.10)
|a + b|2 = (a + b)2 = a2 + b2 + ab + ba = |a|2 + |b|2 + ab + ba ,
zusammen also:
ab + ba = 2B(a, b) = 2ha|bi .
(2.11)
10 Kapitel 2. Grundlagen der Geometrischen Algebra
Setzt man a = b ein, so erhält man (2.10) zurück, die Gleichung (2.11) ist also
äquivalent zur Kontraktionsregel (2.10).
In Übereinstimmung mit der üblichen Sprechweise nennen wir zwei Vektoren
orthogonal oder senkrecht aufeinander, wenn ihr Skalarprodukt verschwindet:
(2.12)
a ⊥ b ⇐⇒ ha|bi = 0 .
Wegen (2.11) sind zwei Vektoren also genau dann orthogonal, wenn sie bezüglich
des geometrischen Produkts antikommutieren:
(2.13)
a ⊥ b ⇐⇒ ab = −ba .
Umgekehrt sind sie genau dann parallel, wenn sie kommutieren:
(2.14)
a k b ⇐⇒ ab = ba ,
wie man anhand von Gleichung (2.10) mit b = αa sieht.
Ein weiteres bemerkenswertes Ergebnis der Kontraktionsregel (2.10) ist die Tatsache, dass jeder Vektor a mit |a|2 6= 0 bezüglich Multiplikation invertierbar ist.
Das Inverse ist gegeben durch:
a−1 =
1
|a|
2
2
a ∀a mit |a| 6= 0.
(2.15)
Dies eröffnet ganz neue algebraische Möglichkeiten zur Manipulation von Gleichungen, ebenso wie eine Multivektor-Analysis analog zur Analysis mit komplexen Zahlen in der Funktionentheorie.
In Abschnitt 2.1 erwähnten wir, dass wir jeden Multivektor in eine Summe von
Spaten zerlegen können. Da dies für die geometrische Interpretation sehr wichtig ist,
führen wir einen Operator ein, der uns zu einem Multivektor den Anteil k-ter Stufe
liefert. Das Ergebnis ist ein k-Vektor, also eine Linearkombination von k-Spaten.
Der Stufenoperator wird mit h · ik bezeichnet und erfüllt die Eigenschaften:
hA + Bik = hAik + hBik ,
hλAik = λ hAik = hAik λ für λ ∈
hhAik ik = hAik .
,
(2.16)
(2.17)
(2.18)
Die Gleichungen (2.16) und (2.17) bedeuten hierbei, dass die Menge der k-Vektoren
Gnk einen linearen Unterraum von Gn bildet. Gleichung (2.18) ist die charakteristische Eigenschaft eines Projektionsoperators. hAik lässt sich also als Projektion von
A auf den Unterraum Gnk auffassen. Damit können wir einen beliebigen Multivektor
in Stufen zerlegen:
A=
X
k
hAik = hAi0 + hAi1 + hAi2 + · · · .
(2.19)
Da der Stufenoperator so häufig vorkommt, verwenden wir in manchen Situation
die alternative Kurz-Schreibweise Ak̄ ≡ hAik . Für den Spezialfall der Skalare ist
zusätzlich auch noch die Notation hAi ≡ A0̄ ≡ hAi0 gebräuchlich.
2.3 Kanonische Automorphismen 11
Ein Multivektor Ak ist übrigens genau dann ein k-Spat (auch einfacher kVektor genannt), wenn man ihn in ein Produkt von k antikommutierenden Vektoren a1 , . . . , ak faktorisieren kann, das bedeutet es gibt a1 , . . . , ak , so dass:
Ak = a 1 a2 · · · a k
mit ai aj = −aj ai für alle i 6= j.
(2.20)
Wie wir in Gleichung (2.12) bemerkt haben, antikommutieren Vektoren genau dann,
wenn sie senkrecht aufeinander stehen. Später werden wir sehen, dass in diesem
Fall das geometrische Produkt gleich dem oben erwähnten Dachprodukt a1 · · · ak =
a1 ∧· · ·∧ak ist. Umgekehrt wissen wir aus Abschnitt 2.1, dass wir einen k-Spat durch
ein Parallelogramm repräsentieren können, welches von k Vektoren aufgespannt
wird. Die Wahl der Vektoren ist aber nicht eindeutig, so dass das Parallelogramm
beliebig geschert werden darf. Deshalb können wir ohne Einschränkung paarweise
orthogonale Vektoren verwenden um den Spat aufzuspannen.
2.3
Kanonische Automorphismen
Ein Automorphismus ist eine bijektive Abbildung der Geometrischen Algebra auf
sich selbst, die die Verknüpfungen respektiert. Die Clifford-Algebra besitzt mehrere
kanonische Automorphismen, die Aussagen über die Struktur der Algebra machen
und uns zur algebraischen Manipulation von Multivektoren dienen.
2.3.1
Die Transposition
Der wichtigste Automorphismus für unsere Belange ist die Transposition, welche
mit · t bezeichnent wird. Die Transposition ist ein Anti-Automorphismus 2 , d. h. für
beliebige Multivektoren A, B gilt:
(AB)t = B t At .
(2.21)
Eindeutig wird der Anti-Automorphismus durch die zusätzliche Forderung:
at := a
(2.22)
für Vektoren a ∈ V festgelegt. Für ein Produkt aus k Vektoren erhält man also:
(a1 · · · ak )t = ak · · · a1 .
(2.23)
Da die Transposition die Reihenfolge der Faktoren im Produkt umkehrt, wird sie
manchmal auch Reversion genannt. Außerdem ist die Transposition eine Involution, d. h. zweimal nacheinander angewendet ergibt sich die Identität:
(At )t = A .
(2.24)
Besonders nützlich ist die Transposition in Verbindung mit homogenen Multivektoren. Im Folgenden wollen wir mit Ak , Bl und Cm homogene Multivektoren
der Stufen k, l und m bezeichnen. Dann gilt:
Atk = (−1)k(k−1)/2 Ak .
(2.25)
2 Die Abbildung α : A → A ist ein Algebren-Automorphismus der Algebra A, wenn α ein
Vektorraum-Automorphismus ist und zusätzlich α(AB) = α(A)α(B) für alle A, B ∈ A gilt. Ein
Algebren-Anti-Automorphismus vertauscht demgegenüber die Reihenfolge der Faktoren und es
gilt stattdessen α(AB) = α(B)α(A) für alle A, B ∈ A.
12 Kapitel 2. Grundlagen der Geometrischen Algebra
Um dies zu beweisen, betrachten wir als erstes den Fall eines k-Spats Ak .3 Gee
mäß (2.20) können wir diesen in ein Produkt von k antikommutierenden Vektoren
zerlegen. Damit ergibt sich:
Atk = (a1 · · · ak )t = ak · · · a1 = (−1)k(k−1)/2 a1 · · · ak = (−1)k(k−1)/2 Ak , (2.26)
e
e
wobei wir im vorletzten Schritt die Antikommutativität verwendet haben, um die
Reihenfolge der aj umzukehren. Da ein k-Vektor eine Linearkombination von kSpaten ist, folgt (2.25) aus Summation über (2.26). Das Vorzeichen kann man dabei
aus der Summe herausziehen, da es nur von der Stufe abhängt.
Mit Hilfe des Stufenoperators können wir dieses Ergebnis auch auf Multivektoren anwenden. Da hAik gerade der k-Vektor-Anteil von A ist, gilt nämlich:
hAt ik = hAitk = (−1)k(k−1)/2 hAik .
(2.27)
Aus Gleichung (2.27) in Verbindung mit (2.25) und (2.21) kann man einige
nützliche Identitäten ableiten. Für das Produkt AB gilt zum Beispiel:
hABik = (−1)k(k−1)/2 hB t At ik .
(2.28)
Ist A ein homogener Multivektor der gleichen Stufe k wie der Stufenoperator, so
kann man zusätzlich innerhalb der Klammer mit (2.25) die Reihenfolge umkehren:
(2.25)
(2.28)
hAk Bik = (−1)k(k−1)/2 hB t Atk ik = hB t Ak ik .
(2.29)
Ist auch B ein homogener Multivektor, so erhält man durch nochmalige Anwendung
von (2.25) die Relation:
hAk Bl ik = (−1)l(l−1)/2 hBl Ak ik .
(2.30)
Auf die gleiche Weise bekommt man die folgenden Identitäten für das Produkt aus
drei Multivektoren:
hABl Cil = hC t Bl At il ,
(2.31)
ε
hAk Bl Cm in = (−1) hCm Bl Ak in ,
(2.32)
mit ε = 21 k(k − 1) + l(l − 1) + m(m − 1) + n(n − 1) . Obwohl diese Identitäten
auf den ersten Blick wie algebraische Spielereien aussehen, werden sie später wertvolle Dienste leisten, wenn wir, aufbauend auf dem geometrischen Produkt, weitere
Produkte definieren und deren Eigenschaften ableiten wollen.
2.3.2
Der Graduierungs-Automorphismus
Ein weiterer kanonischer Automorphismus der Clifford-Algebra ist der Graduierungs-Automorphismus, welcher auch Grad-Involution genannt wird. Wir
wollen ihn mit α̂ bezeichnen. Die Grad-Involution ist ein echter Automorphismus,
d. h. für Multivektoren A, B gilt:
α̂(AB) = α̂(A)α̂(B) .
(2.33)
3 Die Schreibweise A soll hervorheben, dass es sich um einen k-Spat handelt, allerdings werden
k
e konsequent durchhalten.
wir diese Notation nicht
2.4 Inneres und äußeres Produkt 13
Er wird eindeutig festgelegt durch die Forderung:
α̂(a) := −a
(2.34)
für Vektoren a ∈ V. Für ein Produkt aus k Vektoren gilt also:
α̂(a1 · · · ak ) = (−1)k a1 · · · ak .
Die alternative Bezeichnung als Grad-Involution ist wegen
α̂ α̂(A) = A
(2.35)
(2.36)
gerechtfertigt.
Durch die Grad-Involution α̂ bekommt die Clifford-Algebra eine
Struktur, d. h. wir können Gn zerlegen in eine direkte Summe:
Gn = Gn+ ⊕ Gn− ,
2 -graduierte
(2.37)
wobei Gn± der Eigenraum von α̂ bezüglich des Eigenwerts ±1 ist. Das geometrische
Produkt respektiert diese Graduierung, d. h. es gilt:
AB ∈ Gnµν
für A ∈ Gnµ und B ∈ Gnν
(2.38)
mit µ, ν ∈ {±1}, was man durch einfaches Nachrechnen bestätigt. Eine solche 2 graduierte Algebra nennnt man auch Superalgebra. Wie man sich anhand von (2.38)
klarmacht, ist Gn+ sogar eine Unteralgebra von Gn , für Gn− ist dies allerdings nicht
der Fall. Mehr dazu findet sich zum Beispiel in [Jun05].
Die Eigenräume Gn± können wir auch konkret angeben. Wegen (2.35) enthält
+
Gn alle Multivektoren, die sich in eine Linearkombination von Produkten mit einer
geraden Anzahl von Faktoren zerlegen lassen, wie dies zum Beispiel für Skalare
und k-Spate mit geradem k der Fall ist. In Gn− liegen dagegen alle Multivektoren
mit einer ungeraden Anzahl von Faktoren. Dort finden sich also unter anderem die
Vektoren und k-Spate mit ungeraden k.
Einen beliebigen Multivektor A können wir gemäß (2.37) eindeutig zerlegen in
einen geraden und ungeraden Anteil:
A = A + + A−
mit A± ∈ Gn± ,
(2.39)
was in vielen Situationen nützlich ist. Verschwindet ein Anteil davon, d. h. im Fall
A = A+ oder A = A− , so sprechen wir auch von einem geraden bzw. ungeraden
Multivektor.
2.4
Inneres und äußeres Produkt
Für effiziente Rechnungen und zur besseren Interpretation ist es nützlich weitere Produkte zu definieren. Diese sind aber nicht mehr grundlegend, sondern wir
erhalten sie auf rein algebraische Weise aus dem geometrischen Produkt.
Das äußere Produkt oder Dachprodukt von zwei Multivektoren ist gegeben
durch:
X
A ∧ B :=
hAk̄ Bl̄ ik+l .
(2.40)
kl
14 Kapitel 2. Grundlagen der Geometrischen Algebra
Das innere Produkt definieren wir mittels:
A • B :=
X
kl
hAk̄ Bl̄ i|l−k| .
(2.41)
Hierbei ist Vorsicht geboten, da in der einschlägigen Literatur oft eine alternative
Definition verwendet wird. Im Standardwerk [HS92] ist das innere Produkt definiert
als:
X
hAk̄ Bl̄ i|l−k| ,
(2.42)
A · B :=
k6=0,l6=0
d. h. Terme, die einen Skalar als Faktor enthalten, setzt man künstlich auf Null.
Schon auf den ersten Blick erscheint diese Definition etwas unnatürlich. Für uns
viel wichtiger ist aber, dass sich aus der Wahl (2.42) für das innere Produkt einige
Probleme ergeben, was in [DDL02] näher ausgeführt wird. Wir verwenden deshalb
die erste Definition, die in Verbindung mit der Links- und Rechts-Kontraktion, die
in Abschnitt 2.6 eingeführt werden, viele Vorteile aufweist. Die meisten der folgenden Aussagen, wie zum Beispiel das Kommutations-Verhalten, gelten allerdings
unabhängig davon, ob wir gerade • oder · verwenden. Dies ist als Zeichen zu werten,
dass die Einschränkung auf k, l 6= 0 unnötig ist.
Wir wollen nun die Eigenschaften der beiden Produkte näher untersuchen. Als
erstes betrachten wir dazu den Spezialfall von homogenen Multivektoren. Für diese
gilt:
Ak ∧ Bl = hAk Bl ik+l ,
Ak • Bl = hAk Bl i|l−k| .
(2.43)
(2.44)
Die äußere Multiplikation hebt also die Stufe, wogegen durch das innere Produkt
die Stufe gesenkt wird. Die äußere und innere Multiplikation wirken also bezüglich
der Stufen als Auf- und Absteige-Operationen in der Geometrischen Algebra.
Die algebraischen Eigenschaften der beiden Produkte ergeben sich direkt aus den
Definitionen und den Eigenschaften des geometrischen Produkts. Wie dieses sind
sowohl das innere als auch das äußere Produkt im Allgemeinen nicht-kommutativ.
Dennoch bekommt man für homogene Multivektoren durch Anwendung von (2.25)
auf die rechte Seite von (2.28) die Vertauschungsregeln:
Ak ∧ Bl = (−1)kl Bl ∧ Ak ,
Ak • Bl = (−1)(k−l) min(k,l) Bl • Ak .
(2.45)
(2.46)
Beim Dachprodukt ergibt sich also genau dann ein Minuszeichen, wenn k und l beide ungerade sind. Man kann deshalb (2.45) auf gerade und ungerade Multivektoren
verallgemeinern, wobei ein negatives Vorzeichen genau bei zwei ungeraden Multivektoren auftritt. Dieses Vertauschungsverhalten nennt man superkommutativ.
Die Distributivität überträgt sich vom geometrischen Produkt:
A ∧ (B + C) = A ∧ B + A ∧ C ,
A • (B + C) = A • B + A • C ,
(B + C) ∧ A = B ∧ A + C ∧ A ,
(B + C) • A = B • A + C • A .
(2.47)
(2.48)
Das äußere Produkt ist außerdem assoziativ:
A ∧ (B ∧ C) = (A ∧ B) ∧ C .
(2.49)
2.4 Inneres und äußeres Produkt 15
Das innere Produkt ist nicht-assoziativ, für homogene Multivektoren gilt aber: 4
Ak • (Bl • Cm ) = (Ak ∧ Bl ) • Cm
Ak • (Bl • Cm ) = (Ak • Bl ) • Cm
für k + l ≤ m.
für k + m ≤ l.
(2.50)
(2.51)
Gleichung (2.51) wird auch Regel des mittleren Faktors genannt, da dieser die höchste Stufe haben muss, damit das innere Produkt assoziativ ist.
Für den Beweis von (2.49–2.51) betrachten wir allgemein das geometrische Produkt von zwei Spaten Ak B l . Diese können wir nach (2.20) in Produkte antikommue e so dass A = a · · · a und B = b · · · b gilt. Damit
tierender Vektoren zerlegen,
k
1
k
l
1
l
e
e
ergibt sich:
Ak B l = a1 · · · ak b1 · · · bl .
(2.52)
e e
Die höchste Stufe, die beim geometrischen Produkt auftreten kann, ist also k + l.
Nun haben wir aber zusätzlich die Kontraktionsregel (2.10) zu beachten, wonach das
Produkt von zwei Vektoren einen Skalar ergeben kann. Da Spate allerdings schon
vollständig auf diese Weise reduziert sind, kann nur noch ai mit bj für i = 1, . . . , k
und j = 1, . . . , l kontrahiert werden. Hierbei steigt man jeweils um zwei Stufen ab,
im Einklang mit der oben erwähnten 2 -Graduierung von Gn . Übrig bleibt eine
minimale Stufe von |k − l|.
Verallgemeinern wir dies auf homogene Multivektoren, so ist jeder Term des
Produkts von der Form (2.52) und es ergibt sich die wichtige Formel:
(2.53)
Ak Bl = hAk Bl i|k−l| + hAk Bl i|k−l|+2 + · · · + hAk Bl ik+l .
Das geometrische Produkt von zwei homogenen Multivektoren ist also im Allgemeinen inhomogen, wobei sich die Stufen der Terme jeweils um Zwei unterscheiden.
Nebenbei haben wir damit das innere Produkt als niedrigsten Term, das äußere
Produkt als höchsten Term dieser Reihe identifiziert.
Man kann nun Gleichung (2.49) beweisen, indem man beide Seiten von
(2.54)
hAk (Bl Cm )ik+(l+m) = h(Ak Bl )Cm i(k+l)+m
mit Hilfe von (2.53) entwickelt. Gleichung (2.50) ergibt sich analog aus:
hAk (Bl Cm )i(m−l)−k = h(Ak Bl )Cm im−(l+k)
für k + l ≤ m.
(2.55)
Die Regel des mittleren Faktors (2.51) erhält man schließlich aus:
hAk (Bl Cm )i(l−m)−k = h(Ak Bl )Cm i(l−k)−m
für k + m ≤ l.
(2.56)
Für Gleichung (2.50) wollen wir dies kurz einmal demonstrieren. Für die linke
Seite von Gleichung (2.55) gilt unter Beachtung von k + l ≤ m:
LS = hAk (Bl Cm )i(m−l)−k
iE
D h
= Ak hBl Cm i|l−m| + hBl Cm i|l−m|+2 + · · · + hBl Cm i|l+m|
= Ak hBl Cm im−l m−l−k
h
+ Ak hBl Cm im−l+2 m−l−k + · · · + Ak hBl Cm im+l
= Ak • (Bl • Cm ) für k + l ≤ m,
(m−l)−k
m−l−k
i
4 Wenn man · statt • als inneres Produkt verwendet, muss man in (2.50) zusätzlich k, l > 0
fordern. Dies ist einer der Fälle, in dem unsere Definition des inneren Produkts Vorteile aufweist.
16 Kapitel 2. Grundlagen der Geometrischen Algebra
a
a∧b
b
= −
b
b∧a
a
Abbildung 2.2 Geometrisch anschauliche Interpretation der Antisymmetrie
des Dachprodukts. Die beiden Spate a ∧ b und b ∧ a haben entgegengesetzte
Orientierung und unterscheiden sich deshalb im Vorzeichen, a ∧ b = −b ∧ a.
wobei der Term in eckigen Klammern verschwindet, da wegen (2.53) alle Produkte
in der Klammer mindestens die Stufe m − l − k + 2 haben, der Stufenoperator
aber die Stufe m − l − k herausprojeziert. Die rechte Seite von (2.55) ergibt sich in
analoger Weise zu:
RS = h(Ak Bl )Cm im−(l+k) = . . . = (Ak ∧ Bl ) • Cm
für k + l ≤ m.
Durch Gleichsetzen der beiden Seiten folgt die Behauptung.
Als Spezialfall von Gleichung (2.53) ergibt sich eine wichtige Zerlegung des geometrischen Produkts, wenn der eine Faktor ein Vektor ist und der andere Faktor
mindestens gleiche Stufe besitzt, d. h. kein Skalar ist. Es gilt dann:
aAk = haAk ik−1 + haAk ik+1 = a • Ak + a ∧ Ak .
(2.57)
Den Skalar-Anteil muss man hierbei ausschließen, da sonst die beiden Terme auf
der rechten Seite zusammenfallen. Durch Summation über die Stufen lässt sich
Gleichung (2.57) auf beliebige Multivektoren A ohne Skalar-Anteil, A0̄ = 0, verallgemeinern. Für diese existiert die Zerlegung:
aA = a • A + a ∧ A für A0̄ = 0,
(2.58)
Aa = A • a + A ∧ a für A0̄ = 0.
(2.59)
und analog:
Diese Gleichungen sind übrigens der Grund, weshalb in der Literatur oft die
alternative Definition ‚·‘ für das innere Produkt verwendet wird, wodurch die Einschränkungen auf A0̄ = 0 entfallen. Wir werden allerdings in Abschnitt 2.6 im
Zusammenhang mit Links- und Rechts-Kontraktion Methoden kennen lernen, die
dieses Problem sehr viel eleganter und auch für allgemeinere Fälle lösen.
Wir wollen nun noch zeigen, dass das Dachprodukt unter Vertauschung von zwei
Vektoren antisymmetrisch ist (vgl. Abbildung 2.2):
a ∧ A ∧ b = −b ∧ A ∧ a .
(2.60)
Dazu zerlegen wir wieder einmal A in eine Summe von homogenen Multivektoren
und betrachten die einzelnen Terme getrennt. Für jeden dieser Terme ergibt sich:
(2.45)
(2.49)
a ∧ Ak̄ ∧ b = (−1)k (Ak̄ ∧ a) ∧ b = (−1)k Ak̄ ∧ (a ∧ b)
(2.45)
= −(−1)k Ak̄ ∧ (b ∧ a) = −b ∧ Ak̄ ∧ a .
Die Behauptung erhalten wir daraus wie üblich durch Summation.
2.5 Das Skalarprodukt von Gn 17
Als Folge von (2.60) verschwindet das Dachprodukt, wenn zwei gleiche Vektoren
auftreten:
a∧A∧a=0 .
(2.61)
Zusammen genommen hat das Dachprodukt also alle Eigenschaften, wie man sie
(eventuell) schon vom Dachprodukt der Differentialformen oder aus der äußeren
Algebra (Grassmann-Algebra) eines Vektorraums kennt.
2.5
Das Skalarprodukt von Gn
Wie wir oben gesehen haben, ist das innere Produkt von zwei homogenen Multivektoren Ak • Bl ein Multivektor der Stufe |l − k|. Für zwei Vektoren ist also a • b
ein Skalar, und das innere Produkt kann mit dem Skalarprodukt des zugrundeliegenden Vektorraums identifiziert werden.5 Uns fehlt aber bis jetzt ein Produkt,
welches auch für allgemeine Multivektoren einen Skalar ergibt. Ein solches ist aber
sehr nützlich, um beispielsweise den Betrag von Multivektoren festzulegen oder
um Winkel zu beschreiben. Wir definieren deshalb das Skalarprodukt von zwei
Multivektoren als:
A ∗ B := hABi .
(2.62)
Es bleibt zu zeigen, dass dieses Produkt alle Eigenschaft erfüllt, die man von einem
Skalarprodukt erwartet.
Als erstes bemerken wird, dass wegen Gleichung (2.53) das Skalarprodukt von
homogenen Multivektoren unterschiedlicher Stufen verschwindet:
Ak ∗ Bl = 0 für k 6= l.
(2.63)
Für gleiche Stufen stimmt das Skalarprodukt dagegen mit dem inneren Produkt
(2.41) überein, und wegen Relation (2.46) ist es kommutativ:
Ak ∗ B k = A k • B k = B k ∗ A k .
Damit können wir es als Summe über die Stufen schreiben:
X
X
A∗B =
hAk̄ Bk̄ i =
Ak̄ • Bk̄ .
k
(2.64)
(2.65)
k
Folglich ist das Skalarprodukt für beliebige Multivektoren symmetrisch und linear:
A ∗ B = hABi = hBAi = B ∗ A ,
A ∗ (αB + βC) = αA ∗ B + βA ∗ C .
(2.66)
(2.67)
Wegen (2.28) gilt außerdem:
A ∗ B = At ∗ B t .
(2.68)
Das mit einer Transposition versehene, alternative Skalarprodukt
A ˜∗ B := At ∗ B = A ∗ B t
5 Für
(2.69)
Vektoren ist a • b = a · b = a ∗ b = ha|bi, was wir in Abschnitt 2.7 beweisen werden.
18 Kapitel 2. Grundlagen der Geometrischen Algebra
ist für unsere euklidische Metrik zusätzlich sogar positiv definit,6 d. h. es gilt:
A ˜∗ A > 0 ∀A 6= 0
(2.70)
A ˜∗ A = 0 ⇐⇒ A = 0 .
(2.71)
kAk2 := A ˜∗ A = At ∗ A = A ∗ At .
(2.72)
und
Damit können wir jedem Multivektor einen Betrag zuordnen:
Für Vektoren stimmt dies mit der üblichen Definition des Betrags überein, denn es
gilt:
2
2
2
kak = a ˜∗ a = at ∗ a = hat ai = haai = h|a| i = |a| ,
wobei man im letzten Schritt den Stufenoperator weglassen kann, da |a|2 sowieso
nur aus einem Skalar-Anteil besteht.
Wir zeigen nun, dass das Skalarprodukt wirklich positiv definit ist. Dazu verwenden wir eine Orthogonalbasis der Clifford-Algebra. Wie in [Jun05, Korollar 1.12]
gezeigt, ist die Dimension von Gn als -Vektorraum gleich 2n . Haben wir eine Basis
(e1 , . . . , en ) des Stamm-Vektorraums V = n gegeben, so bilden die Produkte:
e j1 · · · e jk ,
1 ≤ j1 < · · · < jk ≤ n
(2.73)
zusammen mit 1 (entsprechend k = 0) eine Orthogonalbasis von Gn bezüglich geometrischem Produkt. Beispielsweise ist (1, e1 , e2 , e3 , e1 e2 , e1 e3 , e2 e3 , e1 e2 e3 ) eine Basis von G3 .
Als erstes bemerken wir, dass die Basis-Vektoren ej senkrecht aufeinander stehen und dass sie deshalb wegen Gleichung (2.13) antikommutieren. Nach Definition
(2.20) sind die obigen Produkte also k-Spate. Man sieht leicht, dass dadurch auch
bezüglich dem Skalarprodukt der Algebra eine Orthogonalbasis definiert ist. Hierbei nennen wir zwei Multivektoren in Bezug auf das Skalarprodukt ˜∗ orthogonal,
oder kurz ˜∗-orthogonal, wenn A ˜∗ B = 0 ist. Wie in (2.63) erwähnt, verschwindet
das Skalarprodukt von homogenen Multivektoren unterschiedlicher Stufen, weshalb
diese ˜∗-orthogonal sind. Es bleibt also der Fall gleicher Stufen zu betrachten. Dazu
wählen wir zwei Basis-Elemente EI = ei1 · · · eik und EJ = ej1 · · · ejk . Sind diese
identisch, so gilt:
EI ˜∗ EJ = heik · · · ei1 ei1 · · · eik i = |ei1 |2 · · · |eik |2 = 1 für EI = EJ .
Wegen (2.73) ist die Reihenfolge der Vektoren im Produkt eindeutig festlegt. Die
beiden Basis-Elemente können sich demzufolge nicht nur in der Reihenfolge der
Basisvektoren ei unterscheiden. Für EI 6= EJ existiert also mindestens ein js mit
ejs 6= eir für alle r = 1, . . . , k. Da dieser Vektor ejs beim Reduzieren gemäß der
Kontraktionsregel (2.10) übrig bleibt, hat das Produkt EIt EJ = eik · · · ei1 ej1 · · · ejk
keinen Skalaranteil, und folglich sind EI und EJ zueinander ˜∗-orthogonal. Also
bilden die Produkte aus (2.73) zusammen mit 1 eine Orthonormalbasis von Gn
bezüglich des Skalarprodukts ˜∗.
6 Das Produkt A ∗ B ist zwar nur nicht entartet, in vielen Fällen aber sehr nützlich, da die
Definition von ∗ sehr eng mit den anderen Produkten verwandt ist. Mit Hilfe von Gleichung
(2.69) kann man aber immer zwischen diesen beiden Alternativen übersetzen.
2.6 Links- und Rechts-Kontraktion 19
Damit sind wir aber schon fast fertig, denn wir können einen beliebigen Multivektor in dieser Basis zerlegen:
X
αI E I ,
A=
I
wobei EI die Produkte aus Gleichung (2.73) durchläuft und αI ein skalarer Faktor
ist. Es folgt:
X
X
X
2
(αI )2 ≥ 0 ,
αI αJ δIJ =
αI αJ EI ˜∗ EJ =
kAk = A ˜∗ A =
IJ
IJ
I
2
da keiner der Summanden negativ werden kann. Der Betrag kAk verschwindet
genau dann, wenn alle αI Null sind. Dann ist aber auch A = 0 und wir haben die
Behauptung bewiesen.
Da das Skalarprodukt positiv definit ist, gilt für Multivektoren die CauchySchwarz-Ungleichung:
|At ∗ B| = |A ˜∗ B| ≤ kAk kBk .
(2.74)
Den Beweis kann man direkt aus der Linearen Algebra übernehmen (siehe zum
Beispiel [Fis03, Abschnitt 5.4.7]), da dieser nur die abstrakten Eigenschaften des
Skalarprodukts ausnutzt. Außerdem wissen wir jetzt, dass das Skalarprodukt nicht
entartet ist, d. h. wir haben die wichtige Kürzungsregel:
A∗C =B∗C
∀C =⇒ A = B .
(2.75)
Für eine entartete quadratische Form – die wir hier aber nicht betrachten wollen –
gilt diese Relation natürlich nicht mehr.
2.6
Links- und Rechts-Kontraktion
Wie wir in Abschnitt 2.4 gesehen haben, gibt es beim inneren Produkt ein paar
unschöne Formeln (speziell (2.50) und (2.51)), die von den Stufen der Faktoren
abhängen. Außerdem mussten wir bei der sehr nützlichen Zerlegung (2.58), aA =
a • A + a ∧ A, die Einschränkung auf A0̄ = 0 vornehmen. Diese Probleme lassen
sich durch die Einführung von zwei neuen Produkten lösen, die man an Stelle des
inneren Produkts verwendet.
Wir definieren die Links-Kontraktion („Kontraktion auf“) als:
A y B :=
X
kl
hAk̄ Bl̄ il−k ,
(2.76)
und die Rechts-Kontraktion („Kontraktion mit“) durch:
A x B :=
X
kl
hAk̄ Bl̄ ik−l ,
wobei der Stufenoperator für negative Stufen verschwindet.
(2.77)
20 Kapitel 2. Grundlagen der Geometrischen Algebra
An dieser Stelle fällt natürlich sofort die Analogie zur Definition des inneren
Produkts auf:
X
hAk̄ Bl̄ i|l−k| .
(2.41)
A•B =
kl
Für zwei homogene Multivektoren Ak und Bl kann man drei Fälle unterscheiden:
k < l : Ak y Bl = A k • B l ,
Ak x Bl = A k ∗ B l = 0 ,
y
:
k=l
Ak Bl = A k • B l = A k ∗ B l = A k x Bl ,
k > l : Ak y Bl = A k ∗ B l = 0 ,
A k x Bl = A k • B l .
(2.78)
Aus dieser Betrachtung ergibt sich die universelle Relation:
AyB+AxB =A•B+A∗B .
(2.79)
Man beachte, wie die beiden Kontraktionen zusammenspielen, um das innere Produkt zu erzeugen. Die Terme mit k = l treten dabei wegen Ak y Bk = Ak x Bk doppelt
auf, was das Skalarprodukt auf der rechten Seite liefert. Diese Relation zeigt, dass
Links- und Rechts-Kontraktion die gleiche Information kodieren wie inneres Produkt und Skalarprodukt. Zusätzlich weisen die Kontraktionen aber eine Sensibilität
gegenüber den relativen Stufen der Faktoren auf. Damit kann man Bedingungen an
die Stufen, wie z. B. k ≤ l, direkt algebraisch formulieren. Außerdem lassen sie sich
sehr schön geometrisch als Projektionen interpretieren, was wir später noch genauer
untersuchen wollen.7
Wie versprochen kommen wir nun zur Zerlegung (2.58) bzw. (2.59) zurück. Das
Problem entstand hier durch den Skalaranteil, der aufgrund von a • α = a ∧ α = αa
bzw. α•a = α∧a = αa doppelt auftrat. Wegen (2.78) ist das bei den Kontraktionen
anders. Für diese gilt zwar α y a = αa = a x α, aber umgekehrt haben wir a y α =
0 = α x a. Damit können wir die Gleichungen (2.58) und (2.59) umschreiben zu:
aA = a y A + a ∧ A ,
Aa = A x a + A ∧ a ,
(2.80)
(2.81)
wobei A keinen Einschränkungen mehr unterliegt. Diese beiden wichtigen Zerlegungen werden uns später ständig begegnen.
Die Kontraktionen sind in spezieller Weise adjungiert zum äußeren Produkt:
A ∗ (B y C) = (A ∧ B) ∗ C ,
(C x B) ∗ A = C ∗ (B ∧ A) .
(2.82)
(2.83)
Da wir es mit einer nicht-kommutativen Algebra zu tun haben, ist dabei die Reihenfolge zu beachten. Genauer muss man also sagen: Die Wirkung der Links-Kontraktion B y · nach rechts ist adjungiert zur Wirkung des Dachprodukts · ∧ B nach
links. Analoges gilt für die Rechts-Kontraktion.
7 Normalerweise (siehe z. B. [HS92, Abschnitt 1.2]) wird das innere Produkt · als Projektion
aufgefasst. Diese Interpretation hat allerdings einige Schwachstellen, auf die wir nachher noch
genauer eingehen wollen. Sehr wichtig wir dabei sein, dass die Projektion keine symmetrische
Operation ist.
2.6 Links- und Rechts-Kontraktion 21
A
A
A∧B
B
C
C
(A ∧ B) ∗ C
A ∗ (B y C)
ByC
Abbildung 2.3 Die Adjungiertheit von Kontraktion und äußerem Produkt
lässt sich für Spate auch geometrisch veranschaulichen. Der Winkel zwischen
den Spaten A∧B und C ist gleich dem Winkel zwischen A und einem geeignet
gewählten Spat in C. Dieser ist nach Gleichung (2.82) durch B y C gegeben.
Den Beweis führt man durch Zerlegung in Stufen. Die linke Seite von (2.82)
schreibt sich als:
X
X
(Ak̄ ∧ Bl̄ ) ∗ Cm =
(A ∧ B) ∗ C =
hAk̄ Bl̄ ik+l ∗ Cm .
klm
klm
Da das Skalarprodukt für unterschiedliche Stufen verschwindet, können wir die
Summe über m eliminieren:
X
X
(A ∧ B) ∗ C =
hAk̄ Bl̄ ik+l ∗ Ck+l =
(Ak̄ Bl̄ ) ∗ Ck+l ,
kl
kl
wobei wir den Stufenoperator im letzten Schritt weglassen können, da die Stufe jetzt
durch das Skalarprodukt gewährleistet wird. Wir verwenden nun die Definition des
Skalarprodukts und nutzen die Assoziativität des geometrischen Produkts aus:
X
X
X
(A ∧ B) ∗ C =
h(Ak̄ Bl̄ )Ck+l i =
hAk̄ (Bl̄ Ck+l )i =
Ak̄ ∗ (Bl̄ Ck+l ) .
kl
kl
kl
Da die Stufe wieder durch das Skalarprodukt festgelegt ist, können wir ohne etwas
zu ändern statt der Klammer einen Stufenoperator einführen:
X
X
(A ∧ B) ∗ C =
Ak̄ hBl̄ Ck+l ik =
Ak̄ ∗ (Bl̄ y Ck+l ) ,
kl
kl
wobei wir im letzten Schritt die Definition der Links-Konraktion (2.76) verwendet
haben. Jetzt führen wir die Summe über m = k + l wieder ein, nach dem gleichen
Argument, weshalb wir sie oben weglassen durften. Daraus ergibt sich (2.82):
X
(A ∧ B) ∗ C =
Ak̄ ∗ (Bl̄ y Cm ) = A ∗ (B y C) .
klm
Gleichung (2.83) beweist man analog. Letztendlich ist der Grund für die Adjungiertheit von Kontraktionen und äußerem Produkt also in der Assoziativität des
geometrischen Produkts zu finden.
Als Folge der Adjungiertheit bekommen wir einen einfachen Zusammenhang
zwischen Links- und Rechts-Kontraktion:
(A y B)t = B t x At
bzw. (B x A)t = At y B t .
(2.84)
22 Kapitel 2. Grundlagen der Geometrischen Algebra
Beim Beweis kann man sehr schön das Zusammenspiel der Kontraktionen mit dem
Skalarprodukt bewundern. Wir haben:
C ∗ (A y B)t = C t ∗ (A y B) = (C t ∧ A) ∗ B = (C t ∧ A)t ∗ B t
= (At ∧ C) ∗ B = B t ∗ (At ∧ C) = (B t x At ) ∗ C
= C ∗ (B t x At ) ∀C .
Da das Skalarprodukt nicht entartet ist, können wir die Kürzungsregel (2.75) anwenden und erhalten die erste Relation in (2.84). Die zweite Beziehung zeigt man
analog.
Abschließend wollen wir noch die Assoziativität ansprechen. Wie man sich einfach geometrisch klar macht, können Projektionen – bei denen ja Information verloren geht – nicht assoziativ sein. Beim inneren Produkt hatten wir die Gleichungen
(2.50) und (2.51), die aber leider von den Stufen abhängen und noch nicht einmal
alle möglichen Fälle abdecken. Für die Kontraktionen gilt dagegen die universelle
Quasi-Assoziativität:
A y (B y C) = (A ∧ B) y C ,
(2.85)
x
x
x
(C B) A = C (B ∧ A) .
(2.86)
Beachtlich ist die Ähnlichkeit zur Relation (2.50) für das innere Produkt, allerdings
ohne die Stufen-Abhängigkeit. Wieder einmal beweisen wir nur die Formel (2.85)
für die Links-Kontraktion. Für jeden beliebigen Multivektor D gilt:
D ∗ A y (B y C) = (D ∧ A) ∗ (B y C) = (D ∧ A) ∧ B ∗ C
= D ∧ (A ∧ B) ∗ C = D ∗ (A ∧ B) y C .
Da das Skalarprodukt nicht entartet ist, dürfen wir die Kürzungsregel (2.75) anwenden, woraus sich die gewünschte Relation (2.85) ergibt. Der Beweis für die
Rechts-Kontraktion funktioniert auf die gleiche Weise.
2.7
Wichtige algebraische Identitäten
In diesem Abschnitt werden wir konkrete Ausdrücke für die verschiedenen Produkte
ableiten, die ohne den Stufenoperator auskommen, sowie ein paar wichtige Formeln
herleiten. Solche Identitäten sind vor allem in der konkreten Anwendung zur Manipulation von Formeln wichtig. Außerdem liefern sie Ansätze zur geometrischen
Interpretation und stellen Bezüge zu bekannten Formeln der Vektor-Analysis her.
Um Klammern zu sparen, wollen wir ab jetzt festlegen, dass innere und äußere
Produkte sowie die Kontraktionen Vorrang vor dem geometrischen Produkt haben,
d. h. es gilt:
A • B C = (A • B)C 6= A • (BC) , usw.
In der Literatur stößt man außerdem auf die Konvention, dass äußere vor inneren
Produkten ausgeführt werden, also:
A • B ∧ C = A • (B ∧ C) 6= (A • B) ∧ C .
Da dies manchmal sehr verwirrend sein kann, werden wir hier allerdings keinen
Gebrauch von dieser Möglichkeit machen.
2.7 Wichtige algebraische Identitäten 23
Wir beginnen mit dem inneren Produkt von zwei Vektoren. Nach der Definition
(2.41) ist dieses gegeben durch:
a • b = habi .
Aus Gleichung (2.11) wissen wir schon, dass die Kombination
ab + ba = 2ha|bi
(2.11)
ein Skalar ist. Also können wir auf der linken Seite ohne etwas zu ändern einen
Stufenoperator einführen. Daraus ergibt sich:
ab + ba = hab + bai = habi + hbai .
Wegen der Relation (2.28) gilt außerdem habi = hbai, also habi + hbai = 2 habi.
Damit kommen wir zum Ergebnis:
a • b = 12 (ab + ba) = ha|bi .
(2.87)
Wie man sieht, ist das innere Produkt das symmetrisierte geometrische Produkt
von a und b.
Nebenbei haben wir die in Abschnitt 2.5 aufgestellte Behauptung bewiesen, nach
welcher das innere Produkt für Vektoren gerade dem Skalarprodukt des zugrunde
liegenden Vektorraums entspricht. Wegen (2.64) stimmt dies außerdem mit dem
Multivektor-Skalarprodukt a ∗ b = a • b = ha|bi überein. Folglich ist das in Abschnitt 2.5 eingeführte Skalarprodukt die Fortsetzung des Vektor-Skalarprodukts
vom Stamm-Vektorraum V auf die Geometrische Algebra Gn .
Für die Links-Kontraktion eines Vektors mit einem k-Vektor gibt es einen algebraischen Ausdruck, der (2.87) fortsetzt:8
a y Ak = 12 aAk − (−1)k Ak a .
(2.88)
Für den Beweis benutzen wir die Zerlegung (2.80) des geometrischen Produkts.
Für einen beliebigen k-Vektor gilt demnach:
aAk = a y Ak + a ∧ Ak ⇐⇒ a y Ak = aAk − a ∧ Ak .
(2.89)
Aus (2.81) ergibt sich dagegen:
Ak a = Ak x a + Ak ∧ a ⇐⇒ Ak x a = Ak a − Ak ∧ a .
(2.90)
Der zweite Term lässt sich wegen der Kommutations-Relation (2.45) des äußeren
Produkts umformen:
Ak ∧ a = (−1)k a ∧ Ak .
(2.91)
Die Rechts-Kontraktion in (2.89) hängt nach Gleichung (2.84) mit der Links-Kontraktion zusammen:
Ak x a = (a y Atk )t = (−1)(k−1)(k−2)/2 a y Atk
= (−1)(k−1)(k−2)/2 (−1)k(k−1)/2 a y Ak = −(−1)k a y Ak ,
(2.92)
8 Wie wir weiter oben in Gleichung (2.78) bemerkt haben, fallen die Links- und Rechts-Kontraktion von zwei Vektoren mit dem inneren Produkt zusammen, was zum Spezialfall (2.87) führt.
Für allgemeinere Produkte müssen wir dagegen immer zwischen den beiden Kontraktionen unterscheiden. Für das innere Produkt muss man wieder die Einschränkung auf k ≥ 1 vornehmen.
24 Kapitel 2. Grundlagen der Geometrischen Algebra
wobei die Transpositionen mit Hilfe der Umordnungs-Relationen (2.25) und (2.27)
ausgeführt wurden. Setzt man diese beiden Ergebnisse in (2.90) ein, so ergibt sich:
−(−1)k a y Ak = Ak a − (−1)k a ∧ Ak ,
oder äquivalent dazu:
a y Ak = −(−1)k Ak a + a ∧ Ak .
(2.93)
Addiert man nun die Gleichungen (2.89) und (2.93), dann heben sich die Terme
mit dem Dachprodukt weg und man erhält das gesuchte Ergebnis:
a y Ak = 12 a y Ak + a y Ak = 12 aAk − a ∧ Ak − (−1)k Ak a + a ∧ Ak
= 21 aAk − (−1)k Ak a .
Auf die gleiche Weise bekommt man für das äußere Produkt den Ausdruck:
a ∧ Ak = 21 aAk + (−1)k Ak a .
(2.94)
Beide Ausdrücke lassen sich durch Summation über die Stufen auf beliebige Multivektoren fortsetzen. Wir bekommen also zusammenfassend:
a y A = 12 aA − α̂(A)a = −α̂(A) x a ,
(2.95)
1
a ∧ A = 2 aA + α̂(A)a = +α̂(A) ∧ a ,
(2.96)
wobei die Grad-Involution α̂ aus Abschnitt 2.3.2 verwendet wurde.
Die Links-Kontraktion eines Vektors auf einen k-Spat ist eine (
Derivation, d. h. es gilt die graduierte Leibniz-Regel:
a y (a1 ∧ · · · ∧ ak ) =
2 -graduierte)
k
X
(−1)j+1 (a y aj ) a1 ∧ · · · ǎj · · · ∧ ak ,
(2.97)
j=1
wobei die Notation ǎj bedeutet, dass der Vektor aj im Produkt ausgelassen wird.
Um diese Formel zu beweisen, schreiben wir zuerst (2.87) etwas um. Für beliebige
Vektoren a und b gilt:
1
2 (ab
+ ba) = a y b ⇐⇒ ab = 2 a y b − ba .
Durch sukzessive Anwendung dieser Identität können wir den Vektor a im folgenden
Produkt von ganz links nach ganz rechts bringen:
aa1 · · · ak = 2(a y a1 ) a2 · · · ak − a1 aa2 · · · ak
= 2(a y a1 ) a2 · · · ak − 2(a y a2 ) a1 a3 · · · ak + a1 a2 aa3 · · · ak
..
k
. X
=2
(−1)j+1 (a y aj ) a1 · · · ǎj · · · ak + (−1)k a1 · · · ak a .
j=1
Daraus erhalten wir die Relation:
1
2
k
X
aa1 · · · ak − (−1)k a1 · · · ak a =
(−1)j+1 (a y aj ) a1 · · · ǎj · · · ak ,
j=1
(2.98)
2.7 Wichtige algebraische Identitäten 25
welche für beliebige Vektoren a1 , . . . , ak gültig ist. Um zur rechten Seite von (2.97)
zu kommen, nehmen wir hiervon nur den Anteil (k − 1)-ter Stufe:
1
2
aa1 · · · ak − (−1)k a1 · · · ak a
k−1
=
k
X
j=1
(−1)j+1 (a y aj ) ha1 · · · ǎj · · · ak ik−1
k
X
=
(−1)j+1 (a y aj ) a1 ∧ · · · ǎj · · · ∧ ak ,
(2.99)
j=1
wobei im letzten Schritt die Entwicklung des geometrischen Produkts (2.53) herangezogen wurde. Die linke Seite von Gleichung (2.99) kann man umschreiben zu:
LS =
1
2
aa1 · · · ak
k−1
− 12 (−1)k a1 · · · ak a
k−1
.
Für den ersten Summanden ergibt sich mit Hilfe der Zerlegung (2.80) und unter
Berücksichtigung von (2.53):
aa1 · · · ak
k−1
= a y (a1 · · · ak ) k−1 + a ∧ (a1 · · · ak ) k−1
E
D = a y ha1 · · · ak ik + ha1 · · · ak ik−2 + · · ·
k−1
D
E
+ a ∧ ha1 · · · ak ik + ha1 · · · ak ik−2 + · · ·
k−1
D
E
= a ha1 · · · ak ik k−1 + a ha1 · · · ak ik−2 k−3 + · · ·
k−1
E
D
+ a ha1 · · · ak ik k+1 + a ha1 · · · ak ik−2 k−1 + · · ·
k−1
= a y ha1 · · · ak ik + a ∧ ha1 · · · ak ik−2
(2.100)
= a y (a1 ∧ · · · ∧ ak ) + a ∧ ha1 · · · ak ik−2 .
Für den zweiten Term berechnet man analog dazu:
ha1 · · · ak aik−1 = (a1 ∧ · · · ∧ ak ) x a + ha1 · · · ak ik−2 ∧ a .
Mit Hilfe der oben hergeleiteten Vertauschungs-Relationen (2.91) und (2.92) lässt
sich dies umschreiben zu:
ha1 · · · ak aik−1 = −(−1)k a y (a1 ∧ · · · ∧ ak ) + (−1)k a ∧ ha1 · · · ak ik−2 .
(2.101)
Beim Einsetzen von (2.100) und (2.101) in die linke Seite von (2.99) heben sich
deshalb die Terme mit ha1 · · · ak ik−2 weg und man bekommt:
k
1
1
y
y
2 aa1 · · · ak − (−1) a1 · · · ak a k−1 = 2 a (a1 ∧ · · · ∧ ak ) + a (a1 ∧ · · · ∧ ak )
(2.102)
= a y (a1 ∧ · · · ∧ ak ) ,
insgesamt also die gesuchte Relation (2.97):
a y (a1 ∧ · · · ∧ ak ) =
k
X
j=1
(−1)j+1 (a y aj ) a1 ∧ · · · ǎj · · · ∧ ak .
(2.97)
Aufgrund von (2.78) bekommt man aus (2.97) für das innere Produkt unter der
Einschränkung auf k ≥ 1 die Relation:
a • (a1 ∧ · · · ∧ ak ) =
k
X
j=1
(−1)j+1 (a • aj ) a1 ∧ · · · ǎj · · · ∧ ak
∀k ≥ 1 .
(2.103)
26 Kapitel 2. Grundlagen der Geometrischen Algebra
Im Spezialfall k = 2 wird (2.103) zu:
a • (a1 ∧ a2 ) = (a • a1 ) a2 − (a • a2 ) a1 .
Dies ist die Übersetzung der wohlbekannten Formel
(a1 × a2 ) × a = (a · a1 ) a2 − (a · a2 ) a1 ,
aus der klassischen Vektoranalysis, in die Geometrische Algebra. Die GA-Formel ist
allerdings nicht nur im 3 gültig, sondern kann auf Vektoren beliebiger Dimension
angewandt werden.
Gleichung (2.97) lässt sich sogar noch etwas verallgemeinern. Durch Anwendung
auf das äußere Produkt von zwei Spaten,
Ak ∧ B l = a 1 ∧ · · · ∧ a k ∧ b 1 ∧ · · · ∧ b l ,
erhält man:
a y (Ak ∧ Bk ) = (a y Ak ) ∧ Bl + α̂(Ak ) ∧ (a y B) .
Diese Gleichung lässt sich über die Stufen summieren und man bekommt für beliebige Multivektoren das wichtige Ergebnis:
a y (A ∧ B) = (a y A) ∧ B + α̂(A) ∧ (a y B) .
(2.104)
Also ist die Links-Kontraktion eines Vektors auch allgemein eine Derivation bezüglich dem äußeren Produkt von Multivektoren.
Das gleiche Argument lässt sich auch auf Gleichung (2.98) anwenden, wobei
man für die linke Seite die Zerlegung (2.53) nutzt. Es ergibt sich:
a y (AB) = (a y A)B + α̂(A)(a y B) ,
(2.105)
also ist die Kontraktion eines Vektors zusätzlich auch bezüglich des geometrischen
Produkts eine Derivation. Alternativ lässt sich dieses Ergebnis übrigens auch direkt
aus Gleichung (2.95) gewinnen:
a y (AB) = 21 a(AB) − α̂(AB)a
= 21 aAB − α̂(A)aB + α̂(A)aB − α̂(A)α̂(B)a
= 21 aA − α̂(A)a B + α̂(A) 21 aB − α̂(B)a
= (a y A)B + α̂(A)(a y B) .
Leider kann man diesen kurzen Beweis nicht auf das Dachprodukt verallgemeinern,
da wir hierfür explizit ausgenutzt haben, dass sich die Kontraktion durch geometrische Produkte beschreiben lässt. Einen analogen Ausdruck der Kontraktion mit
Hilfe von Dachprodukten gibt es dagegen nicht.
An dieser Stelle sind wir nun endlich in der Lage zu beweisen, dass das geometrische Produkt von paarweise senkrechten Vektoren gleich dem Dachprodukt ist.
Konkret wollen wir also zeigen:
ai ⊥ aj ∀i 6= j =⇒ ak · · · a1 = ak ∧ · · · ∧ a1 .
(2.106)
2.7 Wichtige algebraische Identitäten 27
Dazu gehen wir induktiv vor. Für die Fälle k = 0 und k = 1 ist die Behauptung
klar. Für k = 2 benutzen wir die Zerlegung (2.80) mit Ak = a1 . Daraus folgt:
a2 a1 = a 2 y a1 + a 2 ∧ a 1 .
Wegen (2.12) und (2.78) ist aber a2 ⊥ a1 äquivalent zu 0 = a2 • a1 = a2 y a1 und
somit a2 a1 = a2 ∧ a1 . Im allgemeinen Fall benutzen wir die Identität (2.97). Da die
Vektoren aj paarweise senkrecht aufeinander stehen, ist ai ∗ aj = ai • aj = 0 für
alle i 6= j. Deshalb verschwindet die rechte Seite von (2.97) und wir erhalten:
aj y (aj−1 ∧ · · · ∧ a1 ) = 0 .
Wieder mit der Zerlegung (2.80) ergibt sich deshalb:
aj (aj−1 ∧ · · · ∧ a1 ) = aj y (aj−1 ∧ · · · ∧ a1 ) + aj ∧ (aj−1 ∧ · · · ∧ a1 )
= aj ∧ (aj−1 ∧ · · · ∧ a1 )
= aj ∧ · · · ∧ a1 ,
womit die Behauptung (2.106) bewiesen ist.
Zum Abschluss dieses Abschnitts zeigen wir noch einen wichtigen Zusammenhang zwischen dem Skalarprodukt von Dachprodukten und der Determinante:


· · · ha1 |bk i
..  .
..
.
. 
hak |b1 i · · · hak |bk i
ha1 |b1 i
 ..
(a1 ∧ · · · ∧ ak ) ˜∗ (b1 ∧ · · · ∧ bk ) = det  .
(2.107)
Den Beweis dazu führen wir induktiv. Der Fall k = 1 ist trivial, denn es gilt
det(ha|bi) = ha|bi = a ˜∗ b . Für den Induktionsschritt von k − 1 nach k bezeichnen
wir die k × k-Matrix auf der rechten Seite durch M . Außerdem verwenden wir, wie
im Laplace’schen Entwicklungssatz der Determinante nach einer Zeile, die (k − 1) ×
(k − 1)-Matrix Mij , die sich aus M ergibt, wenn man die i-te Zeile und die j-te
Spalte streicht. Wir nehmen nun an, dass die Behauptung für k − 1 wahr ist, d. h.
es gelte:
(a1 ∧ · · · ǎi · · · ∧ ak ) ˜∗ (b1 ∧ · · · b̌j · · · ∧ bk ) = det(Mij ) .
Dann bekommt man:
(a1 ∧ · · · ∧ ak ) ˜∗ (b1 ∧ · · · ∧ bk )
= (−1)i−1 (ai ∧ a1 ∧ · · · ǎi · · · ∧ ak ) ˜∗ (b1 ∧ · · · ∧ bk )
= (−1)i−1 (a1 ∧ · · · ǎi · · · ∧ ak ) ˜∗ ai y (b1 ∧ · · · ∧ bk )
k
X
(2.97)
= (−1)i−1 (a1 ∧ · · · ǎi · · · ∧ ak ) ˜∗
(−1)j+1 hai |bj i b1 ∧ · · · b̌j · · · ∧ bk
(2.82)
=
k
X
j=1
=
k
X
j=1
j=1
(−1)
i+j
hai |bj i(a1 ∧ · · · ǎi · · · ∧ ak ) ˜∗ (b1 ∧ · · · b̌j · · · ∧ bk )
(−1)i+j hai |bj i det(Mij ) = det(M ) ,
28 Kapitel 2. Grundlagen der Geometrischen Algebra
wobei im vorletzten Schritt die Induktionsannahme verwendet wurde und der letzte
Schritt gerade der Laplace’sche Entwicklungssatz (vgl. [Fis03, Satz 3.3.3]) ist. Damit
haben wir den Induktionsschritt vollzogen und die Behauptung ist gezeigt.
Als Spezialfall von Gleichung (2.107) bekommt man die Determinante einer
n × n-Matrix mit Spalten a1 , . . . , an zu:
det a1 · · · an = det hai |ej iij = (a1 ∧ · · · ∧ an ) ˜∗ In ,
mit dem in Gn eindeutig festgelegten Pseudoskalar In = e1 ∧ · · · ∧ en . Die Theorie
der Determinanten innerhalb der Clifford-Algebra wurde ausführlich von Hestenes
und Sobczyk in [HS92] untersucht.
2.8
Unterräume, Projektionen und Hodge-Dualität
Im Folgenden wollen wir den Zusammenhang von Spaten mit Unterräumen untersuchen. Außerdem werden wir zeigen, wie man die Kontraktionen aus Abschnitt 2.6
zur Definition von Projektionen auf diese Unterräume nutzen kann.
2.8.1
Spate und Unterräume
Wir beginnen mit der n-dimensionalen Geometrischen Algebra Gn über dem Vektorraum V = n . Zu jedem k-Spat Ak 6= 0 gibt es dann einen eindeutig bestimmten
k-dimensionalen Untervektorraum V(Ak ) ⊂ V mit:
V(Ak ) := {a ∈ V : a ∧ Ak = 0} ,
(2.108)
ein Vektor a ist also genau dann in V(Ak ), wenn sein Dachprodukt mit Ak verschwindet. Wir nennen V(Ak ) deshalb auch den Vektorraum von Ak .
Skalarmultiplikation und Addition übernehmen wir aus V. Die Abgeschlossenheit von V(Ak ) unter diesen beiden Verknüpfungen ist klar, denn es gilt:
a ∧ Ak = 0 , b ∧ Ak = 0 =⇒ (αa + βb) ∧ Ak = 0 .
Es bleibt zu zeigen, dass der Vektorraum k-dimensional ist. Dazu erinnern wir uns,
dass man den Spat Ak durch Vektoren a1 , . . . , ak ∈ V aufspannen kann:
Ak = a 1 ∧ · · · ∧ a k .
(2.109)
Wegen der Antisymmetrie des äußeren Produkts (2.61) gilt:
aj ∧ Ak = aj ∧ a1 ∧ · · · ∧ ak = 0 ∀j = 1, . . . , k ,
also liegen die Vektoren aj nach der obigen Definition im Untervektorraum V(Ak ).
Außerdem sind die aj linear unabhängig. Ansonsten ließe sich nämlich einer – ohne
Einschränkung sei dies ak – als Linearkombination der restlichen ausdrücken:
ak =
k−1
X
j=1
αj a j .
2.8 Unterräume, Projektionen und Hodge-Dualität 29
Durch Einsetzen in (2.109) folgt daraus aber:
Ak =
k−1
X
j=1
a1 ∧ · · · ∧ ak−1 ∧ (αj aj ) = 0 ,
im Widerspruch zur Voraussetzung Ak 6= 0.
Wir zeigen nun noch, dass sich jeder andere Vektor in V(Ak ) als Linearkombination der aj schreiben lässt. Ohne Beschränkung der Allgemeinheit können wir dazu
die Vektoren aj als orthogonal annehmen, so dass Ak = a1 ∧ · · · ∧ ak = a1 · · · ak gilt.
Sei nun a ein weiterer Vektor aus V(Ak ), d. h. a erfüllt die Bedingung a ∧ Ak = 0.
Aufgrund der Zerlegung (2.80) gilt dann:
aAk = a y Ak + a ∧ Ak = a y Ak .
Außerdem hat jeder k-Spat Ak 6= 0 ein multiplikatives Inverses:
A−1
k =
1
kAk k
t
2 Ak
−1
= a−1
k · · · a1 ,
mit a−1
j =
1
|aj |2
aj .
Damit bekommen wir:
−1
y
a = aAk A−1
k = (a Ak )Ak .
Dies kann man anhand der Identität (2.97) entwickeln in:
−1
−1
y
a = (a y Ak )A−1
k = a (a1 · · · ak ) (ak · · · a1 )
=
k
X
j=1
=
=
−1
(−1)j+1 (a ∗ aj )(a1 · · · ǎj · · · ak )(a−1
k · · · a1 )
k
X
−1
−1
−1
j−1
(−1)j+1 (a ∗ aj ) (a1 · · · ǎj · · · ak )(a−1
k · · · ǎj · · · a1 ) aj (−1)
{z
}
|
j=1
k
X
j=1
=1
(a ∗ aj ) a−1
j =
k
X
a ∗ aj
j=1
|aj |2
aj =
k
X
αj a j ,
(2.110)
j=1
2
mit αj = (a ∗ aj )/ |aj | ∈ . Damit haben wir gezeigt, dass sich jeder Vektor a ∈ V(Ak ) als Linearkombination der aj schreiben lässt, d. h. die Vektoren
(a1 , . . . , ak ) bilden eine Basis von V(Ak ). Folglich ist V(Ak ) ein k-dimensionaler
Untervektorraum und unsere anfängliche Behauptung ist bewiesen.
Als Nebenprodukt habe wir gezeigt, dass einen Menge von Vektoren genau dann
linear unabhängig ist, wenn ihr äußeres Produkt nicht verschwindet:
{a1 , . . . , ak } linear unabhängig ⇐⇒ a1 ∧ · · · ∧ ak 6= 0 .
(2.111)
Haben wir nun umgekehrt einen k-dimensionalen Untervektorraum Vk ⊂ V vorgegeben, so kann man ihm einen, bis auf das Vorzeichen eindeutig bestimmten,
normierten k-Spat Ik ∈ G(Vk ) mit kIk k = 1 zuordnen. Die Festlegung auf das
positive oder negative Vorzeichen entspricht der Wahl der Orientierung des Vektorraums Vk . Dies ist einfach anhand der Dimension von G l (Vk ) zu zeigen. Wie man
30 Kapitel 2. Grundlagen der Geometrischen Algebra
sich eventuell schon anhand der Konstruktion
der Basis von Gn in Abschnitt 2.5
klar gemacht hat,9 gilt dim G l (Vk ) = kl , und deshalb ist G k (Vk ) ein eindimensionaler linearer Raum. Geben wir uns also einen k-Spat Ik ∈ G(Vk ) mit kIk k = 1 vor,
so ist jeder andere k-Spat Ak , der von Vektoren a1 , . . . , ak ∈ Vk aufgespannt wird,
proportional zu Ik :
Ak = a1 ∧ · · · ∧ ak = λIk
mit λ ∈
.
(2.112)
Wegen des Transformationsverhaltens unter Raumspiegelung im Unterraum Vk bezeichnet man jedes skalare Vielfache von Ik als Pseudoskalar von Vk .
Da zu jedem k-Spat ein eindeutig bestimmter k-dimensionaler Untervektorraum
V(Ak ) gehört und umgekehrt, können wir die Vektorräume und Spate in diesem Sinne als äquivalent auffassen. Geometrische und mengentheoretische Relationen zwischen Untervektorräumen lassen sich deshalb durch algebraische Identitäten zwischen den zugehörigen Spaten ausdrücken.
2.8.2
Projektionen
Mit dem Pseudoskalar Ak von V(Ak ) können wir jeden Vektor b ∈ V sehr einfach
in einen Anteil parallel und senkrecht zum Unterraum V(Ak ) zerlegen:
b = b k + b⊥ .
(2.113)
Da der Anteil bk im Unterraum V(Ak ) liegen soll, muss er nach der obigen Definition
die Bedingung bk ∧ Ak = 0 erfüllen. Um die Projektion eindeutig zu machen, muss
b⊥ senkrecht auf jedem Vektor a ∈ V(Ak ) stehen. Speziell gilt das natürlich für die
Basisvektoren aj , die Ak aufspannen, also b⊥ ∗ aj = 0 für alle j = 1, . . . , k. Wegen
der Entwicklung (2.97) ist dies äquivalent zu b⊥ y Ak = 0. Damit bekommen wir:
bk A k = b k y A k + b k ∧ A k = b k y A k
= bk y Ak + b⊥ y Ak = (bk + b⊥ ) y Ak
= b y Ak ,
sowie
b⊥ A k = b ⊥ y A k + b ⊥ ∧ A k = b ⊥ ∧ A k
= b⊥ ∧ Ak + bk ∧ Ak = (b⊥ + bk ) ∧ Ak
= b ∧ Ak .
Multiplikation mit A−1
k von rechts liefert das Ergebnis:
−1
y
bk = bk Ak A−1
k = (b Ak )Ak ,
(2.114)
−1
b⊥ = b⊥ Ak A−1
k = (b ∧ Ak )Ak .
(2.115)
und
9 Wir werden später allgemeine Basen von G betrachten und dieses Ergebnis dort noch einmal
n
explizit herleiten.
2.8 Unterräume, Projektionen und Hodge-Dualität 31
b
b⊥
·
bk
Ak
Abbildung 2.4 Orthogonale Projektion des Vektors b auf den Spat Ak . Wichtig für die Eindeutigkeit der Zerlegung ist, dass b⊥ senkrecht auf dem Unterraum V(Ak ) steht. Die Forderung b⊥ ⊥ bk reicht dagegen nicht aus.
Alternativ lassen sich die Gleichungen (2.114) und (2.115) als Definitionen auffassen. Dann gilt:
−1
−1
bk + b⊥ = (b y Ak )A−1
k + (b ∧ Ak )Ak = bAk Ak = b ,
also bilden bk und b⊥ eine Zerlegung von b. Um zu zeigen, dass bk in Ak liegt,
nehmen wir wie oben ohne Einschränkung an, dass die Vektoren aj orthogonal
sind. Dann lässt sich (2.110) anwenden und man erhält:
bk = (b y Ak )A−1
k =
k
X
b ∗ aj
j=1
|aj |
2
aj =
k
X
αj a j .
j=1
Wegen aj ∧ Ak = 0 folgt daraus das gesuchte Ergebnis:
bk ∧ A k =
k
X
j=1
αj aj ∧ Ak = 0 =⇒ bk ∈ V(Ak ) .
Für b⊥ bekommt man dagegen:
b⊥ y Ak = (b − bk ) y Ak = b y Ak − bk y Ak
y
y
= (b y Ak ) A−1
k Ak − b k Ak = b k Ak − b k Ak
= b k y Ak + b k ∧ A k − b k y Ak = 0 ,
also steht b⊥ wie erwartet senkrecht auf dem Unterraum V(Ak ).
Allgemein definieren wir die orthogonale Projektion eines beliebigen Multivektors B auf den zum Spat Ak gehörigen Unterraum als:
PAk (B) := (B y Ak )A−1
k ,
(2.116)
PA⊥k (B) := (B ∧ Ak )A−1
k .
(2.117)
sowie die Rejektion 10 :
Bemerkenswert an diesen Formeln ist die Tatsache, dass der umgebende Raum
gar nicht explizit auftaucht sondern nur indirekt durch die Einbettung des Spates
10 Der Begriff „Rejektion“ wurde von David Hestenes [HS92] geprägt und soll das Zurückweisen
des zum Unterraum V(Ak ) parallelen Anteils andeuten.
32 Kapitel 2. Grundlagen der Geometrischen Algebra
Ak . Der umgebende Raum spielt also nur eine untergeordnete Rolle, und die Projektion bzw. Rejektion hat in allen Räumen dieselbe Form. Für die Matrixdarstellung
einer Projektion (von Vektoren) in der klassischen Linearen Algebra braucht man
dagegen zwingend immer auch auch den umgebenden Raum, der die Form des
Projektions-Operators beeinflusst.
Betrachtet man die Projektion eines Spates Bl auf Ak , so fällt sofort auf, dass
PAk (Bl ) für l > k aufgrund der Definition der Links-Kontraktion in (2.76) verschwindet. Geometrisch ist dies sofort klar, denn man kann keine höherdimensionalen Unterräume auf niedrigerdimensionale projizieren. Beispielsweise macht es keine
Probleme einen Vektor auf eine Ebene zu projizieren, umgekehrt macht die Projektion einer Ebene auf einen Vektor wenig Sinn. Dies ist die schon in Abschnitt 2.6
erwähnte Asymmetrie und gleichzeitig der Grund, weshalb das innere Produkt nicht
geeignet ist, eine echte Projektion für beliebige Multivektoren zu definieren. Dieses Problem wurde von Hestenes in [HS92, Seite 20] zwar erkannt, allerdings nicht
zufriedenstellend durch Zusatzforderungen gelöst. Unsere obigen Definitionen sind
dagegen ohne weitere Einschränkungen für beliebige Fälle gültig.
Im Folgenden werden wir uns vor allem der Projektion zuwenden und die Rejektion etwas vernachlässigen, die Eigenschaften sind aber sehr ähnlich. Für den
Projektions-Operator gilt:
PAk (βB + γC) = β PAk (B) + γ PAk (C) ,
PAk PAk (B) = PAk (B) ,
PAk (B ∧ C) = PAk (B) ∧ PAk (C) ,
PAk (hBil ) = hPAk (B)il .
(2.118)
(2.119)
(2.120)
(2.121)
Die Linearität (2.118) folgt direkt aus der Linearität der Kontraktion. Gleichung
(2.119) ist die Idempotenz, die jeder Projektions-Operator erfüllen muss. Das bedeutet, wenn wir erst einmal im Unterraum von Ak sind, wirkt der Operator als
Identität. Die Eigenschaft (2.120) bedeutet, dass die Projektion ein äußerer Morphismus, also ein Homomorphismus bezüglich äußerem Produkt ist. Die letzte Gleichung (2.121) sagt uns dagegen, dass der Stufenoperator mit der Projektion vertauscht.
Um die obigen Relationen zu beweisen, untersuchen wir zuerst, wie die Projektion auf einen Spat Bl wirkt. Wir verwenden die Zerlegung Bl = bl ∧ · · · ∧ b1 , wobei
die umgekehrte Reihenfolge der Indizes allein praktische Gründe hat. Damit ergibt
sich für die Projektion von Bl der Ausdruck:
PAk (bl ∧ · · · ∧ b1 ) = PAk (bl ) ∧ · · · ∧ PAk (b1 ) .
(2.122)
Es bietet sich an, den Beweis induktiv zu führen. Explizit zeigen wir:
(bl ∧ · · · ∧ b1 ) y Ak = (blk ∧ · · · ∧ b1k )Ak ,
woraus sich durch Multiplikation mit A−1
k die Behauptung ergibt. Für die Projektion von Vektoren benutzen wir die Kurznotation bjk = PAk (bj ) und bj⊥ = PA⊥k (bj ).
Für l = 1 ist die Aussage schon in (2.114) bewiesen. Wir nehmen also an, die
Behauptung gelte für l = j:
(bj ∧ · · · ∧ b1 ) y Ak = (bjk ∧ · · · ∧ b1k )Ak = Bjk Ak ,
2.8 Unterräume, Projektionen und Hodge-Dualität 33
mit der Abkürzung Bjk = bjk ∧ · · · ∧ b1k . Dann ist unter Verwendung der Regel
(2.85) für die Kontraktion:
(bj+1 ∧ · · · ∧ b1 ) y Ak = bj+1 y (bj ∧ · · · ∧ b1 ) y Ak = bj+1 y Bjk Ak .
Da die Kontraktion nach Gleichung (2.105) eine Derivation bezüglich geometrischem Produkt ist, folgt daraus:
(bj+1 ∧ · · · ∧ b1 ) y Ak = (bj+1 y Bjk ) Ak + α̂(Bjk ) (bj+1 y Ak )
= (bj+1 y Bjk ) Ak + α̂(Bjk ) (bj+1 y Ak A−1
k Ak )
= (bj+1 y Bjk ) Ak + α̂(Bjk ) (bj+1k Ak )
= bj+1 y Bjk + α̂(Bjk )bj+1k Ak
= bj+1 y Bjk + α̂(Bjk ) x bj+1k + α̂(Bjk ) ∧ bj+1k Ak
= bj+1 y Bjk − bj+1k y Bjk + bj+1k ∧ Bjk Ak
= bj+1⊥ y Bjk + bj+1k ∧ Bjk Ak
= (bj+1k ∧ bjk ∧ · · · ∧ b1k )Ak ,
wobei im letzten Schritt der erste Term in der Klammer verschwindet, da bj+1⊥
senkrecht auf Bjk steht und somit aufgrund des Arguments direkt nach Gleichung
(2.113) die Kontraktion bj+1⊥ y Bjk = 0 ist. Damit ist die Induktion abgeschlossen und die Aussage (2.122) bewiesen. Die Projektion eines Spates entspricht also
der Projektion der aufspannenden Vektoren, wie man es auch geometrisch erwarten würde. Speziell folgt daraus, das die Stufe eines homogenen Multivektors unter
der Projektion erhalten bleibt, weshalb der Stufenoperator mit der Projektion vertauscht, was die Aussage von Gleichung (2.121) war.
Da das äußere Produkt assoziativ ist, folgt aus (2.122) für zwei Spate:
PAk (Bl ∧ Cm ) = PAk (b1 ∧ · · · ∧ bl ∧ c1 ∧ · · · ∧ cm )
= PAk (b1 ) ∧ · · · ∧ PAk (bk ) ∧ PAk (c1 ) ∧ · · · ∧ PAk (cm )
= PAk (b1 ∧ · · · ∧ bl ) ∧ PAk (c1 ∧ · · · ∧ cm )
= PAk (Bk ) ∧ PAk (Cm ) ,
und durch Summation über die Stufen ergibt sich unter Ausnutzung der Linearität
(2.118) die Eigenschaft des äußeren Morphismus (2.120).
Wir hatten oben definiert, dass ein Vektor genau dann im Untervektorraum
V(Ak ) liegt, wenn sein äußeres Produkt mit Ak verschwindet, explizit:
a ∈ V(Ak ) ⇐⇒ a ∧ Ak = 0 .
Wegen der Zerlegung (2.80), aA = a y A + a ∧ A, ist dies äquivalent zu:
a ∈ V(Ak ) ⇐⇒ aAk = a y Ak ⇐⇒ PAk (a) = a .
(2.123)
Da die Projektion ein äußerer Morphismus ist, lässt sich dies auf die Stufe von
Multivektoren hochheben, also allgemein:
B ∈ G(Ak ) ⇐⇒ BAk = B y Ak ⇐⇒ PAk (B) = B ,
(2.124)
34 Kapitel 2. Grundlagen der Geometrischen Algebra
Abbildung 2.5 Die Projektion von Untervektorräumen als Punktmengen
senkt die Dimension, wenn die Unterräume orthogonal sind. Die Projektion einer Geraden auf eine Ebene kann einen Punkt ergeben, die Projektion
einer Ebene eine Gerade. Bei der Projektion von Multivektoren entspricht
der Punkt dem Nullvektor, die Gerade einem 2-Spat mit Betrag 0.
wobei G(Ak ) ≡ G(V(Ak ), Q|V(Ak ) ) ist. Damit haben wir ein leicht überprüfbares
Kriterium für B ∈ G(Ak ) und wir definieren deshalb jetzt einfach:
G(Ak ) := {B ∈ G(V, Q) : PAk (B) = B} .
(2.125)
Offensichtlich folgt daraus Gleichung (2.119), denn es ist PAk (B) ∈ G(Ak ).
Etwas Vorsicht ist bei der geometrischen Interpretation der Projektion geboten.
Projiziert man beispielsweise eine Gerade auf eine Ebene, so ergibt sich im Allgemeinen wieder eine Gerade. Steht die Gerade allerdings senkrecht auf der Ebene, dann
bekommt man einen Punkt. Analog kann man bei der Projektion einer Ebene eine
Gerade erhalten11 , wie in Abbildung 2.5 dargestellt. Die Projektion von Unterräumen erhält dehalb nicht die Dimension. Bei unserer Projektion von Elementen von
Unterräumen ist dagegen die Stufe von Multivektoren streng erhalten, wie man direkt aus Gleichung (2.122) ablesen kann. Die Projektion eines homogenen l-Vektors
ist also wieder ein l-Vektor.
Das gleiche Phänomen tritt auch schon in der klassischen Vektoranalysis auf.
Wenn die Projektion eines Vektors verschwindet, ist das Ergebnis kein Punkt, sondern der Null-Vektor. Andernfalls würde eine orthogonale Zerlegung b = b⊥ + bk ,
wie in (2.113), keinen Sinn ergeben, weil sich Skalare und Vektoren nicht addieren
lassen. In der Geometrischen Algebra wäre diese Addition zwar möglich, das Ergebnis ist aber kein reiner Vektor mehr. Dies steht dann aber im Widerspruch zur
Tatsache, dass auf beiden Seiten einer Gleichung natürlich Multivektoren gleicher
Stufen stehen müssen.
Man muss also immer zwischen der Projektion von Unterräumen als Punktmengen und der Projektion von Elementen von Unterräumen unterscheiden. Allerdings
kann man einen Punkt auch als entartetes Linienelement vom Betrag 0 auffassen
und eine Strecke als entartetes Flächenelement.
11 In 4 Dimensionen und höher ist sogar ein einzelner Punkt als Projektion möglich. In diesem Fall
existieren zwei zweidimensionale, orthogonale Unterräume, die sich nur im Ursprung schneiden.
2.8 Unterräume, Projektionen und Hodge-Dualität 35
2.8.3
Pseudoskalar und Hodge-Dualität
Wir hatten vorher schon erwähnt, dass zu jedem k-Spat Ak 6= 0 ein eindeutig
bestimmter Untervektorraum V(Ak ) gehört und dass umgekehrt jedem orientierten, k-dimensionalen Untervektorraum ein eindeutig bestimmter, auf 1 normierter
Pseudoskalar Ik zugeordnet werden kann. Oft sind in der Anwendung gleichzeitig
mehrere Pseudoskalare relevant, beispielsweise bei der Bewegung in einer Ebene –
ein 2-dimensionaler Unterraum –, die in den 3-dimensionalen Vektorraum 3 eingebettet ist. Deshalb lohnt es sich, die Eigenschaften des (normierten) Pseudoskalars
Ik näher zu untersuchen.
Als erstes stellt man fest, dass der Pseudoskalar ein wohldefiniertes Vertauschungsverhalten mit den Elementen der zugehörigen Algebra G(Ik ) besitzt:
Bl Ik = (−1)l(k−1) Ik Bl
für Bl ∈ G(Ik ) .
(2.126)
Konkret bedeutet dies, dass der Pseudoskalar für ungerade Dimension k mit allen Multivektoren kommutiert. Für eine gerade Dimension des Unterraums, kommutiert Ik dagegen nur mit allen geraden Multivektoren und antikommutiert mit
ungeraden Multivektoren.
Der Beweis ist ganz einfach, denn mit dem Ergebnis von Gleichung (2.124) und
dem Zusammenhang (2.84) zwischen Links- und Rechts-Kontraktion folgt:
Bl Ik = Bl y Ik = (Ikt x Blt )t
= (−1)(k−l)(k−l−1)/2 (−1)k(k−1)/2 (−1)l(l−1)/2 Ik x Bl
= (−1)(k
= (−1)
2
−2kl+l2 −k+l−k2 +k−l2 +l)/2
(2l−2kl)/2
Ik Bl = (−1)
l(k−1)
Ik B l
Ik Bl ,
wo man beim Zusammenfassen (−1)n = (−1)−n für n ∈
verwendet hat.
Wenn man Ik quadriert, macht man eine überraschende Entdeckung, denn es
ergibt sich:
2
Ik2 = Ik Ik = (−1)k(k−1)/2 Ikt Ik = (−1)k(k−1)/2 kIk k = (−1)k(k−1)/2 .
(2.127)
Das heißt, es ist Ik2 = 1 für k mod 4 ∈ {0, 1} , aber Ik2 = −1 für k mod 4 ∈ {2, 3} , wie
man es von der imaginären Einheit i kennt. Deshalb können wir in der Geometrischen Algebra komplett auf komplexe Zahlen verzichten, die die geometrische Interpretation erschweren würden. Stattdessen werden die komplexen Strukturen hier
durch einen (oder mehrere!) Pseudoskalare erzeugt, die eine einfache geometrische
Interpretation als k-Spate haben. Betrachten wir beispielsweise die Geometrische
Algebra über dem Vektorraum 3 , dann kommutiert der zugehörige Pseudoskalar I3 mit allen Multivektoren und es gilt I32 = −1, d. h. I3 hat alle algebraischen
Eigenschaften der imaginären Einheit i.
k
0
1
2
3
4
5
6
7
8
Ik2
1
1
−1
−1
1
1
−1
−1
1
···
···
Tabelle 2.1 Quadrat des Pseudoskalars für verschiedene Dimensionen k.
36 Kapitel 2. Grundlagen der Geometrischen Algebra
Eine weitere Eigenschaft des Pseudoskalars ist die Wirkung auf Multivektoren
im zugehörigen Unterraum als Dualitäts-Transformation, in der Literatur auch als
Hodge-Dualität 12 bekannt. Für Multivektoren aus dem Unterraum G(Ik ) definiert
man die Hodge-Dualität, oder auch Sternoperator genannt, als Abbildung:
?Ik : G(Ik ) → G(Ik ) , A 7→ ?Ik A := AIk−1 .
Jedem l-Vektor Al ∈ G(Ik ) wird dadurch ein (k − l)-Vektor ?Ik Al zugeordnet, da
das geometrische Produkt mit dem Pseudoskalar Ikt nach Gleichung (2.124) gleich
der Kontraktion ist.
Bei der Fortsetzung des Sternoperators auf die komplette Algebra G(In ) haben
wir die Wahl zwischen Kontraktion und geometrischem Produkt mit dem Pseudoskalar. Wir entscheiden uns für das geometrische Produkt:
?Ik : G(In ) → G(In ) , A 7→ ?Ik A := AIk−1 ,
(2.128)
auch wenn dann das hodge-duale eines homogenen Multivektors im Allgemeinen
kein homogener Multivektor mehr ist. Als Entschädigung dafür existiert aber immer
die inverse Abbildung:
k(k−1)/2
?−1
? Ik A ,
Ik A := AIk = (−1)
was den Sternoperator zu einem Vektorraum-Isomorphismus macht. Die notwendige
Linearität folgt dabei direkt aus der Linearität des geometrischen Produkts und
der Definition. Den Sternoperator zum eindeutig bestimmten Pseudoskalar In der
kompletten Geometrischen Algebra G(In ), wollen wir kurz mit ? = ?In bezeichnen.
Geometrisch betrachtet, übersetzt die Hodge-Dualität zwischen l-dimensionalen
und den dazu orthogonalen (k − l)-dimensionalen Flächenelementen in der Unteralgebra G(Ik ). Der Betrag eines Multivektors bleibt unter dieser Abbildung erhalten:
2
2
kAIk−1 k = kAIk k = (AIk ) ˜∗ (AIk ) = hAIk Ikt At i = hAAt i = A ˜∗ A = kAk2 ,
denn es gilt Ik Ikt = 1. In der klassischen Vektoranalysis tritt die Hodge-Dualität
bei der Definition des Kreuzprodukts auf. Der Vektor c = a × b hat als Länge den
Betrag der von a und b aufgespannten Fläche und steht senkrecht auf diesen beiden
Vektoren, also senkrecht auf der Fläche a ∧ b. Explizit ist die Beziehung zwischen
Kreuz- und Dachprodukt im 3 gegeben als a × b = ?(a ∧ b) = (a ∧ b)I3−1 (siehe
dazu Gleichung (C.3) im Anhang auf Seite 143).
Am effektivsten lässt sich die Hodge-Dualität in Rechnungen zum Vertauschen
von Kontraktion und Dachprodukt verwenden, es gilt nämlich:13
B y (AIk−1 ) = (B ∧ A)Ik−1
∀B ∈ G(Ik ) ,
(2.129)
12 Hier muss man etwas aufpassen, da die Definition der Hodge-Dualität in der Literatur nicht
einheitlich ist. Üblicherweise hängt diese allerdings von der Stufe ab, was bei uns nicht der Fall
ist. Da allen Definitionen aber das Konzept des orthogonalen Komplements zugrunde liegt, wollen
wir auch hier die Bezeichnung Hodge-Dualität verwenden. Mehr zur Hodge-Dualität von Differentialformen findet man beispielsweise in [Jän01b, Kapitel 12.3].
13 Man kann in dieser Formel an Stelle von I sogar jeden beliebigen k-Spat aus G(I ) verwenden.
k
k
Dies ist klar, da G k (Ik ) ein eindimensionaler Unterraum ist und ein skalarer Faktor auf beiden
Seiten vorgezogen werden kann.
2.9 Grassmann-Basis und Koordinaten 37
?a
?a
a
a
(a)
(b)
Abbildung 2.6 Die Hodge-Dualität übersetzt zwischen l-Spaten und den dazu
orthogonalen (k − l)-Spaten. Im zweidimensionalen Fall (a) ist das hodgeduale eines Vektors wieder ein Vektor gleicher Länge, in drei Dimensionen
(b) bekommt man dagegen als Ergebnis einen 2-Spat.
oder in alternativer Schreibweise:
B y (?Ik A) = ?Ik (B ∧ A) ∀B ∈ G(Ik ) ,
(2.130)
d. h. Kontrakion und Dachprodukt sind hodge-dual zueinander. Bemerkenswert an
der Formel ist, dass A nicht in der Unteralgebra G(Ik ) liegen muss, sondern dass
A ∈ G(In ) vollständig ausreicht. Den Beweis führt man stückweise, zuerst für den
Fall eines Vektors b ∈ G 1 (Ik ). Dann gilt:
b y (AIk−1 ) = 12 bAIk−1 − α̂(AIk−1 )b = 12 bAIk−1 − α̂(A)α̂(Ik−1 )b
= 21 bAIk−1 − α̂(A)(−1)n (−1)n−1 bIk−1 = 12 bA + α̂(A)b Ik−1
= (b ∧ A)Ik−1 .
Falls B = Bl ∈ G l (Ik ) ein l-Spat ist, gibt es eine Zerlegung Bl = bl ∧ · · · ∧ b1 . Damit
bekommt man:
Bl y (AIk−1 ) = (bl ∧ · · · ∧ b1 ) y (AIk−1 ) = bl y · · · y (b1 y (AIk−1 ))
= bl y · · · y ((b1 ∧ A)Ik−1 ) = . . . = (bl ∧ · · · ∧ b1 ∧ A)Ik−1
= (Bl ∧ A)Ik−1 .
Das Resultat (2.129) für einen beliebigen Multivektor B ∈ G(Ik ) folgt daraus durch
Summation unter Ausnutzung der Linearität der Hodge-Dualität. Wenn A in G(Ik )
liegt, gibt es einen viel kürzeren Beweis. Dann ist nämlich AIk−1 = A y Ik−1 und
somit:
B y (AIk−1 ) = B y (A y Ik−1 ) = (B ∧ A) y Ik−1 = (B ∧ A)Ik−1
∀A, B ∈ G(Ik ) ,
aufgrund der Identität (2.85) für die Kontraktion, und weil in diesem Fall natürlich
auch das äußere Produkt B ∧ A in G(Ik ) liegt.
2.9
Grassmann-Basis und Koordinaten
Von Natur aus besitzt die Clifford-Algebra nur eine 2 -Graduierung und keine n Graduierung, d. h. das geometrische Produkt respektiert zwar die Unterteilung in
gerade und ungerade Multivektoren, wie am Ende von Abschnitt 2.3.2 erwähnt,
nicht aber die Zerlegung in Stufen. Trotzdem macht es von der geometrischen Interpretation her oft Sinn, Multivektoren in Summen von Spaten zu entwickeln. Wir
38 Kapitel 2. Grundlagen der Geometrischen Algebra
Bezeichnung
Dimension
n-Vektor (Pseudoskalar)
1
(n − 1)-Vektor (Pseudovektor)
n
`n´
(n − 2)-Vektor
2
.
.
.
`n´
(n − k)-Vektor
k
`n´
k-Vektor
k
.
.
.
`n´
2-Vektor (Bivektor)
2
1-Vektor (Vektor)
n
1
0-Vektor (Skalar)
Abbildung 2.7 Die schematische Darstellung von G(Vn ) soll die Dualität zwischen k- und (n−k)-Vektoren verdeutlichen. Die
bekommt man
Dimensionen
n
. In Klammern sind
aus Gleichung (2.132) und der Beziehung nk = n−k
alternative Bezeichnung für einige besonders wichtige k-Vektoren angegeben.
beginnen dazu mit dem zugrundeliegenden n-dimensionalen Vektorraum Vn , über
dem die Geometrische Algebra errichtet werden soll. Für diesen können wir eine
Basis (e1 , . . . , en ) aus n linear unabhängigen Vektoren finden, für diese gilt also
e1 ∧ · · · ∧ en 6= 0 . Im Folgenden brauchen diese Basisvektoren weder orthogonal
noch normiert sein. Eine Basis für den Unterraum der k-Vektoren G k (Vn ) als Vektorraum ist dann offensichtlich durch die k-Spate
e i1 ∧ · · · ∧ e ik
mit 1 ≤ i1 < . . . < ik ≤ n ,
(2.131)
gegeben. Speziell für den Fall k = 0 muss man das Produkt aus 0 Vektoren bilden,
was man natürlicherweise als 1 definiert und somit eine Basis von
erhält. Da
für die Konstruktion der Basis das erstmals von Hermann Grassmann in [Gra69]
und [Gra72] eingeführte äußere Produkt – und nicht das geometrische Produkt –
verwendet wurde,
wird diese auch als Grassmann-Basis bezeichnet.
Da es nk Möglichkeiten gibt, k Elemente aus einer Menge von n Elementen
auszuwählen, bekommt man die Dimension des Raums der k-Vektoren zu:
n
dim G k (Vn ) =
.
(2.132)
k
Insgesamt ergibt sich daraus die Dimension der Geometrischen Algebra als Vektorraum zu:
n
n X
X
n
k
= 2n ,
(2.133)
dim G(Vn ) =
dim G (Vn ) =
k
k=0
k=0
was wir auch schon früher erwähnt hatten. Die Aufteilung der Geometrischen Algebra G(Vn ) in die Unterräume G k (Vn ) ist in Abbildung 2.7 schematisch dargestellt. In
dieser Darstellung wird sehr schön die Symmetrie zwischen k- und (n − k)-Vektoren
deutlich, welche der Hodge-Dualität zugrunde liegt.
2.9 Grassmann-Basis und Koordinaten 39
e2
e2
e1
e1
Abbildung 2.8 Basis ei und reziproke Basis ei in einem zweidimensionalen
Vektorraum. Der reziproke Basisvektor e1 steht senkrecht auf e2 und e2
ist orthogonal zu e1 . Die reziproken Basisvektoren sind so normiert, dass
e1 ˜∗ e1 = e2 ˜∗ e2 = 1 ist.
Für effiziente Rechnungen mit einer solchen „schiefen“ Basis, ist es sinnvoll, zusätzlich die sogenannte reziproke Basis zu verwenden. Wie oben beginnen wir
mit dem Vektorraum Vn mit vorgegebener Basis (e1 , . . . , en ). Die reziproken Basisvektoren e1 , . . . , en werden dann durch die Bedingung:
hei |ej i = ei ˜∗ ej = δji
∀i, j
(2.134)
eindeutig festgelegt. Der Basisvektor ei steht also senkrecht auf allen ej mit j 6= i
und ist so normiert, dass ei ˜∗ ei = 1 gilt. Um ei zu bekommen, spannen wir zuerst
den Unterraum der ej mit j 6= i durch den Spat e1 ∧ · · · ěi · · · ∧ en auf. Daraus
bekommt man ei bis auf das Vorzeichen durch Anwendung der Hodge-Dualität mit
dem (nicht normierten) Pseudoskalar En = e1 ∧ · · · ∧ en . Explizit ist ei also gegeben
durch:
ei = (−1)i−1 e1 ∧ · · · ěi · · · ∧ en En−1 .
(2.135)
Dieser reziproke Basisvektor hat die gewünschte Eigenschaft (2.134), denn durch
einfache Rechnung ergibt sich unter Zuhilfenahme der Relation (2.129):
ej ˜∗ ei = ej y (−1)i−1 e1 ∧ · · · ěi · · · ∧ en En−1
= (−1)i−1 ej ∧ e1 ∧ · · · ěi · · · ∧ en En−1 = δji .
Ziel ist es nun, dieses Ergebnis auf Multivektoren zu verallgemeinern. Durch
analoge Konstruktion erhält man eine reziproke k-Vektor-Basis zu:
ei1 ∧ · · · ∧ eik = (−1)
Pk
r=1 (ir −1)
eik+1 ∧ · · · ∧ ein En−1
(2.136)
mit 1 ≤ ik+1 < . . . < in ≤ n .
Dabei ist eik+1 ∧ · · · ∧ ein natürlich gerade gleich dem Produkt e1 ∧ · · · ∧ en ohne
die Faktoren ei1 , . . . , eik , in Analogie zu Gleichung (2.135).
Den Beweis von (2.136) führt man induktiv. Für eine 1-Spat gilt:
ei1 En = ei1 y (e1 ∧ · · · ∧ en ) =
=
n
X
i=1
(−1)i−1 δii1 e1
n
X
i=1
(−1)i−1 (ei1 ˜∗ ei )e1 ∧ · · · ěi · · · ∧ en
∧ · · · ěi · · · ∧ en = (−1)i1 −1 e1 ∧ · · · ěi1 · · · ∧ en .
40 Kapitel 2. Grundlagen der Geometrischen Algebra
Für einen 2-Spat bekommt man:
(ei2 ∧ ei1 )En = (ei2 ∧ ei1 ) y En = ei2 y ei1 y (e1 ∧ · · · ∧ en )
= (−1)i1 −1 ei2 y (e1 ∧ · · · ěi1 · · · ∧ en )
iX
1 −1
i1 −1
= (−1)
(−1)i−1 δii2 e1 ∧ · · · ěi2 · · · ěi1 · · · ∧ en
i=1
+
n
X
i=i1 +1
= (−1)
i1 −1
(−1)i−2 δii2 e1 ∧ · · · ěi1 · · · ěi2 · · · ∧ en
(−1)i2 −1 e1 ∧ · · · ěi1 · · · ěi2 · · · ∧ en .
Die erste Summe in der Klammer fällt dabei weg, da nach Voraussetzung i2 > i1
gilt, die Summe aber nur bis i1 − 1 läuft. Setzt man dies fort, so erhält man für
einen k-Spat den Ausdruck:
(eik ∧ · · · ∧ ei1 )En = (−1)i1 −1 · · · (−1)ik −k e1 ∧ · · · ěi1 · · · ěi2 · · · ěik · · · ∧ en
= (−1)
Pk
r=1 (ir −r)
(2.137)
eik+1 ∧ · · · ∧ ein .
Beim Umkehren der Reihenfolge der Faktoren des reziproken k-Spats tritt ein zusätzliches Vorzeichen von (−1)k(k−1)/2 auf. Dieses lässt sich umformen zu:
(−1)k(k−1)/2 = (−1)(k
2
+k−2k)/2
= (−1)k (−1)k(k+1)/2 ,
um darauf die gut bekannte Summenformel:
k
X
r=
r=1
k(k + 1)
2
anzuwenden. Insgesamt bekommt man deshalb für das Vorzeichen:
(−1)k(k−1)/2 (−1)
Pk
r=1 (ir −r)
= (−1)k (−1)
Pk
r=1 ir
= (−1)
Pk
r=1 (ir −1)
.
Damit lässt sich das obige Zwischenergebnis (2.137) für den k-Spat schreiben als:
(ei1 ∧ · · · ∧ eik )En = (−1)
Pk
r=1 (ir −1)
eik+1 ∧ · · · ∧ ein ,
woraus sich durch Multiplikation mit En−1 das gesuchte Resultat (2.136) ergibt.
Jetzt brauchen wir nur noch die Orthogonalität bezüglich ˜∗ zu überprüfen. Da
das Skalarprodukt von homogenen Multivektoren unterschiedlicher Stufen immer
verschwindet, brauchen wir nur Spate gleicher Stufen betrachten. Für diese bekommt man mit Hilfe von (2.136) und der Dualität (2.129):
(ei1 ∧ · · · ∧ eik ) ˜∗ (ej1 ∧ · · · ∧ ejk ) = (ei1 ∧ · · · ∧ eik )t y (ej1 ∧ · · · ∧ ejk )
= (eik ∧ · · · ∧ ei1 ) y (−1)
= (−1)
Pk
r=1 (jr −1)
= δij11 · · · δijkk ,
Pk
r=1 (jr −1)
ejk+1 ∧ · · · ∧ ejn En−1
eik ∧ · · · ∧ ei1 ∧ ejk+1 ∧ · · · ∧ ein En−1
(2.138)
wobei man in der letzten Umformung die bekannte Reihenfolge i1 < · · · < ik sowie
j1 < · · · < j1 und jk+1 < · · · < jn ausnutzt.
2.9 Grassmann-Basis und Koordinaten 41
An dieser Stelle ist es nützlich eine kompakte Notation mit Multiindizes einzuführen. Dazu benennen wir einen geordneten Satz von Indizes mit einem Großbuchstaben:
I = (i1 , . . . , ik ) mit 1 ≤ i1 < · · · < ik ≤ n .
Die Anzahl der einfachen Indizes ir in diesem Multiindex I wollen wir mit |I|
bezeichnen, im obigen Fall also |I| = k. Ein k-Spat lässt sich damit sehr kompakt
schreiben als:
aI = a(i1 ,...,ik ) := ai1 ∧ · · · ∧ aik .
Die Orthogonalität (2.138) der Basisspate wird damit zu:
eI ˜∗ eJ = δIJ .
(2.1380 )
Zum Abschluss wollen wir nun noch die Koordinaten eines Multivektors in solch
einer Basis berechnen. Wir suchen also eine Zerlegung:
X
X
A=
AI eI =
AI eI ,
I
I
mit geeigneten skalaren Vorfaktoren AI bzw. AI . Es stellt sich heraus, dass diese
gerade durch das Skalarprodukt von A mit dem entsprechenden Basisspat gegeben
sind, denn wegen (2.1380 ) gilt:
X
X
X
A ˜∗ eI =
AJ eJ ˜∗ eI =
AJ eJ ˜∗ eI =
AJ δJI = AI .
J
J
J
Analog ergibt sich für die Komponenten in der reziproken Basis:
A ˜∗ eI = AI .
Zusammen erhält man also die Darstellung eines Multivektors in der GrassmannBasis zu:
X
X
A=
(A ˜∗ eI ) eI =
(A ˜∗ eI ) eI .
(2.139)
I
I
Das Skalarprodukt zweier Multivektoren A und B kann man in dieser Basisdarstellung einfach berechnen, denn es gilt:
X
X
X
A ˜∗ B =
(AI eI ) ˜∗ (BJ eJ ) =
AI BJ δIJ =
AI BI .
IJ
IJ
I
Die Norm eines Multivektors ist dann natürlich:
X
2
kAk = A ˜∗ A =
AI AI .
I
An diesen Formeln wird deutlich, wie die Verwendung einer reziproken Basis die
Rechnungen mit schiefen Koordinatensystemen vereinfacht. Man sollte allerdings
immer sorgfältig zwischen dem Konzept eines Multivektors als geometrisches Objekt
und der Darstellung desselben in einer Basis trennen. Wie sich in der klassischen
Vektoranalysis des 3 gezeigt hat, bietet der synthetische Zugang zur Geometrie
viele Vorteile gegenüber den reinen Koordinatenrechnungen, wie sie zum Beispiel
im Ricci-Kalkül der Tensoralgebra üblich sind.
42 Kapitel 2. Grundlagen der Geometrischen Algebra
2.10
Geometrische Algebra für nicht-euklidische Räume
Bisher hatten wir uns auf den Fall des euklidischen Vektorraums n mit positiv
definitem Skalarprodukt beschränkt. In der konkreten physikalischen Anwendung
kommen aber auch nicht-euklidische Vektorräume vor, wie zum Beispiel in der Speziellen Relatvitätstheorie und damit natürlich auch in der relativistischen Quantenmechanik. Die dabei auftretenden Besonderheiten wollen wir in diesem Abschnitt
genauer untersuchen.
Wir beginnen dazu mit einer beliebigen symmetrischen Bilinearform B auf einem n-dimensionalen Vektorraum V. Jede symmetrische Bilinearform lässt sich mit
Hilfe einer Hauptachsentransformation [Fis03, Abschnitt 5.7] diagonalisieren. Dadurch lässt sich B auf die Form:


0
p

− q
B=
0
0r
bringen, wobei k eine k-dimensionale Einheitsmatrix und 0r eine r-dimensionale
Nullmatrix bezeichnen. Nach dem Trägheitssatz von Sylvester [Fis03, Satz 5.7.4]
sind die Zahlen p, q und r Invarianten von B. Genauer ist p die Dimension des
größten Unterraums von V, auf dem B positiv definit ist, bzw. die Anzahl der
positiven Eigenwerte von B. Die Zahl q ist die Dimension des größten Unterraums,
auf dem B negativ definit ist, und r ist die Dimension des Ausartungsraums V0 =
{a ∈ V : B(a, b) = 0 ∀b ∈ V}. Zusammen ergibt sich p + q + r = dim V.
Für uns ist nur der Fall einer nicht-entarteten Bilinearform interessant, wo r = 0
ist. Dann lässt sich B anhand der Signatur (p, q) klassifizieren, wobei offensichtlich
p + q = n gilt. Die Anzahl q der negativen Eigenwerte nennt man auch Index von
2
B. Durch das Skalarprodukt h · | · ip,q := B( · , · ) wird wie üblich eine Norm k · kp,q
induziert. Den zugehörigen Vektorraum bezeichnen wir mit p,q und die darüber
errichtete Geometrische Algebra mit Gp,q = G( p,q ) = G( n , k · k2p,q ). Der bisher
verwendete euklidische Vektorraum n taucht in dieser Nomenklatur als n = n,0
auf und die dazu passende Geometrische Algebra ist dann natürlich Gn = Gn,0 .
Leider ist diese Klassifikation in der Literatur nicht einheitlich, da manche Autoren bei der Definition der Clifford-Algebra in die Kontraktionsregel
(2.10) ein zusätzliches Minus-Zeichen einbauen. Die hier verwendete Bezeichnung
0
Gp,q wir dort zur Gq,p
und umgekehrt. Da die Clifford-Algebren mit entgegengesetzter Signatur im Allgemeinen nicht isomorph sind, Gp,q Gq,p , muss man immer
sorgfältig aufpassen, welche Konvention gerade verwendet wird.

Wir kommen nun zu den Besonderheiten, die sich als Folge eines nicht-euklidischen Skalarprodukts ergeben. Fast alle bisherigen Ergebnisse lassen sich ohne
weiteres auf den nicht-euklidischen Fall verallgemeinern, da wir in den meisten
Beweisen nur ein nicht entartetes Skalarprodukt vorausgesetzt haben. Nur an wenigen Stellen musste dieses wirklich positiv definit sein. Im einzelnen sind dies
Abschnitt 2.5 über das Multivektor-Skalarprodukt, welches natürlich nicht mehr
positiv definit sein kann. Dies hat Auswirkungen auf die Norm von Multivektoren
und damit auf das Inverse. Deshalb muss auch der Zusammenhang zwischen Spaten
und Unterräumen aus Abschnitt 2.8.1 noch einmal angesprochen werden. Gleichzeitig treten bei der Diskussion des Pseudoskalars Ip,q teilweise andere Vorzeichen
auf, was auch Auswirkungen auf die Hodge-Dualität hat.
2.10 Geometrische Algebra für nicht-euklidische Räume 43
Das Skalarprodukt von Multivektoren wurde in Abschnitt 2.5 definiert als:
A ˜∗ B = hAt Bi = hAB t i .
Die zugehörige Norm eines Multivektors ist gegeben durch:
kAk2 = A ˜∗ A .
Anders als im euklidischen Fall kann diese Norm jetzt aber auch negativ sein, streng
2
genommen ist sie also nur noch eine Halbnorm. Außerdem folgt aus kAk = 0
nicht mehr automatisch A = 0. Alle Multivektoren A mit verschwindendem Betrag
kAk2 = 0 nennt man singulär oder auch isotrop.
Ein Vektor a ist genau dann invertierbar, wenn er nicht singulär ist. Der Beweis
2
dafür ist einfach: Offensichtlich ist das Inverse eines Vektors mit kak 6= 0 wie bisher
durch a−1 = a/ kak2 gegeben. Sei nun kak2 = 0. Wir nehmen an, dass ein Inverses
b existiert, d. h. es gilt ab = 1. Wie üblich können wir das Produkt in Skalar- und
Bivektoranteil zerlegen: ab = a y b + a ∧ b. Damit der Bivektoranteil verschwindet,
muss a ∧ b = 0 gelten, woraus mit Gleichung (2.14) sofort b k a folgt. Demzufolge
ist das Inverse von der Form b = λa mit λ ∈ . Dann gilt aber:
ab = a(λa) = λa2 = λ kak2 = λ0 = 0 ,
im Widerspruch zur Forderung ab = 1. Also hat ein singulärer Vektor kein Inverses.
Die Menge der invertierbaren Vektoren in V bezeichnen wir mit V × . Für einen
×
euklidischen Vektorraum ist offensichtlich Vn,0
= Vn,0 \ {0}.
Ein homogener Multivektor Ak ist nach Gleichung (2.20) genau dann ein k-Spat,
wenn man ihn als Produkt Ak = a1 · · · ak von k senkrechten Vektoren a1 , . . . , ak
schreiben kann. Der Betrag von Ak ergibt sich damit zu:
2
2
2
kAk k = hAk Atk i = ha1 · · · ak ak · · · a1 i = a21 · · · a2k = ka1 k · · · kak k .
Ein Spat ist also genau dann singulär, wenn ein singulärer Vektor in der Faktorisierung auftritt. Wie man außerdem an dieser Zerlegung sieht, ist das Inverse eines
nichtsingulären Spats Ak gegeben durch:
A−1
k =
1
kAk k2
Atk .
(2.140)
Singuläre Spate sind – genau wie singuläre Vektoren – nicht invertierbar.
Wenn Ak nicht singulär ist, dann haben p der Vektoren aj einen positiven und
q Vektoren einen negativen Betrag. Die Zahlen p und q sind unabhängig von der
gewählten Faktorisierung und es gilt p+q = k. Wir sprechen dann von einem k-Spat
mit Signatur (p, q) und bezeichnen ihn, falls die Signatur interessant ist, mit Ap,q .
In Abschnitt 2.8.1 gabe es zu jedem k-Spat Ak 6= 0 einen eindeutig bestimmten
k-dimensionalen Untervektorraum V(Ak ) ⊂ V. Im nicht-euklidischen Fall ist die
Forderung Ak 6= 0 allerdings zu schwach und muss durch kAk k2 6= 0 ersetzt werden.
Dies ist notwendig, da man für die Entwicklung (2.110) das Inverse von Ak benötigt.
Dann gehört zu jedem nichtsingulären Spat Ap,q mit Signatur (p, q) ein eindeutig
bestimmter Untervektorraum V(Ap,q ) mit Signatur (p, q), definiert wie oben durch:
V(Ap,q ) := {a ∈ V : a ∧ Ap,q = 0} .
(2.141)
44 Kapitel 2. Grundlagen der Geometrischen Algebra
Die Aussage über die Signatur folgt dabei direkt aus der Tatsache, dass die Vektoren
aj aus der Faktorisierung von Ap,q eine Basis von V(Ap,q ) bilden.
Umgekehrt gibt es zu jedem k-dimensionalen Untervektorraum Vp,q ⊂ V mit
Signatur (p, q) einen, bis auf das Vorzeichen eindeutig bestimmten, normierten
Pseudoskalar Ip,q ∈ G(Vp,q ). Im nicht-euklidischen Fall lässt sich aber nicht mehr
2
2
unbedingt kIp,q k = 1 realisieren, sondern wir können nur kIp,q k = ±1 fordern.
Das Vertauschungsverhalten des Pseudoskalars mit den Elementen der Unteralgebra G(Ip,q ) ist unabhängig von der Signatur durch Gleichung (2.126) gegeben.
Das Quadrat des Pseudoskalars ist dagegen von der Signatur abhängig:
2
Ip,q
= (−1)k(k−1)/2 (−1)q .
(2.142)
Um dies zu beweisen, kann man eine Faktorisierung von Ip,q verwenden. Ist eine
Zerlegung durch Ip,q = e1 · · · ek , mit e2i = +1 für i ∈ {1, . . . , p} und e2i = −1 für
i ∈ {p + 1, . . . , k} gegeben, dann gilt nämlich:
2
t
Ip,q
= (−1)k(k−1)/2 Ip,q
Ip,q = (−1)k(k−1)/2 kIp,q k
2
= (−1)k(k−1)/2 e21 · · · e2p e2p+1 · · · e2k = (−1)k(k−1)/2 (−1)q .
| {z } | {z }
(+1)p
(−1)q
Außerdem erhält man aus diesem Ergebnis für das Inverse die explizite Formel:
−1
t
Ip,q
= (−1)q Ip,q
= (−1)k(k−1)/2 (−1)q Ip,q .
(2.143)
Für ungeraden Index q unterscheiden sich Transponierte und Inverse des Pseudoskalars also um ein Vorzeichen. Etwas allgemeiner gilt für einen beliebigen Ap,q mit
Signatur (p, q):
kAp,q k2 = (−1)q kAp,q k2 ,
die Norm von Ap,q ist also genau dann negativ, wenn q ungerade ist.
Durch Gleichung (2.142) entstehen neue Möglichkeiten, wie komplexe Strukturen in die Geometrische Algebra Einzug halten. Unter anderem stellt man dabei
fest, dass G0,1 isomorph zu den komplexen Zahlen ist. Den Isomorphismus erhält
man durch lineare Fortsetzung der Abbildung ϕ : G0,1 → , e1 7→ i . Die Algebra
G0,2 ist isomorph zu den Hamilton’schen Quaternionen , die eine sehr effiziente
Formulierung von Drehungen im dreidimensionalen Raum ermöglichen. Im nächsten Kapitel wollen wir darauf zurückkommen.
Bei der Hodge-Dualität gibt es nur eine wichtige Änderung gegenüber den Ergebnissen von Abschnitt 2.8.3. Neu ist die Tatsache, dass die Norm eines Multivektors A unter der Hodge-Dualität nur noch betragsmäßig erhalten ist. Konkret
ergibt sich mit Hilfe von Gleichung (2.143):
2
−1
k?Ip,q Ak2 = kAIp,q
k = (−1)q kAk2 ,
das heißt für ungeraden Index q taucht ein negatives Vorzeichen auf.
(2.144)
2.11 Zusammenfassung 45
2.11
Zusammenfassung
In diesem Kapitel haben wir die Geometrische Algebra G(V, Q) von Multivektoren
konstruiert. Ein Multivektor ist das allgemeinste Element der Algebra G(V, Q) und
lässt sich nach Abschnitt 2.1 in eine Summe von Spaten unterschiedlicher Stufen
zerlegen. Ein k-Spat lässt sich wiederum geometrisch als orientiertes Element eines
k-dimensionalen Untervektorraums von V interpretieren. Die Geometrische Algebra
G(V, Q) ist die Clifford-Algebra über dem Vektorraum V mit der quadratischen
2
Form Q. Im Normalfall verwenden wir die Algebra Gn := G( n , | · | ) über dem
2
n
Standardvektorraum
mit der quadratischen Form Q(x) = |x| , wobei | · | die
übliche euklidische Norm von Vektoren ist.
Um die Notation zu vereinfachen, benutzen wir kleine griechische Buchstaben
α, β, γ für Skalare, lateinische Kleinbuchstaben a, b, c für Vektoren und Großbuchstaben A, B, C für Multivektoren. Für homogene Multivektoren der Stufen k, l, m
ist in der Literatur die Bezeichnung Ak , Bl , Cm usw. üblich.
Die Clifford-Algebra G(V, Q) erfüllt nach Abschnitt 2.2 alle Eigenschaften einer
nicht-kommutativen, assoziativen Algebra mit 1, die von den Vektoren aus V generiert wird. Das Geometrische bzw. Clifford-Produkt wird durch Juxtaposition AB
der Multivektoren A und B bezeichnet. Ein allgemeiner Multivektor entsteht dann
– wie bei den Tensoren – indem man Summen von Produkten der Generatoren
bildet. Zusätzlich gilt dabei aber für Vektoren die Kontraktionsregel :
a2 = Q(a) = |a|2 ,
(2.10)
die beim Bilden der Produkte beachtet werden muss. Wenn die Charakteristik des
zugrundeliegenden Körpers ungleich 2 ist, dann lässt sich jeder symmetrischen Bilinearform B eine eindeutig bestimmte quadratische Form Q(a) = B(a, a) zuordnen
und umgekehrt. Die Kontraktionsregel (2.10) ist deshalb äquivalent zu:
ab + ba = 2B(a, b) = 2ha|bi .
(2.11)
Die passende Bilinearform von Gn ist gerade das Skalarprodukt h · | · i. Dies ist auch
gerade die Relation, welche von den Pauli-Matrizen erfüllt wird:
σi σj + σj σi = 2δij ,
die die Basis einer dreidimensionalen Clifford-Algebra bilden.
Mit Hilfe des linearen Stufenoperators h · ik lässt sich ein Multivektor in seine
homogenen Anteile zerlegen:
X
X
A=
hAik =
Ak̄ ,
(2.190 )
k
k
wobei · k̄ eine alternative, platzsparende Notation darstellt. Für den Skalaranteil
ist in der Literatur zusätzlich die Bezeichnung hAi = A0̄ = hAi0 üblich. Der Stufenoperator wird vor allem genutzt, um abgeleitete Produkte zu definieren, die nur
einen Teil der Information des Geometrischen Produkts enthalten. Wie wir gesehen
haben, ist ein Multivektor Ak genau dann ein Spat der Stufe k, wenn man ihn in
ein Produkt von k antikommutierenden Vektoren faktorisieren kann.
46 Kapitel 2. Grundlagen der Geometrischen Algebra
Die Clifford-Algebra besitzt zwei wichtige kanonische Automorphismen. Die
Transposition · t aus Abschnitt 2.3.1 ist ein Anti-Automorphismus, d. h. er vertauscht die Reihenfolge eines Produkts gemäß (AB)t = B t At . Eindeutig wird die
Transposition durch die Forderung at = a für Vektoren festgelegt. Für einen k-Spat
gilt dann die wichtige Formel:
Atk = (−1)k(k−1)/2 Ak .
(2.25)
Der zweite wichtige Automorphismus ist die Grad-Involution α̂ aus Abschnitt 2.3.2.
Dieser erhält die Reihenfolge des Produkts α̂(AB) = α̂(A)α̂(B) und wird eindeutig
durch die Forderung α̂(a) = −a für Vektoren festgelegt. Für einen homogenen
Multivektor Ak ist α̂(Ak ) = (−1)k Ak . Dadurch zerfällt die Clifford-Algebra in eine
direkte Summe von geraden Multivektoren G + , die unter der Gradinvolution ihr
Vorzeichen behalten, und ungeraden Multivektoren G − , die das Vorzeichen ändern.
Aufbauend auf dem geometrischen Produkt definierten wir in Abschnitt 2.4 mit
Hilfe des Stufenoperators das äußere Produkt oder Dachprodukt:
X
hAk̄ Bl̄ ik+l
(2.40)
A ∧ B :=
kl
und das innere Produkt:
A • B :=
X
kl
hAk̄ Bl̄ i|l−k| .
(2.41)
Für homogene Multivektoren gelten die Vertauschungsregeln:
Ak ∧ Bl = (−1)kl Bl ∧ Ak ,
Ak • Bl = (−1)
(k−l) min(k,l)
(2.45)
Bl • A k .
(2.46)
Das äußere Produkt ist außerdem assoziativ, das innere Produkt nicht. Nach Gleichung (2.60) ist das Dachprodukt antisymmetrisch unter Vertauschung von zwei
Vektoren und verschwindet, wenn zwei Vektoren linear abhängig sind.
Das Skalarprodukt von Multivektoren wurde in Abschnitt 2.5 definiert durch:
A ∗ B := hABi ,
(2.62)
und alternativ durch
A ˜∗ B := At ∗ B = A ∗ B t .
Ersteres wird in der Standard-Literatur verwendet, da es sich sehr gut mit den
anderen Produkten verträgt, ist aber nicht positiv definit. Das alternative Skalarprodukt ˜∗ ist für alle Multivektoren positiv definit und kann deshalb auch verwendet
werden, um die Norm von Multivektoren zu definieren:
kAk2 := A ˜∗ A = At ∗ A = A ∗ At .
(2.72)
Beide Skalarprodukte sind nicht entartet. Das bedeutet aus A ∗ C = B ∗ C oder aus
A˜∗ C = B ˜∗ C für alle C folgt A = B. Für homogene Multivektoren unterschiedlicher
Stufen verschwindet das Skalarprodukt. Außerdem gilt: At ∗ B t = A ∗ B.
2.11 Zusammenfassung 47
Das innere Produkt hat einige Probleme, die aus der Verwendung des Betrags
in der Definition (2.41) herrühren. Deshalb ersetzten wir es in Abschnitt 2.6 durch
die Links-Kontraktion:
X
hAk̄ Bl̄ il−k ,
(2.76)
A y B :=
kl
und die Rechts-Kontraktion:
A x B :=
X
kl
hAk̄ Bl̄ ik−l .
(2.77)
In Gleichung (2.78) wurde der Zusammenhang mit den anderen Produkten analysiert. Mit Hilfe der Kontraktion ergaben sich die fundamentalen Zerlegungen:
aA = a y A + a ∧ A ,
Aa = A x a + A ∧ a .
(2.80)
(2.81)
Außerdem sind die Kontraktionen adjungiert zum äußeren Produkt:
A ∗ (B y C) = (A ∧ B) ∗ C ,
(C x B) ∗ A = C ∗ (B ∧ A) .
(2.82)
(2.83)
Obwohl die Kontraktionen, wie das innere Produkt, nicht assoziativ sind, erfüllen
diese eine universelle Quasi-Assoziativität:
A y (B y C) = (A ∧ B) y C ,
(C x B) x A = C x (B ∧ A) .
(2.85)
(2.86)
In Abschnitt 2.7 haben wir einige wichtige algebraische Identitäten abgeleitet.
Die Kontraktion und das äußere Produkt eines Vektors mit einem beliebigen Multivektor lässt sich demnach schreiben als:
(2.95)
a y A = 12 aA − α̂(A)a = −α̂(A) x a ,
1
a ∧ A = 2 aA + α̂(A)a = +α̂(A) ∧ a .
(2.96)
Weiterhin stellten wir fest, dass die Kontraktion von Vektoren eine graduierte Derivation sowohl bezüglich äußerem als auch geometrischem Produkt ist:
a y (A ∧ B) = (a y A) ∧ B + α̂(A) ∧ (a y B) ,
a y (AB) = (a y A)B + α̂(A)(a y B) .
(2.104)
(2.105)
Als wichtigen Spezialfall von (2.104) erhält man:
a y (a1 ∧ · · · ∧ ak ) =
k
X
j=1
(−1)j+1 (a y aj ) a1 ∧ · · · ǎj · · · ∧ ak ,
(2.97)
wobei die Notation ǎj bedeutet, dass der Vektor aj im Produkt ausgelassen wird.
Ein analoger Ausdruck ergibt sich aus (2.105) für das geometrische Produkt.
Anschließend haben wir den Zusammenhang zwischen Spaten und Unterräumen
untersucht. Es stellte sich heraus, dass zu jedem k-Spat Ak ein eindeutig bestimmter
k-dimensionaler Untervektorraum von V gehört:
V(Ak ) := {a ∈ V : a ∧ Ak = 0} .
(2.108)
48 Kapitel 2. Grundlagen der Geometrischen Algebra
Umgekehrt besitzt jeder k-dimensionale Untervektorraum Vk einen, bis auf das
Vorzeichen eindeutig festgelegten, auf 1 normierten k-Spat Ik ∈ G(Vk ), der auch
Pseudoskalar genannt wird. In diesem Sinn ließen sich Spat und zugehöriger Vektorraum als äquivalent auffassen.
Mit Hilfe eines, nicht notwendigerweise normierten, Pseudoskalars wurde in Abschnitt 2.8.2 die Projektion und die Rejektion auf den zugehörigen Unterraum definiert als:
PAk (B) := (B y Ak )A−1
k ,
PA⊥k (B)
:= (B ∧
Ak )A−1
k
.
(2.116)
(2.117)
Diese erfüllen alle Eigenschaften eines mathematischen Projektionsoperators und
sind äußere Morphismen, d. h. es gilt:
PAk (B ∧ C) = PAk (B) ∧ PAk (C) .
(2.120)
Die Projektion wurde verwendet, um eine einfache Definition der Geometrischen
Algebra eines Spats zu geben:
G(Ak ) := {B ∈ G(V, Q) : PAk (B) = B} .
(2.125)
Danach wurden der Pseudoskalar und die Hodge-Dualität diskutiert. Der Pseudoskalar besitzt ein wohldefiniertes Vertauschungsverhalten mit den Elementen der
zugehörigen Algebra:
Bl Ik = (−1)l(k−1) Ik Bl
für Bl ∈ G(Ik ) .
(2.126)
Beim Quadrieren machte man eine überraschende Entdeckung. Es ergab sich:
Ik2 = (−1)k(k−1)/2 ,
d. h. für bestimmte Dimensionen ist das Quadrat des Pseudoskalars gleich −1. Auf
diese Weise finden komplexe Strukturen Eingang in die Geometrische Algebra und
man kann deshalb auf komplexe Zahlen verzichten, die die geometrische Interpretation erschweren würden.
Die Hodge-Dualität der Geometrischen Algebra ist definiert als:
?Ik : G(In ) → G(In ) , A 7→ ?Ik A := AIk−1 .
(2.128)
Die Hodge-Dualität ist ein Isomorphismus von G(In ) (nicht nur von G(Ik )!) und
übersetzt im Unterraum l-Vektoren in (k − l)-Vektoren. Man stellt weiterhin fest,
dass Kontraktion und äußeres Produkt hodge-dual zueinander sind:
B y (AIk−1 ) = (B ∧ A)Ik−1
∀B ∈ G(Ik ) ,
(2.129)
wobei der dabei verwendete Pseudoskalar nicht normiert sein braucht.
In Abschnitt 2.9 wurden Basis-Darstellungen von Multivektoren in einer Grassmann-Basis konstruiert. Für „schiefe“ Basen wurde dazu das Hilfsmittel der reziproken Basis eingeführt. Unter Verwendung von Multiinizes kam man zum Ergebnis:
X
X
A=
(A ˜∗ eI ) eI =
(A ˜∗ eI ) eI ,
(2.139)
I
I
2.11 Zusammenfassung 49
mit eI = e(i1 ,...,ik ) := ei1 ∧ · · · ∧ eik und eI ˜∗ eJ = δIJ .
Abschließend haben wir in Abschnitt 2.10 die Geometrische Algebra auf nichteuklidische Räume verallgemeinert. Dazu wurde eine nichtentartete Bilinearform
B anhand der Signatur (p, q), also der Anzahl der positiven (p) und negativen
(q) Eigenwerte klassifiziert. Die zugehörige Geometrische Algebra trägt dann die
Bezeichnung Gp,q . Die euklidische Algebra Gn wird in dieser Schreibweise zu Gn,0 .
Im wesentlichen konnten alle bisherigen Resultate auch für den nicht-euklidischen Fall übernommen werden. Änderungen gab es beim Skalarprodukt und der
Norm, welche dann nicht mehr positiv definit sind. Dies wirkte sich auch auf die
Invertierbarkeit von Multivektoren aus.
Auch einem Spat konnte eine Signatur (p, q) zugewiesen werden, anhand der
Vektoren mit positvem (p) und negativem (q) Quadrat für eine beliebige orthogonale
Zerlegung. Wie wir gesehen haben, gehört zu einem Spat Ap,q mit Signatur (p, q)
ein eindeutig bestimmter Untervektorraum V(Ap,q ) von V mit Signatur (p, q).
Das Quadrat des Pseudoskalars Ip,q zu einem Raum mit Signatur (p, q) bekam
ein zusätzliches Minus-Zeichen:
2
Ip,q
= (−1)k(k−1)/2 (−1)q ,
(2.142)
abhängig vom Index q. Dadurch entstanden neue Möglichkeiten, wie komplexe
Strukturen ihren Weg in die Geometrische Algebra fanden. Wichtige Isomorphien
sind:
G0,0 ∼
und G0,2 ∼
= , G0,1 ∼
=
= .
Letztendlich trat aufgrund von Gleichung (2.142) bei der Norm des hodge-dualen
eines Multivektors ein zusätzliches Vorzeichen auf:
2
−1
k?Ip,q Ak2 = kAIp,q
k = (−1)q kAk2 .
(2.144)
Dieses Ergebnis könnte möglicherweise in der Spezielle Relativitätstheorie von Bedeutung sein, wenn es darum geht die Signatur der Raumzeit auszuwählen. Auch
wenn die Signatur im üblichen, vierdimensionalen Fall egal ist, treten in einer 2 + 1dimensionalen Raumzeit je nach gewählter Signatur unterschiedliche Vorzeichen in
Gleichung (2.144) auf. Allerdings ist unklar, ob diese Form der Hodge-Dualität in
den physikalisch relevanten Ausdrücken überhaupt eine Rolle spielt.
50 Kapitel 2. Grundlagen der Geometrischen Algebra
3. Reflexionen und Rotationen
In diesem Kapitel beschäftigen wir uns mit der Beschreibung von Spiegelungen
und Drehungen, die innerhalb der Geometrischen Algebra eine sehr einfache Form
erhalten. Auch Lorentz-Transformationen tauchen in diesem Formalismus ganz natürlich auf, sobald man Räume mit nicht-euklidischer Metrik betrachtet. Im ganzen
Kapitel bezeichnet V einen n-dimensionaler Vektorraum mit Signatur (p, q).
Reflexionen und Rotationen sind Beispiele für Isometrien eines Vektorraums.
Isometrien sind Automorphismen von V, die das Skalarprodukt (oder allgemeiner
eine beliebige Bilinearform) von Vektoren invariant lassen, genauer:
Definition 3.1 (Isometrie) Sei V ein K-Vektorraum, der mit einer Bilinearform
B : V × V → K versehen ist. Ein Automorphismus U : V → V heißt Isometrie,
wenn gilt:
B(U(v), U(w)) = B(v, w) für alle v, w ∈ V ,
d. h. der Wert der Bilinearform B ist unter der Transformation U erhalten.
Die Bilinearform induziert eine metrische Struktur auf V. Man kann B(v, v)
als eine Art „Länge“ interpretieren, wogegen B(v, w) etwas mit einem „Winkel“
zwischen den Vektoren v und w zu tun hat. Im Fall einer symmetrischen Bilinearform, d. h. B(v, w) = B(w, v) , nennt man die Geometrie orthogonal. Die zugehörigen Isometrien heißen dann auch orthogonale Transformationen. Falls die
Bilinearform antisymmetrisch ist, d. h. B(v, w) = −B(w, v) , spricht man von einer
symplektischen Geometrie. Eine ausführliche Behandlung von Isometrien in orthogonalen und symplektischen Vektorräumen findet sich in [Art57]. Im Folgenden
werden wir nur den orthogonalen Fall ohne Entartung diskutieren.1
Die orthogonalen Transformationen eines Vektorraums V mit Signatur (p, q) bilden eine Gruppe, die man mit O(p, q) bezeichnet. Die Rotationen bilden eine Untergruppe, die spezielle orthogonale Gruppe SO(p, q) genannt wird. Indem man die
Bilinearform B durch eine Matrix beschreibt und diese diagonalisiert, kommt man
zur wohlbekannten Matrixdarstellung dieser Gruppen (vgl. [BS95, Abschnitt 17.1]):
O(p, q) = {U ∈ GL(n,
SO(p, q) = {U ∈ GL(n,
) : Ut
p,q U
=
t
p,q U
=
):U
p,q }
p,q
,
, det U = +1} .
1 Wir haben die Clifford-Algebra bisher nur für symmetrische Bilinearformen definiert. Das
Analogon zur Clifford-Algebra über einem symplektischen Vektorraum ist die Weyl-Algebra. Wie
man Clifford-Algebren für eine nicht-symmetrische Bilinearform definieren kann, ist im Abschnitt
A.5 des Anhangs auf Seite 133 skizziert.
52 Kapitel 3. Reflexionen und Rotationen
s
v
vk
v⊥
−vk
S(v)
Abbildung 3.1 Spiegelung des Vektors v an der Hyperebene senkrecht zum
nichtsingulären Vektor s.
Hierbei ist
p,q
die diagonalisierte Matrix der Bilinearform mit Signatur (p, q):
+ p
,
p,q =
− q
und k die Einheitsmatrix. Die Forderung U t p,q U = p,q garantiert, dass die Bilinearform unter der linearen Transformation U erhalten ist. Die Gruppe GL(n, K)
heißt allgemeine lineare Gruppe und besteht aus den invertierbaren n × n-Matrizen
mit Einträgen in K. Die Invertierbarkeit entspricht der Forderung nach Automorphismen in der Definition der Isometrie. Im euklidischen Fall (p = n, q = 0),
vereinfachen sich die obigen Darstellungen zu:
) : U tU = } ,
O(n) = {U ∈ GL(n,
SO(n) = {U ∈ GL(n,
t
) : U tU =
Eine Matrix mit der Eigenschaft U U =
3.1
, det U = +1} .
heißt orthogonal.
Spiegelung an einer Hyperebene
Wir beginnen mit der Spiegelung eines Vektors v an der (n − 1)-dimensionalen
Hyperebene senkrecht zum nichtsingulären Vektor s. Dazu zerlegen wir den Vektor
mit Hilfe der Projektion in Anteile senkrecht und parallel zu s:
v = v⊥ + vk = (v ∧ s)s−1 + (v y s)s−1 .
Dass dafür die Inverse s−1 benötigt wird, stellt kein Problem dar, da jeder nichtsinguläre Vektor invertierbar ist. Wie aus Abbildung 3.1 deutlich wird, ist der an der
Hyperebene reflektierte Vektor S(v) durch S(v) = v⊥ − vk gegeben. Dies kann man
mit Hilfe der Relationen zwischen den unterschiedlichen Produkten vereinfachen.
S(v) = v⊥ − vk = (v ∧ s)s−1 − (v y s)s−1 = −(s ∧ v)s−1 − (s x v)s−1
= −(s ∧ v + s x v)s−1 = −svs−1 .
Die Reflexion an einer Hyperebene senkrecht zu s hat deshalb in der geometrischen
Algebra die einfache Form:
S(v) = −svs−1 = α̂(s)vs−1 .
(3.1)
3.2 Der Satz von Cartan-Dieudonné 53
3.2
Der Satz von Cartan-Dieudonné
Ein wichtiges Resultat aus der Algebra ist, dass sich jede orthogonale Transformation aus den Spiegelungen an Hyperebenen aufbauen lässt. Man sagt deshalb, dass
die orthogonalen Transformationen von den Spiegelungen generiert werden. Dies
ist die Aussage des Satzes von Cartan-Dieudonné:
Satz 3.1 (Cartan-Dieudonné) Sei V ein nicht-entarteter Vektorraum der Dimension n. Dann lässt sich jede orthogonale Transformation U ∈ O(p, q) von V als
Produkt von maximal n Reflexionen Sj an Ebenen senkrecht zu nichtsingulären
Vektoren schreiben:
U = Sk ◦ · · · ◦ S1 mit k ≤ n .
(3.2)
Jede Rotation ist dabei das Produkt einer geraden Anzahl von Spiegelungen.
Wir wollen hier nur den Beweis für einen euklidischen Vektorraum über wiedergeben, wie er bei Riesz [Rie93, Section 2.2] dargestellt ist. Einen allgemeinen
Beweis für beliebige Körper und Vektorräume beliebiger Signatur findet man im
Buch von Artin [Art57, Theorem 3.20]. Das Hauptproblem im nicht-euklidischen
Fall liegt dabei darin, dass im Allgemeinen außer dem Nullvektor weitere singuläre
Vektoren auftreten, die man gesondert behandeln muss.
Der folgende Beweis beruht auf Induktion über die Dimension n. Für n = 0
ist die einzige orthogonale Transformation die Identität, und die Behauptung wird
durch k = 0 in Gleichung (3.2) erfüllt. Für n = 1 gibt es zusätzlich nur eine einzige
Spiegelung, weshalb auch dieser Fall klar ist. Wir nehmen also an, die Behauptung
gelte für (n − 1). Für den Induktionsschritt von (n − 1) nach n unterscheiden wir
zwischen zwei Fällen:
1. Fall: Wir nehmen an, dass ein Vektor 0 6= v ∈ V existiert, der unter der
Transformation U invariant ist, d. h. es gelte Uv = v. Bezeichne mit H die (n − 1)dimensionale Hyperebene senkrecht zu v. Für jeden Vektor w in der Ebene H gilt
0 = hv |wi = hUv |Uwi = hv |Uwi, folglich ist auch das Bild Uw von w wieder in
H, wobei wir die Erhaltung des Skalarprodukts unter der Isometrie U ausgenutzt
haben. Die Transformation U bildet also die Ebene H auf sich selbst ab.
Sei nun UH die Einschränkung von U auf die Ebene H. Nach Vorraussetzung ist
U eine Isometrie von V und somit UH eine Isometrie des Untervektorraums H. Nach
Induktionsvorraussetzung existieren in H dann k ≤ n − 1 Hyperebenen Ẽ1 , . . . , Ẽk
der Dimension (n − 2), so dass UH = S̃k ◦ · · · ◦ S̃1 ist, wobei S̃j die Reflexion an der
Hyperebene Ẽj bezeichnet (siehe Abbildung 3.2a auf der nächsten Seite).
Diese Reflexionen in der Hyperebene H wollen wir nun zu Reflexionen in ganz
V fortsetzen. Dazu bezeichnen wir mit L den eindimensionalen Untervektorraum,
der von v aufgespannt wird und bilden die direkte Summe Ej := L ⊕ Ẽj . Jedes Ej
ist eine (n − 1)-dimensionale Hyperebene in V und die Einschränkung der Reflexion
Sj an der Ebene Ej auf den Unterraum H liefert Sj |H = S̃j . Die gesuchte Zerlegung
ist deshalb U = Sk ◦ · · · ◦ S1 mit k ≤ n − 1 und wir sind mit diesem Fall fertig.
2. Fall: Wir nehmen an, es gibt einen Vektor v mit Uv 6= v (ansonsten sind wir
im 1. Fall). Da jede lineare Transformation den Nullvektor auf sich selbst abbildet,
muss v 6= 0 sein. Außerdem gilt:
hUv |Uvi = hv |vi ⇐⇒ hUv − v |Uv + vi = 0 ,
(3.3)
54 Kapitel 3. Reflexionen und Rotationen
L
E1
v
E2
Uv + v
Uv
v
H
Ẽ2
Uv − v
·
Ẽ1
H
(a)
(b)
Abbildung 3.2 Zum Beweis des Satzes von Cartan-Dieudonné.
was man durch Ausmultiplizieren schnell nachprüfen kann. Sei nun H die Hyperebene senkrecht zum Vektor Uv − v 6= 0 und SH die zugehörige Spiegelung (siehe
Abbildung 3.2b). Wegen Gleichung (3.3) liegt der Vektor Uv + v in dieser Ebene
und ist deshalb unter der Spiegelung SH erhalten:
SH (Uv + v) = +(Uv + v) = v + Uv .
Andererseits gilt natürlich für den auf H senkrechten Vektor Uv − v:
SH (Uv − v) = −(Uv − v) = v − Uv .
Addition der beiden Gleichung liefert SH Uv = v, folglich ist v invariant unter der
zusammengesetzten Transformation SH ◦ U. Da nach Vorraussetzung v 6= 0 war,
können wir auf SH ◦ U den ersten Fall anwenden und bekommen eine Zerlegung
SH ◦ U = Sk ◦ · · · ◦ S1 mit k ≤ n − 1. Weil Reflexionen selbstinvers sind, folgt daraus
durch Multiplikation mit SH von links:
U = S H ◦ Sk ◦ · · · ◦ S 1
mit k + 1 ≤ n .
Damit haben wir auch in diesem Fall eine geeignete Zerlegung von U konstruiert
und der Beweis des Satzes für den euklidischen Vektorraum ist abgeschlossen. Im
nächsten Abschnitt werden wir sehen, wie sich aus zwei Reflexionen eine Rotation
ergibt. Da die Drehungen eine Untergruppe der orthogonalen Transformationen
bilden, folgt daraus der Rest der Behauptung.
Der Satz von Cartan-Dieudonné erlaubt einige interessante Schlussfolgerungen.
Die Darstellung einer Reflexion an einer Hyperebene ist uns schon in Form von Gleichung (3.1) bekannt. Damit lässt sich in der geometrischen Algebra jede beliebige
orthogonale Transformation U schreiben als:
−1
U(v) = α̂(sk · · · s1 ) v s−1
1 · · · sk
mit k ≤ n ,
(3.4)
wobei sj nichtsinguläre Vektoren sind, die man geeignet wählen muss. Fasst man
dieses Produkt aus k invertierbaren Vektoren zu einem Multivektor U = sk · · · s1
zusammen, so wird Gleichung (3.4) zu:
U(v) = α̂(U )vU −1 .
(3.5)
3.2 Der Satz von Cartan-Dieudonné 55
Diese Darstellung von orthogonalen Transformationen heißt verschränkt adjungierte Darstellung (im Englischen twisted adjoint representation) und wurde erstmals
von Atiyah, Bott und Shapiro in [ABS64] verwendet. Der Vorteil gegenüber der einfacheren adjungierten Darstellung UvU −1 ist, dass man auf diese Weise Reflexionen
und Rotationen gemeinsam beschreiben kann.
Die Art der in Gleichung (3.5) auftretenden Multivektoren ist so wichtig, dass
sie einen eigenen Namen verdient haben. Einen Multivektor, der sich in ein Produkt
von k invertierbaren Vektoren zerlegen lässt, wollen wir mit dem Begriff k-Versor 2
bezeichnen. Die Versoren bilden unter dem geometrischen Produkt eine Gruppe, die
man Clifford-Lipschitz-Gruppe Γp,q nennt. Nach Lounesto [Lou01, Section 17.2]
lässt sich diese auch ausdrücken als:
Γp,q = {U = sk · · · s1 : sj ∈ V × }
×
: α̂(U )vU −1 ∈ V ∀v ∈ V} ,
= {U ∈ Gp,q
×
wobei Gp,q
die Gruppe der invertierbaren Multivektoren bezeichnet. Die Elemente
der Clifford-Lipschitz-Gruppe sind also genau die invertierbaren Multivektoren, die
unter der verschränkt adjungierten Darstellung Vektoren auf Vektoren abbilden. Im
Allgemeinen ist ein Versor ein inhomogener Multivektor, wie man sich einfach am
Produkt von zwei Vektoren deutlich macht. Wenn man allerdings nur senkrechte
Vektoren in der Zerlegung verwendet, sieht man direkt, dass die k-Spate einen
Spezialfall der k-Versoren darstellen.
Man kann nun leicht zeigen, dass das Skalarprodukt wirklich unter allen Transformationen der Form (3.5) erhalten ist. Da es ohne zusätzlichen Aufwand möglich
ist, wollen wir sogar eine etwas allgemeinere Aussage beweisen, nämlich die Erhaltung des Skalarprodukts von Multi vektoren unter solch einer Transformation. Sei
−1
dazu U = sk · · · s1 ein beliebiger k-Versor mit Inversem U −1 = s−1
1 · · · sk . Wegen
−1
−1
sj ∝ sj ist auch U proportional zu U . Da ein Skalar aber mit jedem Multivektor
kommutiert, folgt daraus UAU −1 = U −1AU für alle A ∈ Gp,q . Mit diesem Vorwissen
ergibt sich für beliebige Multivektoren A, B ∈ Gp,q :
α̂(U )AU −1 ˜∗ α̂(U )BU −1 = (UAU −1 ) ˜∗ (UBU −1 ) = (U −1AU ) ˜∗ (UBU −1 )
−1
−1
−1 t
= hs−1
k · · · s1 As1 · · · sk sk · · · s1 B s1 · · · sk i
−1
−1
−1
t
t
= hs−1
k · · · s1 AB s1 · · · sk i = hAB s1 · · · sk sk · · · s1 i
= hAB t i = A ˜∗ B ,
wobei wir im vorletzten Schritt die Zyklizität hABCi = (AB) ∗ C = C ∗ (AB) =
hCABi ausgenutzt haben. Als Spezialfall gilt dieses Ergebnis natürlich auch für Vektoren, womit wir unsere ursprüngliche Behauptung gezeigt haben. An dieser Stelle
wird aber schon deutlich, dass sich die Darstellung (3.5) ohne große Änderungen
auf Isometrien von Multivektoren verallgemeinern lässt.
Neben der Zerlegung einer beliebigen orthogonalen Transformation in Spiegelungen, macht der Satz von Cartan-Dieudonné die Aussage, dass die Komposition
einer geraden Anzahl von Reflexionen eine Rotation ergibt. Eine Drehung, die sich
2 Die Bezeichnung ist vom Englischen „re-verse“ abgeleitet und wurde nach [HS92] schon von
Hamilton in seinem Quaternionen-Kalkül verwendet. Dieser Kalkül stellt einen Spezialfall der in
beliebigen Dimensionen gültigen Formel (3.5) dar.
56 Kapitel 3. Reflexionen und Rotationen
in genau zwei Reflexionen zerlegen lässt, wollen wir einfache Drehung nennen.
Dementgegen heißt eine Drehung zusammengesetzt, falls sie sich nur durch eine
höhere Anzahl von Reflexionen ausdrücken lässt. Jede zusammengesetzte Drehung
lässt sich nach dem Satz jedoch in eine Komposition von einfachen Drehungen zerlegen, indem man jeweils zwei Reflexionen im Produkt (3.2) zu einer einfachen
Rotation zusammenfasst.
In der Sprache der geometrischen Algebra beschreibt man Drehungen durch
einen geraden Versor R = s2k · · · s1 ∈ Γ+
p,q mit 2k ≤ n. Da ein gerader Versor nach
Gleichung (2.54) ein gerader Multivektor ist (ein ungerader Versor ist dagegen ein
ungerader Multivektor), ergibt die Grad-Involution α̂(R) = R. Damit vereinfacht
sich Gleichung (3.5) für Rotationen zu:
−1
R(v) = RvR−1 = s2k · · · s1 vs−1
1 · · · s2k
für R ∈ Γ+
p,q .
Fasst man nun jeweils zwei Reflexionen zu einer einfachen Drehung Rj = s2j s2j−1
zusammen, dann ergibt sich die Zerlegung einer zusammengesetzten Rotation in
einfache Drehungen als:
R(v) = RvR−1 = Rk · · · R1 vR1−1 · · · Rk−1
mit k ≤ 21 n .
(3.6)
Dies ist eine Folge der Assoziativität des geometrischen Produkts.
Die Zusatzbedingung k ≤ 21 n in Gleichung (3.6) macht sogar eine Aussage
über die maximal mögliche Anzahl von einfachen Drehungen in der Zerlegung. Wie
man direkt erkennt, gibt es für n = 0, 1 außer der wenig interessanten Identität
keine weiteren Drehungen, da k nur ganzzahlige Werte annehmen kann. In zwei
und drei Dimensionen treten dagegen nur einfache Drehungen auf. Jede beliebige
Verkettung von Drehungen lässt sich deshalb auf eine einzige, einfache Drehung
zurückführen. Im zweidimensionalen Fall ist dies offensichtlich, da man nur die
Drehwinkel addieren muss. Im dreidimensionalen Raum ist es dagegen nicht mehr
so trivial, den Drehwinkel und die Drehachse zu bestimmen.
Wirklich interessant wird es im vierdimensionalen Raum, wo erstmals zusammengesetzte Drehungen auftauchen. In der speziellen Relativitätstheorie ist dies
eine wohlbekannte Tatsache, da sich die eigentlichen, orthochronen Lorentz-Transformationen als Rotationen auffassen lassen (mehr dazu in Abschnitt 3.6). Die Zerlegung in einfache Drehungen ist dann im Wesentlichen der Satz über die Zerlegung
einer eigentlichen, orthochronen Lorentz-Transformation in ein Produkt aus einer
räumlicher Drehung, gefolgt von einer speziellen Lorentz-Transformation (siehe z. B.
[Sch99, Abschnitt 4.4.1]).
Abschließend ist noch eine kurze Bemerkung zum Konzept der „Drehachse“ angebracht. In drei Dimensionen ist eine Drehachse, die senkrecht auf der Drehebene
steht, ein sinnvoller Begriff. Auch im zweidimensionalen Fall stellen wir uns immer
eine Drehachse vor, was daran liegt, dass wir eine Ebene automatisch in unsere
anschauliche, dreidimensionale Welt einbetten. Diese Dreh-„achse“ ist im Zweidimensionalen in Wirklichkeit aber nur ein Punkt, da die „Achse“ gar nicht mehr in
der zweidimensionalen Ebene liegt. In vier Dimensionen reicht dagegen ein eindimensionaler Unterraum nicht mehr aus, um eine einfache Drehung eindeutig festzulegen. Andererseits gibt es dort wiederum zusammengesetzte Drehungen, die nur
den Nullvektor konstant lassen.
Im Allgemeinen ist es deshalb viel sinnvoller, die einfachen Drehungen durch eine zweidimensionale Drehebene zu beschreiben. Im Gegensatz zur Drehachse nimmt
3.3 Einfache Drehungen im Euklidischen 57
die Drehebene keinen Bezug auf den umgebenden Raum, weshalb sie ohne Probleme auf beliebige Dimensionen verallgemeinert werden kann. Zusammengesetzte
Drehungen besitzen dann mehrere Drehebenen, die sich nur in einem Punkt (dem
Ursprung) schneiden. Die Anzahl der einfachen Drehungen k aus Gleichung (3.6)
entspricht also genau der Anzahl von zweidimensionalen Ebenen, die man auf diese Art im n-dimensionalen Raum unterbringen kann. In drei Dimensionen ist die
Schnittmenge zweier Ebenen durch den Ursprung offensichtlich immer mindestestens eine Gerade, weshalb es in diesem Fall nur einfache Drehungen gibt. Im vierdimensionalen Raum ist dagegen genug Platz, um zwei Drehebenen unterzubringen.
In der geometrischen Algebra entspricht dies der Aussage, dass in drei Dimensionen
jeder 2-Vektor ein 2-Spat ist, wogegen es im vierdimensionalen Fall 2-Vektoren gibt,
die keine 2-Spate sind. Ein Beispiel dafür ist der Bivektor B = e1 ∧ e2 + e3 ∧ e4 ,
der sich nicht weiter vereinfachen lässt. Wie wir sehen werden, besteht zwischen
Drehungen und Bivektoren ein enger Zusammenhang.
3.3
Einfache Drehungen im Euklidischen
In diesem Abschnitt wollen wir zeigen, dass die Verkettung von zwei Reflexionen
eine Rotation ergibt und wie man daraus die Drehebene und den Drehwinkel bestimmt. Nach Gleichung (3.1) war die Spiegelung an einer Hyperebene senkrecht
zum nichtsingulären Vektor a gegeben durch:
Sa (v) = −ava−1 = α̂(a)va−1 .
Offensichtlich spielt in dieser Formel die Länge des Vektors a gar keine Rolle, so
dass wir ihn ohne Einschränkungen auf 1 normieren dürfen. Im euklidischen Fall
ist dann a−1 = a und deshalb:
Sa (v) = −ava für kak = 1 .
Da man alle möglichen Reflexionen an Hyperebenen durch auf 1 normierte Vektoren
beschreiben kann, stellt dies keine Einschränkung dar. Um Schreibarbeit zu sparen
wollen wir deshalb im Folgenden nur noch normierte Vektoren zur Beschreibung
von Reflexionen verwenden.
Spiegelt man jetzt das Resultat Sa (v) ein weiteres Mal, an einer Ebene senkrecht
zum (normierten) Vektor b, so ergibt sich:
R(v) := Sb ◦ Sa (v) = bavab = RvRt ,
(3.7)
wobei wir R := ba definiert haben und kRk = kbk kak = 1 gilt. Der Versor R ist
im Allgemeinen inhomogen und besteht aus einem Skalar b y a = hb|ai und einem
2-Spat b ∧ a. Wir zerlegen nun v in einen Anteil vk parallel, und v⊥ , senkrecht
zur zweidimensionalen Ebene, die durch den Spat b ∧ a aufgespannt wird. Den
Pseudoskalar dieser Ebene bezeichnen wir mit I2 . Dann ist nach Abschnitt 2.8.2:
vk I2 = v k y I2
und
v ⊥ I2 = v ⊥ ∧ I 2 .
Außerdem haben wir für einen Bivektor α̂(I2 ) = I2 , und unter Verwendung der
Relationen (2.96) und (2.97) ergibt sich:
vk I2 = vk y I2 = −I2 x vk = I2t vk ,
v⊥ I2 = v⊥ ∧ I2 = +I2 ∧ v⊥ = I2 v⊥ .
58 Kapitel 3. Reflexionen und Rotationen
R(vk )
?b
2ϕ
ϕ
Sa (vk )
?a
vk
Abbildung 3.3 Zwei aufeinanderfolgende Spiegelungen an Geraden in der
Ebene ergeben eine Drehung um das Doppelte des Winkels ϕ, der von a und
b eingeschlossen wird.
Da der skalare Anteil mit jedem Vektor kommutiert und nach unseren Voraussetzungen RRt = 1 ist, wird (3.7) zu:
R(v) = RvRt = R(v⊥ + vk )Rt = RRt v⊥ + R2 vk = v⊥ + R2 vk ,
(3.8)
Die beidseitige Wirkung des Versors R auf v lässt also den Anteil v⊥ senkrecht zur
Ebene b ∧ a invariant und wirkt nur auf den Anteil vk in der Ebene.
Es gilt nun herauszufinden, was R2 vk ist. Als erstes stellen wir dazu fest, dass
auch R2 vk wieder in der Ebene I2 liegen muss, da R = ba in der Unteralgebra G(I2 )
liegt und diese abgeschlossen ist. Ab jetzt dürfen wir uns also ganz auf die Ebene beschränken und den umgebenden Raum vergessen. Es gibt dann verschiedene
Möglicheiten zu zeigen, dass R2 vk = Rvk Rt eine Drehung ist.
Wie aus der geometrischen Konstruktion von Abbildung 3.3 folgt, ergeben zwei
aufeinanderfolgende Spiegelungen an Geraden in der Ebene eine Drehung um das
Doppelte des Winkels ϕ, der von den Geraden eingeschlossen wird. Da die Vektoren
a und b senkrecht auf den Geraden ?a bzw. ?b stehen, ist der Winkel ϕ zwischen
den Geraden gleich dem Winkel zwischen den Vektoren a und b. In der Geometrie
ist diese Aussage als Hamilton’sches Prinzip bekannt [Rie93, Chapter II]. Damit
ist (3.8) eine Drehung von v um den zweifachen Winkel zwischen a und b in der
Drehebene, die durch den Spat b ∧ a aufgespannt wird.
Interessanterweise stellt sich heraus, dass schon die einfache, linksseitige Wirkung Rvk in der Ebene (in höheren Dimensionen nicht mehr!) eine Rotation um den
Winkel ϕ ist, der von den Vektoren a und b eingeschlossen wird. Um dies zu beweisen, wählen wir in der Ebene eine orthonormale Basis (e1 , e2 ) mit der Orientierung
des Spats a ∧ b = −b ∧ a und zerlegen vk in dieser Basis als vk = vk1 e1 + vk2 e2 .
Den Pseudoskalar der Ebene können wir mit Hilfe dieser Basis als I2 = e2 e1 =
(b ∧ a)/ kb ∧ ak schreiben. Der Versor R lässt sich dann zerlegen in:
R = ba = hb|ai + b ∧ a = cos ϕ + I2 sin ϕ ,
wobei ϕ der Winkel zwischen a und b ist. Damit ergibt sich:
Rvk = (cos ϕ + I2 sin ϕ)(vk1 e1 + vk2 e2 )
= cos ϕ vk1 e1 + cos ϕ vk2 e2 + sin ϕ vk1 I2 e1 + sin ϕ vk2 I2 e2
= cos ϕ vk1 e1 + cos ϕ vk2 e2 + sin ϕ vk1 e2 − sin ϕ vk2 e1
(3.9)
3.3 Einfache Drehungen im Euklidischen 59
= (cos ϕ vk1 − sin ϕ vk2 ) e1 + (sin ϕ vk1 + cos ϕ vk2 ) e2 .
Dies ist eine Drehung von vk um den Winkel ϕ. Folglich ist R2 vk = R(Rvk ) eine
Drehung um den doppelten Winkel, 2ϕ. Letztendlich erhalten wir also das gleiche
Ergebnis wie nach dem Hamilton’schen Prinzip, was natürlich zu erwarten war.
Die Zerlegung von R gemäß Gleichung (3.9) lässt sich jedoch noch etwas umschreiben. Dazu erinnern wir uns, dass im euklidischen Fall das Quadrat des Pseudoskalars (I2 )2 = −1 ergibt (vgl. Abschnitt 2.8.3), genau wie die imaginäre Einheit i.
Deshalb lässt sich R in einer weiteren Form ausdrücken als:
R = ba = hb|ai + b ∧ a = cos ϕ + I2 sin ϕ = eI2 ϕ .
(3.10)
Die Drehung um den Winkel ϕ in der Ebene I2 ist dann gegeben durch:
Rvk = eI2 ϕ vk .
Man vergleiche dies mit der bekannten Drehformel für komplexe Zahlen, eiϕ z !
Ursprünglich versuchte Hamilton diese einseitige Wirkung von Rotationen mit
Hilfe der Quaternionen auf 3 Dimensionen zu verallgemeinern. Wie sich herausstellt
ist dies nicht möglich, da in höheren Dimensionen Zusatzterme mit den falschen Stufen auftreten. Für Dimensionen größer als 2 muss man deshalb immer die beidseitige
Wirkung (3.8) verwenden. Mit der Schreibweise (3.10) wird dies zu:
R(v) = RvRt = eI2 ϕ ve−I2 ϕ .
Will man eine Drehung von v um einen vorgegebenen Winkel ϑ beschreiben, so
muss man in dieser Gleichung den Winkel ϕ halbieren und erhält die Form:
R(v) = RvRt = eI2 ϑ/2 ve−I2 ϑ/2 ,
(3.11)
wobei ϑ der Drehwinkel und I2 der Pseudoskalar der Drehebene ist.
Falls die Vektoren a und b nicht auf 1 normiert sind, ändert sich nur wenig. In
diesem Fall wird die Zerlegung (3.9) zu:
R = ba = kbk kak (cos ϕ + I2 sin ϕ) = kRk (cos ϕ + I2 sin ϕ) .
Drehwinkel und -ebene ergeben sich aus R dann mittels:
cos(ϑ/2) =
1
hRi ,
kRk
I2 =
1
hRi2 ∝ hRi2 .
kRk sin(ϑ/2)
Umgekehrt wird ein einfacher (auf 1 normierter) Versor R anhand von Gleichung (3.10) eindeutig durch die orientierte Drehebene I2 und den halben Drehwinkel ϕ festgelegt. Demnach können wir den Versor geometrisch als orientierten
Kreisbogen in der zweidimensionalen Ebene I2 auffassen. Da keine Richtung ausgezeichnet ist, darf dieser entlang des Einheitskreises beliebig gedreht werden (siehe
Abbildung 3.4a auf der nächsten Seite). Auffallend ist die Analogie zur Interpretation von Vektoren als orientierte Linienelemente.
Das Produkt von zwei Versoren R2 und R1 mit der gleichen Drehebene I2 ist
gegeben durch:
R2 R1 = eI2 ϕ2 eI2 ϕ1 = eI2 (ϕ1 +ϕ2 ) .
60 Kapitel 3. Reflexionen und Rotationen
R2
R1
R
R
ϕ2
ϕ
ϕ
ϕ1
(b)
(a)
Abbildung 3.4 (a) Die geometrische Interpretation des Versors R als Kreisbogen. (b) Multiplikation von Versoren mit der gleichen Drehebene.
Dies lässt sich geometrisch durch das Zusammenhängen der Kreisbögen in der Ebene I2 realisieren, wobei die Orientierung der Drehungen zu beachten ist (siehe Abbildung 3.4b).
Diese Überlegungen lassen sich auf den Fall von unterschiedlichen Drehebenen
verallgemeinern. Die Kreise in der Ebene werden dabei zu Großkreisen auf der
Einheitskugel, die sich als Schnitt mit der Kugel mit der Drehebene ergeben. Das
Produkt von zwei einfachen Versoren R1 und R2 ist für den dreidimensionalen Fall
in Abbildung 3.5 dargestellt. Hier schneiden sich zwei Großkreise mindestens in
einem Punkt und man erhält das Produkt R2 R1 bzw. R1 R2 wieder durch Zusammenhängen der Kreisbögen. Im Gegensatz zum zweidimensionalen Fall funktioniert
diese geometrische Interpretation des Clifford-Produkts übrigens nur, wenn man die
Halbwinkel ϕ = ϑ/2 wie in Gleichung (3.11) verwendet. Wie im Bild deutlich wird,
ist die Multiplikation im Allgemeinen nichtkommutativ.
In mehr als drei Dimensionen bekommt man eine kleine Änderung durch die
Tatsache, dass sich zwei Großkreise nicht mehr unbedingt schneiden müssen. In
n ≥ 4 Dimensionen gibt es nämlich zwei vollständig orthogonale, 2-dimensionale
Unterräume, die nur den Ursprung gemeinsam haben. In diesem Fall ist ein allgemeiner Versor durch mehrere Kreisbögen darzustellen. Im Wesentlichen ist uns
R2
R2 R1
R1
R1
R2
R1 R2
Abbildung 3.5 Multiplikation von Versoren in drei Dimensionen. Wie man
sieht, ist die Komposition von Rotationen im Allgemeinen nichtkommutativ.
3.3 Einfache Drehungen im Euklidischen 61
b
n
a
−nan
Abbildung 3.6 Die Rotation von a nach b entspricht der Spiegelung an der
Hyperebene senkrecht zu n, gefolgt von einer Reflexion an der Hyperebene
senkrecht zu b.
das schon vom Ende des Abschnitts 3.2 bekannt, wonach eine beliebige Drehung
im n-dimensionalen Raum durch k ≤ n/2 Drehebenen und Drehwinkel beschrieben
werden kann.
Als Spezialfall von Gleichung (3.11) wollen wir kurz zeigen, wie man im dreidimensionalen Vektorraum 3 Rotationen um eine Drehachse durch einen Vektor
a beschreiben kann. Üblicherweise kodiert man dazu den Drehwinkel α durch die
Länge des Vektors: α = kak. Die Drehung um a mit Winkel α lässt sich dann
schreiben als:
Ra (v) = e?a/2 ve− ?a/2 .
(3.12)
Aus Abschnitt 2.8.3 wissen wir schon, dass der Hodgeoperator den Vektor a auf den
dazu senkrechten 2-Spat ? a abbildet, wobei der Betrag erhalten bleibt. Deshalb ist:
1
1
a = αI2 mit α = kak und I2 = ? kak
a ,
? a = kak ? kak
woraus sich durch Vergleich mit (3.11) die nur im dreidimensionalen gültige Darstellung einer Drehung um eine Drehachse ergibt.
Zum Ende dieses Abschnitts wollen wir noch vorführen, wie sich zu einer vorgegebenen, einfachen Drehung die passenden Spiegelungen und damit der Versor
R = ba konstruieren lässt (vgl. [DL03, Section 2.7.2]). Dazu betrachten wir eine
einfache Rotation, die den Vektor a nach b dreht und alle Vektoren senkrecht zur
Ebene b ∧ a invariant lässt. Da die Rotation eine Isometrie ist, dürfen wir ohne
Beschränkung der Allgemeinheit annehmen, dass a und b auf 1 normiert sind.
Wie in Abbildung 3.6 dargestellt ist, entspricht diese Drehung einer Spiegelung
an der Ebene senkrecht zum Vektor n, der mittig zwischen a und b liegt, gefolgt
von einer Reflexion an der Hyperebene senkrecht zu b. Der für die erste Spiegelung
notwendige Vektor n ist für normierte a und b gegeben durch:
n=
a+b
.
ka + bk
Kombiniert man dies mit der Spiegelung senkrecht zu b, ergibt sich der gesuchte
Versor als:
R = bn =
ba + 1
1 + ba
1 + ba
=p
= p
.
ka + bk
kak + kbk + 2ha|bi
2(1 + ha|bi)
(3.13)
62 Kapitel 3. Reflexionen und Rotationen
Der Versor ist schon auf 1 normiert, da dies für b und n der Fall war. Wendet man
ihn auf a an, so erhält man das gewünschte Resultat:
1
a + 2b + bab
2(1 + ha|bi)
2(1 + ha|bi)
2(1 + ha|bi)
1
a + 2b + b y (ab) + b ∧ (ab)
=
2(1 + ha|bi)
1
=
a + 2b + ha|bib − ahb|bi + bha|bi + b ∧ a ∧ b
2(1 + ha|bi)
2b(1 + ha|bi)
1
2b + 2bha|bi =
=b.
=
2(1 + ha|bi)
2(1 + ha|bi)
RaRt = p
1 + ba
ap
1 + ab
=
Mit einem kleinen Trick geht es in diesem Fall auch schneller. Dazu bemerkt man,
dass bn gleich na ist. Damit bekommt man sofort RaRt = bnaan = bnn = b und
ist fertig.
3.4
Die Pin- und Spin-Gruppen
In diesem Abschnitt wollen wir die Gruppeneigenschaft der Isometrien genauer untersuchen. Wir beginnen mit einer Bestandsaufnahme, welche interessanten Gruppen sich in der Geometrischen Algebra konstruieren lassen, wenn man das geometrische Produkt als Verknüpfung verwendet. Die Menge aller Multivektoren selbst
liefert dabei allerdings nur einen Monoid (siehe Definion A.1 auf Seite 117), da
nicht alle Multivektoren ein Inverses besitzen. Die größtmögliche Gruppe ist des×
halb die Gruppe der Einheiten Gp,q
von Gp,q , welche aus den invertierbaren
Multivektoren gebildet wird:
×
:= {A ∈ Gp,q : A invertierbar} .
Gp,q
(3.14)
Offensichtlich sind alle weiteren Gruppen, die sich in der Algebra Gp,q konstruieren
×
lassen, in Gp,q
als Untergruppen enthalten. Leider ist es sehr schwer, ein allgemeines
Kriterium für die Invertierbarkeit von Multivektoren anzugeben, weshalb man nur
in Spezialfällen die Elemente A explizit hinschreiben kann.
Eine Gruppe, bei der man die Elemente konkret angeben kann, ist die Clifford-Lipschitz-Gruppe Γp,q , die wir in Abschnitt 3.2 eingeführt haben. Sie besteht
aus den Versoren, d. h. invertierbaren Multivektoren, die sich in ein Produkt von
Vektoren zerlegen lassen:
×
: sj ∈ V} .
Γp,q = {A = sk · · · s1 ∈ Gp,q
Das Produkt A = sk · · · s1 ist genau dann invertierbar, wenn die Vektoren sk inver−1
tierbar sind, wobei in diesem Fall das Inverse offensichtlich durch A−1 = s−1
1 · · · sk
gegeben ist. Nach unserer Diskussion in Abschnitt 2.10 ist ein Vektor sj genau dann
2
invertierbar, wenn er nicht singulär ist, d. h. wenn ksj k 6= 0 gilt. Bezeichnet man
die Menge der invertierbaren Vektoren durch V × , dann erhält man eine nützlichere
Charakterisierung der Clifford-Lipschitz-Gruppe als:
Γp,q := {A = sk · · · s1 ∈ Gp,q : sj ∈ V × } .
(3.15)
Der Satz von Cartan-Dieudonné gewährleistet, dass man ein Produkt von beliebig
vielen Vektoren zu einem Produkt von maximal n = p + q Vektoren vereinfachen
3.4 Die Pin- und Spin-Gruppen 63
kann. In der Definition (3.15) dürfen wir deshalb ohne Einschränkung k ≤ n annehmen. Da die Anzahl k der Vektoren in der Zerlegung entweder gerade oder
ungerade sein muss, kann ein Versor nur entweder ein gerader oder ein ungerader
Multivektor sein. Deshalb ist ist die Clifford-Lipschitz-Gruppe eine Teilmenge der
+ ·
−
disjunkten Vereinigung Γp,q ⊂ Gp,q
∪ Gp,q
.
Nach den Erkenntnissen aus Abschnitt 3.2 spielt die Clifford-Lipschitz-Gruppe eine wichtige Rolle bei der Beschreibung von orthogonalen Transformationen.
Sie enthält aber eine Menge überflüssiger Information, da die Länge der Vektoren
für die Beschreibung von Reflexionen an einer Hyperebene keine Rolle spielt. Wie
wir im letzten Abschnitt gesehen haben, lässt sich vieles vereinfachen, wenn man
stattdessen nur noch geeignet normierte Versoren verwendet.
Die Norm eines Versors ist gegeben durch:
kAk2 = ksk · · · s1 k2 = hsk · · · s1 s1 · · · sk i = ksk k2 · · · ks1 k2 .
(3.16)
In einem euklidischen Vektorraum kann man die nichtsingulären Vektoren sj senkrecht zu den Hyperebenen immer so wählen, dass ksj k2 = 1 gilt. Für eine nichteuklidische Bilinearform gibt es aber auch Vektoren mit negativem Normquadrat
(der Unterschied zwischen raum- und zeitartigen Vektoren). In diesem Fall kön2
nen wir nur ksj k = ±1 erreichen. Nach Gleichung (3.16) gilt dann für den Versor
2
kAk = ±1 und auch das Produkt von zwei Versoren besitzt wieder diese Normierung. Da außerdem das Inverse eines auf ±1 normierten Vektors sj durch s−1
j = ±sj
gegeben ist, hat auch der inverse Versor eine Norm von ±1. Folglich bilden die normierten Versoren eine Gruppe, die Pin-Gruppe 3 genannt wird:
2
Pin(p, q) := {A ∈ Γp,q : kAk = ±1}
= {A = sk · · · s1 ∈ Gp,q : sj ∈ V
(3.17)
×
2
, ksj k = ±1} .
Die Elemente der Pin-Gruppe werden manchmal als Pinoren bezeichnet. Die geraden Pinoren bilden eine Untergruppe, die Spin-Gruppe:
2
+
Spin(p, q) := {A ∈ Γ+
p,q : kAk = ±1} = Pin(p, q) ∩ Gp,q
= {A = s2k · · · s1 ∈ Gp,q : sj ∈ V
×
(3.18)
2
, ksj k = ±1} .
In mathematischen Werken und der Literatur zur Geometrischen Algebra
ist es üblich, die Elemente der Spin-Gruppe Spinoren zu nennen. Unglücklicherweise wird diese Bezeichnung in der Physik aber auch schon für die komplexen
(Spalten-)Spinoren in der Quantenmechanik verwendet. Um Verwechslungen auszuschließen, wollen wir hier einen anderen Begriff verwenden und die Elemente
der Spin-Gruppe als Rotoren 4 bezeichnen, da sich mit ihrer Hilfe Rotationen beschreiben lassen. Der Zusammenhang zwischen Rotoren und quantenmechanischen
Spinoren ist nicht trivial und wird in Kapitel 5 ausführlich diskutiert.

3 Nach [ABS64] ist dieser Name ein Witz von Jean-Pierre Serre. Einerseits soll die Bezeichnung
natürlich den Zusammenhang zwischen den Gruppen Pin(p, q) und Spin(p, q) andeuten, analog zu
O(p, q) und SO(p, q). Andererseits klingt ‚pin group‘ im Englischen aber wie der vulgäre französische Begriff ‚pine groupe‘.
4 Auch der Begriff des Rotors ist leider vorbelastet, da er zum Beispiel in [HS92] für die Elemente
der Untergruppe Spin+ (p, q) (siehe unten) verwendet wird.
64 Kapitel 3. Reflexionen und Rotationen
Im nicht-euklidischen Fall ist eine weitere Untergruppe von Bedeutung, nämlich
die Gruppe der Rotoren mit Normquadrat +1:
2
Spin+ (p, q) := {A ∈ Γ+
p,q : kAk = +1} ⊂ Spin(p, q) .
(3.19)
Im euklidischen Fall ist natürlich Spin+ (n, 0) = Spin(n, 0) =: Spin(n).
Sehr interessant ist an dieser Stelle die Frage, wie die Versoren mit den orthogonalen Transformationen zusammenhängen. Eine elegante Antwort darauf findet
man zum Beispiel in [HS92, Section 3.8], allerdings müssen wir dazu etwas weiter
ausholen. Wir erinnern uns, dass für jeden Vektor v in einem Vektorraum V(Ik )
das Dachprodukt mit dem Pseudoskalar Ik verschwindet. Andererseits können wir
mit Gleichung (2.97) das Dachprodukt explizit auschreiben. Es ergibt sich:
0 = 2 v ∧ Ik = vIk + (−1)k Ik v ⇐⇒ vIk = (−1)k+1 Ik v .
Für ungerades k kommutiert der Pseudoskalar Ik mit jedem Vektor und deshalb mit
allen Elementen von G(Ik ), da sich jeder Multivektor in eine Summe über Produkte
von Vektoren zerlegen lässt. Für gerades k antikommutiert der Pseudoskalar mit
allen Vektoren. Die Menge der Elemente einer Algebra A, die mit allen Elementen
der Algebra kommutieren heißt Zentrum Z(A) der Algebra. Das Zentrum der
geometrischen Algebra G(Ik ) ist also gegeben durch (siehe auch [Rie93, Section 1.5]):
(
für gerades k ,
(3.20)
Z G(Ik ) =
+ Ik
für ungerades k .
Wir wollen nun herausfinden, welche Freiheiten bei der Wahl eines Versors zu
einer vorgegebenen Transformation existieren. Es sei also U eine orthogonale Transformation und U, W zwei Versoren, die diese Transformation darstellen:
U(v) = ±UvU −1 = ±WvW −1 ,
wobei für Rotationen das positive Vorzeichen und sonst das negative Vorzeichen zu
verwenden ist. Weil man diese beiden Fälle genau unterscheiden kann, muss entweder auf beiden Seiten das positive oder auf beiden Seiten das negative Vorzeichen
stehen und es folgt UvU −1 = WvW −1 . Da die Versoren U und W per definitionem
invertierbar sind, ist dies äquivalent zu:
UvU −1 = WvW −1 ⇐⇒ v(U −1 W ) = (U −1 W )v .
Weil die Gleichung für alle Vektoren v gilt, liegt U −1 W im Zentrum Z(G(Ik )) ⊂ +
Ik . Nun sind U und W aber entweder beide gerade oder beide ungerade Versoren
und folglich ist das Produkt U −1 W ein gerader Versor. Ein gerader Pseudoskalar
Ik antikommutiert aber mit beliebigen Vektoren, also kann U −1 W keinen Anteil
proportional zu Ik besitzen. Folglich bleibt U −1 W = α für ein α ∈ , respektive
W = αU . Da ein Versor nicht singulär ist, muss α 6= 0 sein, was wir als α ∈ × =
\ {0} schreiben.
Zwei Versoren, die sich nur um einen skalaren Faktor α ∈ × unterscheiden,
beschreiben also die selbe orthogonale Transformation. Man schreibt dies als:
×
Γp,q /
Γ+
p,q /
×
∼
= O(p, q) ,
∼
= SO(p, q) .
(3.21)
3.4 Die Pin- und Spin-Gruppen 65
π −1 (U ) ⊂ Y
π
U ⊂X
(a)
(b)
Abbildung 3.7 (a) Eine Überlagerung π : Y → X von X. Lokal sieht das
Urbild π −1 (U ) ⊂ Y einer offenen Umgebung U ⊂ X so aus wie das Produkt
von U ׄdiskrete Menge“. (b) Eine nichttriviale Überlagerung der Kreislinie.
Sie sieht zwar lokal aus wie das Produkt von offenen Umgebungen mit der
diskreten Gruppe 2 , global ist sie aber zusammenhängend.
2
2
Falls man auf ±1 normierte Versoren verwendet, gilt zusätzlich kU k = ± kW k ,
also α ∈ {±1} = 2 . Damit bekommen wir die Isomorphien:
Pin(p, q)/
Spin(p, q)/
Spin+ (p, q)/
2
2
2
∼
= O(p, q) ,
∼
= SO(p, q) ,
∼ SO+ (p, q) .
=
(3.22)
Konkret bedeutet dies, dass zu jeder orthogonalen Transformation U ∈ O(p, q) zwei
Pinoren ±U ∈ Pin(p, q) gehören, die sich nur im Vorzeichen unterscheiden. Analog
gehören zu jeder Rotation R ∈ SO(p, q) zwei Rotoren ±R ∈ Spin(p, q) usw.
Ein weiterer interessanter Aspekt der Pin- und Spin-Gruppen ist ihre Topologie. Allgemein kann man zeigen, dass Pin(p, q), Spin(p, q) und Spin+ (p, q) als
topologische Räume zweifache Überlagerungen der Gruppen O(p, q), SO(p, q) bzw.
SO+ (p, q) sind. Eine Überlagerung π : Y → X von zwei topologischen Räumen
Y und X ist im Wesentlichen eine stetige surjektive Abbildung, so dass das Urbild
π −1 (U ) ⊂ Y einer kleinen, offenen Menge U ⊂ X lokal so aussieht, wie das Produkt
von U mit einer diskreten Menge (siehe Abbildung 3.7a ).
Eine genaue Definition der Überlagerung würde den Rahmen der Arbeit sprengen, weshalb wir dafür auf die gängige Literatur verweisen müssen. Eine einfache
und sehr anschauliche Einführung in die Theorie der Überlagerungen findet man
bei Jänich [Jän01a, Kapitel 9]. Ein alternativer Zugang, der auf der gleichmäßigen
Wirkung von Gruppen aufbaut, wird von Fulton [Ful95, Chapter 11] aufgezeigt.
Dieser führt in unserem Fall besonders schnell zu Ergebnissen, da wir die Wirkung der Clifford-Lipschitz-Gruppe schon kennen. Den Beweis, dass Pin(p, q) und
Spin(p, q) zweifache Überlagerungen der Gruppen O(p, q) bzw. SO(p, q) sind, kann
man dann in [Gal04, Proposition 2.21] nachlesen. Für alle n ≥ 2, ausgenommen
p = q = 1, ist die Überdeckung nichttrivial (siehe Abbildung 3.7b), d. h. es gilt
zwar lokal π −1 (U ) ∼
= U × 2 für offene Umgebungen U ⊂ O(p, q) jedes Punktes,
global ist aber Pin(p, q) O(p, q) × 2 und analog für Spin(p, q).
Aus der Theorie der Drehgruppe wissen wir, dass SO(3) zweifach zusammenhängend ist (siehe z. B. [Sch99, Abschnitt 5.2.3]). Da die Spin-Gruppe Spin(3) eine
zweifache Überlagerung der Drehgruppe ist, muss sie demzufolge einfach zusam-
66 Kapitel 3. Reflexionen und Rotationen
I1,1
I1,1
1
(a)
1
(b)
Abbildung 3.8 (a) Die Gruppe Spin+ (1, 1) besteht aus den beiden Hyperbelästen und ist deshalb nicht zusammenhängend. (b) Die komplette SpinGruppe Spin(1, 1) hat sogar vier Komponenten.
menhängend sein. Eine einfach zusammenhängende Überlagerung heißt universelle Überlagerung und hat besonders schöne mathematische Eigenschaften. Speziell können alle überlagerten Gruppen aus der universellen Überlagerungsgruppe
durch Quotientenbildung rekonstruiert werden. Im euklidischen Fall sind alle SpinGruppen Spin(n) für n ≥ 3 universelle Überlagerungen von SO(n).
Für eine nicht-euklidische Metrik muss man diese Aussagen etwas modifizieren.
Zum einen ist im Allgemeinen SO(p, q) nicht mehr zusammenhängend, weshalb man
zur Untergruppe SO+ (p, q) übergeht, die gerade die Zusammenhangskomponente
der Identität ist. Die Überlagerungen Spin+ (p, q) sind zusammenhängend für n ≥ 2,
mit Ausnahme von Spin+ (1, 1), die zwei Komponenten besitzt, nämlich die beiden
Äste einer Hyperbel (siehe Abbildung 3.8a ):
2
Spin+ (1, 1) = {R = ba : b, a ∈ V × , kRk = +1}
= {R = α + β I1,1 : α2 − β 2 = +1} .
Die komplette Gruppe Spin(1, 1) hat sogar vier Komponenten (Abbildung 3.8b):
2
Spin(1, 1) = {R = ba : b, a ∈ V × , kRk = ±1}
= {R = α + β I1,1 : α2 − β 2 = ±1} ,
wobei der Pseudoskalar I1,1 durch I1,1 = e1 e2 gegeben ist.
Für die Physik von besonderem Interesse sind natürlich die Lorentzmetriken,
d. h. Metriken der Signatur (p, q) mit p = 1 oder q = 1. Die zugehörigen SpinGruppen Spin+ (n − 1, 1) ∼
= Spin+ (1, n − 1) sind für n ≥ 4 einfach zusammenhängend und somit universelle Überlagerungen von SO+ (n − 1, 1) ∼
= SO+ (1, n − 1).
Speziell ist Spin+ (1, 3) die universelle Überlagerung der eigentlichen, orthochronen
Lorentzgruppe L↑+ ∼
= SO+ (1, 3).
Ein weiteres wichtiges Merkmal der universellen Überlagerung ist die Eigenschaft, dass sie verschiedene Strukturen des zugrundeliegenden Raums erbt. So induziert die Liegruppen-Struktur von O(p, q) bzw. SO(p, q) eine Liegruppen-Struktur
auf Pin(p, q) und Spin(p, q). Die Liealgebra von Pin(p, q) und Spin(p, q) besteht aus
den Bivektoren in Gp,q , wobei die Lieklammer der Kommutator zwischen den Bivektoren ist. Eine ausführliche Diskussion der Liegruppen-Struktur findet man in
[DHS93], [DL03, Section 11] und [HS92, Chapter 8].
3.5 Minkowski-Geometrie 67
zeitartig
lichtartig
raumartig
Abbildung 3.9 Unterteilung der Raumzeit durch den Lichtkegel in zeit-, lichtund raumartige Vektoren.
3.5
Minkowski-Geometrie
Wie eben schon erwähnt, spielt neben dem euklidischen dreidimensionalen Vektorraum auch die Minkowski-Raumzeit eine fundamentale Rolle in der Physik. Da
Isometrien Winkel und Längen erhalten, wollen wir in diesem Abschnitt zuerst die
Bedeutung dieser Begriffe im Minkowskiraum untersuchen, bevor wir uns später
den allgemeinen Lorentz-Transformationen zuwenden.
Im Gegensatz zum euklidischen Vektorraum, wo nur der Nullvektor singulär war,
2
bildet die Menge der singulären Vektoren (kvk = 0) im Minkowski-Vektorraum
eine Kegelfläche, die – in Bezug auf die spätere Anwendung – Lichtkegel genannt
wird. Vektoren innerhalb des Lichtkegels nennen wir zeitartig, Vektoren auf dem
Lichtkegel heißen lichtartig und Vektoren außerhalb des Kegels raumartig (siehe
dazu auch Abbildung 3.9 ).
Im Folgenden wollen wir immer eine Metrik mit Signatur (1, n − 1) verwenden.
Diese Wahl hat den Vorteil, dass die physikalisch kausalen (zeitartigen) Längen
eine positive Norm bekommen. Die nicht-kausalen (raumartigen) Abstände haben
in dieser Metrik dagegen ein negatives Normquadrat. Wir erhalten also folgende
Einteilung für Vektoren v:5
kvk2 > 0 zeitartig ,
2
kvk = 0 lichtartig ,
(3.23)
2
kvk < 0 raumartig .
Wir wollen nun definieren, was ein Minkowski-Vektorraum ist. Die offensichtliche Definition anhand der Signatur der Bilinearform hat allerdings den Nachteil,
dass man dadurch automatisch eine Basis festlegt, in der die Bilinearform diagonal
ist. Da wir in der Geometrischen Algebra gezielt koordinatenfrei arbeiten wollen,
verwenden wir stattdessen eine Definition von Riesz [Rie93, Section 3.6], die nur die
Einteilung der Vektoren in die verschiedenen Typen (zeit-, licht- oder raumartig)
benutzt. Den Beweis, dass diese Definition wirklich zu einer lorentzartigen Signatur
führt, kann man in [Rie93, Section 3.6] nachlesen.
5 Für die entgegengesetzte Signatur (n−1, 1) bekommt man genau die umgekehrten Vorzeichen,
d. h. kvk2 < 0 für zeitartige und kvk2 > 0 für raumartige Vektoren.
68 Kapitel 3. Reflexionen und Rotationen
Definition 3.2 (Minkowski-Vektorraum) Sei M ein Vektorraum mit quadratischer Form. Dieser heißt Minkowski-Vektorraum genau dann, wenn er folgende
Eigenschaften erfüllt:
(i) Es gibt mindestens einen zeitartigen Vektor in M.
(ii) Jeder zweidimensionale Untervektorraum von M enthält mindestens einen
raumartigen Vektor.
Die erste Bedingung garantiert hierbei, dass wir wenigstens einen Vektor haben,
den man zeitartig nennen will. Noch könnten aber alle Vektoren zeitartig sein, was
im eindimensionalen Minkowski-Vektorraum auch wirklich der Fall ist. Die zweite
Bedingung fordert deshalb, dass jede zweidimensionale Ebene durch den Ursprung
auch raumartige Vektoren außerhalb des Lichtkegels enthält. Speziell bedeutet dies,
dass keine zweidimensionale Ebene existiert, die nur zeitartige Richtungen enthält.
Folglich gibt es in der Minkowski-Raumzeit genau eine Zeitdimension.
Wir kommen nun zum Begriff der Orthogonalität im Minkowski-Vektorraum.
Wie üblich heißen zwei Vektoren a und b zueinander orthogonal, wenn ihr Skalarprodukt ha|bi = 0 erfüllt. Als Folge davon ist jeder lichtartige Vektor ` zu sich selbst
2
orthogonal, denn es gilt h`|`i = k`k = 0. Wir erhalten aber noch mehr interessante
Eigenschaften, die wir im folgenden Satz zusammenfassen wollen:
Satz 3.2 (Eigenschaften von orthogonalen Vektoren) Im Minkowski-Vektorraum M gilt für Vektoren a, b ∈ M:
(i) Falls a zeitartig, ha|bi = 0 und b 6= 0, dann ist b raumartig.
(ii) Falls a lichtartig ist und ha|bi = 0, dann ist b entweder raumartig oder kollinear zu a (d. h. b = λa mit λ ∈ ).
(iii) Zwei licht- oder zeitartige Vektoren a, b 6= 0 sind nie orthogonal zueinander,
ausgenommen sie sind beide lichtartig und kollinear.
Zum Beweis der ersten Aussage erinnern wir uns, dass für einen zeitartigen Vek2
tor kak > 0 gilt und somit a 6= 0 sein muss. Da außerdem ha|bi = 0 und b 6= 0
ist, können a und b nicht kollinear sein. Ansonsten wäre nämlich b = λa mit λ 6= 0
und somit 0 = ha|bi = λha|ai, im Widerspruch zur Zeitartigkeit von a. Folglich
spannen a und b eine zweidimensionale Ebene H auf. Nach der Definition 3.2 des
Minkowski-Vektorraums enthält jeder zweidimensionale Unterraum H ⊂ M mindestens einen raumartigen Vektor. Diesen können wir als λa + µb mit λ, µ ∈
schreiben, und es folgt:
0 > kλa + µbk2 = λ2 kak2 + µ2 kbk2 .
Da aber nach Voraussetzung kak2 > 0 ist, muss kbk2 < 0 sein, um die Ungleichung
zu erfüllen. Also ist b raumartig, wie behauptet.
Für die zweite Aussage betrachten wir zuerst den Fall, dass b kollinear zu a ist.
Dann folgt hb|ai = λha|ai = 0 und die Aussage ist offensichtlich erfüllt. Falls b
nicht kollinear zu a ist, dann existiert wieder ein raumartiger Vektor λa + µb und
man erhält:
2
2
2
2
0 > kλa + µbk = λ2 kak + µ2 kbk = µ2 kbk ,
3.5 Minkowski-Geometrie 69
e1
e1
e1
a
a
a
H
H
·
H
·
e2
e2
ϕ = π/8
e2
ϕ=0
ϕ = π/4
Abbildung 3.10 Ein fester Vektor a (siehe Text) und die Menge H der dazu
orthogonalen Vektoren für verschiedene Parameter ϕ.
a
a
a
Abbildung 3.11 Die Verallgemeinerung von Abbildung 3.10 auf höhere Dimensionen. Aus der zu a senkrechten Geraden des zweidimensionalen Falls
wird eine (n − 1)-dimensionale Ebene durch den Ursprung.
da nach Voraussetzung kak2 = 0 gilt. Also ergibt sich kbk2 < 0 und folglich ist b
raumartig. Die dritte Behauptung ist dann nur noch eine triviale Folgerung aus den
ersten beiden Aussagen.
Um anschaulich zu machen, was Orthogonalität im Minkowski-Vektorraum bedeutet, betrachten wir als Beispiel den zweidimensionalen, hyperbolischen Vektorraum M1,1 mit Signatur (1, 1). Eine Basis von M1,1 ist gegeben durch (e1 , e2 ) mit
ke1 k2 = 1 und ke2 k2 = −1. Wir wählen einen Vektor a ∈ M1,1 \ {0}. Da uns
nur die Richtung interessiert, wollen wir diese über einen (euklidischen) Winkels ϕ
parametrisieren:
a := cos ϕ e1 + sin ϕ e2 mit ϕ ∈ .
Wir suchen nun für festgehaltenes ϕ alle Vektoren v = v0 e1 + v1 e2 , die senkrecht
auf a stehen. Dazu berechnen wir:
!
0 = hcos ϕ e1 + sin ϕ e2 |v0 e1 + v1 e2 i = v0 cos ϕ − v1 sin ϕ .
Wir erhalten also für v die Bedingung v0 = v1 tan ϕ. Die Menge dieser orthogonalen Vektoren H := {v ∈ M1,1 : v0 = v1 tan ϕ} ist für verschiedene Parameter ϕ in
Abbildung 3.10 dargestellt. Wie man sieht, drehen sich der Vektor a und die dazu
orthogonale Ebene H in entgegengesetzter Richtung aufeinander zu. Bei ϕ = π/4
liegt der Vektor a sogar direkt in der orthogonalen Ebene, da er dann lichtartig
und damit zu sich selbst orthogonal ist. Die optisch auftretende Veränderung des
Winkels zwischen a und H liegt dabei allein an der Einbettung des hyperbolischen
Raums in die euklidische Zeichenebene, die zur graphischen Darstellung leider notwendig ist.
70 Kapitel 3. Reflexionen und Rotationen
Nimmt man weitere Raumdimensionen hinzu, dann ergibt sich das Bild in Abbildung 3.11, wobei die zu a senkrechten Vektoren diesmal natürlich eine (n − 1)dimensionale Ebene bilden. Betrachtet man den Kegel genau von der Seite, so
bekommt man das gleiche Bild wie in Abbildung 3.10, mit der „hyperbolischen Orthogonalität“. Schaut man dagegen genau von oben auf den Kegel, dann sieht man
nur die herkömmliche „euklidische Orthogonalität“, da das Normquadrat in allen
Raumrichtungen das gleiche Vorzeichen hat.
Um der Anschauung von „hyperbolischen“ und „euklidischen Richtungen“ auf
die Sprünge zu helfen, ist es sinnvoll die Einteilung in zeit-, licht- und raumartige
Vektoren auf beliebige Untervektorräume zu verallgemeinern. Dies wird später auch
bei der Klassifikation der Lorentz-Transformationen hilfreich sein.
Definition 3.3 (zeit-, licht- und raumartige Unterräume) Sei H ⊂ M ein
k-dimensionaler Untervektorraum des Minkowski-Vektorraums M mit k ≥ 1.
(i) H heißt zeitartig, wenn H einen zeitartigen Vektor enthält.
(ii) H heißt lichtartig, wenn H einen lichtartigen Vektor, aber keine zeitartigen
Vektoren enthält.
(iii) H heißt raumartig, falls alle Vektoren aus H \ {0} raumartig sind.
Im letzten Fall muss man den Nullvektor ausschließen, da dieser immer lichtartig
ist. Eine Gerade ist nach dieser Definition übrigens genau dann zeit-, licht- oder
raumartig, wenn dies für den Vektor der Fall ist, von dem sie aufgespannt wird. Der
Minkowski-Vektorraum M selbst ist offensichtlich zeitartig. Umgekehrt ist jeder
zeitartige Untervektorraum von M wieder ein Minkowski-Vektorraum.
Ein raumartiger Untervektorraum wird dadurch charakterisiert, dass er den
Lichtkegel nur in einem einzigen Punkt – nämlich im Ursprung – schneidet. In einem
raumartigen Unterraum Hr haben alle Vektoren außer dem Nullvektor ein strikt
2
negatives Normquadrat, kak < 0 für alle a ∈ Hr \{0}. Die Einschränkung der Minkowski-Norm auf den raumartigen Unterraum Hr ist also negativ definit. Folglich
ist jeder raumartige Unterraum isomorph zu einem euklidischen Vektorraum V,
wobei die Isomorphie einfach durch k · k2Hr 7→ k · k2V := − k · k2Hr gegeben ist.
Mit einem lichtartigen Unterraum verbindet man die Anschauung, dass er den
Lichtkegel gerade berührt, wie im letzten Teilbild von Abbildung 3.11 dargestellt.
Dies kann man streng rechtfertigen:
Satz 3.3 (Charakterisierung von lichtartigen Hyperebenen) Ein lichtartiger Untervektorraum H enthält genau eine lichtartige Gerade g ⊂ H. Alle übrigen
Vektoren a ∈ H \ g sind raumartig und senkrecht zur Geraden g.
Nach der Definition 3.3 enthält ein lichtartiger Unterraum H mindestens eine
lichtartige Gerade. Falls H eindimensional ist, dann sind wir damit auch schon
fertig. Für dim H ≥ 2 wählen wir einen lichtartigen Vektor 0 6= ` ∈ g, der die
Gerade g aufspannt, d. h. g = span{`} = {v ∈ M : v = λ` mit λ ∈ }. Außerdem
sei a ∈ H \ g ein beliebiger weiterer Vektor, der nicht auf der Geraden g liegt.
Folglich sind a und ` linear unabhängig und spannen eine zweidimensionale Ebene
H 0 := span{`, a} ⊂ H auf. Weil H 0 als Teilmenge von H per Definition keinen
zeitartigen Vektor enthält, bekommen wir:
2
2
2
0 ≥ kλ` + ak = 2λh`|ai + kak ∀λ ⇐⇒ 2λh`|ai ≤ − kak ∀λ .
3.5 Minkowski-Geometrie 71
e1
e1
3
2
2
1
0
1
0
(a)
e2
−1
−2
e2
(b)
Abbildung 3.12 Zur Norm von Vektoren. (a) In der euklidischen Ebene liegen
die Vektoren konstanter Norm auf Kreisen. (b) In der hyperbolischen Ebene
M1,1 bekommt man dagegen Hyperbeln.
Da diese Ungleichung für alle λ gilt, muss h`|ai = 0 sein. Wäre nämlich h`|ai > 0,
dann gäbe es ein λ > 0 mit 2λh`|ai > − kak2 , im Widerspruch zur Voraussetzung.
Analog kann man für h`|ai < 0 ein λ < 0 finden, welches zum selben Widerspruch
führt. Es bleibt also nur h`|ai = 0 übrig.
Zusammenfassend haben wir also einen lichtartigen Vektor ` und h`|ai = 0.
Nach Satz 3.2(ii) folgt daraus, dass a entweder raumartig oder kollinear zu ` ist. Da
aber a ∈
/ g und somit a 6= µ` ist, muss a raumartig sein. Weil außerdem a ∈ H \ g
beliebig gewählt war, sind alle Vektoren aus H \ g raumartig. Speziell gibt es also
keinen weiteren lichtartigen Vektor `0 ∈
/ g, woraus die behauptete Eindeutigkeit der
Geraden g folgt.
In ähnlicher Weise kann man auch die Umkehrung zeigen, nämlich dass ein
Unterraum lichtartig ist, wenn er genau eine lichtartige Gerade enthält.
Eine lichtartige Gerade g ist eindimensional und somit ein lichtartiger Unterraum mit minimaler Dimension. Dagegen hat die Tangentialebene Tg , die den Lichtkegel in der Geraden g berührt, die für einen lichtartigen Unterraum maximal mögliche Dimension n − 1. Die Ebene Tg ist das orthogonale Komplement Tg = g ⊥ von
g (siehe Satz 3.3 und Abbildung 3.11). Jeder weitere lichtartige Unterraum H, der
die Gerade g enthält, ist auch in der Tangentialebene Tg enthalten. Das heißt es
gilt H ⊂ Tg für alle lichtartigen Unterräume H mit g ⊂ H.
Zum Abschluss wollen wir noch kurz untersuchen, wie sich die indefinite Metrik
auf die Längen von Vektoren auswirkt. Im euklidischen Fall bilden die Vektoren
konstanter Norm Kreise (etwas allgemeiner eine Ellipse) um den Ursprung, wie in
Abbildung 3.12a auf dieser Seite dargestellt ist. Im Minkowski-Vektorraum M1,1
in Abbildung 3.12b sehen die „Kreise“ dagegen wie Hyperbeln aus.
Für den dreidimensionalen Fall nehmen wir eine zusätzliche Raumdimension e3
hinzu. Da die Norm in den beiden Raumrichtungen e2 und e3 das gleiche Vorzeichen
hat, muss die (e2 -e3 )-Ebene in beiden Fällen wie die zweidimensionale euklidische
Ebene aussehen. Anschaulich gesprochen müssen wir die Kurven in Abbildung 3.12
also nur um die e1 -Achse rotieren. Im euklidischen Vektorraum erhalten wir dadurch eine Kugel (bzw. einen Ellipsoid). Im dreidimensionalen Minkowski-Vektorraum ergibt sich dagegen ein Hyperboloid (siehe Abbildung 3.13). Die raumartigen
Vektoren mit konstanter Norm liegen auf der zusammenhängenden Komponente.
72 Kapitel 3. Reflexionen und Rotationen
+1
0
−1
+1
Abbildung 3.13 Im Minkowski-Vektorraum mit Dimension n ≥ 3 liegen die
Vektoren mit konstanter Norm auf einem Hyperboloid.
Die zeitartigen Vektoren liegen dagegen auf den zwei voneinander getrennten Kappen in positiver und negativer Zeitrichtung. Die Grenze zwischen diesen beiden
Fällen bilden die lichtartigen Vektoren, die gerade dadurch definiert sind, dass ihr
Abstand zum Ursprung verschwindet.
3.6
Einfache Lorentz-Transformationen
Nach diesem kurzen Exkurs in die Minkowski-Geometrie kehren wir nun wieder zu
den Lorentz-Transformationen zurück. Genauer interessieren wir uns für die eigentlichen, orthochronen Lorentz-Transformationen SO+ (1, n − 1), die die Zusammenhangskomponente der Eins bilden.
Analog zum euklidischen Fall von Abschnitt 3.3, lässt sich jede einfache LorentzTransformation R ∈ SO+ (1, n − 1) durch eine Drehebene und einen Drehwinkel
beschreiben gemäß:
R(v) = RvR−1 = eIϑ/2 ve−Iϑ/2 ,
wobei I der Pseudoskalar der Drehebene und ϑ ein Drehwinkel ist. Im Gegensatz
zu den euklidischen Drehungen, wo immer I 2 > 0 galt, müssen wir hier allerdings
zwischen drei verschiedenen Möglichkeiten unterscheiden. Dazu verwendet man die
gleiche Einteilung wie bei den Kegelschnitten, wobei der Kegel hier durch den Lichtkegel gegeben ist:
(i) Für eine raumartige Drehebene ist Ie2 < 0 und man bekommt elliptische Lorentz-Transformationen. Dies sind gerade die räumlichen Drehungen.
(ii) Für eine zeitartige Drehebene ist Ih2 > 0 und man bekommt hyperbolische
Lorentz-Transformationen. Diese entsprechen den Lorentz-Boosts.
(iii) Eine lichtartige Drehebene führt zu Ip2 = 0. Die zugehörigen Transformationen
sind die wenig bekannten parabolischen Lorentz-Transformationen.
Wir beginnen mit den elliptischen Drehungen. Eine raumartige, zweidimensionale Ebene He kann durch zwei raumartige Vektoren a und b aufgespannt werden.
Da raumartige Vektoren immer ein negatives Normquadrat haben, können wir diese
2
2
ohne Einschränkungen auf kak = kbk = −1 normieren und senkrecht zueinander
3.6 Einfache Lorentz-Transformationen 73
e2
e0
e1
(a)
e1
(b)
Abbildung 3.14 (a) Einfache elliptische und (b) hyperbolische Lorentz-Transformationen. Die hyperbolischen Drehungen bilden den Lichtkegel auf sich
selbst ab.
wählen. Damit lässt sich der normierte Pseudoskalar der Ebene He als Ie = ba−1
schreiben. Das Quadrat berechnet man zu:
Ie2 = (ba−1 )(ba−1 ) = −b2 a−2 = −(−1)(−1) = −1 .
Wegen Ie2 = −1 können wir die Exponentialfunktion genau wie in Gleichung (3.10)
in Sinus und Cosinus zerlegen:
R = eIe ϑ/2 = cos(ϑ/2) + Ie sin(ϑ/2) .
(3.24)
Dies führt zu einer euklidische Drehung, die wir in Abschnitt 3.3 schon ausführlich
diskutiert haben. Die Vektoren werden dabei so transformiert, dass Längen und
Winkel erhalten bleiben. Die Spitzen der Vektoren werden also entlang der Kreise
in Abbildung 3.14a verschoben, so dass der euklidische Winkel zwischen ihnen
erhalten bleibt.
Die zweite wichtige Klasse von Lorentz-Transformationen sind die hyperbolischen Drehungen oder auch Boosts, die in einer zeitartigen Drehebene Hh stattfinden. Die zeitartige Ebene können wir, wie vorher, durch zwei senkrechte und
auf ±1 normierte Vektoren a und b aufspannen. Nach Satz 3.2 muss dann aber
einer der beiden Vektoren zeitartig und der andere raumartig sein. Wir können also
2
2
diesmal nur kak = − kbk = ±1 erreichen. Dies wirkt sich auf das Quadrat des
−1
Pseudoskalars Ih = ba aus, und für eine zeitartige Drehebene bekommen wir:
Ih2 = −b2 a−2 = −(±1)(∓1) = +1 .
Damit ist die Zerlegung (3.24) in Sinus und Cosinus nicht mehr möglich. Stattdessen
bekommen wir eine Zerlegung in die hyperbolischen Funktionen:
R = eIh ϑ/2 = cosh(ϑ/2) + Ih sinh(ϑ/2) .
(3.25)
Wie für die euklidischen Drehungen wählen wir in der Ebene Hh eine Basis (e0 , e1 ),
2
2
jetzt aber mit ke0 k = 1 und ke1 k = −1. Der Pseudoskalar der Drehebene ist
74 Kapitel 3. Reflexionen und Rotationen
dann durch Ih = e0 e1 gegeben. Einen Vektor vk aus Hh zerlegen wir in dieser Basis
gemäß vk = vk0 e0 + vk1 e1 . Eine kurze Rechnung führt zum Ergebnis:
Rvk = cosh(ϑ/2) + e0 e1 sinh(ϑ/2) (vk0 e0 + vk1 e1 )
= cosh(ϑ/2) vk0 + sinh(ϑ/2) vk1 e0 + sinh(ϑ/2) vk0 + cosh(ϑ/2) vk1 e1 .
Wie im euklidischen Fall ist also schon die einfache linksseitige Wirkung des Versors R auf Vektoren in der Drehebene eine Drehung, diesmal allerdings eine hyperbolische. Die beidseitige Wirkung Rvk R−1 = R2 v dreht dann um den doppelten
Winkel:
Rvk R−1 = (cosh ϑ vk0 + sinh ϑ vk1 )e0 + (sinh ϑ vk0 + cosh ϑ vk1 )e1 .
Der Anteil von Vektoren senkrecht zur Drehebene bleibt unbeeinflusst.
Die Wirkung einer hyperbolischen Drehung auf Vektoren in der Drehebene ist
in Abbildung 3.14b dargestellt. Dabei fallen mehrere Dinge auf: Das erste ist die
Tatsache, dass die Drehrichtung von zeitartigen und raumartigen Vektoren entgegengesetzt erscheint. Dies ist eine Folge der Ergebnisse des letzten Abschnitts,
wonach orthogonale Vektoren sich in entgegengesetzter Richtung aufeinander zu
drehen (siehe speziell Abbildung 3.10 auf Seite 69). Weiterhin stellt man fest, dass
der Lichtkegel durch hyperbolische Drehungen auf sich selbst abgebildet wird. Dies
ist klar, da Isometrien Längen erhalten und weil der Lichtkegel gerade als Nullstellengebilde des Normquadrats, k`k2 = 0, definiert wurde. Als letztes bemerkt man,
dass die Drehwinkel unterschiedlich groß aussehen. Dies ist wieder ein Artefakt der
Einbettung der hyperbolischen Ebene in die euklidische Zeichenebene. Man kann
aber zeigen, dass die farblich markierten Flächen in Abbildung 3.14b gleich sind,
die von Vektoren gleicher Länge überstrichen werden [Cal00, Section 2.2].
Eine raum- oder zeitartige Drehebene führte zu elliptischen bzw. hyperbolischen
Lorentz-Transformationen. Eine Sonderstellung zwischen diesen beiden Fällen nehmen die lichtartigen Drehebenen ein, zu denen die parabolischen Lorentz-Transformationen gehören.
Sei Hp eine solche zweidimensionale, lichtartige Ebene, die den Lichtkegel in der
lichtartigen Geraden g ⊂ Hp berührt. Wie in den anderen beiden Fällen spannen
wir die Ebene durch zwei senkrechte Vektoren a und b auf. Die lichtartige Ebene
enthält lichtartige und raumartige Vektoren. Wir wählen 0 6= b ∈ g lichtartig und
einen beliebigen raumartigen Vektor a ∈ Hp \ g. Nach Satz 3.3 sind dann a und
b senkrecht zueinander. Das Quadrat des Pseudoskalars Ip = ba−1 berechnet man
2
aufgrund von kbk = 0 zu:
Ip2 = −b2 a−2 = 0 .
Es ist deshalb nicht möglich den Pseudoskalar auf ±1 zu normieren. Außerdem
besitzt Ip kein Inverses, weshalb man Vektoren nicht in einen Anteil senkrecht und
parallel zur Drehebene zerlegen kann. Trotzdem erscheint es sinnvoll die beidseitige
Drehformel auch in diesem Fall beizubehalten.
Ein Vorteil von Ip2 = 0 ist, dass die Exponentialreihe schon nach dem linearen
Term abbricht:
eIp ϑ/2 = 1 + Ip ϑ2 .
(3.26)
3.6 Einfache Lorentz-Transformationen 75
g
w2
w1
w1
v
v
(a)
(b)
Abbildung 3.15 Parabolische Lorentz-Transformationen. (a) Für einen Vektor v außerhalb der Drehebene. (b) Für einen Vektor in der Drehebene.
Die beidseitige Wirkung auf einen beliebigen Vektor v ∈ M wird damit zu:
RvR−1 = eIp ϑ/2 ve−Ip ϑ/2 = (1 + ϑ2 Ip )v(1 − ϑ2 Ip )
ϑ2
4 Ip vIp
2
vIp ) − ϑ4 Ip vIp
= v + ϑ2 Ip v − ϑ2 vIp −
= v + ϑ 21 (Ip v −
= v − ϑ(v y Ip ) + 12 ϑ2 (v y Ip ) y Ip .
(3.27)
Für die letzte Umformung verwendet man dabei:
(v y Ip ) y Ip = 12 (vIp − Ip v) y Ip
=
1
4
(vIp − Ip v)Ip − Ip (vIp − Ip v) = − 12 Ip vIp ,
wobei im letzten Schritt unter Berücksichtigung von Ip2 = 0 ausmultipliziert wurde.
Mit der Zerlegung Ip = ba−1 des Pseudoskalars und dem Inversen a−1 = a/a2 kann
man die Kontraktionen explizit ausführen und erhält die Vektoren:
w1 := v y Ip = v y (ba−1 ) = hv |bia−1 − hv |a−1 ib =
w2 := (v y Ip ) y Ip = −ha−1 |a−1 ihv |bib = −
hv |ai
hv |bi
a−
b,
ha|ai
ha|ai
hv |bi
b.
ha|ai
Da der Vektor a raumartig ist, können wir ihn so wählen, dass kak2 = −1 gilt.
Damit vereinfacht sich die Transformation (3.27) zu:
RvR−1 = v − ϑ w1 − 21 ϑ2 w2 ,
(3.28)
mit
w1 = hv |bia − hv |aib und
w2 = hv |bib .
(3.29)
Der Vektor v wird also entlang der Parabel (3.28) transformiert, die von den Vektoren w1 ∈ Hp und w2 ∈ g aufgespannt wird. Dies ist gerade die Schnittparabel der
76 Kapitel 3. Reflexionen und Rotationen
Drehebene Hp mit dem Hyperboloiden, der durch die Norm von v definiert wird.
Dies ist in Abbildung 3.15a veranschaulicht. Falls v in der Drehebene liegt, dann
wird w2 = 0 und w1 liegt in g. Damit entartet die Parabel zu einer Geraden parallel
zu g (siehe Abbildung 3.15b). Falls schließlich v ∈ g ist, so ergibt sich aus (3.29)
für die beiden Vektoren w1 = w2 = 0 und v wird auf sich selbst transformiert.
3.7
Verallgemeinerung auf Multivektoren
Die Wirkung von orthogonalen Transformationen auf Vektoren lässt sich in natürlicher Weise auf Multivektoren verallgemeinern. Dazu betrachten wir zuerst die
Wirkung einer orthogonalen Transformation U auf einen 2-Spat a ∧ b. Wie man sich
– zum Beispiel anhand einer Drehung – anschaulich klar macht, sollte der transformierte Spat U(a ∧ b) gerade von den beiden transformierten Vektoren U(a) und
U(b) aufgespannt werden:
U(a ∧ b) = U(a) ∧ U(b) .
Wir setzen die Transformation U also so fort, dass sie zu einem äußeren Morphismus
wird. Die Wirkung von U auf einen k-Spat definieren wir deshalb einfach als:
U(Ak ) = U(a1 ∧ · · · ∧ ak ) := U(a1 ) ∧ · · · ∧ U(ak ) .
(3.30)
Die Wirkung auf einen allgemeinen Multivektor bekommt man daraus durch lineare
Fortsetzung, da sich jeder Multivektor in eine Summe von Spaten zerlegen lässt.
Als erstes Beispiel betrachten wir eine Drehung R. Die beidseitige Wirkung auf
einen Vektor v kennen wir als R(v) = RvR−1 . Auf einen Spat a ∧ b wirkt diese also
gemäß:
R(a ∧ b) = R(a) ∧ R(b) = (RaR−1 ) ∧ (RbR−1 ) .
Das Dachprodukt zweier Vektoren ist gegeben durch a ∧ b = 21 (ab − ba). Unter Verwendung der Assoziativität des geometrischen Produkts lässt sich die obige Gleichung damit wesentlich vereinfachen:
R(a ∧ b) = (RaR−1 ) ∧ (RbR−1 ) = 12 RaR−1 RbR−1 − RbR−1 RaR−1
= 12 RabR−1 − RbaR−1 = R 21 (ab − ba) R−1 = R(a ∧ b)R−1 .
Unter Verwendung von Gleichung (2.97) lässt sich dies per Induktion auf beliebige
k-Spate verallgemeinern:
R(a1 ∧ · · · ∧ ak ) = R(a1 ∧ · · · ∧ ak )R−1 .
Als Folge der beidseitigen Wirkung können wir bei den Rotationen also einfach
anstelle eines Vektors einen beliebigen Multivektor A einsetzen:
R(A) = RAR−1 = α̂(R)AR−1 .
(3.31)
Bei Reflexionen U ∈ O(p, q) \ SO(p, q) muss man wegen α̂U = −U mit dem Vorzeichen aufpassen. Analog zum obigen Vorgehen berechnen wir zuerst die Wirkung
auf einen 2-Spat a ∧ b. Mit der Wirkung U(v) = −UvU −1 auf einen Vektor v ergibt
sich:
U(a ∧ b) = U(a) ∧ U(b) = (−UaU −1 ) ∧ (−U bU −1 ) = U (a ∧ b)U −1 .
3.8 Anwendung: Bewegung in Zentralkraftfeldern 77
Für einen k-Spat erfasst man das Vorzeichen durch die Grad-Involution:
U(a1 ∧ · · · ∧ ak ) = −U α̂(a1 ∧ · · · ∧ ak )U −1 = α̂(U a1 ∧ · · · ∧ ak )U −1 .
Bei der Wirkung einer Reflexion auf einen beliebigen Multivektor A taucht deshalb
ein zusätzliches Vorzeichen auf, welches von den Graden von A abhängt:
U(A) = α̂(UA)U −1 = α̂(U )α̂(A)U −1 .
(3.32)
Aufgrund dieses Vorzeichens ist es nicht mehr möglich, die Wirkung der Rotationen und Reflexionen auf Multivektoren in einfacher Weise in einer einzigen Formel
zusammenzufassen, wie dies für die Vektoren möglich war.
3.8
Anwendung: Bewegung in Zentralkraftfeldern
In diesem Abschnitt wollen wir zeigen, wie sich die Klassische Mechanik in der
Sprache der Geometrischen Algebra formulieren lässt. Das Rezept dazu ist einfach:
Als erstes ersetzt man alle Kreuzprodukte von echten6 Vektoren durch Dachprodukte. Die axialen Vektoren werden dadurch in der GA automatisch zu Bivektoren,
die auch das richtige Verhalten unter Parität aufweisen. In einem weiteren Schritt
kann man versuchen, die Gleichungen mit Hilfe des Geometrischen Produkts auszudrücken, welches in Rechnungen einige algebraische Vorteile bietet.
3.8.1
Drehimpuls und Laplace-Runge-Lenz-Vektor
Normalerweise ist der Drehimpuls definiert als Kreuzprodukt von Ortsvektor r
und Impuls p. Nach dem Rezept wird aus dem Kreuz- ein Dachprodukt und man
bekommt stattdessen einen Drehimpuls-Bivektor :
L =r∧p .
(3.33)
Geometrisch lässt sich der Drehimpuls also als die orientierte Fläche interpretieren,
die vom Radiusvektor r (Fahrstrahl) überstrichen wird. Für konstanten Drehimpuls L ergibt sich daraus ohne weitere Rechnung genau die Aussage des zweiten
Kepler’schen Gesetzes.
Im Hinblick auf Zentralkraftfelder ist es praktisch den obigen Ausdruck für den
Drehimpuls noch etwas umzuschreiben. Dazu zerlegen wir den Ortsvektor in Betrag
und Richtung:
r = rr̂ mit r = krk und r̂ 2 = 1 .
Damit lässt sich (3.33) umschreiben zu:
˙ = µ r ∧ (r r̂)
˙ = µr 2 r̂ ∧ r̂˙ .
L = µ r ∧ ṙ = µ r ∧ (ṙr̂ + r r̂)
Außerdem erhält man aus der Normierungsbedingung r̂ 2 = 1 durch Ableiten:
0=
d
d
˙ ,
1 = (r̂ 2 ) = 2hr̂| r̂i
dt
dt
6 Polare/echte Vektoren (wie Ort und Impuls) wechseln unter Raumspiegelung/Parität das
Vorzeichen. Axiale/Pseudo-Vektoren (wie der Drehimpuls) tun dies nicht.
78 Kapitel 3. Reflexionen und Rotationen
also steht r̂˙ senkrecht auf r̂. Das Endergebnis kommt deshalb mit einem geometrischen Produkten aus:
˙ .
L = µr 2 r̂ r̂˙ = −µr 2 r̂r̂
(3.34)
Da man bezüglich geometrischem Produkt durch Vektoren teilen kann, lässt sich
dies zum Beispiel nach r̂˙ auflösen:
1
1
r̂˙ = 2 r̂L = 2 r̂ y L ,
µr
µr
wobei für den letzten Schritt r̂ ∧ L = r̂ ∧ r ∧ p = 0 verwendet wurde. Hierbei
profitiert man von der Assoziativität des Dachprodukts, welche beim Kreuzprodukt
nicht vorhanden ist. Damit ergibt sich:
1 ṙ = ṙr̂ + r r̂˙ = ṙ −
L r̂ ,
µr
und als Folge davon zerfällt die kinetische Energie in einen Radial- und einen Drehimpulsanteil:
µ
µ
µ D
1 t E
1 Ekin = ṙ 2 = hṙṙ t i =
L r̂r̂ ṙ −
L
ṙ −
2
2
2
µr
µr
E
1
1
1
µD 2
ṙ − ṙ L − ṙ Lt + 2 2 LLt
=
2
µr
µr
µ r
µ
1
1
µ 2
2
kLk .
(3.35)
ṙ + 2 2 hLLt i = ṙ 2 +
=
2
µ r
2
2µr 2
Im zweiten Schritt heben sich dabei die Kreuzterme gegeneinander weg, da für die
Transposition eines Bivektors Lt = −L gilt.
Als weitere Anwendung der Gleichung (3.34) zeigen wir, dass der Laplace-Runge-Lenz-Vektor in einem Kepler-Potential V (r) = −κ/r erhalten ist. Die Bewegungsgleichung eines Teilchens der Masse µ ist hier gegeben durch:
µr̈ = −
κ
r̂ .
r2
(3.36)
Man berechnet dann unter Verwendung von Gleichung (3.34):
Lr̈ = −
κ
κ
˙
Lr̂ = 2 µr 2 r̂r̂r̂
= κr̂˙
µr 2
µr
⇐⇒
Lv̇ − κr̂˙ = 0 .
Da der Drehimpuls in Zentralkraftfeldern erhalten ist (L̇ = 0), folgt daraus:
d
Lv − κr̂ = 0
dt
⇐⇒
κe := Lv − κr̂ = const .
(3.37)
Die Erhaltungsgröße e heißt Laplace-Runge-Lenz-Vektor. Dass es sich dabei
wirklich um einen Vektor handelt, folgt aus Lv = L x v = hLvi1 , wegen L ∧ v =
µ r ∧ v ∧ v = 0. In klassischer Notation lautet der Laplace-Runge-Lenz-Vektor
übrigens e = (v × l)/κ − r̂, wobei l = r × p der (axiale) Drehimpulsvektor ist. Die
Äquivalenz dieser beiden Ausdrücke für den Laplace-Runge-Lenz-Vektor folgt aus
Gleichung (C.6) auf Seite 144, denn es gilt:
Lv = L x v = −v y L = −v y (r ∧ p) = v × (r × p) = v × l .
3.8 Anwendung: Bewegung in Zentralkraftfeldern 79
3.8.2
Lösung des Kepler-Problems mit Rotor-Methoden
Neben der Vereinfachung von algebraischen Manipulationen eröffnet die Geometrische Algebra teilweise ganz neue Herangehensweisen an Probleme. Ein Beispiel ist
die Verwendung von Rotoren7 zur Lösung des Kepler-Problems (siehe auch [Hes98],
[Hes99, Section 8.4] und [DL03, Section 3.3]).
Dazu bemerken wir, dass sich jeder Vektor eines euklidischen Vektorraums durch
eine Drehstreckung aus einem festen Referenzvektor e1 gewinnen lässt:
r = rr̂ = r U e1 U −1 = U e1 U t
mit kU k2 = r ,
(3.38)
wobei U ∈ Γ+
n ein gerader Versor ist. Obwohl U nicht auf 1 normiert ist, wollen wir
ihn hier trotzdem als (verallgemeinerten) Rotor bezeichnen. Anschließend übersetzt
man die Bewegungsgleichung für r(t) im Ortsraum, in eine Bewegungsgleichung
für U (t) im Raum der Rotoren. Wie sich herausstellt, ist diese „Rotorgleichung“ –
zumindest beim Kepler-Problem – in vielen Belangen deutlich einfacher zu handhaben, als die ursprüngliche Bewegungsgleichung.
Anstelle des einzelnen Referenzvektors kann man in Gleichung (3.38) auch die
Basis (ej )j eines Vektorraums einsetzen. In diesem Fall beschreibt die Transformation e0j = U ej U t eine Drehstreckung des ganzen Koordinatensystems. Dies ist
unter anderem für die Beschreibung des starren Körpers nützlich. Auf die selbe
Weise lässt sich aber auch ein begleitendes Vierbein in der speziellen Relativität
beschreiben. Neben der klassischen Anwendung sind die Rotormethoden auch im
Hinblick auf die Quantenmechanik relevant. Hier tauchen nämlich zu Gleichung
(3.38) analoge Ausdrücke der Form hψ| . . . |ψi auf, wobei ein Spalten-Spinor ψ von
beiden Seiten auf Operatoren wirkt. Dies werden wir später genauer diskutieren.
Wir kommen nun zur Lösung des Kepler-Problems. Da der Drehimpuls in Zentralkraftfeldern erhalten ist, findet die Bewegung in einer Ebene statt. Im Gegensatz
zum üblicherweise verwendeten Kreuzprodukt ist das Dachprodukt auch in zwei
Dimensionen wohldefiniert. In der Geometrischen Algebra benötigen wir deshalb
die dritte Dimension gar nicht, sondern wir können uns komplett auf den zweidimensionalen Vektorraum V(I) einschränken, wobei I = L/ kLk mit I 2 = −1 den
Pseudoskalar bezeichnet, der die Ebene der Bewegung aufspannt.
Der Rotor U lässt sich in diesem Fall schreiben als U = α + Iβ mit α, β ∈
. Nach Gleichung (2.127) kommutiert I mit allen geraden Multivektoren und
antikommutiert mit allen ungeraden Multivektoren in G(I). Speziell ergibt sich also
für einen Vektor a ∈ V(I) in der Drehebene: Ia = −aI = aI t . Für das Vertauschen
eines Vektors a mit dem Rotor U folgt daraus:
U a = aU t
bzw. U t a = aU
für alle a ∈ G(I) .
was man mit Hilfe der obigen Zerlegung in Stufen leicht nachprüft. Da wir uns in
einem zweidimensionalen Vektorraum befinden, muss der Referenzvektor e1 offensichtlich in der Drehebene liegen. Demzufolge ist r = U e1 U t = U 2 e1 und durch
Ableiten nach der Zeit ergibt sich:
ṙ = (U̇ U + U U̇ )e1 = 2U̇ U e1 = 2U̇ e1 U t ,
(3.39)
7 Wie in Abschnitt 3.4 erwähnt, werden die Rotoren in der Literatur zur Geometrischen Algebra
normalerweise Spinoren genannt. Deshalb ist dort auch von „Spinor-Methoden“ die Rede.
80 Kapitel 3. Reflexionen und Rotationen
P
U
r
A
P
A
A
P
Abbildung 3.16 Rotor- und Bahn-Orbit beim Kepler-Problem. Pro Umlauf
des Rotors U durchläuft der Ortsvektor r den Orbit zweimal, aufgrund des
Halbwinkels in Gleichung (3.11). Deshalb trifft man auf der Bahn von U das
Perizentrum (P) und das Apozentrum (A) zweimal an.
wobei man im zweiten Schritt die Kommutativität von U mit geraden Multivektoren
ausgenutzt hat. Mit Hilfe des Zusammenhangs r = kU k2 = hU U t i = U U t zwischen
r und U folgt daraus:
2r U̇ = 2U̇ r = 2U̇ (U U t ) = 2U̇ U (e1 e1 )U t = (2U̇ U e1 )U e1 = ṙU e1 .
(3.40)
Wir möchten nun den Faktor r auf der linken Seite in der Ableitung nach einem
neuen Parameter s absorbieren. Dazu fordert man
d
dt d ! d
=
=r
ds
ds dt
dt
⇐⇒
dt
=r.
ds
(3.41)
Bezeichnet man die Ableitung nach s mit einem Strich, dann ergibt sich:
2U 0 = 2
dU
dt dU
=2
= 2r U̇ = ṙU e1 .
ds
ds dt
(3.42)
Durch eine weitere Ableitung nach s wird daraus:
2U 00 = rr̈U e1 + ṙU 0 e1 = r̈U e1 r + ṙr U̇ e1
= r̈U e1 (U t U ) + ṙ(U t U )U̇ e1 = r̈(U e1 U t )U + U ṙ(U U̇ e1 )
= r̈rU + U ṙ( 21 ṙ) = U r̈r + 21 ṙ 2 ,
(3.43)
wobei für die Umformungen mehrfach die Beziehung r = U U t = U t U und für die
Ableitungen Gleichung (3.41) benutzt wurde.
Nun verwendet man die Bewegungsgleichung eines Teilchens der Masse µ im
Kepler-Potential:
κ
κ
µr̈ = − 2 r̂ = − 3 r .
r
r
Einsetzen in Gleichung (3.43) liefert die gesuchte Bewegungsgleichung für U :
U 00 =
beziehungsweise:
1 µ 2 κ
1 1
ṙ −
U
=
U Ekin + V (r) =
UE ,
2µ
2
r
2µ
2µ
U 00 −
E
U =0.
2µ
(3.44)
3.8 Anwendung: Bewegung in Zentralkraftfeldern 81
a
P
r
ψ
ϕ
C0
C
b
Abbildung 3.17 Parametrisierung der Ellipse mittels der exzentrischen Anomalie ψ als r(ψ) = a(1 + ε cos ψ). Der Punkt P hat per Konstruktion die
Koordinaten P = (a cos ψ, b sin ψ), der linke Brennpunkt ist gegeben durch
C = (−c, 0) mit c = εa, wobei ε die numerische Exzentrizität darstellt.
Für negative Energie E < 0 (gebundene Bahnen) ist dies genau die Bewegungsgleichung eines harmonischen Oszillators mit der Frequenz:
p
ω = −E/2µ .
(3.45)
Die Lösung der Bewegungsgleichung (3.44) ist bekannt als:
U (s) = α+ e+Iωs + α− e−Iωs ,
(3.46)
wobei I der Pseudoskalar der zweidimensionalen Ebene und α± ∈ zwei Integrationskonstanten sind, die sich aus den Anfangsbedingungen ergeben. Mit Hilfe von
Gleichung (3.38) lässt sich dann r berechnen:
r(s) = U U t = α+ e+Iωs + α− e−Iωs α+ e−Iωs + α− e+Iωs
2
2
= (α+
+ α−
) + α+ α− e2Iωs + e−2Iωs
2
2
= (α+
+ α−
) + 2α+ α− cos(2ωs) .
(3.47)
Mit dt/ds = r folgt daraus für die Zeit t:
2
2
t(s) = (α+
+ α−
)s +
1
α+ α− sin(2ωs) .
ω
(3.48)
Vergleicht man das Ergebnis (3.47) für r(s) mit der bekannten Parametrisierung
der Ellipse durch r(ψ) = a(1 + ε cos ψ), wobei ψ die exzentrischen Anomalie 8 ist
(siehe dazu Abbildung 3.17), dann bekommt man:
ψ = 2ωs ,
8 Die
2
2
a = α+
+ α−
und
εa = 2α+ α− .
Winkel werden in der Terminologie des Kepler-Problems oft als Anomalien bezeichnet.
82 Kapitel 3. Reflexionen und Rotationen
Der Parameter s unterscheidet sich von der exzentrischen Anomalie ψ nur um den
konstanten Faktor 2ω. Bei der Rechnung mit Rotoren taucht die wichtige, exzentrische Anomalie also als ein natürlicher Parameter auf, wogegen sie im Vektorkalkül
einigermaßen künstlich eingeführt werden muss. Außerdem lässt sich s auch auf den
Fall E > 0 fortsetzen,
die Frequenz in Gleichung (3.45) mit Hilfe des
p wenn man p
Bivektors I als ω = −E/2µ = I E/2µ =: I ω̃ schreibt. Damit wird (3.47) zu:
2
2
2
2
r(s) = (α+
+ α−
) + 2α+ α− cos(2I ω̃s) = (α+
+ α−
) + 2α+ α− cosh(2ω̃s) ,
wodurch eine Hyperbelbahn beschrieben wird. Dies sieht man, indem man die
Hyperbel durch (a cosh ψ, b sinh ψ) parametrisiert und dann genau wie in Abbildung 3.17 vorgeht.
Insgesamt bietet die Verwendung von Rotoren bei der Lösung des Keplerproblems enorme Vorteile. Durch den Übergang von Vektoren zu Rotoren wird die
Bewegungsgleichung linear. Außerdem ist sie überall regulär, im Gegensatz zur ursprünglichen Gleichung, die bei r = 0 eine Singularität aufweist. Dies wirkt sich
positiv auf die Stabilität von numerischen Lösungen aus. Weiterhin haben wir in
Gleichung (3.46) bzw. (3.47) eine universelle Lösung (für beliebige Energie E) gefunden, die durch die exzentrische Anomalie parametrisiert wird.
Aufgrund der „Gutartigkeit“ der Rotorgleichung eignet sich diese auch hervorragend als Ausgangspunkt der Störungsrechnung in der Himmelsmechanik. Eine
Matrixformulierung der Bewegungsgleichung (3.44) (mit einer zusätzlichen äußeren
Kraft) ist dort als Kustaanheimo-Stiefel-Gleichung bekannt. Um diese herzuleiten,
muss man die obige Argumentation auf drei Dimensionen verallgemeinern, da im
gestörten Problem der Drehimpuls im Allgemeinen nicht mehr erhalten ist. Dabei
tritt in Gleichung (3.38) eine Eichfreiheit auf, da der Rotor U ∈ Γ+
3 vier freie Parameter besitzt, wogegen der Vektor r nur dreidimensional ist. Die Diskussion von
verschiedenen Eichungen, zusammen mit der Herleitung der Kustaanheimo-StiefelGleichung, findet man in [Hes99, Section 8.4].
3.9
Zusammenfassung
In diesem Kapitel haben wir uns mit der Beschreibung von Isometrien in der Sprache
der Geometrischen Algebra beschäftigt. Eine Spiegelung des Vektors v an einer
Hyperebene senkrecht zum Vektor s lässt sich mit dem Clifford-Produkt schreiben
als:
S(v) = −svs−1 = α̂(s)vs−1 .
(3.1)
In Abschnitt 3.2 haben wir daraufhin den Satz von Cartan-Dieudonné bewiesen,
wonach sich jede orthogonale Transformation U eines Vektorraums Vp,q in maximal
n = p + q Spiegelungen an Ebenen senkrecht zu nichtsingulären Vektoren zerlegen lässt. Als Folge davon kann man jede beliebige orthogonale Transformation
schreiben als:
U(v) = α̂(U )vU −1 ,
(3.5)
wobei U = sk · · · s1 ein sogenannter Versor ist. Besonders interessant sind für uns
die Rotationen, die sich nach dem Satz in eine gerade Anzahl von Reflexionen
zerlegen lassen. Die Komposition von zwei Spiegelungen nennen wir dabei einfache
Drehung, wogegen sich zusammengesetzte Drehungen nur durch eine höhere Anzahl
von Spiegelungen ausdrücken lassen. Da sich jede zusammengesetzte Drehung aus
3.9 Zusammenfassung 83
den einfachen aufbauen lässt, müssen wir nur diese genauer untersuchen. In einem
euklidischen Vektorraum kann man jede einfache Drehung um den Winkel ϑ in der
Drehebene, die vom normierten 2-Spat I2 aufgespannt wird, schreiben als:
R(v) = RvRt = eI2 ϑ/2 ve−I2 ϑ/2 .
(3.11)
In diesem Zusammenhang wurde der Rotor R als orientierter Kreisbogen eines
Großkreises auf der Einheitssphäre interpretiert. Hat man anstelle des Drehwinkels
und der Drehebene einen Einheitsvektor a gegeben, der durch die Drehung in den
Vektor b übergeht, dann ergibt sich für R die Formel:
R= p
1 + ba
2(1 + ha|bi)
.
(3.130 )
Im darauf folgenden Abschnitt 3.4 haben wir die Gruppeneigenschaften der
Isometrien diskutiert. Die Versoren bilden die Clifford-Lipschitz-Gruppe Γp,q , woraus sich durch eine geeignete Normierung die wichtigen Untergruppen Pin(p, q),
Spin(p, q) und Spin+ (p, q) ergeben. Im Gegensatz zur üblichen Sprechweise in der
Mathematik, werden die Elemente der Spin-Gruppe in dieser Arbeit Rotoren genannt, um Verwechslungen mit den Spinoren der Quantenmechanik zu vermeiden.
Topologisch gesehen sind die Pin- und Spin-Gruppen zweifache Überlagerungen der
orthogonalen Gruppen:
Pin(p, q)/ 2 ∼
= O(p, q) , Spin(p, q)/ 2 ∼
= SO(p, q)
∼
und Spin+ (p, q)/ 2 = SO+ (p, q) .
Im euklidischen Fall mit n ≥ 3 und für die Lorentzmetriken (n − 1, 1) bzw. (1, n − 1)
mit n ≥ 4 sind die Überlagerungen einfach zusammenhängend und deshalb universell. Eine universelle Überlagerung hat besonders schöne mathematische Eigenschaften und alle überlagerten Gruppen können daraus durch Quotientenbildung
rekonstruiert werden.
In Abschnitt 3.5 haben wir den Minkowski-Vektorraum in geometrischer Weise
definiert und ausführlich untersucht, wie sich die indefinite Metrik auf den Begriff der Orthogonalität und Längen auswirkt. Im Anschluss daran wurden in Abschnitt 3.6 die einfachen Lorentz-Transformationen diskutiert. Diese lassen sich
durch die Kegelschnitte der Drehebene mit dem Lichtkegel klassifizieren. Eine raumartige Drehebene führt dabei zu den elliptischen Lorentz-Transformationen, die
den gewöhnlichen Drehungen entsprechen. Eine zeitartige Drehebene liefert hyperbolische Drehungen, die auch Lorentz-Boosts genannt werden. Als oft vergessener
Grenzfall zwischen diesen beiden bekannten Möglichkeiten, führt eine lichtartige
Drehebene zu den sogenannten parabolischen Lorentz-Transformationen. Alle diese Transformationen lassen sich einheitlich durch die beidseitige Wirkung, wie in
Gleichung (3.11), beschreiben, wobei sich die verschiedenen Fälle nur durch das
Quadrat des Pseudoskalars der Dreheben I 2 ∈ {0, ±1} unterscheiden.
Nach der ausführlichen Diskussion der Isometrien auf Stufen des Vektorraums,
wurden diese in Abschnitt 3.7 auf die komplette Algebra fortgesetzt. Dazu definiert man die Wirkung von U auf einen k-Spat in natürlicher Weise als äußeren
Morphismus:
U(a1 ∧ · · · ∧ ak ) := U(a1 ) ∧ · · · ∧ U(ak ) ,
was sich dann linear auf beliebige Multivektoren fortsetzen lässt.
84 Kapitel 3. Reflexionen und Rotationen
Als Anwendungsbeispiel wurde in Abschnitt 3.8 die Bewegung in Zentralkraftfeldern im Rahmen der Newton’schen Mechanik diskutiert. Die Rolle des Drehimpulsvektors wird dabei vom Drehimpuls-Bivektor L = r ∧ p übernommen. In der
Geometrischen Algebra lässt sich dieser auch mit Hilfe des Clifford-Produkts ausdrücken als:
˙ .
L = µr 2 r̂ r̂˙ = −µr 2 r̂r̂
(3.34)
Diese speziell Form erlaubt besonders effiziente algebraische Umformungen, was
unter anderem im darauf folgenden Beweis der Erhaltung des Laplace-Runge-LenzVektors demonstriert wurde.
Zum Abschluss des Kapitels wurde vorgeführt, wie die Verwendung von (verallgemeinerten) Rotoren die Lösung des Kepler-Problems vereinfacht. Dazu übersetzt
man anhand einer Drehstreckung:
r = U e1 U t ,
(3.380 )
mit kU k2 = r und einem festen Referenzvektor e1 , die Bewegungsgleichung für r im
Ortsraum in eine „Rotorgleichung“ für U . Als überraschendes Ergebnis bekommt
man dadurch für U die Bewegungsgleichung eines harmonischen Oszillators:
U 00 −
E
U =0,
2µ
(3.43)
wobei der Strich die Ableitung nach einem Parameter s bezeichnet, der in diesem
Formalismus natürlich auftritt und sich als proportional zur exzentrischen Anomalie
herausstellt. Die Lösung der Rotorgleichung ist einfach und lässt sich für beliebige
Energien explizit angeben. Im Gegensatz zur Bewegungsgleichung im Ortsraum,
welche bei r = 0 eine Singularität aufweist, ist die Rotorgleichung außerdem überall
regulär. Dies prädestiniert sie als Ausgangspunkt für die Störungsrechnung in der
Himmelsmechanik, wo eine Matrixformulierung von Gleichung (3.43) als Kustaanheimo-Stiefel-Gleichung bekannt ist.
Die Geometrische Algebra hat viele weitere Anwendungen auf dem Gebiet der
klassischen Newton’schen Mechanik (siehe dazu [Hes99]). Auch die Lagrange’sche
und Hamilton’sche Mechanik lässt sich gewinnbringend in der Sprache der Geometrischen Algebra formulieren. Details dazu kann man zum Beispiel in [Hes93b],
[LDG93] sowie in [DL03, Chapter 12] nachlesen.
a
4. Spezielle Relativität und Spacetime-Algebra
To show this diagram properly, I would really need a
four dimensional screen. However, because of government cuts, we could manage to provide only a two
dimensional screen.
Stephen Hawking
Im Jahr 1905 veröffentlichte Albert Einstein seinen berühmten Artikel „Zur Elektrodynamik bewegter Körper“ [Ein05] in dem er den Grundstein zur Speziellen Relativitätstheorie (SRT) legte. Obwohl die Maxwell-Gleichungen schon 1884 von Heaviside
und Gibbs in der Sprache der klassischen Vektoranalysis formuliert wurden, musste Einstein in seinem Artikel auf Koordinatenausdrücke zurückgreifen, da sich das
Kreuzprodukt nicht auf vier Dimensionen verallgemeinern lässt. Auch heutzutage
ist die Beschreibung der SRT in Koordinaten durch Lorentz-kovariante Tensorgleichungen üblich. Dabei geht allerdings ein großer Teil der geometrischen Anschauung
eines koordinatenfreien Zugangs verloren, wie man ihn zum Beispiel aus der klassischen Mechanik und der dreidimensionalen Elektrodynamik kennt.
Mittlerweile wurde die klassische Vektoranalysis in der Mathematik weitgehend
durch Differentialformen abgelöst, die langsam auch ihren Weg in die Physik finden.
Als Beispiel sei die koordinatenfreie, vierdimensionale Formulierung der Elektrodynamik erwähnt, wodurch die ursprünglichen vier Maxwell-Gleichungen auf zwei
gut interpretierbare Gleichungen reduziert werden konnten. Auf ein neues Problem
stößt man allerdings in der Quantenmechanik, sobald der Spin eingeführt werden
soll. Als Folge davon verwendet man in der relativistischen Quantenmechanik normalerweise eine Mischung aus einer Tensoralgebra über einem komplexifizierten
Vektorraum, zusammen mit Spinoren.
In diesem Kapitel wollen wir zeigen, wie die Geometrische Algebra eine koordinatenfreie Formulierung der Speziellen Relativität ermöglicht. Weil die dabei
entstehenden Gleichungen ohne Bezug auf einen Beobachter auskommen sind sie
sogar Lorentz-invariant, im Gegensatz zu den nur kovarianten Tensorgleichungen .
Gleichzeitig gewinnt man eine geometrische Anschauung, da nicht mehr von symmetrischen und antisymmetrischen Tensoren p-ter Stufe die Rede ist, sondern Konzepte wie Vektoren, Flächenelemente und so weiter in den Vordergrund treten. Wie
Hestenes in [Hes66] zeigt, lässt sich in dieser Spacetime-Algebra auch der Spin konsistent einführen.
Die grundlegenden Prinzipien der Speziellen Relativitätstheorie wollen wir hier
als bekannt voraussetzen (siehe z. B. [SU92]) und direkt mit der Beschreibung von
Teilchen in der Minkowski-Raumzeit beginnen. Die Geometrie von Minkowski-Vektorräumen wurde schon ausführlich in Abschnitt 3.5 (auf Seite 67ff) diskutiert. Wie
auch dort, wählen wir die in der Teilchenphysik übliche Metrik η mit der Signatur
(p, q) = (1, 3), so dass kausale (zeitartige) Abstände positiv werden. Außerdem
verwenden wir in diesem Kapitel natürliche Einheiten, für die c = 1 gilt.
4.1
Teilchen und Weltlinien
Die Bewegung eines Teilchens lässt sich durch eine glatte, parametrisierte Kurve
x(λ) von Ereignissen (Punkten) im Minkowskiraum M beschreiben (siehe Abbil-
86 Kapitel 4. Spezielle Relativität und Spacetime-Algebra
x(λ)
x(λ)
(a)
(b)
Abbildung 4.1 (a) Weltlinie x(λ) eines Teilchens in der Minkowski-Raumzeit.
(b) Bei der kausalen Bewegung eines Teilchens muss der Tangentialvektor
x0 (λ) der Weltlinie x(λ) immer innerhalb oder auf einem lokal angehefteten
Lichtkegel liegen.
dung 4.1a). Der Kurvenparameter λ kann dabei frei gewählt werden, da er – bis auf
die Orientierung der Kurve – keine physikalische Bedeutung hat. Die Äquivalenzklasse x( · ) aller Kurven, die die gleiche physikalische Bewegung parametrisieren,
wollen wir Weltlinie nennen. In der Physik ist es üblich auch den Repräsentanten
x(λ) als Weltlinie zu bezeichnen. Dieser Konvention wollen wir uns anschließen,
solange dadurch keine Missverständnisse auftreten.
Wir wollen nun eine Raumzeit-Geschwindigkeit 1 für das Teilchen definieren.
Dazu betrachten wir als Erstes den Tangentialvektor der Kurve:
x0 (λ) =
dx
(λ) .
dλ
(4.1)
Da dieser Vektor aber unter den (physikalisch irrelevanten) Umparametrisierungen der Kurve seine Länge ändert, ist er durch die Weltlinie x( · ) nicht eindeutig
bestimmt. Deshalb kann er (zumindest in dieser Form) nicht die Raumzeit-Geschwindigkeit des Teilchens beschreiben.
Für ein massives Teilchen kann man den Tangentialvektor durch einen Trick eindeutig machen. Um die Kausalität zu wahren, muss der Tangentialvektor x0 (λ) an
jedem Punkt der Weltlinie innerhalb oder auf einem lokal angeheftenen Lichtkegel
liegen (siehe Abbildung 4.1b). Für ein Teilchen mit Masse m 6= 0 ist er bekanntermaßen sogar überall zeitartig. In diesem Fall ist durch die Bogenlänge `(λ) der
Kurve ein bevorzugter Kurvenparameter gegeben:
Z λ
`(λ) =
kx0 (λ)k dλ .
(4.2)
0
Da der Parameter τ := ` die Zeit beschreibt, die im momentanen Ruhesystem des
Teilchens vergeht, wird τ auch Eigenzeit genannt.2 Der Tangentialvektor einer
1 Der Begriff Vierergeschwindigkeit ist in diesem Kontext ungeeignet, da die Geschwindigkeit
kein 4-Vektor ist. Außerdem bringt der Begriff der Raumzeit-Geschwindigkeit deutlicher zum
Ausdruck, worum es sich dabei handelt.
2 Wenn man die Lichtgeschwindigkeit c nicht gleich 1 setzt, gilt zwischen Eigenzeit und Bogenlänge die Beziehung τ = `/c. Der Tangentialvektor ist dann auf kẋ(τ )k2 = c2 normiert.
4.2 Beobachter und Bezugssysteme 87
Kurve x(τ ), die mit der Eigenzeit parametrisiert ist, hat überall die Länge 1. Dies
kann man für eine alternative (lokale) Definition der Eigenzeit verwenden. Dazu
fordert man:
dx
2 !
kẋ(τ )k = 1 , mit ẋ(τ ) :=
(τ ) .
(4.3)
dτ
Der Punkt soll in der SRT immer Ableitungen nach der Eigenzeit τ bezeich
nen, im Gegensatz zu den Ableitungen nach der Koordinatenzeit t, die wir
später einführen werden.
Für ein massives Teilchen können wir nun die Raumzeit-Geschwindigkeit
oder auch Eigengeschwindigkeit u definieren als:
u(τ ) := ẋ(τ ) = x0 (λ)/ kx0 (λ)k .
(4.4)
Durch die gewählte Normierung des Tangentialvektors ist die Raumzeit-Geschwindigkeit für massive Teilchen wohldefiniert und stellt für diese eine charakteristische
Größe entlang der Weltlinie dar.
Im Gegensatz zu den massiven Teilchen bewegen sich masselose Teilchen immer
mit Lichtgeschwindigkeit. Der Tangentialvektor an die Bahnkurve x(λ) ist deshalb
überall lichtartig, d. h. es gilt kx0 (λ)k2 = 0. Nach Gleichung (4.2) folgt daraus:
τ (λ) =
Z
λ
0
q
2
kx0 (λ)k
dλ =
Z
λ
√
0 dλ = 0 .
0
Für masselose Teilchen vergeht also keine (Eigen-)Zeit. Da man die Weltlinie nicht
mehr mit τ parametrisieren kann, gibt es für masselose Teilchen keinen bevorzugten
Kurvenparameter und somit auch keine wohldefinierte Raumzeit-Geschwindigkeit.
Allein die Richtung des Tangentialvektors (und damit die Bewegungsrichtung) ist
auch für masselose Teilchen entlang der Weltlinie eine sinnvolle Größe.
4.2
Beobachter und Bezugssysteme
In der Speziellen Relativitätstheorie sollte man sorgfältig zwischen Beobachtern und
Bezugssystemen unterscheiden.
Als Beobachtung bezeichnen wir eine Messung, die lokal an einem Punkt xB
in der Raumzeit stattfindet. Diese Definition berücksichtigt die Kausalität, so dass
nur Ereignisse die Messung beeinflussen können, die im Rückwärtslichtkegel von
xB liegen. Eine Beobachtung bezeichnet also genau das, was eine reale Person am
Raumzeitpunkt xB sehen würde. Die vollständige Information über den Ausgang
der Messung ist lokalisiert bei xB vorhanden und danach natürlich an jedem Punkt
des Vorwärtslichtkegels von xB bekannt.
Im Gegensatz dazu ordnet ein Bezugssystem global jedem Ereignis x im Minkowskiraum eine Koordinatenzeit t und einen Ort x zu. In Realität ließe sich dies
durch eine (unendliche) Menge von Beobachtern realisieren, die ihre Uhren miteinander synchronisiert haben. Das Bezugssystem nimmt dabei keine Rücksicht auf die
Kausalität. Die Information über den Ausgang einer Anzahl von Messungen, die
zu einer festen Koordinatenzeit t an mehreren Orten xi stattfinden, ist zu diesem
Zeitpunkt nicht lokal an einem Punkt vorhanden, sondern raumartig voneinander
getrennt. Eine Folge davon ist die Unsichtbarkeit der Lorentzkontraktion, da die Ergebnisse der raumartig getrennten Messungen den Beobachter zu unterschiedlichen
88 Kapitel 4. Spezielle Relativität und Spacetime-Algebra
γ0
γ0
γ1
(a)
(b)
Abbildung 4.2 (a) Ein zeitartiger Beobachter besitzt eine orthonormale Basis. (b) Für einen hypothetischen, lichtartigen Beobachter liegt die Bewegungsrichtung γ0 in einer Ebene mit den dazu orthogonalen Vektoren, wodurch die ehemalige Orthonormalbasis entartet.
Zeiten erreichen. Bewegte Objekte erscheinen dadurch nicht in Bewegungsrichtung
verkürzt, sondern gedreht (siehe [SU92]). Auch die scheinbaren Widersprüche bei
Einstein-Podolsky-Rosen-Experimenten [EPR35] lassen sich auf diese Weise aufklären. Die Beobachtung ist in diesem Fall erst dann beendet, wenn das vollständige
Messergebnis lokal an einem Ort vorliegt, da man erst dann Vergleiche zwischen
raumartig getrennten Messungen durchführen kann. Die scheinbare Übertragung
von Information mit Überlichtgeschwindigkeit ist also nur eine Folge der nicht hinreichend beachteten Kausalität.
Einen Beobachter kann man nun – genauso wie ein Teilchen – durch eine Weltlinie beschreiben. Dabei ist es physikalisch sinnvoll, nur zeitartige Beobachter zuzulassen, da nur für diese die Begriffe Raum und Zeit sinnvoll sind. Den Grund dafür
werden wir gleich näher erläutern. Lokal wird ein Beobachter also durch einen Weltpunkt xB (τ0 ) und seine Raumzeit-Geschwindigkeit ẋB (τ0 ) charakterisiert.
Zu diesen beiden lokalen Daten kann man ein global gültiges Bezugssystem
konstruieren. In der Literatur zur Spacetime-Algebra werden die Basisvektoren in
der Raumzeit üblicherweise wie die Dirac-Matrizen durch γµ mit µ ∈ {0, 1, 2, 3}
bezeichnet. Als Basisvektor in Zeitrichtung ist durch den Beobachter der zeitartige
Tangentialvektor ausgezeichnet, der praktischerweise auch schon auf 1 normiert
ist. Wir setzen also γ0 := ẋB (τ0 ) und wählen dann die restlichen Basisvektoren
orthonormal dazu (siehe Abbildung 4.2a):
!
1
(4.5)
2 γµ γν + γν γµ = hγµ |γν i = ηµν .
Die Bezeichnung als γµ ist damit im Nachhinein dadurch gerechtfertigt, dass die Basisvektoren algebraisch die gleichen Eigenschaften wie die Dirac-Matrizen besitzen.
Nach Satz 3.2 von Seite 68 sind die zusätzlichen Basisvektoren γi mit i ∈ {1, 2, 3}
übrigens automatisch alle raumartig. Wie gewünscht, kann der zeitartige Beobachter also zwischen Raum und Zeit trennen.
Falls sich der Beobachter xB (τ ) geradlinig gleichförmig bewegt, ist der Tangentialvektor γ0 = ẋB (τ ) an die Weltlinie konstant. Die Wahl des Zeitpunkts τ0 zur
Konstruktion des Bezugssystems wirkt sich dann nur auf den Koordinatenursprung
aus, nicht jedoch auf die Zerlegung in Zeit und Raum. Man kann deshalb die Bezugssysteme zu allen Zeiten miteinander identifizieren. Ein solcher Beobachter wird
4.2 Beobachter und Bezugssysteme 89
eukl.
Drehung
(a)
hyp.
Drehung
(b)
Abbildung 4.3 (a) Euklidische und (b) hyperbolische Drehung (Erklärung
siehe Text).
inertial genannt, das zugehörige Bezugssystem heißt Inertialsystem. Weil die
Aufspaltung zwischen Raum und Zeit eindeutig durch den zeitartigen Vektor γ0
festgelegt wird, nennen wir es auch γ0 -System.
Geht man nun einmal von einem hypothetischen, lichtartigen Beobachter aus,
so ist der Tangentialvektor an die Weltlinie nach den Erkenntnissen des letzten
Abschnitts nicht mehr wohldefiniert, da sich lichtartige Vektoren nicht normieren lassen. Speziell legt der Beobachter durch die Bewegungsrichtung auch keinen
zeitartigen Basisvektor mehr fest. Immerhin können wir auch in diesem Fall drei
normierte, raumartige Vektoren orthogonal zur lichtartigen Bewegungsrichtung γ 0
finden. Da diese aber in einer Ebene mit γ0 liegen, spannen die vier Vektoren nicht
mehr den ganzen Raum auf und die ehemalige Orthonormalbasis entartet (siehe
Abbildung 4.2b). Zu einem lichtartigen Beobachter lässt sich also kein eindeutig
festgelegtes Bezugssystem konstruieren und er kann nicht zwischen Raum und Zeit
unterscheiden.
Ein letzter Punkt zu den Beobachtern ist noch zu erwähnen. Auf den ersten
Blick erscheint es in den Zeichnungen so, als ob durch den Lichtkegel im Minkowski-Vektorraum eine bevorzugte zeitartige Richtung durch die Kegelachse gegeben
ist. Kann man die Raumzeit dann überhaupt zeichnen, ohne gleich auch einen
bevorzugten Beobachter mit festzulegen?
Um zu sehen, wieso dies kein Problem darstellt, betrachten wir zuerst noch einmal den euklidischen Fall. Durch die Festlegung einer horizontalen und einer vertikalen Richtung ist dann ein spezielles Koordinatensystem ausgezeichnet. Nun können
wir das Blatt mit der Zeichnung aber einfach etwas drehen, und schon bezeichnen wir eine andere Richtung als horizontal bzw. vertikal (siehe Abbildung 4.3a).
Demnach sind in der Zeichnung alle Richtungen gleichberechtigt.
In der Raumzeit müssen wir aber keine euklidischen, sondern hyperbolische Drehungen betrachten. Wie wir in Abschnitt 3.5 gesehen haben, ändern zeit- und raumartige Vektoren unter hyperbolischen Drehungen ihre Richtung, wobei der Lichtkegel auf sich selbst abgebildet wird (siehe Abbildung 4.3b). Eine hypothetische
Kegelachse wäre deshalb nicht invariant unter den hyperbolischen Drehungen. Der
Lichtkegel im Minkowskiraum besitzt also gar keine ausgezeichnete Achse. Welche
Einbettung in die euklidische Ebene man zum Zeichnen von Raumzeit-Diagrammen
verwendet ist demnach irrelevant. Die unendlich vielen, äquivalenten Bilder gehen
durch hyperbolische Drehungen der Zeichenebene auseinander hervor.
90 Kapitel 4. Spezielle Relativität und Spacetime-Algebra
4.3
Der Raumzeit-Split
Nachdem wir im γ0 -System eine Basis γµ gewählt haben, könnte man nun jedem
Ereignis x eine Zeitkoordinate und drei Raumkoordinaten zuordnen:
x = xµ γµ = tγ0 + xi γi .
(4.6)
Die Koordinaten ergeben sich dabei mittels:
xµ = x y γ µ = hx|γ0 i ,
(4.7)
wobei die reziproke Basis γ µ aus Abschnitt 2.9 (Seite 37ff) verwendet wurde.
Um die Zerlegung (4.6) durchzuführen, muss man neben dem zeitartigen Basisvektor γ0 auch drei raumartige Basisvektoren γi auswählen. Wie wir im letzten
Abschnitt diskutierten, wird die Zerlegung in Raum und Zeit jedoch vollständig
durch die alleinige Vorgabe der Zeitrichtung γ0 festgelegt. Man sollte also eigentlich
auf die Wahl des Raumanteils der Basis verzichten können. In der Geometrischen
Algebra steht uns dazu ein leistungsfähiges algebraisches Verfahren zur Verfügung,
welches Raumzeit-Split genannt wird.
Wie wir gesehen haben, erhält man die Zeitanteil tγ0 geometrisch durch Projektion des Ereignisses x auf die zeitartige Richtung γ0 . Den räumlichen Anteil sollte
man demnach durch eine Rejektion bekommen (siehe Abbildung 4.4). Wir ersetzen
die Zerlegung (4.6) also durch:
x = Pγ0 (x) + Pγ⊥0 (x) = (x y γ0 )γ0 + (x ∧ γ0 )γ0 ,
(4.8)
wobei man ausnutzt, dass bei der gewählten Signatur wegen (γ0 )2 = 1 das Inverse
γ0−1 gleich γ0 ist. Im gewählten Bezugssystem sind für uns nur die Vorfaktoren
interessant. Die Kontraktion x y γ0 haben wir schon als Zeitkoordinate t identifiziert.
Der Spat x ∧ γ0 wird relativer Vektor (relativ zum γ0 -System) genannt und man
schreibt diesen als:
x := x ∧ γ0 .
(4.9)
Die Bezeichnung wie ein dreidimensionaler Vektor x wird durch die Isomorphie
+ ∼
G1,3
= G3,0 der Clifford-Algebra gerechtfertigt (siehe Anhang B ab Seite 141). Gleichung (4.9) lässt sich in diesem Zusammenhang als projektive Darstellung von Vek+
toren x ∈ G3,0 durch Bivektoren x ∧ γ0 ∈ G1,3
mit gemeinsamem Faktor γ0 interpretieren.
γ0
x(τ )
t0
x0
x0
Abbildung 4.4 Projektive Zerlegung eines Ereignisses x0 auf der Weltlinie
x(τ ) in Zeitanteil t0 und Raumanteil x0 . Hierzu muss man in der räumlichen
Ebene keine Koordinaten wählen.
4.3 Der Raumzeit-Split 91
γ̃0
γ0
t̃
x
t
γi
· ·
x
x̃
γ̃i
Abbildung 4.5 Der Raumzeit-Split des Ereignisses x in zwei relativ zueinander bewegten Bezugssystemen γ̃0 6= γ0 führt zu unterschiedlichen Zerlegungen zwischen Zeit und Raum.
Mit dieser Notation lässt sich Gleichung (4.8) schreiben als:
x = (x y γ0 )γ0 + (x ∧ γ0 )γ0 = tγ0 + xγ0 .
Durch Multiplikation mit γ0 von rechts ergibt sich daraus der Raumzeit-Split:
xγ0 = t + x ,
(4.10)
+
und die rechte Seite in G3,0 zu lesen ist. Die Koordiwobei die linke Seite in G1,3
natenzeit t und der relative Vektor x sind dabei abhängig vom Bezugssystem. Der
Raumzeit-Split in einem anderen Bezugssystem, zum Beispiel im γ̃0 -System mit
γ̃0 6= γ0 , führt zu einer neuen Zerlegung:
xγ̃0 = x y γ̃0 + x ∧ γ̃0 = t̃ + x̃ .
Dies ist anschaulich in Abbildung 4.5 dargestellt.
Um den Raumzeit-Split effektiv in Rechnungen einzusetzen, braucht man außerdem die umgekehrte Gleichung:
γ0 x = t − x ,
(4.11)
die sich aus der Zerlegung γ0 x = γ0 x x+γ0 ∧x und der Antisymmetrie des Dachprodukts ergibt. Jetzt lässt sich der Raumzeit-Split in Rechnungen durch Einschieben
einer 1 = γ0 γ0 anwenden,3 zum Beispiel:
x2 = x(γ0 γ0 )x = (xγ0 )(γ0 x) = (t + x)(t − x) = t2 − x2 .
(4.12)
Da die linke Seite keinen Beobachter auszeichnet, muss auch die rechte Seite unabhängig von der Wahl des Beobachters sein. Man bekommt also das bekannte
Ergebnis, dass das Raumzeit-Intervall x2 = t2 − x2 = t̃2 − x̃2 lorentzinvariant ist.
3 Falls man die umgekehrte Signatur, also G
2
3,1 statt G1,3 verwendet, ist (γ0 ) = −1. Dadurch
treten überall zusätzliche Minuszeichen auf, die man allerdings dann im reziproken Basisvektor
γ 0 = −γ0 absorbieren kann. In diesem Fall muss man eine 1 = γ 0 γ0 einschieben, was auf x2 =
x2 − t2 führt. Die Wahl der Signatur (p, q) = (1, 3) vereinfacht die Rechnungen jedoch erheblich.
92 Kapitel 4. Spezielle Relativität und Spacetime-Algebra
Wir wollen nun noch die projektive Darstellung der dreidimensionalen Algebra
G3,0 durch gerade Multivektoren in G1,3 etwas genauer untersuchen. Indem man das
Ereignis x in Koordinaten x = xµ γµ schreibt, ergibt sich aus Gleichung (4.9) unter
Beachtung von γ0 ∧ γ0 = 0:
x = x ∧ γ0 = (xµ γµ ) ∧ γ0 = xµ γµ ∧ γ0 = xi γi ∧ γ0 =: xi σ i .
Die Basisvektoren σ i von G3,0 lassen sich also darstellen als:
σ i = γ i ∧ γ 0 = γ i γ0 .
(4.13)
Wie es sein sollte, erfüllen diese die definierende Eigenschaft der Algebra G3,0 :
1
(4.14)
2 σ i σ j + σ j σ i = hσ i σ j i = hγi γ0 γj γ0 i = − hγi γj i = −ηij = δij .
Dies wiederum rechtfertigt die Bezeichnung als σ i , genau wie die Paulimatrizen,
die dieselben algebraischen Eigenschaften haben. Eine Basis für die Bivektoren in
G3,0 bekommt man durch:
σ i σ j = γi γ0 γj γ0 = −γi γj = γj γi ,
(4.15)
dies sind also gerade die raumartigen 2-Spate senkrecht zu γ0 . Man beachte die
Reihenfolger der Indizes! Übrig bleibt damit nur noch der Pseudoskalar:
I 3 = σ 1 σ 2 σ 3 = γ1 γ0 γ2 γ0 γ3 γ0 = γ0 γ1 γ2 γ3 = I1,3 .
(4.16)
Aufgrund der Wahl der Signatur ist der Pseudoskalar I 3 von G3,0 mit dem Pseudoskalar I1,3 von G1,3 identisch. Ohne Missverständnisse zu provozieren können wir
beide also als I := I1,3 = I 3 bezeichnen.
Eine kleine Unstimmigkeit scheint allerdings bei der Grad-Involution α̂ aufzutreten. Vektoren werden dadurch normalerweise auf ihr Negatives abgebildet.
Interpretiert man σ i dagegen als Bivektor, dann tritt kein Vorzeichen auf:
α̂(σ i ) = α̂(γi γ0 ) = α̂(γi )α̂(γ0 ) = (−1)2 γi γ0 = σ i ?
Des Rätsels Lösung liegt in der Tatsache, dass hier neben der Wirkung der Parität
auf den räumlichen Anteil α̂(γi ) = −γi zusätzlich eine Zeitumkehr α̂(γ0 ) = −γ0
stattfindet. Ließe man die Involution dagegen nur auf den räumlichen Anteil wirken,
dann würden sich die richtigen Vorzeichen ergeben.
Ein ähnliches Problem tritt auch bei der Transposition auf. Die Transposition
im Raum G3,0 bezeichnen wir deshalb mit · † , im Gegensatz zur Transposition in der
Raumzeit G1,3 , die wir weiterhin · t nennen wollen. Der Zusammenhang zwischen
diesen ist gegeben gegeben durch:
A† = γ 0 At γ0 .
(4.17)
Für die Basisvektoren gilt also:
σ i † = γ0 (γi γ0 )t γ0 = γ0 γ0 γi γ0 = γi γ0 = σ i ,
und die Eigenschaft des Antiautomorphismus folgt aus:
(AB)† = γ0 (AB)t γ0 = γ0 B t At γ0 = (γ0 B t γ0 )(γ0 At γ0 ) = B † A† .
Aufgrund der Faktoren γ0 in (4.17) ist die räumliche Transposition · † abhängig
vom Beobachter. Dies war grundsätzlich allerdings auch zu erwarten, da die Zerlegung zwischen Raum und Zeit – und damit die relativen Vektoren – erst durch die
Vorgabe eines Bezugssystems festgelegt werden.
4.4 Relativgeschwindigkeit 93
4.4
Relativgeschwindigkeit
Die Relativgeschwindigkeit beschreibt die Bewegung eines Teilchens relativ zu
einem Bezugssystem. Man definiert sie deshalb als Änderung des Ortes x mit der
Koordinatenzeit t:
dx
v=
.
(4.18)
dt
Wie hängt diese aber mit der Raumzeit-Geschwindigkeit u zusammen? Durch Ableiten des Raumzeit-Split (4.10) nach der Eigenzeit τ erhält man:
uγ0 =
d
dt
dx
dt
dt dx
dt
1+v .
(xγ0 ) =
+
=
+
=
dτ
dτ
dτ
dτ
dτ dt
dτ
Definiert man noch den Faktor γ := dt/dτ = u y γ0 , der die Änderung der Koordinatenzeit t mit der Eigenzeit τ beschreibt, dann ergibt sich das Resultat:
uγ0 = γ + u = γ 1 + v .
(4.19)
Umgekehrt bekommt man aus u die Relativgeschwindigkeit zu:
v=
u
u ∧ γ0
u ∧ γ0
=
=
.
γ
γ
hu|γ0 i
(4.20)
Vertauscht man die Rollen u ↔ γ0 von Teilchen und Beobachter miteinander, so
geht die Relativgeschwindigkeit v in ihr Negatives −v über. Hier wird die Antisymmetrie des Relativitätsprinzips deutlich sichtbar.
Betrachtet man außerdem einmal ein Teilchen, welches sich mit dem Beobachter
mitbewegt, also mit Raumzeit-Geschwindigkeit u = γ0 , dann ergibt sich:
1 = γ0 γ0 = uγ0 = γ(1 + v) .
Wegen der Relativgeschwindigkeit v = 0 befindet sich das Teilchen im γ0 -System
in Ruhe. Außerdem kann man ablesen, dass der Faktor der Zeitdilatation γ = 1 ist,
und folglich t = τ gilt. Wie wir schon in Abschnitt 4.1 erwähnt hatten, beschreibt
die Eigenzeit also die Zeit, die in einem mitbewegten Ruhesystem vergeht.
Um den Faktor der Zeitdilatation γ in Abhängigkeit von der Relativgeschwindigkeit v zu berechnen, kann man die Normierung der Raumzeit-Geschwindigkeit
u ausnutzen:
1 = u2 = (uγ0 )(γ0 u) = γ(1 + v)γ(1 − v) = γ 2 (1 − v 2 ) .
Damit erhält man das bekannte Resultat:
γ = u y γ0 =
dt
1
.
=√
dτ
1 − v2
(4.21)
Wie man an diesem Ausdruck sieht, ist der Faktor γ für ein Teilchen, welches sich
mit Lichtgeschwindigkeit v 2 = 1 bewegt, nicht definiert. Damit hat man noch einmal gezeigt, dass sich einem masselosen Teilchen keine Raumzeit-Geschwindigkeit
zuordnen lässt. Dieses Problem ist also eng damit verknüpft, dass die RaumzeitGeschwindigkeit über die Eigenzeit τ definiert wurde, wogegen sich die Relativgeschwindigkeit auf die Koordinatenzeit t bezieht.
94 Kapitel 4. Spezielle Relativität und Spacetime-Algebra
Als Anwendung wollen wir einmal ausrechnen, wie der Winkel ϑ in den hyperbolischen Lorentz-Transformationen aus Abschnitt 3.6 (Seite 72ff) mit der Relativgeschwindigkeit zusammenhängt. Wie muss man ϑ wählen, um ein Teilchen auf die
Geschwindigkeit v anzuschieben?
Als Startpunkt betrachten wir ein Teilchen, welches im γ0 -System ruht. Dieses
wird durch die Weltlinie x(τ ) = τ γ0 beschrieben. Wegen ẋ(τ )2 = γ02 = 1 ist diese
Weltlinie korrekt mit der Eigenzeit parametrisiert. Wir wenden nun eine hyperbolische Lorentz-Transformation um den Winkel ϑ in der Ebene mit Pseudoskalar
I2 = nγ0 an, wobei n ein raumartiger Einheitsvektor senkrecht auf γ0 sei:
y(τ ) = Rx(τ )Rt = eI2 ϑ/2 τ γ0 e−I2 ϑ/2 = cosh ϑ + nγ0 sinh ϑ τ γ0
= τ cosh ϑ γ0 + τ sinh ϑ n .
Die Eigengeschwindigkeit ẏ(τ ) ist wieder auf 1 normiert, denn mit n2 = −1 und
der Orthogonalität nγ0 = −γ0 n ergibt sich:
ẏ 2 = cosh ϑ γ0 + sinh ϑ n)2 = cosh2 ϑ − sinh2 ϑ = 1 .
Damit berechnet man die Relativgeschwindigkeit im γ0 -System zu:
v=
ẏ ∧ γ0
(cosh ϑ γ0 + sinh ϑ n) ∧ γ0
sinh ϑ n ∧ γ0
=
=
.
ẏ y γ0
(cosh ϑ γ0 + sinh ϑ n) y γ0
cosh ϑ
Drückt man dies durch den relativen Vektor n = n ∧ γ0 aus, dann bekommt man
als Endergebnis:
v = tanh ϑ n .
(4.22)
Hierbei gibt der Einheitsvektor n die Bewegungsrichtung des Teilchens im Raum
an und tanh ϑ ist gleich dem Betrag der Relativgeschwindigkeit kvk = tanh ϑ.
Wendet man zweimal eine hyperbolische Lorentz-Transformation in der gleichen
Ebene an, dann muss man die Rotoren einfach miteinander multiplizieren:
R = R2 R1 = eI2 ϑ2 /2 eI2 ϑ1 /2 = eI2 (ϑ1 +ϑ2 )/2 .
Dies entspricht also einer einzelnen hyperbolischen Lorentz-Transformation um den
Winkel ϑ1 + ϑ2 . In einer Formelsammlung findet man für den Tanges hyperbolicus
das Additionstheorem:
tanh(ϑ1 + ϑ2 ) =
tanh ϑ1 + tanh ϑ2
.
1 + tanh ϑ1 tanh ϑ2
(4.23)
Mit Gleichung (4.22) folgt daraus das bekannte Ergebnis für die Beträge der Relativgeschwindigkeiten:
kv 1 k + kv 2 k
kvk =
.
(4.24)
1 + kv 1 k kv 2 k
4.5
Weitere Raumzeit-Vektoren
Weitere Raumzeit-Vektoren lassen sich mit Hilfe des Raumzeit-Split aus ihrer bekannten Form in Inertialsystemen konstruieren. Ein Photon lässt sich im γ0 -System
4.5 Weitere Raumzeit-Vektoren 95
zum Beispiel durch seine Frequenz ω und den Wellenvektor k beschreiben. Man erwartet also den Raumzeit-Split:
kγ0 = ω + k .
(4.25)
Um dies zu erreichen definiert man den Raumzeit-Vektor k als:
k := ωγ0 + kγ0 .
(4.26)
Das Quadrat des Wellenvektors sollte wieder eine lorentzinvariante Größe liefern:
k 2 = (ω + k)(ω − k) = ω 2 − k2 .
(4.27)
Diese Differenz ist bekannt, da für Photonen die Frequenz mit dem Betrag des
Wellenvektors im γ0 -System gemäß ω = kkk zusammenhängt. Folglich ist k 2 = 0
und k deshalb für masselose Teilchen ein lichtartiger Vektor.
Mit Hilfe der Einstein-de Broglie-Beziehung lässt sich dem Photon auch ein
Raumzeit-Impuls p = ~k zuordnen. Der Raumzeit-Split führt dann auf:
E + p = pγ0 = ~kγ0 = ~ω + ~k ,
(4.28)
im γ0 -System gelten deshalb die Beziehungen E = ~ω und p = ~k. Diese Definition des Raumzeit-Impulses lässt sich auch auf massive Teilchen ausdehnen. Bei
diesen sind k und p natürlich keine lichtartigen Vektoren mehr. Außerdem gibt es
für massive Teilchen einen Zusammenhang zwischen Raumzeit-Impuls und der Eigengeschwindigkeit. Indem man sich in das Ruhesystem des Teilchens begibt, kann
man die Beziehung p = mu ableiten. Damit ergibt sich:
E + p = pγ0 = muγ0 = γm(1 + v) .
(4.29)
Im Inertialsystem erhält man also die bekannten Gleichungen E = γm für die
Energie4 und p = γmv für den räumlichen Impuls.
Wie wir gesehen haben, ist der Impuls p und die Relativgeschwindigkeit v auch
für masselose Teilchen immer definiert. Da in der Gleichung p = γmv der Faktor
γ auftritt, gibt es für diese aber keinen Zusammenhang zwischen Impuls p und
Geschwindigkeit v, weil γ für Teilchen mit Lichtgeschwindigkeit v 2 = 1 nicht definiert ist. Als Folge davon ist die Frequenz ω von Photonen unabhängig von der
– betragsmäßig konstanten – Relativgeschwindigkeit. Die Frequenz massiver Teilchen wird dagegen über die de Broglie-Beziehung eindeutig durch ihre räumliche
Geschwindigkeit v festgelegt.
Indem man den Impuls p quadriert, ergibt sich weiter die relativistische Energie-Impuls-Beziehung:
m2 = (mu)2 = p2 = (E + p)(E − p) = E 2 − p2 ,
(4.30)
die somit auch unabhängig vom Bezugssystem ist.
Nicht nur für Quadrate von Vektoren kann man ein Raumzeit-Split durchführen,
sondern auch für andere Produkte. So erhält man zum Beispiel:
px = (pγ0 )(γ0 x) = (E + p)(t − x) = Et − px + pt − Ex .
(4.31)
4 In der älteren Literatur findet man diese Beziehung oft in der Form E = m c2 mit der
rel
relativistischen Masse mrel := γm. In der modernen Literatur wird dagegen normalerweise die
fundamentalere – weil lorentzinvariante – Ruhemasse m verwendet.
96 Kapitel 4. Spezielle Relativität und Spacetime-Algebra
Der Skalaranteil dieser Gleichung ist gegeben durch:
hp|xi = hpxi0 = Et − hpxi = Et − hp|xi .
(4.32)
Dieser Phasenfaktor taucht ständig bei der Parametrisierung von ebenen Wellen
auf. Auch der Bivektoranteil von Gleichung (4.31) muss lorentzinvariant sein, und
man berechnet ihn zu:
p ∧ x = hpxi2 = pt − Ex − p ∧ x .
(4.33)
Der Bivektor p ∧ x stellt also eine relativistische Verallgemeinerung des relativen
Drehimpulses L = x ∧ p im γ0 -System dar. In den Gleichungen (4.32) und (4.33)
ist außerdem zu beachten, dass auf der rechten Seite die Produkte der relativen
Vektoren hp|xi und p ∧ x in der Algebra G3,0 zu nehmen sind. Würde man das
Dachprodukt p ∧ x dagegen in G1,3 auswerten, wäre natürlich (p ∧ γ0 ) ∧ (x ∧ γ0 ) = 0.
4.6
Elektrodynamik
In diesem Abschnitt wollen wir eine kurze Übersicht geben, wie sich die Elektrodynamik in der Sprache der Geometrische Algebra formulieren lässt. Die Ableitungsoperatoren 5 und ∇ kann man dabei im Wesentlichen wie Vektoren behandeln.
Für Details muss allerdings auf die entsprechende Literatur [HS92, DL03] verwiesen werden, da eine genaue Behandlung der Analysis in der GA weit über das Ziel
dieser Arbeit hinaus geht.
Als Startpunkt verwenden wir die kovariante Beschreibung der Elektrodynamik
mittels Tensorgleichungen. Der Faraday-Tensor, der die elektromagnetischen Felder
beschreibt, ist definiert als F µν = ∂ µ Aν −∂ ν Aµ , mit dem Vektorpotential A = (Aµ ).
Mit Hilfe der Felder E = −∇Φ−∂t A und B = ∇×A, wobei Φ = A0 und A = (Ai )
gilt, lässt er sich als Matrix ausdrücken:


0 −E 1 −E 2 −E 3
E 1
0
−B 3
B2
 .
(F µν ) = 
(4.34)
E 2
B3
0
−B 1 
E 3 −B 2
B1
0
Die Komponenten des elektrischen Feldes sind also F i0 = E i und für das Magnetfeld
bekommt man F ij = −εijk B k . Die Maxwellgleichungen im Vakuum lassen sich
damit schreiben als:
∂µ F µν = j µ , εµν%σ ∂ν F%σ = 0 .
(4.35)
Die Antisymmetrie F µν = −F νµ deutet darauf hin, dass man den Faraday-Tensor in der Geometrischen Algebra durch einen Faraday-Bivektor darstellen kann.
Aus Gleichung (2.139) von Seite 41 kennen wir auch schon die Koordinatendarstellung eines Bivektors als:
X
F =
F µν γµ ∧ γν = 12 F µν γµ ∧ γν , mit F µν = (γ µ ∧ γ ν ) ˜∗ F .
(4.36)
µ<ν
Wir setzen also probeweise einmal die Komponenten von Gleichung (3.34) ein. Ein
Raumzeit-Split von F liefert dann (mit Summation über i < j):
F = F i0 γi ∧ γ0 + F ji γj ∧ γi = E i σ i + εijk B k σ i ∧ σ j = E + IB .
(4.37)
4.6 Elektrodynamik 97
Hierbei wurde für die Übersetzung der raumartigen Bivektoren σ i σ j = γj γi Gleichung (4.15) herangezogen. Offensichtlich war unsere Annahme also richtig, da sich
der richtige Raumzeit-Split ergibt. Wie es sein sollte, handelt es sich bei dem elektrischen Feld E um einen Vektor, wogegen das magnetische Feld, als Pseudovektor,
in der GA durch einen Bivektor IB beschrieben wird.
Wie zum Beispiel in [DL03, Section 7.1] gezeigt wird, lassen sich die Maxwellgleichungen (4.35) mit dem Faraday-Bivektor schreiben als:
5yF =j ,
5∧F = 0 .
(4.38)
Die hierbei auftretende Ableitung 5 = γ µ ∂µ ist normalerweise als Dirac-Operator
bekannt. In der Geometrischen Algebra lassen sich die Gleichungen (4.38) jedoch
noch weiter zusammenfassen. Die Maxwellgleichung bekommt dadurch die einfache
Form:
5F = j .
(4.39)
Den Raumzeit-Split des Dirac-Operators berechnet man mit γ i = −γi zu:
γ0 5 = γ0 (γ 0 ∂t + γ i ∂i ) = ∂t − γ0 γi ∂i = ∂t + σ i ∂i = ∂t + ∇ .
(4.40)
Die linke Seite der Maxwellgleichung (4.39) wird im γ0 -System deshalb zu:
γ0 5F = (∂t + ∇)(E + IB) = ∂t E + ∂t (IB) + ∇E + ∇(IB)
= ∇ y E + ∂t E + ∇ y (IB) + ∂t (IB) + ∇ ∧ E + ∇ ∧ (IB) .
(4.41)
Der Spacetime-Split der rechten Seite ist:
(4.42)
γ0 j = % − j ,
wobei % die Ladungs- und j die Stromdichte bezeichnet. Gleichsetzen von (4.41)
mit (4.42) und herausprojizieren der einzelnen Stufen liefert die Gleichungen:
∇ y E = % , (Skalar)
−∂t E − ∇ y (IB) = j , (Vektor)
∇ ∧ E + ∂t (IB) = 0 ,
∇ ∧ (IB) = 0 .
(Bivektor)
(Pseudoskalar)
(4.43)
(4.44)
(4.45)
(4.46)
Mit der Identität ∇ y (IB) = ∇ y (BI) = (∇ ∧ B)I = I(∇ ∧ B) = −∇ × B, die
sich aus den Gleichungen (2.129) und (C.1) ergibt, kann man die zweite Gleichung
weiter umformen und erhält:
∇ × B − ∂t E = j .
Die dritte Gleichung multipliziert man von links mit I. Es ergibt sich:
I(∇ ∧ E) + I 2 ∂t B = 0
⇐⇒
−∇ × E − ∂t B = 0 .
Multiplikation der vierten Gleichung mit I von rechts führt schließlich auf:
∇ ∧ (IB) I
⇐⇒
∇ y (IBI)
⇐⇒
−∇ y B = 0 .
Der Raumzeit-Split von (4.39) liefert also die korrekten Maxwellgleichungen im
Inertialsystem:
∇·E =% ,
∇·B =0 ,
∇ × B − ∂t E = j ,
∇ × E + ∂t B = 0 .
(4.47)
(4.48)
98 Kapitel 4. Spezielle Relativität und Spacetime-Algebra
4.7
Zusammenfassung
In diesem Kapitel haben wir die Spezielle Relativitätstheorie in der Sprache der
Geometrischen Algebra formuliert. Da die Spacetime-Algebra ohne Koordinaten
auskommt, sind die entstehenden Ausdrücke unabhängig von jeglichen Beobachtern
und damit manifest lorentzinvariant.
Im ersten Abschnitt wurde die Beschreibung von Teilchen durch Weltlinien x(λ)
in der Minkowski-Raumzeit diskutiert. Für massive Teilchen lässt sich dann eine
Raumzeit-Geschwindigkeit u(τ ) = ẋ(τ ) durch Ableitung nach der Eigenzeit τ definieren. Für masselose Teilchen ist dies nicht möglich, da für sie keine (Eigen-)Zeit
vergeht. Im darauf folgenden Abschnitt haben wir die Rolle von Beobachtern und
Bezugssystemen in der SRT diskutiert. Ein Beobachter kann dabei nur lokale Messungen an einem Punkt in der Raumzeit machen, ein Bezugssystem ist dagegen global über die ganze Raumzeit ausgedehnt. Sowohl Beobachter als auch Bezugssystem
werden eindeutig durch Vorgabe eine zeitartigen Einheitsvektors γ0 festgelegt.
In Abschnitt 4.3 wurde der Raumzeit-Split eingeführt, mit dem sich ein Ereignis
x in eine Zeitkoordinate t und den raumartigen, relativen Vektor x im γ0 -System
zerlegen lässt:
xγ0 = t + x ,
γ0 x = t − x ,
mit t = x y γ0 und x = x ∧ γ0 .
(4.100 )
Hierbei nutzt man eine projektive Darstellung von Vektoren der dreidimensionalen
Algebra G3,0 durch Bivektoren in der Raumzeit-Algebra G1,3 . Durch Konstruktion
+
einer Basis lässt sich zeigen, dass die Algebra G3,0 und die gerade Unteralgebra G1,3
isomorph zueinander sind. Üblicherweise wird der Raumzeit-Split durch Einschieben einer 1 = γ0 γ0 angewendet.
Im nächsten Abschnitt wurde die Relativgeschwindigkeit v eingeführt, als die
räumliche Geschwindigkeit, die ein Beobachter im γ0 -System misst. Diese kann man
schreiben als:
dx
u ∧ γ0
u ∧ γ0
v=
=
=
,
(4.200 )
dt
γ
hu|γ0 i
√
wobei γ = dt/dτ = 1/ 1 − v 2 der Faktor der Zeitdilatation ist. Als Anwendung
wurde der Zusammenhang des Winkels ϑ einer hyperbolischen Lorentz-Transformation mit der Relativgeschwindigkeit hergeleitet. Es ergibt sich das Resultat:
v = tanh ϑ n ,
(4.22)
wobei n ein Einheitsvektor in Bewegungsrichtung ist.
In Abschnitt 4.5 wurden weitere Raumzeit-Vektoren und deren Zerlegung im
Inertialsystem untersucht. Auch Produkte von unterschiedlichen Vektoren lassen
sich in einfacher Weise zerlegen. Hierbei sind die Anteile unterschiedlicher Stufen
auch für sich genommen schon lorentzinvariante Größen.
Zum Abschluss des Kapitels haben wir in Abschnitt 4.6 die Formulierung der
Elektrodynamik in der Spacetime-Algebra angeschnitten. Die Maxwellgleichungen
im Vakuum vereinfachen sich dabei zu einer einzigen kompakten Gleichung:
5F = j ,
(4.39)
wobei 5 = γ µ ∂µ der Dirac-Operator, F = E + IB der Faraday-Bivektor und j die
Stromdichte ist. Wie wir skizziert haben, liefert ein Raumzeit-Split von (4.39) die
bekannten Maxwellgleichungen im Inertialsystem.
5. Reelle Quantenmechanik
In der Standard-Formulierung der Quantenmechanik hat man ständig mit komplexen Größen zu tun. Die Bedeutung der komplexen Zahlen in der Theorie bleibt
allerdings unklar. Nach den Ideen von David Hestenes lässt sich die komplette
Quantenmechanik in die Sprache der reellen Geometrischen Algebra übersetzen,
was mehrere Vorteile mit sich bringt. Zum einen wird eine geometrische Interpretation der veschiedenen Objekte möglich, speziell kann dem allgegenwärtigen Faktor
i~ eine Bedeutung zugeschrieben werden. Weiterhin lassen sich unterschiedliche
mathematische Formalismen vereinheitlichen, wie wir am Beispiel der Pauli-Schrödinger-Gleichung vorführen werden. Grundlegend neu ist dabei die Interpretation
der Pauli-Matrizen als Basisvektoren der Geometrischen Algebra G3 . Als Folge davon muss auch die Rolle des Spins und speziell die Definition des Spinoperators
vollständig überdacht werden.
Bevor wir jedoch mit der Umformulierung beginnen, wollen wir kurz ein paar
wichtige Punkte aus dem Werdegang der nichtrelativistischen Quantenmechanik
zusammenstellen. Besonders interessiert uns hierbei die Herkunft des Faktors i~,
sowie die Beschreibung des Spins in der nichtrelativistischen Quantenmechanik.
5.1
Die Wellengleichungen von Schrödinger und Pauli
Um den photoelektrischen Effekt und die Hohlraumstrahlung zu erklären, postulierte Einstein im Jahr 1905 das Konzept der Lichtquanten. Danach besteht eine
Lichtwelle aus Photonen mit der Energie E = ~ω und dem Impuls p = ~k. Auf
diese Weise werden den Welleneigenschaften Frequenz und Wellenvektor die Teilcheneigenschaften Energie und Impuls zugeordnet.
Später, im Jahr 1923, stellte Louis de Broglie in seiner Doktorarbeit „Recherches
sur la théorie des quanta“ die Hypothese auf, dass die Dualität zwischen Welle und
Teilchen in beiden Richtungen funktioniert. Demnach sind Wellen- und Teilcheneigenschaften nicht nur für Licht, sondern auch allgemein für beliebige Teilchen durch
die Einstein-de Broglie-Beziehung:
E = ~ω ,
p = ~k ,
(5.1)
miteinander verknüpft. Diese Annahme wurde 1927 von Clinton Davisson und Lester Germer in Interferenzexperimente mit Elektronenstrahlen experimentell bestätigt.
Auf Grundlage der Ideen von de Broglie gehen wir nun davon aus, dass sich ein
freies Teilchen – genau wie Photonen – durch eine Überlagerung von ebenen Wellen beschreiben lässt. Deshalb erscheint folgender Ansatz für eine komplexwertige
Wellenfunktion Ψ(x, t) sinnvoll:
Z
−3/2
Ψ(x, t) = (2π)
Ψ̃0 (k) ei(k·x−ωt) d3 k .
(5.2)
100 Kapitel 5. Reelle Quantenmechanik
Aus den Gleichungen (5.1) und der nichtrelativistischen Beziehung zwischen Energie
und Impuls für ein freies Teilchen ergibt sich außerdem die Dispersionsrelation:
~ω = E =
p2
~2 k 2
=
.
2m
2m
(5.3)
Daraus lässt sich eine Wellengleichung für Ψ(x, t) ableiten, denn:
~2 k2 i(k·x−ωt) 3
Ψ̃0 (k) ~ω −
e
d k
0 = (2π)
2m
Z
~2 ∇2 i(k·x−ωt) 3
e
d k
= (2π)−3/2 Ψ̃0 (k) i~∂t +
2m
~2 ∇ 2
= i~∂t +
Ψ(x, t) .
2m
−3/2
Z
Das Resultat ist die Schrödinger-Gleichung für ein freies Teilchen:
i~∂t Ψ(x, t) = −
~2 ∇ 2
Ψ(x, t) .
2m
(5.4)
Um den Übergang von der klassischen Energie-Impuls-Relation (5.3) zur Wellengleichung (5.4) zu bewerkstelligen, werden die Energie E und der Impuls p also
durch Differentialoperatoren ersetzt, gemäß dem Korrespondenzprinzip:
E 7→ Ê = i~∂t ,
p 7→ p̂ = −i~∇ .
(5.5)
Um eine Wellengleichng für ein Teilchen in einem Potential V (x) zu erhalten,
verwendet man die Analogie zur klassischen Mechanik. Die Gesamtenergie ist dort
gegeben durch die Summe aus kinetischer und potentieller Energie:
E=
p2
+ V (x) .
2m
(5.6)
Durch Anwenden der Korrespondenz (5.5) ergibt sich daraus die bekannte Form
der Schrödinger-Gleichung :
i~∂t Ψ(x, t) = ĤS Ψ(x, t) ,
(5.7)
mit dem Schrödinger-Hamiltonoperator:
ĤS =
~2 ∇ 2
p̂2
+ V (x) = −
+ V (x) .
2m
2m
(5.8)
Wir wollen kurz festhalten, dass das Auftreten der komplexen Zahlen im Korrespondenzprinzip (5.5) eine Folge des komplexen Ansatzes (5.2) für die ebenen Wellen ist.
Nach Max Born lässt sich das Betragsquadrat % := |Ψ(x, t)|2 der Wellenfunktion
als Wahrscheinlichkeitsdichte interpretieren, dass man das Teilchen zur Zeit t am
Ort x antrifft.
In magnetischen Feldern kommt eine weitere Eigenschaft von Teilchen zum Tragen. Nach einem berühmten Experiment, welches 1922 von Otto Stern und Walther
Gerlach durchgeführt wurde, teilt sich ein Elektronenstrahl im Magnetfeld in zwei
5.1 Die Wellengleichungen von Schrödinger und Pauli 101
Teilstrahlen auf. Zur Erklärung dieses Phänomens schlugen George Uhlenbeck und
Samuel Goudmit im Jahre 1925 vor, dass das Elektron ein inneres Drehmoment
besitzt, den sogenannten Spin, der mit dem Magnetfeld wechselwirkt.
Analog zum Vorgehen in der klassischen Mechanik ersetzt man zur Ankopplung
eines Teilchens der Ladung q an die elektromagnetischen Potentiale A und Φ im
Hamiltonoperator (5.8) den Impuls p durch den kinetischen Impuls:
p̂ 7→ π̂ = p̂ − qA ,
(5.9)
Es ergibt sich:
(p̂ − qA)2
π̂ 2
+ qΦ =
+ qΦ .
(5.10)
2m
2m
Dieser Hamiltonoperator enthält allerdings noch nicht den Spin.
Um auch den Spin quantenmechanisch zu beschreiben, führte Wolfgang Pauli
1927 die nach ihm benannten Pauli-Matrizen σi ein:
0 1
0 −i
1 0
σ1 =
, σ2 =
, σ3 =
.
(5.11)
1 0
i 0
0 −1
ĤS =
Wir wollen kurzfristig einmal vergessen, dass es sich dabei um eine Darstellung der
Basisvektoren der Geometrischen Algebra G3 handelt und verwenden die formale
Schreibweise:
σ · a = σ 1 a1 + σ2 a2 + σ3 a3 .
(5.12)
Um den zwei möglichen Einstellungen des Spin- 12 -Elektrons gerecht zu werden, ersetzte Pauli in der Schrödinger-Gleichung die ursprüngliche Wellenfunktion durch
eine zweikomponentige Wellenfunktion Ψ(x, t) ∈ 2 . Die Kopplung des Spins an
das Magnetfeld lässt sich dann durch einen Zusatzterm im Hamiltonoperator beschreiben, der proportional zu σ · B ist. Daraus ergibt sich die bekannte Form der
Pauli-Schrödinger-Gleichung (PS-Gleichung):
i~∂t Ψ =
ĤS −
2
π̂
~q
~q
(σ · B) Ψ =
+ qΦ −
(σ · B) Ψ ,
2m
2m
2m
mit dem zweikomponentigen, komplexwertigen Pauli-Spinor :
Ψ1 (x, t)
Ψ(x, t) =
.
Ψ2 (x, t)
(5.13)
(5.14)
Interessanterweise kommt man auch noch auf einem anderen Weg zur PS-Gleichung (5.15), bei dem sich der Zusatzterm inklusive der richtigen Vorfaktoren automatisch ergibt. Dazu ersetzt man in der Schrödinger-Gleichung den kinetischen
Impuls π̂ durch den Operator σ · π̂. Wie wir später sehen werden, erscheint diese Ersetzung im Kontext der Clifford-Algebra sehr natürlich. Mit der bekannten
Identität:
(σ · a)(σ · b) = a · b + iσ · (a × b) ,
(5.15)
und dem Kommutator:
[π̂i , π̂j ] = i~q εijk Bk
⇐⇒
π̂ × π̂ = i~qB ,
(5.16)
lässt sich das Quadrat (σ · π̂)2 explizit ausrechnen:
(σ · π̂)2 = π̂ 2
+ iσ · (π̂ × π̂) = π̂ 2 − ~q(σ · B) .
(5.17)
102 Kapitel 5. Reelle Quantenmechanik
Die Pauli-Schrödinger-Gleichung ergibt sich alternativ also auch aus der einfachen
Ersetzung des Vektors π̂ durch die Matrix σ · π̂:
i~∂t Ψ =
5.2
2
(σ · π̂)2
π̂
~q
+ qΦ Ψ =
−
(σ · B) + qΦ Ψ .
2m
2m 2m
Der Pauli-Isomorphismus G3 ∼
= Mat(2,
(5.18)
)
In der Pauli-Schrödinger-Gleichung (5.13) bzw. (5.18) benutzt man mehrere mathematische Formalismen gleichzeitig. Der Pauli-Spinor ordnet Punkten in der Raumzeit Werte in 2 zu:
Ψ:
3
×
t
→
2
(5.19)
, (x, t) 7→ Ψ(x, t) .
Auf der einen Seite verwendet man den dreidimensionalen Vektorraum ( 3 , ·, ×),
der mit Skalar- und Kreuzprodukt zu einer Algebra gemacht wurde. Aus diesem
Raum stammt der Ortsvektor x und auch das Magnetfeld B = ∇ × A. Die Operatoren π̂ und p̂ sind dagegen über dem komplexifizierten Vektorraum
⊗ 3
definiert. Auf der anderen Seite benutzt man komplexe 2 × 2-Matrizen, die auf
die zweikomponentige Wellenfunktion wirken. Der Zusammenhang zwischen Vektoren und Matrizen wird durch die Pauli-Matrizen hergestellt, indem man jedem
dreidimensionalen Vektor oder Operator a durch die Schreibweise σ · a eine Matrix zuordnet. Die Identität (5.15) verwendet man, um die Rechnungen mit diesen
Matrizen zu vereinfachen.
Wie wir in den vorherigen Kapiteln gesehen haben, lassen sich Rechnungen mit
Skalar- und Kreuzprodukt viel eleganter in der Geometrischen Algebra durchführen. Ohne Einschränkungen können wir also den Vektorraum ( 3 , ·, ×) durch G3
ersetzen. Außerdem wissen wir, dass auch die Matrixalgebra Mat(2, ) isomorph
zur Geometrischen Algebra G3 ist, wobei die Pauli-Matrizen σi ∈ Mat(2, ) als
Darstellung der Basisvektoren σ i ∈ G3 aufgefasst werden können. Das formale Skalarprodukt σ · a beschreibt die Einbettung des Vektorraums 3 in die Matrixdarstellung Mat(2, ) der Geometrischen Algebra G3 :
σ· :
3
→ Mat(2, ) ∼
= G3 , a = ai ei 7→ σ · a = ai σi .
(5.20)
Die Matrix σ · a ist in Wirklichkeit also eine Darstellung des Clifford-Vektors a =
ai σ i ∈ G3 . Die Rechenregel (5.15) für die 2 × 2-Matrizen ergibt mit Clifford-Vektoren geschrieben gerade die bekannte Zerlegung des geometrischen Produkts:
ab = a · b + a ∧ b = a · b + I(a × b) ,
(5.21)
wobei die Rolle der komplexen Einheit i durch den Pseudoskalar I von G3 übernommen wird, der hier die Bedeutung des Hodge-Operators hat. Ohne es zu merken,
hat man also schon die ganze Zeit mit einer Darstellung der Geometrischen Algebra
gerechnet.
Unser Ziel ist es nun, alle Größen in der PS-Gleichung durch äquivalente Ausdrücke in der Geometrischen Algebra G3 zu beschreiben. Für den Vektorraum 3
müssen wird dazu nur die Basisvektoren ei ∈ 3 durch die Basisvektoren σ i ∈ G3
ersetzen. Wie man Skalar- und Kreuzprodukte im dreidimensionalen Fall ausdrückt,
5.2 Der Pauli-Isomorphismus G3 ∼
= Mat(2,
) 103
ist im Anhang C ab Seite 143 zusammengefasst. Um auch die restlichen Terme zu
identifizieren, betrachten wir zuerst den Pauli-Isomorphismus etwas genauer:
∼
=
(5.22)
Σ : G3 −→ Mat(2, ) ,
welcher durch die Matrixdarstellung der Pauli-Matrizen in Gleichung (5.11) und
die Forderung Σ(σ i ) = σi eindeutig festgelegt wird.1
Eine Grassmann-Basis der Clifford-Algebra G3 wird aufgespannt durch:
1,
(σ i ) ,
(Iσ i ) ,
(5.23)
I ,
mit dem Pseudoskalar I = σ 1 σ 2 σ 3 sowie den 2-Spaten Iσ 1 = σ 2 σ 3 und so weiter.
Die Basisvektoren σ i werden – wie erwähnt – durch die Pauli-Matrizen dargestellt:
0 1
0 −i
1 0
σ1 ∼
, σ2 ∼
, σ3 ∼
.
(5.24)
=
=
=
1 0
i 0
0 −1
Die Darstellungen des Skalars 1 und des Pseudoskalars I
1 0
i
, I∼
1∼
= σ1 σ2 σ3 =
= =
0 1
0
Für die 2-Spate ergibt sich damit:
i 0
σ 1 σ 2 = Iσ 3 ∼
,
= iσ3 =
0 −i
0 1
σ 3 σ 1 = Iσ 2 ∼
.
= iσ2 =
−1 0
berechnet man daraus zu:
0
(5.25)
=i .
i
σ 2 σ 3 = Iσ 1 ∼
= iσ1 =
0
i
i
0
Ein allgemeinen Multivektors A ∈ G3 lässt sich demnach darstellen als:
A = a 0 1 + a1 σ 1 + a 2 σ 2 + a 3 σ 3
+ a12 σ 1 σ 2 + a23 σ 2 σ 3 + a31 σ 3 σ 1 + a123 σ 1 σ 2 σ 3
(a0 + a3 ) + i(a12 + a123 ) (a1 + a31 ) − i(a2 − a23 )
∼
.
=
(a1 − a31 ) + i(a2 + a23 ) (a0 − a3 ) − i(a12 − a123 )
,
(5.26)
(5.27)
Wie man sieht, steht im Real- und Imaginärteil jeder Komponente immer eine Summe aus einem geraden und einem ungeraden Anteil von A. Außerdem treten alle
Koordinaten in der jeder Spalte einmal auf. Schränkt man sich also auf die Teilmengen G3± ein, dann lässt sich der entsprechende Multivektor aus einer einzigen
der beiden Spalten rekonstruieren. Dies wird uns später helfen, den zweikomponentigen Pauli-Spinor zu einem Element der Clifford-Algebra zu machen. Außerdem
sieht man an Gleichung (5.27), dass das Transponierte des Multivektors A dem
hermitesch Adjungierten der darstellenden Matrix entspricht:
At ∼
= Σ(A)† .
(5.28)
1 Man kann die Basisvektoren σ ∈ G natürlich auch durch andere Matrizen in Mat(2, )
3
i
darstellen. Die Pauli-Matrizen haben allerdings die spezielle Eigenschaft, dass σ3 diagonal ist.
Dadurch wird die σ 3 -Richtung als Quantisierungsrichtung des Spins ausgezeichnet.
104 Kapitel 5. Reelle Quantenmechanik
Als Spezialfall von Gleichung (5.27) wollen wir die Darstellung eines CliffordVektors a ∈ G3 betrachten:
a3
a1 − ia2
∼
.
(5.29)
a = a i σi =
a1 + ia2
−a3
Die Vektoren bilden eine ausgezeichnete Teilmenge der Clifford-Algebra, da für sie
die Kontraktionsregel a2 = kak2 gilt. Auf Stufe der Matrizen Mat(2, ) spiegelt
sich dies darin wieder, dass die Vektoren durch selbstadjungierte, spurlose Matrizen
beschreiben werden:2
A ∈ G31
⇐⇒
Σ(A)† = Σ(A) und tr Σ(A) = 0 .
(5.30)
Durch diese ausgezeichnete Teilmenge erhält die Matrixdarstellung der Geometrischen Algebra eine zusätzliche Struktur, die in Mat(2, ) ursprünglich nicht vorhanden war.
Da wir die Wellenfunktion Ψ später durch einen geraden Multivektor ψ ∈ G3+
beschreiben werden, wollen wir auch dessen Matrixdarstellung angeben:
(
∗
z1 = ψ0 + iψ3
z
−z
1
2
, mit
ψ = ψ0 + ψi Iσ i ∼
.
(5.31)
=
z2 z1∗
z2 = −ψ2 + iψ1
Genau wie der Pauli-Spinor Ψ lässt sich der gerade Multivektor ψ also durch zwei
komplexe Zahlen z1 , z2 ∈ charakterisieren.
5.3
Minimale Links-Ideale und Ideal-Spinoren
Bis auf den Pauli-Spinor können wir mittlerweile alle Größen in der Pauli-Schrödinger-Gleichung (5.13) durch äquivalente Ausdrücke in der Geometrischen Algebra G3
ersetzen. Um auch Ψ zu einem Element der Clifford-Algebra zu machen, können
wir als erste Möglichkeit einfach ein paar Nullen ergänzen:
Ψ1 0
Ψ1
.
(5.32)
7→ Ψ̃ =
Ψ=
Ψ2 0
Ψ2
Die Matrizen dieser Form bilden ein Links-Ideal S ⊂ Mat(2, ), d. h. das Resultat
der Multiplikation mit einer beliebigen Matrix von links liegt wieder in S:
Ψ̃ ∈ S
=⇒
M Ψ̃ ∈ S
für alle M ∈ Mat(2, ) .
Deshalb wollen wir Ψ̃ einen Ideal-Spinor nennen. Rein rechnerisch macht die
Ersetzung des Pauli-Spinors Ψ durch den Ideal-Spinor Ψ̃ in der PS-Gleichung (5.13)
keinen Unterschied, da die Matrix Ψ̃ unter Multiplikation von Links die gleichen
Ergebnisse liefert, wie der Pauli-Spinor Ψ.
Wie sich herausstellt, kann man das Ideal S auch mit Hilfe eines primitiven
idempotenten Elements ausdrücken. Ein idempotentes Element f+ ist ein Projektionsoperator, d. h. es besitzt die Eigenschaft (f+ )2 = f+ . Das Wort „primitiv“
2 Dies ist eine Folge der Matrixdarstellung (5.26) der Pauli-Matrizen. In einer anderen Darstellung würde sich die Teilmenge der Vektoren anders auszeichen (siehe [Lou01, Section 4.2]).
5.4 Die Pauli-Schrödinger-Hestenes-Gleichung 105
bedeutet, dass sich f+ nicht in eine Summe von zwei sich gegenseitig annihilierenden Projektionsoperatoren f1 , f2 mit f1 f2 = 0 = f2 f1 zerlegen lässt. Das Ideal S
lässt sich in unserem Fall schreiben als:
1 0
.
(5.33)
S = Mat(2, )f+ , mit f+ = 21 ( + σ3 ) =
0 0
Weil das idempotente Element f+ primitiv ist, muss das Ideal S ein minimales
Links-Ideal sein, das bedeutet es gibt kein Ideal, außer dem Nullideal {0}, welches
eine echte Teilmenge von S ist (siehe [Lou01, Section 4.8 und 17.5]). In analoger
Weise kann man das Ideal S 0 ⊂ Mat(2, ) der Matrizen mit Einträgen in der zweiten
Spalte schreiben:
0 0
.
(5.34)
S 0 = Mat(2, )f− , mit f− = 21 ( − σ3 ) =
0 1
Wegen f+ + f− = sind die Projektionsoperatoren f+ und f− komplementär
zueinander. Als Folge davon zerfällt die Matrixalgebra Mat(2, ) in eine direkte
Summe der beiden Ideale:
Mat(2, ) = Mat(2, )f+ ⊕ Mat(2, )f− = S ⊕ S 0 .
(5.35)
Indem man die idempotenten Elemente f± mit Hilfe des Pauli-Isomorphismus zu
Elementen der Clifford-Algebra macht, induziert die Zerlegung (5.35) eine direkte
Zerlegung der Geometrischen Algebra in die Links-Ideale:
G3 = G 3 f + ⊕ G 3 f − ,
mit f± = 21 (1 ± σ 3 ) .
(5.36)
Die Ideale sind beide auch Unteralgebren von G3 , besitzen aber keine Eins. Man bemerke, dass dies nicht der Zerlegung von G3 in gerade und ungerade Multivektoren
entspricht, bei der nur die geraden Multivektoren eine Unteralgebra bilden.
Mehr zu Links-Idealen und der Formulierung der Quantenmechanik mittels Ideal-Spinoren kann man im Buch von Lounesto [Lou01] in den Kapiteln 4, 17 und 18
nachlesen. Eine Klassifikation idempotenter Elemente in beliebigen Clifford-Algebren findet sich in [AFPR03]. Wie wollen die Ideal-Spinoren hier allerdings nur als
„Sprungbrett“ benutzen, um den Spin innerhalb der Geometrischen Algebra mit
Hilfe von geraden Multivektoren zu beschreiben.
5.4
Die Pauli-Schrödinger-Hestenes-Gleichung
Die Ideal-Spinoren haben den Nachteil, dass sie sich schlecht geometrisch interpretieren lassen. Ferner ist anzuzweifeln, ob die Klassifikation von Multivektoren anhand ihrer Matrixdarstellung überhaupt sinnvoll ist. Wie David Hestenes in [HG71]
feststellt, lässt sich der Spin allerdings auch durch gerade Multivektoren ψ ∈ G3+
beschreiben. Diese neue Art von Spinoren wollen wir als Hestenes-Spinoren bezeichnen.
Es gibt verschiedene Argumente, die für die Verwendung von geraden Multivektoren sprechen. Zum Einen braucht man einen vierdimensionalen Unterraum der
Geometrischen Algebra G3 , da die Pauli-Spinoren zwei komplexe und damit vier
reelle Freiheitsgrade besitzen. Im Gegensatz zu den ungeraden Multivektoren G3−
sind die geraden Multivektoren G3+ ausgezeichnet, da sie unter Multiplikation abgeschlossen sind. Ein weiteres Argument ist der Zusammenhang von Spinoren mit der
106 Kapitel 5. Reelle Quantenmechanik
+
Spin-Gruppe, die eine Teilmenge der geraden Versoren Γ+
3 ⊂ G3 ist. Ebenfalls relevant wäre in diesem Zusammenhang die Pin-Gruppe, als Teilmenge der disjunkten
· Γ−
Vereinigung Γ3 = Γ+
3 ∪
3 . Hier ist allerdings unklar, wie man eine eindeutige Zuordnung zwischen Pauli-Spinoren und den Versoren konstruiert. Speziell stellt sich
die Frage, wann man Ψ einen geraden und wann einen ungeraden Versor zuordnet.
Ob dies möglich (und sinnvoll) ist, wäre das Thema einer weiteren Arbeit.
Um den Zusammenhang zwischen dem geraden Multivektor ψ und dem Pauli-Spinor Ψ herzustellen, verwendet Hestenes in [HG71, Appendix A] und [Hes03a,
Section VII] den Spin-Up-Eigenzustand des Spins als eine Art „Referenzspinor“.
Das prinzipielle Vorgehen ist ähnlich wie bei der Lösung des Kepler-Problems mit
Rotor-Methoden in Abschnitt 3.8.2 auf Seite 79.
Durch die Matrixdarstellung der Pauli-Matrizen (5.11) ist die σ 3 -Richtung als
Quantisierungsrichtung des Spins ausgezeichnet. Der Spin-Up-Eigenzustand χ+
lässt sich in dieser Darstellung schreiben als:
1
=⇒
σ3 χ + = χ + .
(5.37)
χ+ =
0
Unter Verwendung der Matrixdarstellung (5.31) ergibt sich deshalb:
z
1
z −z2∗
= 1
ψχ+ = 1
z2
0
z2 z1∗
(5.38)
Da die Anzahl der Freiheitsgrade stimmt, identifiziert Hestenes dieses Resultat nun
mit dem Pauli-Spinor:
Ψ = ψχ+ ,
(5.39)
mit den Komponenten Ψ1 = z1 = ψ0 + iψ3 und Ψ2 = z2 = −ψ2 + iψ1 . Der gerade
Multivektor ψ trägt also jetzt die gleiche Information wie der Pauli-Spinor Ψ. Dies
sollte man mit Gleichung (3.38) vergleichen, wo die Dynamik des Kepler-Problems
mittels r = U e1 U t auf den Rotor U übertragen wurde.
Nach dieser Vorarbeit lässt sich die Pauli-Schrödinger-Gleichung (5.13) durch
die reelle Pauli-Schrödinger-Hestenes-Gleichung (PSH-Gleichung) ersetzen:
∂t ψ~Iσ 3 = Ĥψ −
~q
Bψσ 3 .
2mc
(5.40)
Anhand des Zusammenhangs (5.39) zeigt Hestenes nun, dass sich die PS-Gleichung
aus der PSH-Gleichung ergibt. Dazu übersetzt man unter Verwendung des PauliIsomorphismus alle Größen in (5.40) durch Matrizen. Speziell kann man das Magnetfeld B damit schreiben als: B = Bi σ i ∼
= Bi σi = σ · B. Am Ende lässt man
alles auf den Referenzspinor χ+ wirken. Aus der PSH-Gleichung folgt damit:
∂t ψ~iσ3 χ+ = Ĥψχ+ −
~q
(σ · B)ψσ3 χ+ .
2mc
(5.41)
Wegen Gleichung (5.37) wirkt σ3 als Identität auf χ+ . Außerdem kommutiert i~
mit allen übrigen Größen. Gleichung (5.41) ist also äquivalent zu:
i~∂t (ψχ+ ) = Ĥψχ+ −
~q
(σ · B)ψχ+ .
2mc
(5.42)
5.4 Die Pauli-Schrödinger-Hestenes-Gleichung 107
Identifiziert man nun noch das Produkt ψχ+ mit dem Pauli-Spinor Ψ, dann ergibt
sich aus (5.42) die bekannte Form der Pauli-Schrödinger-Gleichung.
Im Gegensatz zur Behauptung von Hestenes beweist dies allerdings nicht die
Äquivalenz der PSH- mit der PS-Gleichung, da sich der wichtigste Schritt – das
Wirkenlassen der Matrizen auf den Referenzspinor χ+ – nicht umkehren lässt. Am
deutlichsten wird diese Problematik auf Stufe der Ideal-Spinoren. Der Zusammenhang (5.39) zwischen Pauli- und Hestenes-Spinor ist dann zu ersetzen durch:
Ψ̃ =
z1
z2
0
0
=
z1
z2
−z2∗
z1∗
1 0
0 0
(5.43)
= ψf+ .
Auch auf f+ wirkt σ3 als Identität:
σ3 f + = σ 3
1
2
+ σ3 =
1
2
σ3 + (σ3 )2 =
1
2
σ3 +
= f+ .
Dehalb lässt sich die obige Rechnung ohne Änderung mit f+ anstelle von χ+ wiederholen. Als Ergebnis bekommt man:
i~∂t (ψf+ ) = Ĥψf+ −
oder in Matrizen ausgeschrieben:
z
z 0
= Ĥ 1
i~∂t 1
z2
z2 0
~q
(σ · B)ψf+ ,
2mc
(5.44)
~q
0
z
−
(σ · B) 1
0
z2
2mc
0
0
.
(5.45)
Wenn man Ψ1 = z1 und Ψ2 = z2 setzt, dann steht in der ersten Spalte wieder die
Pauli-Schrödinger-Gleichung. Wie wir im letzten Abschnitt diskutiert haben, hat
f+ allerdings die Wirkung eines Projektionsoperators auf das Ideal S. Wir haben
bisher also nur gezeigt, dass die Einschränkung der PSH-Gleichung auf S äquivalent
zur PS-Gleichung ist.
Um die Äquivalenz zwischen der PS-Gleichung und der PSH-Gleichung auf die
kompletten Algebra G3 auszudehnen, müssen wir zusätzlich die Projektion f− auf
das zu S komplementäre Ideal S 0 betrachten. Falls auch die Einschränkung der
PSH-Gleichung auf S 0 äquivalent zur PS-Gleichung ist, würde daraus wegen der
direkten Zerlegung Mat(2, ) = S ⊕ S 0 die Äquivalenz auf der ganzen Algebra
folgen.
Die Wirkung von σ3 auf f− produziert ein negatives Vorzeichen:
σ3 f − = σ 3
1
2
− σ3 =
1
2
σ3 − (σ3 )2 =
1
2
Anstelle von Gleichung (5.44) bekommt man deshalb:
−i~∂t (ψf− ) = Ĥψf− +
σ3 −
~q
(σ · B)ψf− .
2mc
= −f− .
(5.46)
Wenn man die komplette Gleichung mit Matrizen ausschreibt und ausmultipliziert,
ergibt sich:
~q 0 +(B1 − iB2 )z1∗ − B3 z2∗
0 −z2∗
0 −z2∗
−i~∂t
= Ĥ
+
. (5.47)
0 z1∗
0 z1∗
2mc 0 −(B1 + iB2 )z2∗ − B3 z1∗
108 Kapitel 5. Reelle Quantenmechanik
Da hier überall die komplex konjugierten Größen auftauchen, ist eine Äquivalenz
zum hermitesch Adjungierten der Pauli-Schrödinger-Gleichung zu erwarten. Wegen
Ĥ † = Ĥ und σi † = σi ist dieses gegeben durch:
†
~q
(σ · B)Ψ
2mc
~q †
†
†
−i~∂t Ψ = ĤΨ +
Ψ (σ · B) .
2mc
(i~∂t Ψ)† = (ĤΨ)† −
⇐⇒
Mit Ψ† = (z1∗ , z2∗ ) lässt sich das hermitesch Adjungierte der Pauli-SchrödingerGleichung also schreiben als:
∗ t
t
∗ t
~q −(B1 + iB2 )z2∗ − B3 z1∗
z1
z1
−i~ ∗ = Ĥ ∗ +
.
(5.48)
z2
z2
2mc −(B1 − iB2 )z1∗ + B3 z2∗
Multipliziert man die zweite Zeile mit −1 und vertauscht danach die Zeilen miteinander, dann erhält man genau die zweite Spalte von Gleichung (5.47). Folglich ist
auch die Einschränkung der PSH-Gleichung auf das zu S komplementäre Ideal S 0
äquivalent zur PS-Gleichung. Da sich die Algebra Mat(2, ) als direkte Summe der
beiden Ideale S ⊕ S 0 schreiben lässt, haben wir damit auch die Äquivalenz in der
kompletten Algebra Mat(2, ) ∼
= G3 bewiesen.
5.5
Geometrische Interpretation der PSH-Gleichung
Im letzten Abschnitt wurde gezeigt, dass die Pauli-Schrödinger-Gleichung völlig
gleichwertig ist zur reellen Pauli-Schrödinger-Hestenes-Gleichung:
∂t ψ~Iσ 3 = Ĥψ −
~q
Bψσ 3 ,
2mc
(5.49)
mit dem Hestenes-Spinor ψ ∈ G3+ . Bevor wir diese geometrisch deuten, wollen wir
jedoch noch ein kleine Umformung vornehmen. Durch Einschieben von I 2 = −1 im
letzten Term3 ergibt sich:
∂t ψ ~Iσ 3 = Ĥψ +
q
(IB)ψ ~Iσ 3 .
2mc
(5.50)
In dieser Form der PSH-Gleichung wird das Magnetfeld in korrekter Weise durch
einen Bivektor IB beschrieben. Außerdem taucht jetzt zweimal der gleiche Faktor
~Iσ 3 auf, der sich aus dem ursprünglichen, komplexen Faktor i~ ergeben hat.
Auf den ersten Blick ist das Auftreten eines ausgezeichneten Basisvektors σ 3
in der PSH-Gleichung (5.50) verwirrend. Wie im Kepler-Problem hat σ 3 allerdings
nur die Funktion eines Referenzvektors, der beliebig gewählt werden kann. Obwohl
dies in der ursprünglichen Pauli-Schrödinger-Gleichung nicht manifest sichtbar ist,
zeichnet man auch dort die σ 3 -Richtung aus, indem man die Pauli-Matrix σ3 diagonal wählt.
Um den Vektor σ 3 in Gleichung (5.50) durch einen anderen Referenzvektor σ̃ 3
zu ersetzen, können wir diesen ohne Einschränkungen durch eine konstante Drehung
U ∈ Spin(3) aus σ 3 gewinnen:
σ̃ 3 = U σ 3 U t .
(5.51)
3 Dadurch macht man nur eine Vereinfachung in Gleichung (5.17) rückgängig. Deshalb erscheint
diese Modifikation sehr natürlich.
5.5 Geometrische Interpretation der PSH-Gleichung 109
σ3
ψ
σ̃ 3
σ̃ 1
σ2
σ1
σ̃ 2
Abbildung 5.1 Der Hestenes-Spinor ψ beschreibt lokal eine Drehstreckung
des Referenzkoordinatensystems (σ i ) auf die physikalische Basis (σ̃ i ).
Damit bekommt man:
(ψσ 3 )U t = ψ(U t U )σ 3 U t = ψU t σ̃ 3 =: ψ̃ σ̃ 3 ,
(5.52)
wobei der Hestenes-Spinor einseitig als ψ̃ = ψU t und in umgekehrter Richtung als
ψ = ψ̃U transformiert wird. Der Pseudoskalar I ist invariant unter einer solchen
Drehung. Durch Multiplikation mit U t von rechts erhält man damit aus (5.50) die
äquivalente Gleichung:
∂t ψ̃ ~I σ̃ 3 = Ĥ ψ̃ +
q
(IB)ψ̃ ~I σ̃ 3 ,
2mc
(5.53)
wobei jetzt σ̃ 3 als Quantisierungsrichtung des Spins ausgezeichnet ist. In der ursprünglichen Pauli-Schrödinger-Gleichung würde die Änderung der Quantisierungsrichtung einem Wechsel der Matrixdarstellung der Pauli-Matrizen und des PauliSpinors entsprechen.
Wie sich herausstellt ist das Produkt ψψ t ein reeller Skalar:
ψψ t = (ψ0 + ψi Iσ i )(ψ0 + ψj σ j I t )
= ψ0 2 + (ψi ψ0 Iσ i − ψ0 ψj σ j I) + ψi ψj Iσ i σ j I t
= ψ0 2 + ψi ψj (δij + σ i ∧ σ j )II t
= ψ 0 2 + ψ 1 2 + ψ 2 2 + ψ 3 2 + ψ i ψj σ i ∧ σ j
= ψ0 2 + ψ1 2 + ψ2 2 + ψ3 2 ,
(5.54)
wobei im letzten Schritt die Summe über ψi ψj σ i σ j verschwindet, da ψi ψj symmetrisch und das Dachprodukt antisymmetrisch ist. Dieses Ergebnis war zu erwarten, weil in drei Dimensionen der gerade Anteil der Clifford-Lipschitz-Gruppe
+
Γ+
3 = G3 \ {0} ist, und für alle Versoren V ∈ Γ3 der Stufenoperator im Skalarprodukt weggelassen werden darf, hV V t i = V V t . Also ist ψψ t = hψψ t i = kψk2 ∈ .
Der Skalar ψψ t entspricht der Wahrscheinlichkeitsdichte %, denn:
% = hΨ|Ψi = Ψ† Ψ = Ψ∗1 Ψ1 + Ψ∗2 Ψ2
= (ψ0 − iψ3 )(ψ0 + iψ3 ) + (−ψ2 − iψ1 )(−ψ2 + iψ1 )
= ψ0 2 + ψ1 2 + ψ2 2 + ψ3 2 .
(5.55)
Damit lässt sich der Hestenes-Spinor ψ zerlegen in das Produkt aus dem skalaren
√
Faktor % und einem Rotor R ∈ Spin(3):
ψ=
√
%R ,
mit % = ψψ t = kψk2 und RRt = 1 .
(5.56)
110 Kapitel 5. Reelle Quantenmechanik
Der Hestenes-Spinor beschreibt also lokal eine Drehstreckung des Koordinatensystems. Die Referenzbasis (σ i ) wird dadurch auf das physikalische Koordinatensystem
(σ̃ i ) transformiert (siehe Abbildung 5.1):
σ̃ i = ψσ i ψ t = % Rσ i Rt .
(5.57)
Im Gegensatz zur Referenzbasis sind die Basisvektoren der physikalischen Basis
nicht auf 1 normiert, sondern auf kσ̃ i k = %. Wir nennen diese Basis die physikalische Basis, da sie unabhängig von der verwendeten Referenzbasis durch die
Wellenfunktion ψ eindeutig festgelegt wird. Wie wir gleich sehen werden, ist der
Vektor σ̃ 3 sogar eine physikalische Observable!
5.6
Der Spin-Operator
Die Geometrische Algebra erfordert grundlegende Änderungen in der Beschreibung
und der Interpretation des Spins. Im Pauli-Schrödinger-Formalismus ist der SpinOperator ŝ proportional zum Vektor σ mit den Pauli-Matrizen als Einträgen:
ŝ = 21 ~σ .
(5.58)
Sobald man allerdings die Pauli-Matrizen als Basisvektoren σ i der Geometrischen
Algebra interpretiert, ist dieser Ausdruck unsinnig. In vollständig analoger Weise
könnte man in einem dreidimensionalen Vektorraum V mit Basis (ei ) einen formalen
Vektor e = (e1 , e2 , e3 ) mit den Basisvektoren als Einträgen definieren. Jeder Vektor
a ∈ V ließe sich damit formal schreiben als a = ai ei = ei ai = e · a. Da der formale
Vektor e allerdings selbst kein Elemente des Vektorraums V ist, kann ihm keinerlei
geometrische Bedeutung zugeordnet werden.
Außerdem haben die Pauli-Matrizen in der Geometrischen Algebra nichts direkt mit dem Spin zu tun, da sie nur eine Darstellung der Basisvektoren σ i sind.
Demnach sind sie für das Kepler-Problem oder für den Raumzeit-Split mindestens
genauso relevant, wie für die Beschreibung des Spins. Folglich ist die Rolle der
Pauli-Matrizen als Spin-Operatoren grundlegend zu überdenken.
Um einen sinnvollen Ausdruck für den Spin-Operator herzuleiten, betrachten
wir die einzelnen Komponenten der Spindichte % s = hΨ|ŝ|Ψi = Ψ† ŝΨ. Da die
Spindichte eine lokale Größe ist, wird hierbei nicht über den Raum integriert. Mit
dem Pauli-Spinor Ψ = (z1 , z2 )t erhält man:
% s1 = 12 ~hΨ|σ1 |Ψi = 21 ~ z1∗ z2 + z1 z2∗ ,
(5.59)
∗
∗
1
1
(5.60)
% s2 = 2 ~hΨ|σ2 |Ψi = 2 ~ −i(z1 z2 − z1 z2 ) ,
∗
∗
1
1
(5.61)
% s3 = 2 ~hΨ|σ3 |Ψi = 2 ~ z1 z1 − z2 z2 .
Diese Ergebnisse lassen sich in der Geometrischen Algebra reproduzieren. Im Gegensatz zum Pauli-Schrödinger-Formalismus erhält man allerdings alle Komponenten
der Spindichte auf einmal durch den Ausdruck:
% s = 12 ~ ψσ 3 ψ t .
Eine direkte Rechnung in der Matrixdarstellung bestätigt dies:
∗
z −z2∗
1 0
z1 z2∗
%s ∼
= 21 ~ 1
0 −1
z2 z1∗
−z2 z1
∗
∗
∗
z z −z z
2(z1 z2 )∗
s3
s1 − is2
! 1
= 12 ~ 1 1 ∗ 2 2
~
.
=
2
s1 + is2
−s3
2z1 z2
−(z1∗ z1 − z2∗ z2 )
(5.62)
5.6 Der Spin-Operator 111
σ3
s
ψ
S
Iσ 3
σ2
σ̃ 1
σ1
σ̃ 2
Abbildung 5.2 Der Referenz-Vektor σ 3 und der Referenz-Bivektor Iσ 3 werden durch den Hestenes-Spinor auf den lokalen Spin-Vektor s bzw. den SpinBivektor S abgebildet. (Den konstanten Faktor ~/2 haben wir in der Zeichnung vernachlässigt.)
Der Ausdruch für s3 lässt sich daraus direkt ablesen und stimmt mit Gleichung
(5.61) überein. Die restlichen Komponenten bekommt man, indem man 2z1∗ z2 nach
Real- und Imaginärteil zerlegt. Hierdurch ergeben sich die Resultate der Gleichungen (5.59) und (5.60).
Erstaunlicherweise benötigt man in Gleichung (5.62) nur den Vektor σ 3 und
nicht alle Basisvektoren σ i , wie man vom üblichen Spin-Operator (5.58) her eventuell erwarten würde. Der Vektor σ 3 taucht dabei – wie in der PSH-Gleichung – in
seiner Rolle als Referenzvektor auf. Damit haben wir übrigens auch die Bedeutung
der physikalischen Basis σ̃ i aus dem letzten Abschnitt aufgedeckt. Der Basisvektor
σ̃ 3 entspricht bis auf einen konstanten Faktor dem lokalen Spin-Vektor :
s = 21 ~ Rσ 3 Rt = 21 ~ σ̃ 3 .
(5.63)
Eine weitere bemerkenswerte Eigenschaft von Gleichung (5.62) bzw. (5.63) ist die
Tatsache, dass wir nicht nur alle Komponenten der Spindichte auf einmal bekommen haben, sondern auch den lokalen Spin-Vektor s als Ganzes, ohne Verwendung
von Koordinaten. Speziell kann man dadurch dem Spin-Vektor eine physikalische
Bedeutung zuschreiben, die unabhängig von der Quantisierungsrichtung ist.
Ein kleines Manko hat der lokale Spin-Vektor s allerdings noch. Wenn man
den Spin als eine Art Drehimpuls interpretieren möchte, müsste er eigentlich durch
einen Bivektor beschrieben werden. Man definiert deshalb mittels Hodge-Dualität
den lokalen Spin-Bivektor :
S := Is = 12 ~ RIσ 3 Rt .
(5.64)
Der Referenz-Bivektor Iσ 3 wird also durch den Rotoranteil R des Hestenes-Spinors in Richtung des Spin-Bivektors S gedreht. Damit haben wir die Bedeutung der
Faktoren ~Iσ 3 in der PSH-Gleichung (5.50) entdeckt. In der Geometrischen Algebra
lassen sich diese (bis auf den Faktor 1/2) als Referenz-Bivektoren des lokalen Spins
interpretieren. Noch etwas deutlicher wird die Beziehung des Faktors ~Iσ 3 zum
Spin, wenn man das Produkt Sψ berechnet:
√ 1 √
Sψ = 12 ~ RIσ 3 Rt
% R = 2 ~ % R Iσ 3 RtR = 12 ψ ~Iσ 3 .
(5.65)
Die Pauli-Schrödinger-Hestenes-Gleichung (5.50) lässt sich damit ein weiteres Mal
umschreiben zu:
q
∂t (2Sψ) = Ĥψ +
(IB)(2Sψ) .
(5.66)
2mc
112 Kapitel 5. Reelle Quantenmechanik
Damit lässt sich der ursprüngliche, komplexe Faktor i~ mit dem Doppelten
des Spin-Bivektors S identifizieren. Deshalb behauptet Hestenes zum Beispiel in
[Hes03a], dass der Spin durch den Faktor i~ schon in der Schrödinger-Gleichung
(5.7) zu finden ist. Dies würde bedeuten, dass die Schrödinger-Gleichung ein Teilchen in einem Eigenzustand des Spins beschreibt, im Gegensatz zur üblichen Auffassung, wonach durch die Schrödinger-Gleichung spinlose Teilchen beschrieben werden. Interessant mag in diesem Zusammenhang auch die übliche Herleitung der
Schrödinger-Gleichung sein, die wegen Gleichung (5.2) auf ebenen, elektromagnetischen Wellen basiert. Damit ließe sich eventuell der Faktor 2 erklären, da Photonen
als Spin-1-Teilchen das Zweifache des Elektronenspins besitzen.
5.7
Zusammenfassung
In der konventionellen Formulierung der nichtrelativistischen Quantenmechanik
verwendet man mehrere Algebren nebeneinander. Besonders deutlich wurde dies
am Beispiel der Pauli-Schrödinger-Gleichung (PS-Gleichung):
2
~q
π̂
~q
i~∂t Ψ = ĤS −
(σ · B) Ψ =
+ qΦ −
(σ · B) Ψ .
(5.13)
2m
2m
2m
Auf der einen Seite benutzt man den (komplexifizierten) Vektorraum ( 3 , ·, ×), versehen mit Skalar- und Kreuzprodukt. Auf der anderen Seite stehen die komplexen
Matrizen Mat(2, ), die oft in der Form σ · a geschrieben werden, wobei man die
Rechenregel:
(σ · a)(σ · b) = a · b + iσ · (a × b)
(5.15)
verwendet. Hierbei ist σ ein formaler Vektor mit den Pauli-Matrizen als Einträgen.
Wie wir gezeigt haben, lassen sich alle verwendeten Formalismen unter dem Hut
der Geometrischen Algebra G3 vereinigen. Mit Hilfe des Pauli-Isomorphismus G3 ∼
=
Mat(2, ), den wir in Abschnitt 5.2 diskutiert haben, konnten die verschiedenen
Größen in der PS-Gleichung (5.13) durch äquivalente Ausdrücke in der Clifford-Algebra ersetzt werden. Die formalen Skalarprodukte der Form σ · a sind dabei eine
unschöne Schreibweise für Clifford-Vektoren, denn:
G3 3 a = a i σ i = σ i a i ∼
= σi ai = σ · a ∈ Mat(2, ) .
Mit Clifford-Vektoren geschrieben, wird die Rechenregel (5.15) zur wohlbekannten
Zerlegung des Geometrischen Produkts:
ab = a · b + a ∧ b = a · b + I(a × b) .
(5.21)
Um den Pauli-Spinor zu einem Elemente der Geometrischen Algebra zu machen,
gibt es zwei wichtige Alternativen. Zum einen kann man Ideal-Spinoren Ψ̃ verwenden, die in einem Links-Ideal S ⊂ Mat(2, ) liegen. Das Vorgehen dazu wurde in
Abschnitt 5.3 kurz skizziert. Die Alternative stellen Hestenes-Spinorren ψ ∈ G3+
dar, die wir in den folgenden Abschnitten ausführlich diskutiert haben.
Unter Verwendung der Hestenes-Spinorren lässt sich die konventionelle PauliSchrödinger-Gleichung (5.13) ersetzen durch die reelle Pauli-Schrödinger-HestenesGleichung (PSH-Gleichung):
∂t ψ ~Iσ 3 = Ĥψ +
q
(IB)ψ ~Iσ 3 .
2mc
(5.50)
5.7 Zusammenfassung 113
Der explizit auftretende Vektor σ 3 übernimmt dabei die Rolle eines Referenzvektors, wie auch in der Lösung des Kepler-Problems mittels Rotor-Methoden in Abschnitt 3.8.2. Der Zusammenhang zwischen Pauli- und Hestenes-Spinorr ist gegeben
durch:
1
.
(5.390 )
Ψ = ψχ+ , mit χ+ =
0
Die Äquivalenz von PSH- und PS-Gleichung wurde in Abschnitt 5.4 bewiesen.
Im folgenden Abschnitt wurden die einzelnen Terme in der Pauli-SchrödingerHestenes-Gleichung geometrisch interpretiert. Wie sich herausstellt, erlaubt des
Hestenes-Spinorr ψ eine koordinatenfreie Zerlegung in das Produkt aus einem Skalar % und einem Rotor R ∈ Spin(3):
ψ=
√
%R ,
2
mit % = ψψ t = kψk und RRt = 1 .
(5.56)
Damit beschreibt der Spinor ψ lokal eine Drehstreckung der Referenzbasis (σ i )
auf die physikalische Basis σ̃ i = %Rσ i Rt . Der skalare Faktor % ist die bekannte
Born’sche Wahrscheinlichkeitsdichte % = hΨ|Ψi = Ψ† Ψ.
Zum Abschluss haben wir die Rolle des Spin-Operators im PSH-Formalismus
erläutert. Einerseits entspricht die Schreibweise σ nur formal einem Vektor. Da
wir außerdem die Pauli-Matrizen als Basisvektoren σ i interpretiert haben, sind in
der Geometrischen Algebra einige grundlegende Änderungen in der Beschreibung
und der Interpretation des Spins nötig. Wie wir gesehen haben, wird die Spindichte
% s = hΨ|ŝ|Ψi ersetzt durch den Ausdruck:
% s = 12 ~ψσ 3 ψ t .
(5.62)
Auch in dieser Gleichung hat σ 3 nicht die Rolle eines Operators, sondern ist als
Referenzvektor aufzufassen, der durch den Hestenes-Spinor ψ in die Richtung des
lokalen Spin-Vektors s gedreht wird.
Da man den Spin als eine Art Drehimpuls interpretieren möchte, sollte er eigentlich durch einen Bivektor beschrieben werden. Dies gibt Anlass zur Definition
des Spin-Bivektors:
S = Is = 21 ~ RIσ 3 Rt .
(5.64)
Dem Faktor ~Iσ 3 in der PSH-Gleichung kann deshalb die Bedeutung eines Referenz-Bivektors zugewiesen werden. Weitere Einblicke liefert das Produkt Sψ =
1
2 ψ~Iσ 3 , womit sich die PSH-Gleichung schreiben lässt als:
∂t (2Sψ) = Ĥψ +
q
(IB)(2Sψ) .
2mc
(5.66)
Damit kann der ursprüngliche, komplexe Faktor i~ mit dem Doppelten des Spin-Bivektors identifiziert werden. Da der Faktor i~ schon in der Schrödinger-Gleichung
auftaucht, behauptet David Hestenes, dass diese kein spinloses Teilchen, sondern
ein Teilchen in einem Eigenzustand des Spins beschreibt.
114 Kapitel 5. Reelle Quantenmechanik
6. Zusammenfassung und Ausblick
In dieser Arbeit haben wir die Rolle der Clifford-Algebra in der Physik untersucht.
Wie sich herausstellt, besitzt das Clifford-Produkt eine fundamentale geometrische
Bedeutung und hat deshalb nicht nur Anwendungen in der Quantenmechanik, sondern in allen wichtigen Bereichen der Physik. Da sehr unterschiedliche Gebiete
behandelt wurden, finden sich einzelne Zusammenfassungen jeweils am Ende der
jeweiligen Kapitel. Wir wollen deshalb hier vor allem weitere Entwicklungen und
Anwendungen der Geometrischen Algebra vorstellen.
Nach einer kurzen Einführung in die Problematik haben wir in Kapitel 2 die
Grundlagen der Geometrischen Algebra nach Hestenes [HS92] zusammengefasst.
Dabei wurden einige kleinere Modifikationen eingeführt, wie zum Beispiel das Skalarprodukt ˜∗ und die beiden Kontraktionen. Der grundlegende Formalismus lässt
sich nun in mehreren Richtungen weiterentwicklen.
Auf der algebraischen Seite lassen sich Clifford-Algebren über Räumen mit
nichtsymmetrischer Bilinearform definieren. Dies haben wir kurz in Anhang A.5
skizziert. Ausführliche Darstellungen dieser Thematik – die eng mit der Theorie
der Hopf-Algebren und der Deformation von Algebren verknüpft ist – finden sich
zum Beispiel in den Arbeiten von Bertfried Fauser [Fau96, FA00, Fau02]. Passende
Anwendungen gibt es sowohl in der symplektischen Geometrie (die man zum Beispiel in der theoretischen Mechanik benötigt), in der Quantenfeldtheorie, sowie auf
dem Gebiet der Deformations-Quantisierung.
Eine weitere wichtige Richtung ist die Geometrischen Analysis. Dabei geht es
um die Entwicklung eines Differentialkalküls, basierend auf der Geometrischen Algebra. Dies ist sowohl in glatten Räumen, als auch für die Differentialgeometrie
auf Mannigfaltigkeiten interessant. Es gibt enge Verbindungen zum Dirac-Operator, der als die natürliche Ableitung in der Geometrischen Algebra auftaucht. Die
Grundlagen der Geometrischen Analysis findet man in [HS92, Hes93a, DL03].
Im dritten Kapitel wurde die Beschreibung von Reflexionen und Rotationen
mittels Multivektoren dargestellt. Ein Thema, welches wir nur kurz erwähnt haben, ist dabei die Theorie der Lie-Algebren, die eng mit der Algebra der Bivektoren
verknüpft ist. Mehr dazu kann man zum Beispiel in [DHS93] nachlesen. Außerdem lassen sich die, anhand des Kepler-Problems vorgestellten, Rotor-Methoden
auf viele weitere Probleme anwenden. Ein Beispiel ist die Theorie des starren Körpers in [Hes99] und die Anwendung von Rotoren in der Speziellen Relativität und
Elektrodynamik [Hes74, Hes98, DL03].
In Kapitel 4 haben wir die Spacetime-Algebra vorgestellt, welche eine koordinatenfreie Beschreibung der SRT ermöglicht. Eine interessante aktuelle Entwicklung
auf diesem Gebiet ist die Formulierung der Allgemeinen Relativität als Eichtheorie
[DL03, Hes05]. Weitere neue Anwendungen ergeben sich in der Elektrodynamik.
Da Vektoren in der Geometrischen Algebra invertierbar sind, liegt die Vermutung
116 Kapitel 6. Zusammenfassung und Ausblick
nahe, dass auch die Differentialoperatoren 5 und ∇ diese Eigenschaft besitzen.
Damit ließen sich die Maxwellgleichungen geschlossen lösen, in der Form:
5F = j
⇐⇒
F = 5−1 j ,
(6.1)
wobei 5−1 ein geeigneter Integraloperator ist, der natürlich von den Randbedingungen abhängt. Ein paar grundlegende Ansätze dazu findet man in [Hes03b, DL03].
In Kapitel 5 haben wir gezeigt, wie sich die nichtrelativistische Quantenmechanik in der Sprache der reellen Geometrischen Algebra G3 beschreiben lässt. Als Folge davon muss die Rolle des Spins in der Quantenmechanik grundlegend überdacht
werden [Hes79, DLG+ 96]. Interessant wäre ein tieferes Verständnis des Spins zum
Beispiel für einen Beweis des Spin-Statistik-Theorems in der nichtrelativistischen
Quantentheorie. Eine weitere nützliche Entwicklung ist die Verallgemeinerung des
Formalismus auf Vielteilchensysteme, wie sie in [DL03] beschrieben wird.
Neben der Pauli-Schödinger-Theorie lässt sich mit der Geometrischen Algebra
auch die relativistische Quantenmechanik umformulieren. Auch in der konventionellen Dirac-Gleichung tauchen wieder formale Produkte der Form p/ = γ µ pµ und
∂/ = γ µ ∂µ auf. Indem man die Dirac-Matrizen als Darstellung der Basisvektoren
γµ ∈ G1,3 interpretiert, lässt sich – in Analogie zur PSH-Gleichung – die Dirac-Hestenes-Gleichung aufstellen [Hes66, Hes03b]:
5ψ ~Iσ 3 − qAψ = mψγ0 .
(6.2)
Auch hier taucht wieder der Faktor ~Iσ 3 = ~Iγ2 γ0 auf, den wir schon aus der PSHGleichung kennen. Mehr über die Dirac-Hestenes-Gleichung kann man in [Hes03b,
DL03, Lou01] und vielen weiteren Publikationen nachlesen.
Interessant ist wiederum die Verbindung zu bekannten Sachverhalten. Speziell
die Wigner’sche Analyse der Poincaré-Gruppe sollte sich auch innerhalb der Spacetime-Algebra nachvollziehen lassen, womit sich die Bedeutung des Spins – im Zusammenhang mit dem Pauli-Lubansky-Pseudovektor – genauer untersuchen ließe.
Weitere Impulse kann man auf dem Gebiet der Quantisierung erwarten. Hier bietet
sich die Geometrische Algebra aufgrund ihrer Universalität an, da sich mit ihrer
Hilfe sowohl die klassische Theorie, als auch die zugehörige quantisierte Theorie, in
einem gemeinsamen mathematischen Rahmen beschreiben lassen. Außerdem wollen
wir an dieser Stelle nochmals auf die Publikationen von Fauser [FA00, Fau02] hinweisen, die auf Anwendungen der Geometrischen Algebra in der Quantenfeldtheorie
abzielen.
A. Wege zur Clifford-Algebra
The understanding of a mathematical theory is not the
result of enlightened familiarity with an axiom system
given once and for all. To the mathematician, an axiom system is a window through which an item, be it a
group, a topological space or the real line, can be viewed from a different angles that will reveal heretofore
unsuspected possibilities.
Gian-Carlo Rota [Rot97]
In diesem Kapitel sollen verschiedene Wege zur mathematischen Definition der Clifford-Algebra vorgestellt werden. Jede Definition bietet dabei ihren eigenen Blickwinkel auf die Clifford-Algebra, der bestimmte Eigenschaften hervortreten lässt
und andere vernachlässigt. Die spezifischen Vor- und Nachteile der unterschiedlichen Möglichkeiten werden diskutiert sowie deren Anwendungsgebiete aufgezeigt.
Eine ausführliche Diskussion der verschiedenen Zugänge findet sich auch in [Lou01],
[Fau96] und [Fau02]. Um näher an der Standardliteratur zu bleiben, bezeichnen wir
in diesem Kapitel die Clifford-Algebra mit Cl anstatt mit G.
A.1
Ein paar Grundlagen
Zu Beginn wollen wir ein paar wichtige Definitionen und die für uns relevanten
Sätze zusammenstellen. Dies dient vor allem der Klärung der verschiedenen Begrifflichkeiten, und kann beim ersten Lesen übersprungen werden. Zur Vertiefung
der unterschiedlichen Konzepte müssen wir auf die mathematische Fachliteratur
verweisen.
Die Grundlagen der Linearen Algebra sind sehr anschaulich bei Fischer [Fis03]
dargestellt. Weiterführende Themen aus dem Bereich der Algebra finden sich beispielsweise bei Scheja und Storch [SS94], [SS88], oder im sehr übersichtlich und
verständlich geschriebenen Buch von Hungerford [Hun74]. Eine moderne, allerdings
auch deutlich abstraktere Darstellung findet man bei Rotman [Rot02]. Graduierte
Algebren werden ausführlich im ersten Teil des Buchs von Chevalley [Che97c] und
bei Rotman [Rot02] diskutiert.
Definition A.1 (Gruppe) Eine Gruppe (G, ·) ist eine Menge G zusammen mit
einer Verknüpfung · : G × G → G und den Eigenschaften:
(i) Die Multiplikation ist assoziativ, d. h. (x · y) · z = x · (y · z) für alle x, y, z ∈ G,
(ii) es gibt ein neutrales Element e ∈ G, mit e · x = x für alle x ∈ G,
(iii) zu jedem x ∈ G gibt es ein inverses Element x−1 ∈ G, mit x−1 · x = e .
Falls man nur die Assoziativität fordert, dann spricht man von einer Halbgruppe.
Eine Halbgruppe mit neutralem Element heißt Monoid. Dies entspricht einer
Gruppe, bei der man die Forderung (iii) nach Invertierbarkeit fallen lässt. Eine
Gruppe heißt kommutativ oder abelsch, falls zusätzlich:
(iv) x · y = y · x für alle x, y ∈ G.
118 Anhang A. Wege zur Clifford-Algebra
Definition A.2 (Ring) Ein Ring (R, +, ·) ist eine Menge R versehen mit zwei
Verknüpfungen + : R × R → R und · : R × R → R und den Eigenschaften:
(i) (R, +) ist eine kommutative Gruppe (mit 0 := e),
(ii) die Multiplikation · ist assoziativ.
(iii) die Multiplikation ist links-distributiv x · (y + z) = x · y + x · z und rechtsdistributiv (y + z) · x = y · x + z · x für alle x, y, z ∈ R.
Wir sprechen von einem Ring mit 1, wenn zusätzlich gilt:
(iv) Es gibt ein Eins-Element 1 ∈ R mit 1 · x = x = x · 1 für alle x ∈ R.
Außerdem nennen wir den Ring kommutativ, falls zusätzlich:
(v) x · y = y · x für alle x, y ∈ R gilt.
Definition A.3 (Körper) Ein Körper (K, +, ·) ist eine Menge K zusammen
mit zwei Verknüpfungen + : K × K → K und · : K × K → K, so dass gilt:
(i) (K, +, ·) ist ein kommutativer Ring mit 1.
(ii) (K \ {0}, ·) ist eine abelsche Gruppe.
Wenn (K \{0}, ·) stattdessen nur eine Gruppe ist, und nicht notwendig kommutativ,
dann spricht man von einem Schiefkörper.
Die Hamilton’schen Quaternionen
der kein Körper ist.
sind ein Beispiel für einen Schiefkörper,
Definition A.4 (Modul) Sei R ein kommutativer Ring mit Eins, M eine Menge
und zwei Verknüpfungen + : M × M → M und · : R × M → M gegeben, genannt
Vektoraddition bzw. Skalarmultiplikation. Dann heißt (M, +, ·) Links-R-Modul,
wenn gilt:
(i) (M, +) ist eine abelsche Gruppe,
(ii) die Distibutivgesetze (λ + µ) · a = λ · a + µ · a und λ · (a + b) = λ · a + λ · b
gelten für alle λ, µ ∈ R und a, b ∈ M,
(iii) die Assoziativität (λµ) · a = λ · (µ · a) ist für alle λ, µ ∈ R und a ∈ M erfüllt,
(iv) für die Eins 1 ∈ R und a ∈ M gilt 1 · a = a.
Ist stattdessen eine Skalarmultiplikation ◦ : M × R → M von rechts mit analogen
Eigenschaften definiert, dann sprechen wir von einem Rechts-R-Modul. Sind beide
Skalarmultiplikationen definiert und miteinander verträglich, d. h. λ · a = a ◦ λ für
alle λ ∈ R und a ∈ M, dann nennt man M ein R-Bi-Modul oder auch einfach
nur R-Modul.
Wie man sieht, ist ein Modul die Verallgemeinerung eines Vektorraums auf
einen Ring an Stelle eines Körpers. In einem kommutativen Ring lässt sich jedes
Links- oder Rechts-Modul kanonisch zu einem Bi-Modul machen, weshalb man bei
Vektorräumen auf diese Unterscheidung verzichtet:
A.1 Ein paar Grundlagen 119
Definition A.5 (Vektorraum) Ein K-Vektorraum ist ein K-Modul über einem Körper. Ist K =
oder , dann sprechen wir von einem reellen bzw. komplexen Vektorraum.
Definition A.6 (Algebra) Sei A ein R-Modul über einem kommutativen Ring
R mit 1 und ◦ : A × A → A eine zusätzliche Verknüpfung, die Algebramultiplikation
heißt. Dann nennen wir A eine R-Algebra, wenn gilt:
(i) Die Algebramultiplikation ist R-bilinear.
(ii) (A, +) ist eine abelsche Gruppe.
(iii) Die Multiplikation ◦ ist distributiv bezüglich Addition.
Die Algebra heißt assoziativ, falls die Algebramultiplikation ◦ assoziativ ist und
analog dazu spricht man von einer kommutativen Algebra, wenn die Multiplikation kommutativ ist. Wir nennen A Algebra mit 1, falls ein Einselement 1 ∈ A
existiert, welches 1 ◦ B = B = B ◦ 1 für alle B ∈ A erfüllt.
Ein Beispiel für eine assoziative Algebra mit 1 ist natürlich die Clifford-Algebra,
aber auch die n × n-Matrizen über dem Körper K bilden unter der Matrix-Multiplikation eine assoziative Algebra mit der Einheitsmatrix als Einselement.
Die vermutlich wichtigste Klasse von nicht-assoziativen Algebren ist durch die
Lie-Algebren gegeben, in denen die Assoziativiät durch die Jacobi-Identität ersetzt
wird. Ein Beispiel für eine nicht-assoziative Algebra, die keine Lie-Algebra ist, wären
die Oktonionen von Cayley.
Definition A.7 (Graduierung) Sei (G, +) eine additiv geschriebene Gruppe.
Eine G-graduierte Algebra ist eine Algebra A zusammen mit einer Zerlegung in
eine direkte Summe von Untermoduln:
M
A=
Ag , so dass Ag Ah ⊂ Ag+h ,
g∈G
d. h. für alle A ∈ Ag und B ∈ Ah ist das Produkt AB ∈ Ag+h . Die Algebramultiplikation respektiert also die Graduierung. Ein Element aus Ag heißt homogen
von Grad g.
Ein wichtiger Spezialfall ist G = 2 . Eine 2 -gaduierte Algebra wird in der
Physik auch Superalgebra genannt, da solche Algebren eine wichtige Rolle bei der
Beschreibung der Supersymmetrie von Elementarteilchen spielen. Für 2 schreibt
man die Zerlegung A = A0 ⊕ A1 manchmal auch als A = A+ ⊕ A− . Die Geometrische Algebra mit der Zerlegung G = G + ⊕G − in gerade und ungerade Multivektoren
ist ein Beispiel für eine Superalgebra. Einen Spezialfall davon bilden die komplexen
Zahlen ∼
= G0,1 mit der Zerlegung = ⊕ i , was man leicht nachrechnet.
Ein anderes Beispiel ist die Grassmann-Algebra,
die V
eine n -Graduierung beV
V0
n
sitzt, wobei die Zerlegung durch V =
V ⊕ ··· ⊕
V gegeben ist, welche
vom Dachprodukt respektiert wird. Alternativ kann man die Grassmann-Algebra
aber auchVin eine
direkteVSumme von Elementen geraden und ungeraden Grades
V+
−
zerlegen, V =
V⊕
V, wodurch eine 2 -Graduierung induziert wird. Eine
Algebra kann also durchaus mehrere Graduierungen gleichzeitig besitzen.
Nachdem wir nun die für uns wichtigsten Räume definiert haben, kommen wir
zu Strukturen auf diesen Räumen:
120 Anhang A. Wege zur Clifford-Algebra
Definition A.8 (Bilinearform) Gegeben sein ein K-Vektorraum V sowie eine
Abbildung:
B : V × V → K , (a, b) 7→ B(a, b) .
Diese heißt Bilinearform, wenn sie in beiden Komponenten linear ist:
(i) B(a1 + a2 , b) = B(a1 , b) + B(a2 , b) und B(λa, b) = λB(a, b) ,
(ii) B(a, b1 + b2 ) = B(a, b1 ) + B(a, b2 ) und B(a, λb) = λB(a, b) .
Die Bilinearform heißt symmetrisch, falls B(b, a) = B(a, b), und schiefsymmetrisch oder alternierend, falls B(b, a) = −B(a, b) für alle a, b ∈ V gilt.
Man nennt die Bilinearform nicht entartet, falls:
(vi) B(a, b) = 0 für alle b ∈ V =⇒ a = 0 .
Eine Bilinearform heißt positiv definit, wenn:
(v) B(a, a) > 0 für alle a ∈ V mit a 6= 0 .
Jede positiv definite Bilinearform ist offensichtlich auch nicht entartet. Auf einem Vektorraum hat man oft durch das Skalarprodukt eine kanonische, symmetrische Bilinearform gegeben, die nicht entartet ist. Im Fall eines euklidischen Vektorraums ist das Skalarprodukt außerdem positiv definit.
Definition A.9 (Quadratische Form) Sei V ein K-Vektorraum und Q eine
Abbildung:
Q : V → K , a 7→ Q(a) .
Diese heißt quadratische Form genau dann, wenn:
(i) Q(λa) = λ2 Q(a) ,
(ii) 2Bp (a, b) := Q(a + b) − Q(a) − Q(b) eine (symmetrische) Bilinearform ist.
Die Abbildung Bp wird zu Q assoziierte polare Bilinearform genannt, und falls
die Charakteristik des Körpers K ungleich 2 ist, gilt Q(a) = Bp (a, a).
Die quadratische Form heißt positiv definit, wenn Q(a) > 0 für alle a ∈ V mit
a 6= 0 gilt. Q heißt anisotrop, falls aus Q(a) = 0 sofort a = 0 folgt und umgekehrt
dazu isotrop, falls es in V Vektoren a 6= 0 mit Q(a) = 0 gibt. Außerdem nennen
wir Q nicht entartet, wenn die zugehörige polare Bilinearform nicht entartet ist.
Wie man sich leicht verdeutlicht, ist jede positiv definite quadratische Form
automatisch auch anisotrop und jede anisotrope quadratische Form nicht-entartet.
Umgekehrt muss aber nicht jede isotrope quadratische Form entartet sein. Ein
Beispiel für eine isotrope und trozdem nicht-entartete quadratische Form ist das
Quadrat der Norm von Vektoren in der Minkowski-Raumzeit.
Ein Vektorraum (V, Q) versehen mit einer quadratischen Form Q heißt quadratischer Raum und bildet normalerweise die Ausgangsbasis zur Definition einer
Clifford-Algebra. Äquivalent dazu (natürlich char K 6= 2 vorausgesetzt) kann man
die Clifford-Algebra auch über einem Vektorraum mit symmetrischer Bilinearform
aufbauen. In Abschnitt A.5 werden wir auch eine Methode kennenlernen, mit der
sich Clifford-Algebren über einem Vektorraum mit beliebiger Bilinearform errichten
lassen.
A.2 Clifford-Algebra mittels Generatoren und Relationen 121
A.2
Clifford-Algebra mittels Generatoren und Relationen
Die bei Physikern wohl beliebteste Methode ist die Definition einer Algebra über
Generatoren und Relationen. Von Vorteil ist dabei, dass man mit einfachen Objekten anfangen kann und dass man durch die Relationen direkt konkrete Rechenregeln
in der Hand hat. Ein Nachteil ist allerdings die Tatsache, dass diese Methode für
entartete Formen versagt. Doch nun zur Definition:
Definition A.10 (Clifford-Algebra) Sei (V, Q) ein quadratischer Raum über
dem Körper K mit nicht entarteter quadratischer Form Q. Eine assoziative KAlgebra mit 1 heißt dann Clifford-Algebra Cl (V, Q), wenn sie folgende Eigenschaften hat:
(i) Die Relation a2 = Q(a) gilt für alle a ∈ V.
(ii) Cl (V, Q) wird generiert von V und K.
(iii) Cl (V, Q) wird von keinem echten Unterraum von V generiert.
An dieser Definition bedürfen einige Punkte noch einer genaueren Erläuterung.
Wie wir im vorherigen Abschnitt gesehen haben, ist die quadratische Form Q im
Wesentlichen äquivalent zu einer symmetrischen Bilinearform B = Bp . Damit ist
klar, dass man in der Definition anstelle von (i) alternativ auch die Relation ab +
ba = 2B(a, b) verwenden kann. Die zugehörige Clifford-Algebra bezeichnen wir mit
Cl (V, B) und es gilt natürlich Cl (V, B) = Cl (V, Q).
Der zweite Punkt betrifft die harmlos aussehende Redewendung „wird generiert
von“, die einer Präzisierung bedarf:
Definition A.11 („generiert von“) Man sagt ein Raum (Gruppe, Ring, Vektorraum, Algebra, usw.) A wird generiert von einer Menge M , wenn A der kleinste
Raum ist, der M enthält. Das heißt, für jeden weiteren Raum B mit M ⊂ B gilt
auch A ⊂ B. Die Elemente von M nennt man Generatoren von A.
Die Menge M der Generatoren ist alles andere als eindeutig. Ein Vektorraum
wird beispielsweise von der Menge aller Vektoren generiert, es reicht aber auch
schon eine Basis aus, die den Raum aufspannt. Der dreidimensionale Vektorraum
3
wird also beispielsweise von {e1 , e2 , e3 } generiert.
Die wahre Bedeutung der Generatoren wird durch diese Definition leider nicht
deutlich. Sie liegt darin, dass die Generatoren eine Verallgemeinerung des Erzeugendensystems eines Vektorraums darstellen. Jedes Element eines Raums A lässt
sich nämlich mit Hilfe der in A vorhandenen Verknüpfungen aus den Generatoren
aufbauen, wobei ggf. die Relationen anzuwenden sind. Als Beispiel betrachten wir
eine Gruppe (G, ·), die von einer Menge M = {mi : i ∈ I} generiert wird, wobei I
eine beliebige Indexmenge sei.
Q Dann lässt sich jedes Element g ∈ G als Produkt der
Generatoren schreiben: g = mj mit geeigneten j ∈ I. In einem Vektorraum V hat
man dagegen die Addition von Vektoren und die Multiplikation mit einem skalaren
Faktor zur Verfügung. Dann lässt
P sich jeder Vektor v ∈ V als Linearkombination der
Generatoren schreiben: v = j λj mj , wobei nun die mj ein Erzeugendensystem
von V bilden. In einer Algebra hat man zusätzlich eine Multiplikation, d. h. dort
bilden wir Linearkombinationen von Produkten von Generatoren. Die Zerlegung
122 Anhang A. Wege zur Clifford-Algebra
ist natürlich im Allgemeinen nicht eindeutig, was für diese Konstruktion allerdings
ohne Bedeutung ist.
Unter gewissen Voraussetzungen (die meistens gegeben sind) gilt auch die Umkehrung, d. h. der Raum A besteht genau aus allen möglichen Kombinationen, die
sich unter Beachtung der Relationen mit Hilfe der Verknüpfungen aus den Generatoren bilden lassen. Konkret ist dies genau dann der Fall, wenn wir mit einem
freien Raum beginnen, d. h. im Raum, aus dem die Generatoren stammen, gibt es
keine Relationen. Ein Beispiel dafür ist die Clifford-Algebra über dem Vektorraum
V. Zwischen den Vektoren selbst gibt es keine Relationen, dieser ist frei. Wir bilden
also einfach alle möglichen Produkte von Vektoren, wobei jetzt die Relation (i) zu
beachten ist, und danach alle möglichen Summen daraus. Als Ergebnis bekommt
man gerade die Menge aller Multivektoren der Clifford-Algebra.
Ein Beispiel, bei dem diese bequeme Methode scheitert, wäre die Unteralgebra einer Clifford-Algebra, da in diesem Fall im Ausgangsraum schon Relationen
vorhanden sind. Dort muss man direkt mit der Definition A.11 arbeiten.
Damit landen wir auch schon beim nächsten Problem. In Punkt (ii) der Definition forderten wir nämlich, dass die Clifford-Algebra von V und K generiert wird,
aber wenn man genau hinschaut, dann liegen V und K gar nicht in Cl (V, Q). Das
Geheimnis ist eine Einbettung (eine injektive Abbildung), die normalerweise unterdrückt wird, um die Notation zu vereinfachen. Um ganz exakt zu sein, müsste
man also Einbettungen γ : V → Cl (V, Q) und ν : K → Cl (V, Q) , λ 7→ λ1 mit
1 ∈ Cl (V, Q) verwenden. Die Relation in der Clifford-Algebra schreibt sich damit
als γ(a)2 = Q(a) 1 und die Algebra wird generiert von γ(V) und ν(K). Da diese Schreibweise umständlich, und aufgrund der Injektivität meistens auch unnötig
ist, wollen wir diese Tatsache im Hinterkopf behalten, im Allgemeinen werden wir
aber auf die strenge Unterscheidung zwischen Vektoren in V und den eingebetteten
Vektoren in Cl (V, Q) verzichten.
Die dritte Bedingung, dass Cl (V, Q) von keinem echten Unterraum von V generiert wird, ist wichtig für die Universalität der Clifford-Algebra. Leider wird diese
Forderung von vielen Autoren vernachlässigt und taucht in der Literatur nur selten
auf. Um die Relevanz dieser Bedingung zu verstehen, müssen wir als erstes erklären,
was mit dem Begriff „universell“ gemeint ist:
Definition A.12 (universell) Ein Objekt A mit gewissen Eigenschaften heißt
universell, wenn es bis auf einen eindeutig bestimmten Isomorphismus eindeutig
festgelegt ist. Haben wir also ein zweites Objekt B mit den gleichen Eigenschaften,
dann gibt es einen eindeutig festgelegten Isomorphismus von A nach B.
Wenn man die dritte Bedingung in Definition A.10 einmal vernachlässigt, dann
kann man ein einfaches Gegenbeispiel mit fehlender Universalität konstruieren. Wir
betrachten dazu die reelle Algebra der Hamilton’schen Quaternionen die von der
Menge {1, i, j, k} generiert wird. Jedes Quaternion Q ∈
lässt sich schreiben als
Q = α1 + β1 i + β2 j + β3 k mit reellen Vorfaktoren a, βj ∈
und es gelten die
bekannten Relationen:
i2 = j 2 = k2 = −1 ,
ij = −ji = k , jk = −kj = i , ki = −ik = j .
Die Dimension der Quaternionen als reelle Algebra ist offensichtlich gleich 4.
A.3 Clifford-Algebra als Quotient der Tensor-Algebra 123
Ohne die letzte Bedingung der Definition wäre eine Clifford-Algebra über dem
Vektorraum 3 mit der quadratischen Form Q(a) = − kak2 . Die dazu passende
Einbettung ist gegeben durch:
γ:
3
→
, a = a1 e1 + a2 e2 + a3 e3 7→ a1 i + a2 j + a3 k .
Wie wir wissen, kann man aber zu 3 mit der obigen quadratischen Form eine
weitere Clifford-Algebra mit Dimension 23 = 8 konstruieren. Natürlich kann diese
sein, da es keinen Isomorphismus zwischen Algebren
unmöglich isomorph zu
unterschiedlicher (endlicher) Dimension gibt, was aus der linearen Algebra bekannt
ist. Dies steht im Widerspruch zur Universalität im Sinne von Definition A.12. Also
kann die Algebra der Quaternionen über 3 nicht universell sein.
Der Grund für die fehlende Universalität liegt in den zusätzlichen Relationen,
die von den Generatoren erfüllt werden. Die Relation ij = k und deren zyklische
Vertauschungen sind nämlich für die Clifford-Algebra unnötig. Mit Hilfe der Einbettung übersetzt man diese in γ(e1 )γ(e2 ) = γ(e3 ) usw. Daran sieht man, dass schon
der zweidimensionale Unterraum, der von e1 und e2 aufgespannt wird, ausreichend,
um zu generieren. Die dritte Bedingung in der Definition schließt diesen Fall aus
und sorgt somit dafür, dass zwischen den Generatoren keine weiteren Relationen
gelten.
In Wirklichkeit konstruiert man die Quaternionen als Clifford-Algebra über dem
zwei dimensionalen Vektorraum 2 mit quadratischer Form Q(a) = − kak2 . Die
Einbettung lautet dann
γ:
2
→
, a = a1 e1 + a2 e2 7→ a1 i + a2 j ,
und k ergibt sich als Produkt ij = γ(e1 )γ(e2 ) = k. Die Universalität der CliffordAlgebra werden wir noch einmal ausführlich in Abschnitt A.4 diskutieren.
Als letztes noch kurz ein Beispiel, dass die Definition mittels Generatoren und
Relationen für eine entartete quadratische Form ungeeignet ist. Sei dazu (V, Q) ein
beliebiger n-dimensionaler K-Vektorraum mit quadratischer Form Q = 0. Definieren nun das Produkt von zwei Vektoren a, b ∈ V durch ab := 0. Dann ist K ⊕ V
eine assoziative Algebra mit 1, die von V und K generiert wird und die gewünschte Relation erfüllt. Die Dimension dieser Algebra ist offensichtlich durch n + 1
gegeben.VKorrekterweise würde man für diese quadratische Form die GrassmannAlgebra V erwarten, die auch alle Eigenschaften der Definition erfüllt, allerdings
eine Dimension von 2n besitzt.
A.3
Clifford-Algebra als Quotient der Tensor-Algebra
In der Mathematik gibt es einen Satz, welcher besagt, dass jede Algebra der Quotient einer freien Algebra ist [Rot02, Corollary 9.109]. Über einem Vektorraum V ist
diese freie Algebra gerade durch die Tensor-Algebra T (V) gegeben. Der Vorteil der
Konstruktion durch Quotientenbildung liegt vor allem in der universellen Anwendbarkeit – mit einem geeigneten Quotienten lässt sich jede beliebige Algebra über
V konstruieren – weshalb man die Tensor-Algebra auch „Mutter aller Algebren“
nennt. Außerdem folgt die Existenz der Algebra direkt aus der Konstruktion, so
dass man darüber keine Gedanken mehr verlieren braucht.
124 Anhang A. Wege zur Clifford-Algebra
Als erstes wollen wir den Begriff der „freien Algebra“ präzisieren, der im letzten
Abschnitt schon einmal kurz angeschnitten wurde. Wir folgen dazu der Darstellung von Chevalley [Che97c], die man in abgewandelter Form auch bei Hungerford
[Hun74] findet.
Definition A.13 (Wörter) Sei A eine assoziative R-Algebra mit 1 über dem
kommutativen Ring R, die von der Menge {xi : i ∈ I} generiert wird, wobei I eine
beliebige Indexmenge ist. Sei σ = (i1 , . . . , ik ) eine endliche Sequenz von Elementen
aus I, wobei die Zahl k Länge der Sequenz genannt wird. Mit Hilfe der Sequenzen
bilden wir Wörter yσ = xi1 ◦ · · · ◦ xik aus den Generatoren, wobei der leeren
Sequenz σ0 = ∅ das Wort yσ0 = 1 zugeordnet wird.
Die Komposition zweier endlicher Sequenzen σ = (i1 , . . . , ik ) und τ = (j1 , . . . , jl )
ist durch einfaches Zusammenhängen gegeben, στ := (i1 , . . . , ik , j1 , . . . , jl ), und
liefert eine neue Sequenz endlicher Länge. Damit definieren wir das Produkt zweier
Wörter als yσ ◦ yτ := yστ . Per Konstruktion ist dieses Produkt assoziativ.
Definition A.14 (Freie Algebra) Falls eine Menge {xi : i ∈ I} von Generatoren
existiert, so dass alle Wörter yσ mit σ ⊂ I linear unabhängig sind, dann heißt A
freie assoziative Algebra über R und die Menge {xi : i ∈ I} wird freies System
von Generatoren oder auch Erzeugendensystem von A genannt.
Jedes Element der Algebra A ∈ A lässt sich als endliche Linearkombination von
Wörtern mit Koeffizienten µσ ∈ R darstellen:
X0
µσ y σ ,
A=
σ
wobei der Strich an der Summe andeuten soll, dass nur endlich viele Summanden
ungleich Null sind, wobei über alle endlichen Sequenzen σ summiert wird. Die
Addition von zwei Elementen der freien Algebra definiert man komponentenweise.
Die Multiplikation erhält man durch lineare Fortsetzung der Multiplikation von
Wörtern:
X
X
X
ντ yτ :=
µσ y σ ◦
µσ ντ yστ .
A◦B =
σ
τ
σ,τ
Offensichtlich ist diese Multiplikation assoziativ und R-bilinear.
In der Tensor-Algebra T (V) verwendet man üblicherweise die Bezeichnung ⊗ für
die Multiplikation. Die Tensor-Algebra wird von den Vektoren des K-Vektorraums
V generiert. Ein freies System von Generatoren ist durch eine Basis von V gegeben. Da sich die Länge k von Wörtern bei der Addition oder Skalarmultiplikation
nicht ändert, kann man diesbezüglich Untervektorräume T k (V) bilden, wodurch die
Tensor-Algebra eine -Graduierung erhält:
T (V) =
∞
M
k=0
T k (V) mit T k (V) = V ⊗ · · · ⊗ V und T 0 (V) = K.
|
{z
}
(A.1)
k
Wie man leicht sieht, respektiert das Tensorprodukt diese Graduierung, denn bei
der Multiplikation von zwei Wörtern der Längen k bzw. l entsteht ein Wort der
Länge k + l. Der Grad ist deshalb in der Tensor-Algebra gleich der Länge der
Wörter. Ein allgemeiner Tensor besitzt Anteile unterschiedlichen Grades, d. h. man
A.3 Clifford-Algebra als Quotient der Tensor-Algebra 125
kann ihn als Linearkombination von Wörtern unterschiedlicher Länge schreiben.
Besteht ein Tensor nur aus Wörtern eines Grades k, dann heißt er homogen.
Außer dieser direkten Definition der Tensor-Algebra als freie Algebra gibt es
auch den umgekehrten Weg, bei dem man zuerst das Tensorprodukt von Vektorräumen T k (V) definiert, woraus sich die Tensor-Algebra wie oben durch direkte
Summation ergibt (siehe z. B. [Rot02]). Eine weitere Möglichkeit stellt die Definition mittels einer universellen Eigenschaft dar, wir im nächsten Abschnitt genauer
erläutern werden.
Wir kommen nun zur Suche nach den geeigneten Quotienten, mit deren Hilfe
sich neue Algebren gewinnen lassen. Man möchte also Äquivalenzklassen bezüglich
einer Äquivalenzrelation bilden, die die Relationen in der neuen Algebra induziert.
Bei Gruppen verwendet man dazu Normalteiler [Hun74, Section I.5], bei Ringen
sind die geeigneten Quotienten die beidseitigen Ideale [Hun74, Section III.2] und
bei Algebren benötigt man beidseitige Algebra-Ideale.1
Definition A.15 (Ring-Ideal) Sei R ein Ring und I ⊂ R ein Unterring, d. h.
abgeschlossen unter Addition und Multiplikation und gleichzeitg wieder ein Ring.
Dieser heißt:
(i) Links-Ideal, falls ri ∈ I für alle r ∈ R und i ∈ I.
(ii) Rechts-Ideal, falls ir ∈ I für alle r ∈ R und i ∈ I.
(iii) beidseitiges Ideal oder einfach nur Ideal, falls I gleichzeitig Links- und
Rechts-Ideal ist.
Definition A.16 (Algebra-Ideal) Sei A eine R-Algebra über einem kommutativen Ring mit 1 und I ⊂ A eine Unteralgebra, d. h. Unterring von A als Ring und
R-Untermodul von A als Modul. Dann heißt I (Links-, Rechts-, bzw. beidseitiges)
(Algebra-)Ideal von A, falls I ein (Links-, Rechts- bzw. beidseitiges) Ring-Ideal
von A ist.
Falls die Algebra A eine Eins besitzt, kann man die Forderung nach der Unteralgebra fallen lassen, da dann jedes Ring-Ideal von A automatisch auch ein AlgebraIdeal ist (siehe dazu [Hun74, Bemerkung nach Definition IV.7.3]). Deshalb wird oft
nicht zwischen Ring- und Algebra-Idealen unterschieden.
Wir demonstrieren
V die Methode der Quotientenbildung zuerst am Beispiel der
Grassmann-Algebra V. Die Algebramultiplikation der Grassmann-Algebra ist das
alternierende Dachprodukt ∧ , d. h. für Vektoren2 a, b ∈ V gilt:
a ∧ b = −b ∧ a ⇐⇒ a ∧ b + b ∧ a = 0 .
(A.2)
Um diese Relationen in der Tensor-Algebra zu implementieren, bildet man das
beidseitige Ideal, welches von den Elementen der Form a ⊗ b + b ⊗ a mit a, b ∈ V
1 Die beidseitigen Ideale bzw. Normalteiler sind notwendig für eine wohldefinierte Multiplikation
im Faktorraum [Rot02, Section 8.1]. In einem kommutativen Ring sind alle Ideale beidseitig, und
in einer abelschen Gruppe alle Untergruppen Normalteiler, weshalb diese Unterscheidung in der
Lehrbuchliteratur oft vernachlässigt wird.
2 Hier und im Folgenden benutzen wir die Bezeichung V bzw. Vektor synonym auch für die
V
Elemente des eingebetteten Vektorraums. Wir identifizieren also V je nach Kontext mit 1 V,
1
T (V) usw.
126 Anhang A. Wege zur Clifford-Algebra
im Sinne von Definition A.11 generiert wird. Wir schreiben dies kurz als:
I∧ := ha ⊗ b + b ⊗ a : a, b ∈ Vi
(A.3)
Bei der Quotientenbildung wird dieses Ideal auf die Äquivalenzklasse der Null abgebildet, wodurch in der Quotientenalgebra die Relationen realisiert werden. Da im
Ausgangsraum (der Tensor-Algebra) keine Relationen gelten, kann man das Ideal
auch explizit ausschreiben:
I∧ = {A ⊗ (a ⊗ b + b ⊗ a) ⊗ B : a, b ∈ V ; A, B ∈ T (V)} .
Die Grassmann-Algebra ist dann die Menge der Äquivalenzklassen:
^
V = T (V)/I∧ =
∞
M
k=0
T k (V)/I∧ ,
(A.4)
wobei die Verknüpfungen in der Quotienten-Algebra definiert sind durch:
[A] ∧ [B] := [A ⊗ B]
und
[A] + [B] := [A + B] ,
V
mit Repräsentaten A, B ∈ T (V) und [A] , [B] ∈ V.
Wie wir schon wissen, ist für Charakteristik char K 6= 2 die Relation (A.2)
äquivalent zu a ∧ a = 0. Anstatt des Ideals I∧ kann man deshalb alternativ auch
I∧0 := ha ⊗ a : a ∈ Vi
(A.5)
verwenden und es gilt natürlich T (V)/I∧ = T (V)/I∧0 . Die Grassmann-Algebra
respektiert eine -Graduierung, genau wie die Tensor-Algebra, was daran liegt, dass
wir durch ein Ideal geteilt haben, das von Tensoren nur eines Grades generiert wird.
Da in der Grassmann-Algebra, aufgrund der Antisymmetrie, maximal Elemente von
Grad n = dim V auftreten können, ist dies äquivalent zu einer n -Graduierung.
Eine weitere Diskussion ist Thema der graduierten Algebra und wird ausführlich
in [Che97c] und [Rot02] behandelt, weshalb wir hier darauf verzichten möchten.
Auch für die Clifford-Algebra haben wir zwei Möglichkeiten die Relationen aufzuschreiben, entweder mit Hilfe der symmetrischen Bilinearform B oder – äquivalent
dazu – mittels der zugehörigen quadratischen Form Q. Im ersten Fall möchte man
für Vektoren
ab + ba = 2B(a, b) 1 ⇐⇒ ab + ba − 2B(a, b) 1 = 0
(A.6)
erreichen. Wie oben ergibt sich aus diesen Relationen das notwendige Ideal zu:
ICl := ha ⊗ b + b ⊗ a − 2B(a, b) 1 : a, b ∈ Vi .
(A.7)
Die Clifford-Algebra über V mit der symmetrischen Bilinearform B ist dann:
Cl (V, B) = T (V)/ICl .
(A.8)
Alternativ kann man für char K 6= 2 auch die quadratische Form Q und die zugehörige Relation a2 − Q(a) 1 = 0 verwenden. Das entsprechende Ideal ist:
0
:= ha ⊗ a − Q(a) 1 : a ∈ Vi ,
ICl
(A.9)
A.4 Universelle Eigenschaft, Kategorien und Funktoren 127
0
und die Clifford-Algebra ist Cl (V, Q) = T (V)/ICl
.
Obwohl die Ideale ICl den Idealen I∧ zur Konstruktion der Grassmann-Algebra
sehr ähnlich sehen, gibt es doch ein paar grundlegende Unterschiede. Als erstes
fällt auf, dass im Ideal ICl Elemente von Grad 0 und Grad 2 identifiziert werden.
Dies zerstört die -Graduierung der freien Algebra und nach der Quotientenbildung bleibt nur noch eine 2 -Graduierung übrig. Die in der Geometrischen Algebra verwendeten Stufen sind deshalb a priori kein Bestandteil der Clifford-Algebra,
die nur die Unterscheidung zwischen geraden und ungeraden Multivektoren kennt.
Diese Einteilung in Stufen erreicht man im Nachhinein durch Auszeichnen einer
bestimmten Klasse von Objekten innerhalb der Clifford-Algebra als Vektoren.
Abschließend ist noch eine Bemerkung zum Thema der Metrik angebracht. Wie
man an den Idealen sieht, ergibt sich für eine vollständig entartete Bilinearform
(B = 0 bzw. Q = 0) rein mathematisch die Grassmann-Algebra als Spezialfall der
Clifford-Algebra. Allerdings scheitert diese Sichtweise schon auf Stufe der graduierten Algebren, da die Grassmann-Algebra eine n -Graduierung erlaubt, die in der
Clifford-Algebra nicht vorhanden ist. Ein weiteres, eher physikalisches Argument ist
die Tatsache, dass die Clifford-Algebra die Metrik intrinsisch enthält (auch wenn sie
entartet ist), wogegen die Grassmann-Algebra völlig unabhängig von einer Metrik
konstruiert wurde. In der Grassmann-Algebra hat es deshalb durchaus einen Sinn
nachträglich eine beliebige Metrik einzuführen. Fasst man sie dagegen als entartete
Clifford-Algebra auf, dann wurde diese Wahl schon getroffen und die Einführung
einer zweiten Metrik ist physikalisch wenig sinnvoll.
A.4
Universelle Eigenschaft, Kategorien und Funktoren
Die Methode der Generatoren und Relationen zur Definition der Clifford-Algebra
war sehr nützlich für konkrete Rechnungen, hatte allerdings den gravierenden Nachteil, dass sie für entartete quadratische Formen versagte. Mit Hilfe der Tensor-Algebra konnte man dann die Existenz von Clifford-Algebren über beliebigen quadratischen Räumen nachweisen. In diesem Abschnitt verwenden wir nun eine universelle
Eigenschaft, um die Eindeutigkeit der Clifford-Algebra zu untersuchen.
Universelle Eigenschaften sind ein wichtiges Hilfsmittel der modernen Mathematik und sie tauchen in vielen unterschiedlichen Gewändern auf. Um trotzdem das
allgemeine Konzept der Universalität zu formulieren, bedient man sich der Sprache der Kategorien und Funktoren. Bevor wir jedoch auf diese abstrakten Begriffe
eingehen, wollen wir zuerst ein paar Beispiele für universelle Eigenschaften kennenlernen. Wie im letzten Abschnitt versprochen, beginnen wir mit der universellen
Eigenschaft des Tensorprodukts:
Satz A.1 (Universelle Eigenschaft des Tensorprodukts) Seien V1 , . . . , Vk
Vektorräume über K. Dann gibt es gibt es einen K-Vektorraum V1 ⊗ · · · ⊗ Vk
zusammen mit einer multilinearen Abbildung:
γ : V1 × · · · × Vk → V1 ⊗ · · · ⊗ Vk , (a1 , . . . , ak ) 7→ a1 ⊗ · · · ⊗ ak ,
die folgende universelle Eigenschaft haben:
Zu jedem weiteren K-Vektorraum U und zu jeder beliebigen multilinearen Abbildung η : V1 × · · · × Vk → U gibt es eine eindeutig bestimmte lineare Abbildung
128 Anhang A. Wege zur Clifford-Algebra
η̃ : V1 ⊗ · · · ⊗ Vk → U mit η = η̃ ◦ γ, d. h. folgendes Diagramm kommutiert:
η̃
V1 ⊗ · · · ⊗ V k
γ
U
η
V1 × · · · × V k
Einen Beweis dieses Satzes findet man beispielsweise bei Fischer [Fis03, Abschnitt 6.4f]. Wichtig an der universellen Eigenschaft ist, dass es einen Vektorraum
zusammen mit einer universellen Abbildung γ gibt, so dass für jeden weiteren Vektorraum U und zu jeder Abbildung η die Abbildung η̃ existiert und eindeutig ist.
Das bedeutet, γ ist eine Abbildung, mit der sich multilineare Abbildungen – auf
Kosten eines komplizierteren Vektorraums V1 ⊗ · · · ⊗ Vk – in lineare Abbildungen übersetzen lassen. Damit lassen sich die Methoden der Linearen Algebra auf
multilineare Abbildungen anwenden. Die Multilinearität steckt dabei allein in der
universellen Abbildung γ, weshalb diese auch Strukturabbildung genannt wird.
Die Tensor-Algebra selbst erfüllt als freie Algebra auch eine universelle Eigenschaft
(siehe z. B. [Rot02, Section 9.6]):
Satz A.2 (Universelle Eigenschaft der Tensor-Algebra) Sei V ein K-Vektorraum. Dann gibt es eine assoziative K-Algebra T (V) mit 1, zusammen mit einer
linearen Abbildung γ : V → T (V), die folgende universelle Eigenschaft besitzen:
Zu jeder weiteren assoziativen K-Algebra A mit 1 und zu jeder beliebigen linearen Abbildung η : V → A gibt es einen eindeutig bestimmten Algebren-Homomorphismus η̃ : T (V) → A mit η = η̃ ◦ γ, d. h. folgendes Diagramm kommutiert:
T (V)
γ
η̃
A
η
V
In diesem Satz geht man also nicht von multilinearen Abbildungen, sondern von
linearen Abbildungen aus. Dafür erhält man an Stelle der linearen Abbildung von
vorher jetzt einen Algebren-Homomorphismus. Das Prinzip ist wieder das gleiche:
Man hat eine Abbildung η von „minderer Qualität“. Die Strukturabbildung γ muss
von der gleichen Art sein wie η – wie wir gleich sehen werden, ist dies für die
Universalität notwendig. Dann liefert uns die universelle Eigenschaft eine eindeutig
bestimmte Abbildung von „höherer Qualität“, die allerdings in einem neuen Raum
startet. Das gleiche funktioniert auch für die Clifford-Algebra:
Satz A.3 (Universelle Eigenschaft der Clifford-Algebra) Sei (V, Q) ein KVektorraum mit einer quadratischen Form Q. Dann gibt es eine assoziative Algebra
Cl (V, Q) mit 1, zusammen mit einer linearen Abbildung γ : V → Cl (V, Q) mit
γ(a)2 = Q(a) 1, die folgende universelle Eigenschaft haben:
Zu jeder weiteren assoziativen Algebra A mit 1 und zu jeder beliebigen linearen
Abbildung η : V → A mit η(a)2 = Q(a) 1 gibt es einen eindeutig bestimmten Algebren-Homomorphismus η̃ : Cl (V, Q) → A mit η = η̃ ◦ γ, d. h. folgendes Diagramm
A.4 Universelle Eigenschaft, Kategorien und Funktoren 129
kommutiert:
η̃
Cl (V, Q)
γ
A
η
(V, Q)
Eine lineare Abbildung η mit der Eigenschaft η(a)2 = Q(a) 1 wollen wir kurz
Clifford-Abbildung nennen.
Um die Existenz einer Algebra mit dieser universellen Eigenschaft zu beweisen,
nutzt man die Konstruktion als Quotient der Tensor-Algebra. Wir beginnen mit
der Tensor-Algebra T (V) und der Inklusion V → T 1 (V) ⊂ T (V). Sei nun A eine
weitere assoziative Algebra mit 1 und η : V → A eine Clifford-Abbildung. Nach der
universellen Eigenschaft der Tensor-Algebra aus Satz A.2 lässt sich η eindeutig zu
einem Algebren-Homomorphismus η̄ : T (V) → A fortsetzen:
T (V)
η̄
A
η
(V, Q)
Damit haben wir auch schon fast alle Forderungen des Satzes erfüllt, allerdings
hat die Strukturabbildung noch nicht die richtige Eigenschaft. Diese soll auch eine
Clifford-Abbildung sein, d. h. γ(a)2 = Q(a) 1 erfüllen. Glücklicherweise können wir
hier durch Quotientenbildung nachbessern.
Sei dazu ICl = ha ⊗ a − Q(a) 1 : a ∈ Vi das Ideal aus Gleichung (A.9). Wegen
ICl ⊂ ker η̄ gibt es nach der universellen Eigenschaft der Quotientenalgebra wieder einen eindeutig bestimmten Algebren-Homomorphismus η̃ : T (V)/ICl → A.
Dann ist Cl (V, Q) ∼
= T (V)/ICl und die zugehörige Strukturabbildung gleich der
Komposition γ : V → T (V) → T (V)/ICl :
T (V)/ICl
η̃
γ
T (V)
η̄
A
η
(V, Q)
Satz A.4 (Universalität der Clifford-Algebra) Die Clifford-Algebra Cl (V, Q)
aus Satz A.3 ist universell, d. h. bis auf eine eindeutig bestimmte Isomorphie eindeutig festgelegt.
Im Beweis kann man sehr schön die universelle Eigenschaft ausspielen. Seien
dazu Cl (V, Q) und Cl 0 (V, Q) zwei Clifford-Algebren über (V, Q) mit Strukturabbildung γ bzw. γ 0 . Da die Strukturabbildungen selbst Clifford-Abbildungen sind,
existieren nach der universellen Eigenschaft eindeutig bestimmte Algebren-Homo-
130 Anhang A. Wege zur Clifford-Algebra
morphismen γ̃ und γ̃ 0 , so dass folgendes Diagramm kommutiert:
Cl (V, Q)
γ̃ 0
γ
Cl 0 (V, Q)
γ0
γ̃
Cl (V, Q)
γ
(V, Q)
Andererseits ist aber die Identität id Cl auf Cl (V, Q) ein Algebren-Homomorphismus
mit γ = id Cl ◦ γ und hat damit alle Eigenschaften des gesuchten Homomorphismus
zu γ : V → Cl (V, Q). Da der Homomorphismus nach der universellen Eigenschaft
eindeutig bestimmt ist, ist id Cl auch der einzige Homomorphismus, der folgendes
Diagramm kommutieren lässt:
id Cl
Cl (V, Q)
γ
Cl (V, Q)
γ
(V, Q)
Betrachtet man beide Diagramme zusammen, so ergibt sich aus der Eindeutigkeit
der Algebren-Homomorphismen sofort γ̃ ◦ γ̃ 0 = id Cl . Nach dem selben Argument,
mit Cl (V, Q) und Cl 0 (V, Q) vertauscht, erhält man γ̃ 0 ◦ γ̃ = id Cl 0 . Folglich ist γ̃ ein
eindeutig bestimmter Isomporphismus und γ̃ 0 die Inverse dazu. Also ist Cl (V, Q)
universell und wir haben den Satz bewiesen.
Bemerkenswert an diesem Eindeutigkeits-Beweis ist, dass wir an keiner Stelle verwendet haben, von welcher Art die einzelnen Abbildungen überhaupt sind.
Deshalb lässt sich derselbe Beweis auf alle Objekte anwenden, die eine universelle
Eigenschaft erfüllen, wie zum Beispiel Quotientenvektorräume, Tensor-Algebra und
so weiter. Dafür verwendet man die abstrakte Sprache der Kategorien:
Definition A.17 (Kategorie) Eine Kategorie C besteht aus folgenden drei Bestandteilen:
(a) Einer Klasse Obj(C) von mathematischen Objekten, die Objekte der Kategorie heißen.
(b) Zu jedem geordneten Paar (A, B) von Objekten A, B ∈ Obj(C) gibt es eine Menge Mor(A, B), deren Elemente Morphismen von A nach B genannt werden. Die Mengen Mor(A, B) sind dabei paarweise disjunkt, d. h. für
unterschiedliche Paare (A, B) und (A0 , B 0 ) sind die Mengen Mor(A, B) und
Mor(A0 , B 0 ) disjunkt. Statt f ∈ Mor(A, B) schreibt man auch f : A → B.
Allerdings müssen im Allgemeinen weder f eine Abbildung noch A und B
Mengen sein.
(c) Eine Verknüpfung von Morphismen Mor(A, B) × Mor(B, C) → Mor(A, C),
geschrieben als (f, g) 7→ f ◦ g.
Diese erfüllen die folgenden Axiome:
(i) Die Verknüpfung ◦ von Morphismen ist assoziativ.
A.4 Universelle Eigenschaft, Kategorien und Funktoren 131
(ii) Zu jedem Objekt A ∈ C gibt es einen Morphismus 1A ∈ Mor(A, A) mit der
Eigenschaft 1A ◦ f = f und g ◦ 1A = g für alle Morphismen f ∈ Mor(B, A)
und g ∈ Mor(A, C). Dieser heißt Identität auf A.
Der Begriff der Kategorie ist sehr allgemein gehalten. Meistens beschäftigt man
sich jedoch mit Kategorien von bestimmten Räumen, deren Morphismen Abbildungen zwischen diesen Räumen sind. Ein paar Beispiele sollen dies verdeutlichen:
• Die Kategorie Set der Mengen hat die Mengen als Objekte. Die passenden
Morphismen sind die Abbildungen zwischen den Mengen. Als Verknüpfung
dient die übliche Komposition von Abbildungen.
• Die topologische Kategorie Top besteht aus den topologischen Räumen. Die
Morphismen sind die stetigen Abbildungen zwischen topologischen Räumen.
Die Isomorphismen in der topologischen Kategorie sind die Homöomorphismen.
• Die Kategorie Grp der Gruppen besitzt die Gruppen als Objekte. Die geeigneten Morphismen sind in diesem Fall die Gruppen-Homomorphismen.
• Die Kategorie Vect K der Vektorräume über K. Die Objekte sind K-Vektorräume, die Morphismen K-lineare Abbildungen.
• Die Kategorie Quad K der quadratischen K-Vektorräume (V, Q). Die passenden Morphismen sind lineare Abbildungen, die die quadratischen Formen respektieren, d. h. die lineare Abbildung ϕ : (V, Q) → (W, P ) erfüllt Q = P ◦ ϕ ,
was man auch als Q = ϕ∗ P schreibt.
• Die Kategorie Alg K der assoziativen K-Algebren mit 1. Die geeigneten Morphismen sind natürlich die Algebren-Homomorphismen.
In allen diesen Beispielen waren die Morhpismen die zu den Räumen passenden strukturerhaltenden bzw. strukturverträglichen Abbildungen. Natürlich kann
man auch andere Morphismen wählen, wie zum Beispiel beliebige Abbildungen als
Morphismen in der Kategorie der Gruppen. Damit erhält man auch eine Kategorie im Sinne der Definition, allerdings ist diese deutlich weniger interessant. Ein
Beispiel für eine Kategorie, in der die Morphismen keine Abbildungen sind, ist die
Homotopiekategorie Htop. Diese und viele weitere Beispiele findet man in [Jän01a,
Abschnitt 5.4].
Das Interessante an den Kategorien sind allerdings nicht die Kategorien selbst,
sondern Abbildungen zwischen unterschiedlichen Kategorien. Einen Homomorphismus zwischen Kategorien nennt man Funktor und er bildet Räume und Morphismen
einer Kategorie auf Räume und Morphismen einer anderen Kategorie ab, wobei gewisse Strukturen erhalten bleiben:
Definition A.18 (Funktor) Seien C und D Kategorien. Dann ist ein kovarianter Funktor (oder einfach nur Funktor ) F : C → D eine Abbildung mit folgenden
Eigenschaften:
(i) Jedem Objekt A in C wird ein Objekt F(A) in D zugeordnet.
(ii) Jedem Morphismus ϕ : A → B aus der Kategorie C wird ein Morphismus
F(ϕ) : F(A) → F(B) in D zugeordnet.
132 Anhang A. Wege zur Clifford-Algebra
(iii) Die Identität bleibt erhalten, d. h. es gilt F(1A ) = 1F (A) .
(iv) Es gilt die Kettenregel F(ϕ ◦ ψ) = F(ϕ) ◦ F(ψ).
Ein kontravarianter Funktor ist in analoger Weise definiert, kehrt aber die
Richtung der Morphismen um, d. h. jedem Morphismus ϕ : A → B in C wird eine
Morphismus F(ϕ) : F(B) → F(A) in D zugeordnet. Die Kettenregel muss dazu
natürlich modifiziert werden und lautet dann: F(ϕ ◦ ψ) = F(ψ) ◦ F(ϕ).
Funktoren sind deshalb so interessant, weil sich damit Eigenschaften einer Kategorie auf andere Kategorien fortsetzen lassen. Hat man beispielsweise ein kommutatives Diagramm in einer Kategorie gegeben, dann kommutiert auch das zugehörige
Diagramm in einer anderen Kategorie, wobei Räume und Morphismen anhand des
Funktors übersetzt werden.
Der einfachste Funktor ist der kovariante Identitäts-Funktor id C : C → C. Dieser
ist definiert als id C (A) := A für die Objekte und als id C (ϕ) := ϕ für die Morphismen in C, wobei die Funktor-Eigenschaft offensichtlich ist. Ein weniger triviales
Beispiel ist der Typ des „Vergiss-Funktors“, von Kategorien mit mehr Struktur in
strukturärmere Kategorien. In der Topologie macht man dies häufig, um unnötige
Information über Bord zu werfen. Zum Beispiel gibt es einen Funktor Top → Set,
der Topologische Räume auf die zugrundeliegenden Mengen abbildet und den stetigen Abbildungen zwischen den topologischen Räumen Abbildungen zwischen den
Mengen zuordnet. Mehr dazu kann man wiederum in [Jän01a] erfahren.
Wirklich interessant sind natürlich Funktoren, bei denen man zusätzliche Strukturen gewinnt. Ein Beispiel dafür ist der Clifford-Funktor :
Satz A.5 (Clifford-Funktor) Durch Cl wird ein kovarianter Funktor von der
Kategorie Quad K der quadratischen K-Vektorräume in die Kategorie Alg K der
assoziativen K-Algebren mit 1 definiert.
Wir wissen schon aus Satz A.3, dass zu jedem quadratischen Vektorraum (V, Q)
aus Quad K eine Clifford-Algebra Cl (V, Q) in Alg K gehört. Was uns nocht fehlt,
ist die Zuordnung zwischen den Morphismen von Quad K und den Algebren-Homomorphismen von Alg K . Seien dazu (V1 , Q1 ) und (V2 , Q2 ) quadratische Vektorräume
und ϕ : V1 → V2 ein Morphismus zwischen diesen Räumen, also eine Abbildung, die
die quadratischen Formen respektiert. Dann gibt nach Satz A.3 Clifford-Algebren
Cl (V1 , Q1 ) und Cl (V2 , Q2 ) mit Strukturabbildung γ1 bzw. γ2 .
Wir betrachten die Abbildung ϕ̄ := γ2 ◦ ϕ von (V1 , Q1 ) nach Cl (V2 , Q2 ). Diese
ist eine Clifford-Abbildung, denn es gilt:
ϕ̄(a)2 = γ2 ϕ(a)
2
= Q2 ϕ(a) 1 = (ϕ∗ Q2 )(a) 1 = Q1 (a) 1 ,
wobei zuerst verwendet wurde, dass die Strukturabbildung γ2 eine Clifford-Abbildung ist und danach, dass der Morphismus ϕ die quadratischen Formen respektiert.
Da sowohl γ2 als auch ϕ linear sind, gilt dies auch für die Komposition ϕ̄. Also liefert
uns die universelle Eigenschaft der Clifford-Algebra einen eindeutig bestimmten Al-
A.5 Chevalley-Deformation der Grassmann-Algebra 133
gebren-Homomorphismus Cl (ϕ), der folgendes Diagramm kommutieren lässt:
Cl (V1 , Q1 )
Cl(ϕ)
Cl (V2 , Q2 )
ϕ̄
γ1
(V1 , Q1 )
γ2
(V2 , Q2 )
ϕ
Aufgrund der Universalität der Clifford-Algebra ist die Identität unter dieser Abbildung für jeden quadratischen Vektorraum (V, Q) erhalten, das bedeutet es gilt
Cl (id V ) = id Cl(V,Q) . Um dies zu beweisen, wählt man einfach im obigen Diagramm
(V1 , Q1 ) = (V2 , Q2 ) und argumentiert dann genau wie im Beweis der Universalität (siehe Satz A.4). Es bleibt also die Kettenregel zu zeigen. Sei dazu (V3 , Q3 )
ein weiterer quadratischer Vektorraum und γ3 die Strukturabbildung der zugehörigen Clifford-Algebra Cl (V3 , Q3 ). Ist ψ : (V2 , Q2 ) → (V3 , Q3 ) eine weitere lineare
Abbildung, die die quadratischen Formen respektiert, dann gilt dies offensichtlich
auch für die Komposition ψ ◦ ϕ. Damit bekommen wir einen eindeutig bestimmten
Algebren-Homomorphismus Cl (ψ ◦ ϕ), der folgendes Diagramm kommutieren lässt:
Cl(ψ◦ϕ)
Cl (V1 , Q1 )
Cl(ϕ)
γ1
(V1 , Q1 )
Cl (V2 , Q2 )
Cl (ψ)
γ2
ϕ
(V2 , Q2 )
Cl (V3 , Q3 )
γ3
ψ
(V3 , Q3 )
ψ◦ϕ
Da aber auch die die Homomorphismen Cl (ϕ) und Cl (ψ) eindeutig festgelegt sind,
muss Cl (ψ ◦ ϕ) die Komposition Cl (ψ ◦ ϕ) = Cl (ψ) ◦ Cl (ϕ) aus diesen sein, was
gerade der Kettenregel entspricht. Damit ist Cl ein kovarianter Funktor und wir
sind fertig.
Wieder lässt sich dieser Beweis auf alle Objekte verallgemeinern, die einer universellen Eigenschaft genügen. Dadurch erhält man einen ganzen Haufen interessanten Funktoren. Aus Satz A.2 ergibt sich beispielsweise der Tensor-Funktor T
von der Kategorie Vect K der Vektorräume in die Kategorie der freien assoziativen
K-Algebren mit 1 und den zugehörigen Algebren-Homomorphismen. Ein weiteres
wichtiges Beispiel, das auch für die Physik von Interesse ist, ist der Lie-Funktor L
von der Kategorie der Liegruppen in die Kategorie der Liealgebren.
Wie wir gesehen haben, ist die Sprache der Kategorien und Funktoren zusammen
mit den universellen Eigenschaften ein mächtiges Hilfsmittel. Mehr dazu kann man
kurz zusammengefasst in [Jän01a] oder [Rot02] nachlesen. Für den tieferen Einstieg
ist das Standardwerk von Mac Lane [Mac98] sehr zu empfehlen.
A.5
Chevalley-Deformation der Grassmann-Algebra
In [Che97a] konstruiert Chevalley die Clifford-Algebra als Unteralgebra der Endomorphismenalgebra über der Grassmann-Algebra. Ursprünglich entwickelte Chevalley diese Methode, um Clifford-Algebren über Körpern mit Charakteristik 2 zu
134 Anhang A. Wege zur Clifford-Algebra
V
studieren. Die resultierende Unteralgebra von End( V) ist manchmal auch unter
dem Namen Atiyah-Kähler-Algebra bekannt.
Es stellte sich später heraus, dass dieser Zugang flexibel genug ist, um CliffordAlgebren über Vektorräumen mit einer beliebigen Bilinearform B zu definieren. Die
Möglichkeit einer nicht-symmetrischen Bilinearform ist für die Quantentheorie sehr
interessant, da auf diesem Weg Fermionen und Bosonen gleichzeitig beschrieben
werden können. Die Antikommutator -Relationen der Fermionen werden dabei im
symmetrischen Anteil der Bilinearform B kodiert, die Kommutator -Relationen der
Bosonen hängen eng mit dem antisymmetrischen Anteil von B zusammen. CliffordAlgebren mit nicht-symmetrischer Bilinearform wurden von Fauser verwendet, um
Quantenfeldtheorien zu untersuchen (siehe z. B. [Fau96], [Fau02]). Außerdem erhält
man durch die Chevalley-Deformation tiefere Einblicke in die Bedeutung der Stufen
von Multivektoren innerhalb der Clifford-Algebra.
V
Wir beginnen mit der Grassmann-Algebra V über dem K-Vektorraum V. Wie
in der Clifford-Algebra definieren wir auch in der Grassmann-Algebra die GradInvolution α̂ bezüglich der vorhandenen 2 -Graduierung als:
α̂(Ak ) := (−1)k Ak
für Ak ∈
Vk
V,
V
was sich linear auf ganz V fortsetzen lässt.
Hat man nun eine Bilinearform B auf V gegeben, dann lässt sich innerhalb der
Grassmann-Algebra eine Links-Kontraktion einführen. Diese ist eindeutig durch
folgende drei Bedingungen festgelegt:
(i) a y b := B(a, b) für Vektoren a, b ∈ V.
(ii) a y (A ∧ B) := (a y A) ∧ B + α̂(A) ∧ (a y B) für a ∈ V und A, B ∈
V
(iii) (A ∧ B) y C := A y (B y C) für A, B, C ∈ V.
V
V.
Die erste Bedingung bedeutet, dass die Kontraktion der (eingebetteten) Vektoren
mit dem Ergebnis der Bilinearform auf dem Vektorraum übereinstimmen soll. Ganz
penibel müsste man dies als ζ(a) y ζ(b) = B(a, b) 1 schreiben, wobei ζ die Strukturabbildung der Grassmann-Algebra bezeichnet. Die zweite Bedingung ist uns schon
in Form von Gleichung (2.104) bekannt und besagt, dass die Kontraktion von Vektoren als graduierte Derivation wirkt. Die letzte Bedingung, die wir in Gleichung
(2.85) als Quasi-Assoziativität bezeichneten, kann nach einer Bemerkung
von LouV
nestoV
[Lou01, Section 22.1] auch als Skalarmultiplikation in einem V-Links-Modul
über V aufgefasst werden.
Das Wesentliche an dieser Konstruktion ist die Tatsache, dass Dachprodukt
und Kontraktion jetzt in der Grassmann-Algebra leben, wogegen wir sie ursprünglich in Kapitel 2 innerhalb der Clifford-Algebra eingeführt hatten. In der
deformierten Grassmann-Algebra sind diese beiden Produkte als fundamental anzusehen. Innerhalb der Clifford-Algebra wurden Dachprodukt und Kontraktion dagegen vom Clifford-Produkt abgeleitet.

Chevalley definiert nun inV[Che97a, Section 2.1] für jeden Vektor a ∈ V einen
linearen Operator ϕa ∈ End( V) durch:
ϕa :
V
V→
V
V , ϕa := a ∧ · + a y · .
A.5 Chevalley-Deformation der Grassmann-Algebra 135
Mit der üblichen Komposition ◦ von Endomorphismen gilt dann für alle A ∈
ϕ2a (A) = ϕa ◦ ϕa (A) = ϕa (a ∧ A + a y A)
= a ∧ a ∧ A + a ∧ (a y A) + a y (a ∧ A) + a y (a y A) .
| {z }
| {z }
=0
V
V:
=(a∧a)yA=0
Den dritten Summanden kann man mit der Derivationseigenschaft (ii) ausschreiben
als a y (a ∧ A) = (a y a) ∧ A − a ∧ (a y A). Da der zweite Term hiervon gerade dem
Negativen des zweiten Summanden in der obigen Formel entspricht, erhält man:
ϕ2a (A) = (a y a) ∧ A = B(a, a) ∧ A = Q(a) A ,
wobei im letzten Schritt die quadratische Form Q(a) := B(a, a) definiert wurde und
das Dachprodukt weggelassen werden kann, da Q(a) ein Skalar ist.
VWir erhalten also
letztendlich ϕ2a = Q(a) id. Damit ist die Inklusion ϕ : V → End( V) , a 7→ ϕa , die
jedem Vektor a ∈ V den zugehörigen Endomorphismus ϕa zuordnet, eine CliffordAbbildung. Nach der universellen Eigenschaft kann man
V ϕ deshalb eindeutig zu
einem Algebren-Homomorphismus ϕ̃ : Cl (V, Q) → End( V) fortsetzen, der folgendes Diagramm kommutieren lässt:
Cl (V, Q)
ϕ̃
End(
ϕ
V
V)
(V, Q)
Die Abbildung ϕ̃ ist eine treue Darstellung der Clifford-Algebra über der
Grassmann-Algebra. Da das Clifford-Produkt in dieser Darstellung der Komposition ◦ von Endomorphismen entspricht, werden wir es – wenn eine explizite
Kennzeichnung nötig ist – durch A ◦ B statt AB bezeichnen.
V
Indem man nun den Endomorphismus ϕ̃A := ϕ̃(A) an der
V Stelle 1 ∈ V auswertet, bekommt man eine lineare Abbildung θ : Cl (V, Q) → (V) , θ(A) := ϕ̃A (1) :

θ
Cl (V, Q)
ϕ̃
ϕ
V
End( V)
· |1∈VV
V
V
(V, Q)
Ein Clifford-Produkt aus k Vektoren kann man mittels ϕ̃ schreiben als:
ϕ̃(a1 · · · ak ) = ϕa1 ◦ · · · ◦ ϕak .
Anhand der Definition von ϕa lässt sich dies in Dachprodukte und Kontraktionen
zerlegen und ausmultiplizieren:
ϕ̃(a1 · · · ak ) = (a1 ∧ · + a1 y · ) ◦ · · · ◦ (ak ∧ · + ak y · )
= (a1 ∧ · ) ◦ · · · ◦ (ak ∧ · ) + Terme mit Grad < k
= a1 ∧ · · · ∧ (ak ∧ · ) + Terme mit Grad < k ,
136 Anhang A. Wege zur Clifford-Algebra
Für θ ergibt sich daraus:
θ(a1 · · · ak ) = a1 ∧ · · · ∧ (ak ∧ 1) + Terme mit Grad < k
= a1 ∧ · · · ∧ ak + Terme mit Grad < k .
Auf Vektoren und Skalare wirkt θ als Identität, denn:
θ(a) = a ∧ 1 + a y 1 = a ∧ 1 + 0 = a ,
θ(λ) = λ id(1) = λ .
(A.10)
Hierbei wurde allerdings die Einbettungsabbildung unterdrückt. Ganz genau müsste
man dies als θ(γ(a)) = ζ(a) schreiben, wenn γ die Einbettung der Vektoren in
die Clifford-Algebra und ζ die Einbettung in die Grassmann-Algebra beschreibt.
Analoges gilt für die Skalare in der zweiten Gleichung.
Mit Dimensionsargumenten zeigt Chevalley nun, dass θ ein Vektorraum-Isomorphismus zwischen Clifford- und Grassmann-Algebra ist, und identifiziert die
zugrundeliegenden linearen Räume miteinander. Dabei entsprechen die Vektoren
und Skalare der Clifford-Algebra wegen (A.10) den Vektoren und Skalaren der
Grassmann-Algebra. Die Links-Multiplikation a ◦ · mit einem Vektor innerhalb
der Clifford-Algebra entspricht dann der Summe aus Links-Multiplikation a ∧ ·
und Kontraktion a y · innerhalb der Grassmann-Algebra:
a◦ ·
θ
a∧ · +ay · ,
V
wobei Vektoren a ∈ Cl (V, Q) und a = θ(a) ∈ V durch θ kanonisch miteinander
identifiziert wurden (siehe auch [Che97a, Theorem II.1.6]). Etwas Vorsicht ist dabei
allerdings geboten, da der Isomorphismus θ, und somit die Identifikation, von der
Bilinearform B abhängt. Man muss deshalb immer von einem Paar bestehend aus
Grassmann-Algebra und einer Bilinearform sprechen, die durch θ mit einer Clifford-Algebra identifiziert werden.
Für eine symmetrische Bilinearform B haben wir somit einen kanonischen Isomorphismus konstruiert, der es uns erlaubt in der Geometrischen Algebra von Stufen zu sprechen. Falls B nicht symmetrisch ist, muss man dagegen sehr aufpassen,
da in diesem Fall kein kanonischer Isomorphismus θ existiert. Um dies einzusehen zerlegen wir B gemäß B = g + F in einen symmetrischen Anteil g und den
antisymmetrischen Anteil F . Dann lässt sich das Clifford-Produkt schreiben als:
aA = a ∧ A + a yB A ,
mit a yB b = B(a, b). Alternativ lässt sich der antisymmetrische Anteil F aber auch
dem Dachprodukt zuschlagen und man erhält eine andere Zerlegung:
aA = a ∧˙ A + a yg A mit a ∧˙ b := a ∧ b + F (a, b)
Wegen der Antisymmetrie von F gilt a ∧˙ b = −b ∧˙ a, d. h. der zugrundeliegende
lineare Raum,
versehen mit dem gepunkteten Dachprodukt, liefert eine GrassmannV̇
Algebra V. V
Nun ist aber a ∧˙ b aufgrund des Skalaranteils F (a, b) offensichtlich
inhomogen in V. Also entspricht die Stufenzerlegung bezüglich ∧˙ nicht den Stufen
bezüglich ∧ und es gibt keinen kanonischen Isomorphismus θ.
A.6 Die Konstruktion von Lounesto 137
Interessanterweise wirkt sich der antisymmetrische Anteil F nicht auf den Antikommutator aus. Dieser ist nur vom symmetrischen Anteil g abhängig:
ab + ba = 2 g(a, b)
Dagegen taucht im Kommutator nur der antisymmetrische Anteil F auf:
ab − ba = 2 a ∧ b + F (a, b) = 2 a ∧˙ b .
Leider würde eine weitere Diskussion von Clifford-Algebren mit nicht-symmetrischer Bilinearform weit über das Ziel dieser Arbeit hinausgehen. Mehr zur Problematik der nicht eindeutigen Stufen und deren physikalische Bedeutung kann man
zum Beispiel in [FA00] und der dort zitierten Literatur erfahren.
A.6
Die Konstruktion von Lounesto
V
Die Chevalley-Deformation lieferte einen Isomorphismus θ : Cl (V, Q) → V. Aufgrund des „Iso-“ muss es dazu auch eine Inverse geben. Diese wird von Lounesto in
[Lou01, Section 22.1] konstruiert.
V
Wir beginnen wieder mit der Grassmann-Algebra V und einer symmetrischen
Bilinearform B = h · | · i auf dem Vektorraum V. Wie im letzten Abschnitt definieren wir die Grad-Involution α̂ innerhalb der
V Grassmann-Algebra durch α̂(Ak ) :=
(−1)k Ak für ein homogenes Element Ak ∈ k V und lineare Fortsetzung.
Genauso
V
lässt sich auch die Transposition durch Atk := (−1)k(k−1)/2 Ak auf V einführen.
Diese Abbildungen bilden in der Grassmann-Algebra einen Automorphismus bzw.
einen Antiautomorphismus bezüglich Dachprodukt. Dies wird sofort klar, wenn man
die Grassmann-Algebra als Spezialfall der Clifford-Algebra mit total entarteter Bilinearform betrachtet.
Man setzt nun die Bilinearform zuerst auf Grassmann-k-Spate fort durch:
ha1 ∧ · · · ∧ ak |b1 ∧ · · · ∧ bk i := det(hai |bj i) .
Dies entspricht übrigens genau der Determinantenformel (2.107), wenn man h · | · i
durch das Skalarprodukt ˜∗ aus Abschnitt 2.5 ersetzt und dabei von der Grassmann- zur Clifford-Algebra V
übergeht. Durch lineare Fortsetzung bekommt man
dann eine Bilinearform auf k V, die sichVunter Ausnutzung der Orthogonalität
der Unterräume von k-Vektoren auf ganz V erweitern lässt. Wir kommen letztendlich also zu einer Bilinearform h · | · i, die genau die gleichen Eigenschaften wie
unser Skalarprodukt ˜∗ hat, allerdings jetzt in der Grassmann-Algebra anstatt in
der Clifford-Algebra lebt.
An dieser Stelle gibt es zwei Möglichkeiten weiterzumachen.VFalls die Bilinearform B nicht entartet ist, können wir die Links-Kontraktion in V adjungiert zum
Dachprodukt einführen. Wir definieren die Kontraktion A y B dann implizit durch:
V
hA y B |Ci = hB |At ∧ Ci für alle C ∈ V.
(A.11)
Dies entspricht in der Clifford-Algebra der Relation (2.82), wobei die Transposition
auf die Verwendung von ˜∗ statt ∗ zurückzuführen ist. Man erhält nämlich:
C ∗ (A y B) = (C ∧ A) ∗ B
t
t
⇐⇒ C ∗ (A y B) = (C ∧ A) ∗ B
⇐⇒
„⇐⇒“
t
∀C
∀C
(A y B) ˜∗ C = B ˜∗ (A ∧ C) ∀C
hA y B |Ci = hB |At ∧ Ci
∀C .
138 Anhang A. Wege zur Clifford-Algebra
Die letzte Äquivalenz ist dabei natürlich nur symbolisch gemeint, da die ersten drei
Gleichungen in der Clifford-Algebra gelten, wogegen die letzte in der GrassmannAlgebra gültig ist.
Man zeigt nun, dass die durch (A.11) definierte Kontraktion die üblichen Eigenschaften hat. Wir führen dies am Beispiel der Kontraktion a y b von Vektoren
vor. Dazu betrachten wir ha y b|Ci. Aufgrund der Orthogonalität von k-Vektoren
unterschiedlicher Grade ist die Bilinearform nur dann ungleich Null, wenn C einen
Skalaranteil besitzt. Wir dürfen also ohne Einschränkung statt C einen Skalar λ
benutzen. Dann wird (A.11) zu:
λ(a y b) = λha y b|1i = ha y b|λi = ha|b ∧ λi = ha|λbi = λha|bi für alle λ.
Also ergibt sich a y b = ha|bi.
Als weiteres Beispiel betrachten wir die Kontraktion eines Vektors auf einen
einfachen Bivektor: a y (b ∧ c). Dazu berechnen wir das Skalarprodukt ha y (b ∧ c)|di
für einen beliebigen Vektor d. Es ergibt sich:
hb|ai hb|di
ha y (b ∧ c)|di = hb ∧ c|a ∧ di = det
hc|ai hc|di
= hb|aihc|di − hc|aihb|di = (a y b)hc|di − (a y c)hb|di
= h(a y b)c − (a y c)b|di für alle d ,
und man erhält die Derivationseigenschaft, a y (b ∧ c) = (a y b)c − (a y c)b , der
Kontraktion eines Vektors auf einen Bivektor. Die restlichen Eigenschaften zeigt
man in ähnlicher Weise (siehe dazu [Lou01]).
Falls die Bilinearform entartet ist, kann man die Kontraktion natürlich auch wie
im letzten Abschnitt durch ihre Eigenschaften definieren:
(i) a y b := ha|bi für Vektoren a, b ∈ V.
V
(ii) a y (A ∧ B) := (a y A) ∧ B + α̂(A) ∧ (a y B) für a ∈ V und A, B ∈ V.
V
(iii) (A ∧ B) y C := A y (B y C) für A, B, C ∈ V.
V
Zum Abschluss führen wir nun das Clifford-Produkt auf V ein. Dazu definieren
wir zuerst für einen Vektor:
V
a ◦ A := a ∧ A + a y A für A ∈ V.
(A.12)
V
Durch Linearität und Assoziativität setzt man dieses auf ganz V fort. Dann ist
der lineare Raum, welcher der Grassmann-Algebra zugrunde liegt, versehen mit
dem Produkt ◦ zur Clifford-Algebra Cl (V, h · | · i) isomorph.
Da wir fast alles miteinander identifiziert haben, liegt der wesentliche Unterschied zwischen Clifford- und deformierter Grassmann-Algebra nur noch darin,
welches Produkt man als fundamental betrachet. In der Clifford-Algebra ist dies
natürlich das Clifford-Produkt, woraus in Kapitel 2 das Dachprodukt und die Kontraktion abgeleitet wurden. In der Grassmann-Algebra ist das fundamentale Produkt dagegen das Dachprodukt, welches mit Hilfe der Kontraktion zum – dann
zusammengesetzten – Clifford-Produkt deformiert wurde.
Ein paar Beispiele sollen dies verdeutlichen. Dabei bezeichnen wir die Bilinearform auf V mit h · | · i = B. Wir beginnen mit dem Isomorphismus θ von
V der
Clifford-Algebra Cl (V, B) in die Chevalley-deformierte Grassmann-Algebra V:
A.6 Die Konstruktion von Lounesto 139
• Wir betrachten das Produkt ab ∈ Cl (V, B) von zwei Vektoren. In der Clifford-Algebra ist diese Produkt fundamental und kann nicht weiter vereinfacht
werden. In der Grassmann-Algebra kann man es dagegen in die Grade zerlegen. Der Isomorphismus θ wirkt nach Gleichung (A.10) auf Vektoren als
Identität (modulo Einbettung). Damit ergibt sich in der deformierten Grassmann-Algebra:
θ(ab) = θ(a)θ(b) = a ∧ b + a y b = a ∧ b + ha|bi ∈
V
V .
Hierbei steht schon nach dem ersten Schritt das zusammengesetzte CliffordProdukt der deformierten Grassmann-Algebra
zwischen den θ’s. Das Ergebnis
V
ist ein inhomogenes Element in V, bestehend aus Skalar und GrassmannBivektor.
Bemerkenswert an dieser Methode zum Ausreduzieren nach Stufen ist die
Tatsache, dass nirgendwo ein Faktor von 2 auftaucht, was dieses Verfahren
auch auf Körper mit char K = 2 anwendbar macht. In der Clifford-Algebra
wurde das Dachprodukt von zwei Vektoren dagegen als a ∧ b = 12 (ab − ba)
eingeführt, was für Körper mit Charakteristik 2 nicht definiert ist, weil wir in
diesem Fall nicht durch 2 ≡ 0 mod 2 teilen dürfen.
• Für kompliziertere Fälle geht man induktiv vor und nutzt die Assoziativität
des Clifford-Produkts aus. Als Beispiel betrachten wir das Produkt abC, wobei
C ein Multivektor ist. In der deformierten Grassmann-Algebra wird dies zu:
θ(abC) = θ(a) θ(b)θ(C) = a b ∧ θ(C) + b y θ(C)
= a ∧ b ∧ θ(C) + a ∧ b y θ(C)
+ a y b ∧ θ(C) + a y b y θ(C)
= a ∧ b ∧ θ(C)
+ ha|bi θ(C) + a ∧ b y θ(C) − b ∧ a y θ(C)
+ a y b y θ(C) ,
was sich ohne explizite Kenntnis von C nicht mehr weiter vereinfachen lässt.
Nun die umgekehrte Richtung:
• In der Grassmann-Algebra ist das Dachprodukt a∧b fundamental. In der Clifford-Algebra ist es dagegen zusammengesetzt gemäß a∧b = habi2 = 12 (ab−ba).
Analog erhält man für das Dachprodukt a ∧ b ∧ c in der Clifford-Algebra die
Ausdrücke:
a ∧ (b ∧ c) = 21 a ∧ (bc − cb) = 14 abc − acb + bca − cba ,
bzw.
(a ∧ b) ∧ c = 21 (ab − ba) ∧ c =
1
4
abc − bac + cab − cba .
Nun ist aber bc + cb ein Skalar, welcher mit allen Vektoren kommutiert. Deshalb ist acb + cab = (ac + ca)b = b(ac + ca) = bac + bca oder äquivalent dazu
bca − acb = cab − bac. Es folgt a ∧ (b ∧ c) = (a ∧ b) ∧ c = a ∧ b ∧ c. Mit analoger
140 Anhang A. Wege zur Clifford-Algebra
Argumentation kann man den obigen Ausdurck für das Dachprodukt auch in
manifester Weise komplett alternierend machen:
a ∧ b ∧ c = 16 abc + bca + cab − cba − bac − acb ,
wobei man allerdings auf die inhärent vorhandene, alternierende Struktur des
Clifford-Produkts verzichtet.
• In Gleichung (A.12) hatten wir das Clifford-Produkt innerhalb der Grassmann-Algebra nur für Vektoren definiert und gesagt, dass man dieses durch
Linearität und Assoziativität fortsetzt. Wie geht das aber konkret?
Als Beispiel berechnen wir das Clifford-Produkt
eines Grassmann-Bivektors
V
a ∧ b mit einem beliebigen Element C ∈ V. Dafür ergibt sich:
(a ∧ b) C = (ab − a y b) C = (ab)C − (a y b) C = a(bC) − (a y b) C
= a(b ∧ C + b y C) − (a y b) C
= a ∧ b ∧ C + a ∧ (b y C) + a y (b ∧ C) + a y (b y C) − (a y b) C
= a ∧ b ∧ C + a ∧ (b y C) − b ∧ (a y C) + a y (b y C) .
B. Wichtige Isomorphien der Clifford-Algebra
Zwischen Clifford-Algebren gibt es einige interessante Isomorphien. Nach Elie Cartan lassen sich außerdem alle reellen Clifford-Algebren Cl p,q als Matrix-Algebren
über , und darstellen. Wir wollen hier nur die wesentlichen Ergebnisse zitieren, eine ausführliche Darstellung mit Beweisen findet man zum Beispiel in [Gal04,
Section 1.6]. Hierbei ist wichtig, welche Konvention für das Vorzeichen in der Kontraktionsregel der Clifford-Algebra gewählt wurde. Die hier angegebenen Isomorphien beziehen sich alle auf die Wahl a2 = + kak2p,q für Vektoren a ∈ V ⊂ Cl p,q ,
die durchweg in dieser Arbeit verwendet wurde. Zur Abkürzung verwenden wir die
Schreibweise (n) := Mat(n × n, ) für die reelle Algebra der n × n-Matrizen mit
Einträgen aus ∈ { , , }.
Grundlegend sind die folgenden Isomorphien, die man durch Nachrechnen leicht
bestätigen kann:
Cl 0,0
Cl 0,1
Cl 0,2
∼
=
∼
=
∼
=
,
,
,
Cl 1,0
Cl 1,1
∼
=
∼
=
⊕ ,
(2) , Cl 2,0 ∼
=
(B.1)
(B.2)
(B.3)
(2) .
Alle höherdimensionalen Clifford-Algebren lassen sich durch Tensorprodukten
über
daraus aufbauen, mittels der Isomorphien:
Cl 0,n+2
Cl n+2,0
Cl p+1,q+1
∼
= Cl n,0 ⊗ Cl 0,2 ,
∼
= Cl 0,n ⊗ Cl 2,0 ,
∼
= Cl p,q ⊗ Cl 1,1 .
(B.4)
(B.5)
(B.6)
Man beachte die Umkehrung der Signatur in den ersten beiden Gleichungen! Um
die Formeln konkret anzuwenden, braucht man noch folgende Isomorphien zur Vereinfachung der Tensorprodukte:
(m) ⊗
(n) ∼
=
⊗ ∼
=
(mn) ,
⊕ ,
(n) ⊗ ∼
(n) ⊗ ∼
= (n) ,
=
∼
∼
⊗ = (2) ,
⊗ = (4) .
(n) ,
Damit berechnet man zum Beispiel:
Cl 3,0 ∼
=
= Cl 0,1 ⊗ Cl 2,0 ∼
⊗
(2) ∼
=
(2) .
Wir erhalten also als Ergebnis, dass die dreidimensionale, euklidische Clifford-Algebra eine Darstellung durch 2 × 2-Matrizen mit komplexen Einträgen besitzt. Dies
sind natürlich gerade die bekannten Pauli-Matrizen. Analog ergibt sich:
Cl 1,3
Cl 3,1
∼
= Cl 1,1 ⊗ Cl 0,2
∼
= Cl 1,1 ⊗ Cl 2,0
∼
=
∼
=
(2) ⊗
(2) ⊗
∼
=
∼
(2) =
(2) ,
(4) .
142 Anhang B. Wichtige Isomorphien der Clifford-Algebra
Die Wahl der umgekehrten Signatur im Minkowskiraum führt also auf nicht isomorphe Clifford-Algebren. Außerdem liefert die erste Isomorphie, Cl 1,3 ∼
= (2), einen
Hinweis auf die Blockstruktur der Dirac-Matrizen.
Aus den Isomorphismen (B.4–B.6) folgt nun die berühmte Cartan-Bott-Periodizität, die erstmals 1908 von Elie Cartan und später – unabhängig davon – von
Raoul Bott entdeckt wurde:
Cl 0,n+8
Cl n+8,0
∼
= Cl 0,n ⊗ Cl 0,8 ,
∼
= Cl n,0 ⊗ Cl 8,0 ,
(B.7)
(B.8)
mit Cl 0,8 ∼
= (16).
= Cl 8,0 ∼
Des weiteren kann man folgenden, sehr nützlichen Isomorphismus zeigen:
Cl p+1,q ∼
= Cl q+1,p .
(B.9)
Letztendlich gilt für die gerade Unteralgebra der Isomorphismus:
∼
Cl +
p,q+1 = Cl p,q
(B.10)
den wir in Abschnitt 4.3 für die Raumzeit-Aufspaltung verwendet haben. Außerdem
folgt aus (B.9) und (B.10), dass die geraden Unteralgebren von Clifford-Algebren
mit umgekehrter Signatur isomorph sind, denn:
∼
∼ +
∼
Cl +
p,q = Cl p,q−1 = Cl q,p−1 = Cl q,p .
(B.11)
Speziell ergibt sich daraus für die Spin-Gruppen:
Spin(p, q) ∼
= Spin(q, p) ,
(B.12)
da diese ja nur aus geraden Multivektoren bestehen. Die Pin-Gruppen mit entgegengesetzter Signatur sind dagegen im Allgemeinen nicht isomorph zueinander.
C. GA und klassische Vektoranalysis
In diesem Anhang wollen wir ein kleines Wörterbuch zusammenstellen, mit dem sich
zwischen Geometrischer Algebra und klassischer Vektoranalysis in drei Dimensionen
übersetzen lässt. Mit dem Begriff Vektoren sind dabei im Folgdenden immer echte1
Vektoren gemeint. Pseudovektoren muss man gesondert behandeln, da sie in der
GA durch Bivektoren beschrieben werden, die übrigens automatisch das richtige
Transformationsverhalten unter Parität mitbringen.
Wir beginnen mit dem Kreuzprodukt zweier Vektoren a und b. In Komponenten
in der kanonischen Basis (e1 , e2 , e3 ) ausgeschrieben lautet dieses:
a × b = (a1 e1 + a2 e2 + a3 e3 ) × (b1 e1 + b2 e2 + b3 e3 )
= (a2 b3 − a3 b2 ) e1 + (a3 b1 − a1 b3 ) e2 + (a1 b2 − a2 b1 ) e3 .
Das Dachprodukt der beiden Vektoren kann man dagegen in einer Bivektorbasis
ei ∧ ej = ei ej entwickeln:
a ∧ b = (a1 e1 + a2 e2 + a3 e3 ) ∧ (b1 e1 + b2 e2 + b3 e3 )
= (a1 b2 − b2 a1 ) e1 e2 + (a2 b3 − a3 b2 ) e2 e3 + (a3 b1 − a1 b3 ) e3 e1 .
Vom Dachprodukt zum Kreuzprodukt kommt man durch Multiplikation dieser Formel mit dem inversen Pseudoskalar I3−1 = e3 e2 e1 von rechts. Man erhält also:
a × b = (a ∧ b)I3−1 = ?(a ∧ b) = −I3 (a ∧ b) ,
(C.1)
und in umgekehrter Richtung:
a ∧ b = (a × b)I3 = − ?(a × b) = I3 (a × b) .
(C.2)
Manchmal bietet es sich an, in (C.1) die Identität (2.130) anzuwenden, um das
Dachprodukt durch eine Kontraktion zu ersetzen:
a × b = ?(a ∧ b) = a y (? b) = −b y (? a) = (? a) x b .
(C.3)
Das Skalarprodukt a · b von Vektoren lässt sich je nach Anwendung durch das
GA-Skalarprodukt, mit Hilfe des Stufenoperators oder durch eine der beiden Kontraktionen ausdrücken:
a · b = ha|bi = a ˜∗ b = habt i = a y b = a x b .
(C.4)
1 Polare/echte Vektoren (wie Ort und Impuls) wechseln unter Raumspiegelung/Parität das
Vorzeichen. Axiale/Pseudo-Vektoren (wie der Drehimpuls) tun dies nicht.
144 Anhang C. Geometrische Algebra und klassische Vektoranalysis
Um kompliziertere Ausdrücke zu übersetzen kann man immer auf diese einfachen
Formeln zurückgreifen. Als Erstes untersuchen wir das Spatprodukt a·(b×c) dreier
Vektoren. Für dieses bekommt man:
a · (b × c) = a y (b × c) = a y ?(b ∧ c) .
Indem man Gleichung (2.130) rückwärts anwendet wird daraus:
a · (b × c) = ?(a ∧ b ∧ c) = (a ∧ b ∧ c)I3−1 .
(C.5)
Das Spatprodukt ist also gerade das Hodgeduale des 3-Spats a ∧ b ∧ c. Die geometrische Bedeutung des Ausdrucks wird in dieser Form direkt sichtbar, genauso wie
die zyklische Symmetrie unter Vertauschung der drei Vektoren.
Als weiteres Beispiel übersetzen wir das doppelte Kreuzprodukt a × (b × c). Die
Klammerung ist dabei essentiell notwendig, da das Kreuzprodukt nicht assoziativ
ist. Unter Verwendung der Identität (C.1) und Gleichung (2.130) bekommt man:
a × (b × c) = ? a ∧ ?(b ∧ c) = a y ?2 (b ∧ c) .
Wegen ?2 = I3−2 = I32 = −1 erhält man das Resultat:
a × (b × c) = −a y (b ∧ c) = −ha|bic + ha|cib ,
(C.6)
wobei wir für die bekannte Vektoridentität im letzten Schritt ausgenutzt haben, dass
die Kontraktion eine Derivation bezüglich Dachprodukten ist. Die einfache, algebraische Struktur von Dachprodukt und Kontraktion erlaubt eine deutlich kürzere
Herleitung dieser Identität und lässt sie in einem neuen Licht erscheinen. Umkehren
des einen Kreuzprodukts führt übrigens auf:
(b × c) × a = a y (b ∧ c) .
Aufgrund dieser Identität übersetzt man das Kreuzprodukt eines Vektors mit einem
Pseudovektor in eine Kontraktion des Vektors mit einem Bivektor und nicht in ein
Dachprodukt, wie man es mit dem Kreuzprodukt von zwei Vektoren tun würde.
Wenn mehrere Kreuzprodukte in einer Formel auftreten, bietet es sich manchmal
an, mit Stufenoperatoren zu arbeiten. Dadurch kann man die Assoziativität des
geometrischen Produkts auszunutzen. Ein Beispiel dafür ist das Skalarprodukt von
zwei Kreuzprodukten:
(a × b) · (c × d) = (a × b)(c × d) = − (a ∧ b)I3−1 I3 (c ∧ d)
= (a ∧ b)(c ∧ d)t = (a ∧ b) ˜∗ (c ∧ d)
= −(a ∧ b) y (c ∧ d) = −a y b y (c ∧ d) .
Indem man die Derivationen nacheinander ausführt, bekommt man wieder eine
bekannte Vektoridentität:
(a × b) · (c × d) = (a ∧ b) ˜∗ (c ∧ d) = ha|cihb|di − ha|dihb|ci .
(C.7)
Nebenbei stellt man fest, dass sich das Skalarprodukt zweier Pseudovektoren als
Skalarprodukt der entsprechenden Bivektoren schreiben lässt.
Literaturverzeichnis
[ABS64]
Michael F. Atiyah, Raoul Bott und Arnold Shapiro. Clifford Modules.
Topology, 3, Supplement 1:3–38, 1964.
[AFPR03] Rafał Abłamowicz, Bertfried Fauser, Krzysztof Podlaski und Jakub
Rembieliński. Idempotents of Clifford Algebras. Czech. J. Phys.,
53(11):949–954, 2003. arXiv:math-ph/0312015 v1.
[Art57]
Emil Artin. Geometric Algebra. Band 3 von Interscience Tracts in
Pure and Applied Mathematics. Interscience Publishers, Inc., New York,
1957.
[BS95]
I. N. Bronstein und K. A. Semendjajew. Teubner-Taschenbuch der Mathematik – Teil II. B. G. Teubner Verlagsgesellschaft, Leipzig, 7. Auflage,
1995. Herausgegeben von G. Grosche et al.
[BtD85]
Theodor Bröcker und Tammo tom Dieck. Representations of Compact Lie Groups. Graduate Texts in Mathematics. Springer-Verlag, New
York, 1985.
[Cal00]
James J. Callahan. The Geometry of Spacetime – An Introduction to
Special and General Relativity. Springer-Verlag, New York, 2000.
[Che97a]
Claude Chevalley. The Algebraic Theory of Spinors. In The Algebraic
Theory of Spinors and Clifford Algebras [Che97b]. Collected Works Vol.
2, Pierre Cartier, Catherine Chevalley Eds.
[Che97b]
Claude Chevalley. The Algebraic Theory of Spinors and Clifford Algebras. Springer-Verlag, Berlin, 1997. Collected Works Vol. 2, Pierre
Cartier, Catherine Chevalley Eds.
[Che97c]
Claude Chevalley. The Construction and Study of Certain Important
Algebras. In The Algebraic Theory of Spinors and Clifford Algebras
[Che97b]. Collected Works Vol. 2, Pierre Cartier, Catherine Chevalley
Eds.
[DDL02]
Leo Dorst, Chris Doran und Joan Lasenby, Hrsg. Applications of Geometric Algebra in Computer Science and Engineering, chapter 2. Birkhäuser, Boston, 2002.
[DHS93]
Chris Doran, David Hestenes und Frank Sommen. Lie groups as spin
groups. J. Math. Phys., 34(8):3642–3669, 1993.
[DL03]
Chris Doran und Anthony Lasenby. Geometric Algebra for Physicists.
Cambridge University Press, Cambridge, 2003.
146 Literaturverzeichnis
[DLG+ 96] Chris Doran, Anthony Lasenby, Stephen Gull, Shyamal Somaroo und
Anthony Challinor. Spacetime Algebra and Electron Physics. In P. W.
Hawkes, Hrsg., Advances in Imaging and Electron Physics, 95, Seiten
271–386, London, 1996. Academic Press.
[Ein05]
Albert Einstein. Zur Elektrodynamik bewegter Körper. Annalen der
Physik, 17:891–921, 1905.
[EPR35]
Albert Einstein, Boris Podolsky und Nathan Rosen. Can QuantumMechanical Description of Physical Reality Be Considered Complete?
Phys. Rev., 47:777–780, 1935.
[FA00]
Bertfried Fauser und Rafał Abłamowicz. On the decomposition of Clifford algebras of arbitrary bilinear form. In Rafał Abłamowicz und
Bertfried Fauser, Hrsg., Clifford Algebras and their Applications in
Mathematical Physics, Seiten 341–366, Boston, 2000. Birkhäuser. arXiv:math.QA/9911180 v2.
[Fau96]
Bertfried Fauser. Clifford-algebraische Formulierung und Regularität der
Quantenfeldtheorie. PhD thesis, Universität Tübingen, Januar 1996.
(http://clifford.physik.uni-konstanz.de/~fauser/).
[Fau02]
Bertfried Fauser. A Treatise on Quantum Clifford Algebras. Konstanz,
2002. Habilitationsschrift, arXiv:math.QA/0202059.
(http://clifford.physik.uni-konstanz.de/~fauser/).
[Fis03]
Gerd Fischer. Lineare Algebra. Grundkurs Mathematik. Vieweg & Sohn
Verlag, Wiesbaden, 14. Auflage, 2003.
[Ful95]
William Fulton. Algebraic Topology – A First Course. Graduate Texts
in Mathematics. Springer-Verlag, New York, 1995.
[Gal04]
Jean Gallier. Clifford Algebras, Clifford Groups, and a Generalization of
the Quaternions: The Pin and Spin Groups. Philadelphia, June 2004.
(http://www.cis.upenn.edu/~jean/).
[Gra69]
Hermann Grassmann. Die lineale Ausdehnungslehre, „A1 “ (1844), Band
I,1 der gesammelten Math. und Phys. Werke. Reprint Chelsea Publishing Company, New York, 1969.
[Gra72]
Hermann Grassmann. Die lineale Ausdehnungslehre, „A2 “ (1862, überarbeitete Neuauflage), Band I,2 der gesammelten Math. und Phys. Werke. Johnson Reprint Corporation, New York, 1972.
[Hes66]
David Hestenes. Space-Time Algebra. Documents on Modern Physics.
Gordon and Breach, New York, 1966.
[Hes74]
David Hestenes.
Proper Particle Mechanics.
15(10):1768–1777, 1974.
[Hes79]
David Hestenes. Spin and uncertainty in the interpretation of quantum
mechanics. Am. J. Phys., 47(5):399–415, 1979.
J. Math. Phys.,
Literaturverzeichnis 147
[Hes93a]
David Hestenes. Differential Forms in Geometric Calculus. In F. Brackx,
Hrsg., Clifford Algebras and their Applications in Mathematical Physics,
Seiten 269–285, Dordrecht, 1993. Kluwer Academic Publishers.
[Hes93b]
David Hestenes. Hamiltonian Mechanics with Geometric Calculus. In
Andrzej Borowiec, Bernard Jancewicz und Zbigniew Oziewicz, Hrsg.,
Spinors, Twistors, Clifford Algebras and Quantum Deformations, Seiten
203–214, Dordrecht, 1993. Kluwer Academic Publishers.
[Hes98]
David Hestenes. Spinor Particle Mechanics. In V. Dietrich, K. Habetha
und G. Jank, Hrsg., Clifford Algebras and their Applications in Mathematical Physics, Dordrecht, 1998. Kluwer Academic Publishers. Fourth
International Conference on Clifford Algebras, Aachen 1996.
[Hes99]
David Hestenes. New Foundations for Classical Mechanics. Band 99
von Fundamental Theories of Physics. Kluwer Academic Publishers,
Dordrecht, 2. Auflage, 1999.
[Hes03a]
David Hestenes. Reforming the Mathematical Language of Physics. Am.
J. Phys, 71(2):104–121, 2003.
[Hes03b]
David Hestenes. Spacetime Physics with Geometric Algebra. Am. J.
Phys., 71(6):1–24, 2003.
[Hes05]
David Hestenes. Gauge Theory Gravity with Geometric Calculus. Found.
Phys., 35(6):903–970, 2005.
[HG71]
David Hestenes und Richard Gurtler. Local Observables in Quantum
Theory. Am. J. Phys., 39(9):1028–1038, 1971.
(http://modelingnts.la.asu.edu/html/GAinQM.html).
[HS92]
David Hestenes und Garret Sobczyk. Clifford Algebra to Geometric Calculus. Fundamental Theories of Physics. Kluwer Academic Publishers,
Dordrecht, 1992.
[Hun74]
Thomas W. Hungerford. Algebra. Band 73 von Graduate Texts in
Mathematics. Springer-Verlag, New York, 1974.
[Jun05]
Florian Jung. Clifford-Algebra und Spin-Gruppen. Universität Mainz,
2005.
(http://wwwthep.physik.uni-mainz.de/~fjung/).
[Jän01a]
Klaus Jänich. Topologie. Springer-Verlag, Berlin, 7. Auflage, 2001.
[Jän01b]
Klaus Jänich. Vektoranalysis. Springer-Verlag, Berlin, 3. Auflage, 2001.
[LDG93]
Anthony Lasenby, Chris Doran und Stephen Gull. A Multivector Derivative Approach to Lagrangian Field Theory. Found. Phys., 23(10):1295–
1327, 1993.
[Lou01]
Pertti Lounesto. Clifford Algebra and Spinors. Band 286 von London
Mathematical Society Lecture Note Series. Cambridge University Press,
Cambridge, 2. Auflage, 2001.
148 Literaturverzeichnis
[Mac98]
Saunders Mac Lane. Categories for the Working Mathematician. Band 5
von Graduate Texts in Mathematics. Springer-Verlag, New York, 2. Auflage, 1998.
[Rie93]
Marcel Riesz. Clifford Numbers and Spinors – with Riesz’s Private Lectures to E. Folke Bolinder and a Historical Review by Pertti Lounesto.
Band 54 von Fundamental Theories of Physics. Kluwer Academic Publishers, Dordrecht, 1993. edited by E. Folke Bolinder and Pertti Lounesto.
[Rot97]
Gian-Carlo Rota. Indiscrete Thoughts. Birkhäuser, Boston, 1997.
[Rot02]
Joseph J. Rotman. Advanced Modern Algebra. Pearson Education, Inc.,
New Jersey, 2002.
[Sch99]
Florian Scheck. Theoretische Physik 1: Mechanik – Von den Newtonschen Gesetzen zum deterministischen Chaos. Springer-Verlag, Berlin,
6. Auflage, 1999.
[SS88]
Günter Scheja und Uwe Storch. Lehrbuch der Algebra, Teil 2. Teubner,
1988.
[SS94]
Günter Scheja und Uwe Storch. Lehrbuch der Algebra, Teil 1. Teubner,
2. Auflage, 1994.
[SU92]
Roman U. Sexl und Helmuth K. Urbantke. Relativität, Gruppen, Teilchen. Springer-Verlag, Wien, 3. Auflage, 1992.
Danksagung
Ich möchte mich bei allen Leuten herzlichst bedanken, die – direkt oder indirekt,
bewusst oder unbewusst – an der Entstehung dieser Arbeit beteiligt waren, und die
mich während dieser Zeit unterstützt haben.
An erster Stelle bedanke ich mich ganz besonders bei Herrn Prof. Dr. Nikolaos
Papadopoulos und Herrn Dr. habil. Rainer Häußling für die hervorragende Betreuung der Arbeit. Die wöchentlichen Diskussionen mit fundierter Kritik, die interessanten Anregungen, sowie das Korrekturlesen der einzelnen Kapitel waren mir
während der ganzen Entstehungsgeschichte dieser Arbeit eine große Hilfe.
Mein Dank gilt auch der gesamten Arbeitsgruppe der Theoretischen Elementarteilchenphysik für die freundliche Atmosphäre hier in Mainz. Gesondert möchte
ich mich bei Christian Bogner, Martin Fischer, Kai Keller, Andrés Reyes, Roxana
Şchiopu, Ulrich Seul und Marko Ternick bedanken, unter anderem auch für die netten Gespräche während der Aufnahme von Kohlenstoffverbindungen im Nachbargebäude, sowie verschiedene sportliche Aktivitäten. Weiter danke ich Herrn Hubert
Spiesberger für die unkomplizierte Lösung verschiedener Computerfragen.
Ein Dank geht außerdem an Niko Markus und an Ulrich Schneider, für verschiedene mathematische, physikalische, und andersgeartete Diskussionen, speziell
während der Konsumation diverser Heißgetränke.
Last, but not least, möchte ich mich besonders bei meinen Eltern für die langjährige, sowohl persönliche als auch finanzielle Unterstützung während des gesamten
Studiums bedanken, ohne die diese Arbeit nicht möglich gewesen wäre.

Documentos relacionados