Geometrische Algebra und die Rolle des Clifford
Transcrição
Geometrische Algebra und die Rolle des Clifford
Geometrische Algebra und die Rolle des Clifford-Produkts in der Klassischen und Quantenmechanik Diplomarbeit im Fachbereich Physik – Florian Jung März 2006 Institut für Physik Staudingerweg 7, 55128 Mainz, Germany Johannes-Gutenberg-Universität Mainz ii Inhaltsverzeichnis 1 Einführung 1.1 Das Clifford-Produkt als Geometrisches Produkt . . . . . . . . . 1.2 Das Clifford-Produkt in der Quantenmechanik . . . . . . . . . 1.3 Aufbau und Ziel dieser Arbeit . . . . . . . . . . . . . . . . . 1 2 3 4 2 Grundlagen der Geometrischen Algebra 2.1 Die Bauelemente . . . . . . . . . . . . . . . . . . . . . . 2.2 Die Clifford-Algebra und das Geometrische Produkt . . . . . . . 2.3 Kanonische Automorphismen . . . . . . . . . . . . . . . . . 2.4 Inneres und äußeres Produkt . . . . . . . . . . . . . . . . . . 2.5 Das Skalarprodukt von Gn . . . . . . . . . . . . . . . . . . 2.6 Links- und Rechts-Kontraktion . . . . . . . . . . . . . . . . . 2.7 Wichtige algebraische Identitäten . . . . . . . . . . . . . . . 2.8 Unterräume, Projektionen und Hodge-Dualität . . . . . . . . . . 2.9 Grassmann-Basis und Koordinaten . . . . . . . . . . . . . . 2.10 Geometrische Algebra für nicht-euklidische Räume . . . . . . . . 2.11 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . 7 7 8 11 13 17 19 22 28 37 42 45 3 Reflexionen und Rotationen 3.1 Spiegelung an einer Hyperebene . . . . . . . . . . . . . . . . 3.2 Der Satz von Cartan-Dieudonné . . . . . . . . . . . . . . . . 3.3 Einfache Drehungen im Euklidischen . . . . . . . . . . . . . . 3.4 Die Pin- und Spin-Gruppen . . . . . . . . . . . . . . . . . . 3.5 Minkowski-Geometrie . . . . . . . . . . . . . . . . . . . . . 3.6 Einfache Lorentz-Transformationen . . . . . . . . . . . . . . 3.7 Verallgemeinerung auf Multivektoren . . . . . . . . . . . . . . 3.8 Anwendung: Bewegung in Zentralkraftfeldern . . . . . . . . . . 3.9 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . 51 52 53 57 62 67 72 76 77 82 4 Spezielle Relativität und Spacetime-Algebra 4.1 Teilchen und Weltlinien . . . . . . . . . . . . . . . . . . . 4.2 Beobachter und Bezugssysteme . . . . . . . . . . . . . . . . . 4.3 Der Raumzeit-Split . . . . . . . . . . . . . . . . . . . . . 4.4 Relativgeschwindigkeit . . . . . . . . . . . . . . . . . . . . 4.5 Weitere Raumzeit-Vektoren . . . . . . . . . . . . . . . . . . 4.6 Elektrodynamik . . . . . . . . . . . . . . . . . . . . . . . 4.7 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . 85 85 87 90 93 94 96 98 iv Inhaltsverzeichnis 5 Reelle Quantenmechanik 5.1 Die Wellengleichungen von Schrödinger und Pauli . . . . . . . . 5.2 Der Pauli-Isomorphismus G3 ∼ = Mat(2, ) . . . . . . . . . . . . 5.3 Minimale Links-Ideale und Ideal-Spinoren . . . . . . . . . . . . 5.4 Die Pauli-Schrödinger-Hestenes-Gleichung . . . . . . . . . . . 5.5 Geometrische Interpretation der PSH-Gleichung . . . . . . . . . 5.6 Der Spin-Operator . . . . . . . . . . . . . . . . . . . . . . 5.7 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . 99 99 102 104 105 108 110 112 6 Zusammenfassung und Ausblick 115 Anhang A Wege zur Clifford-Algebra 117 A.1 Ein paar Grundlagen . . . . . . . . . . . . . . . . . . . . 117 A.2 Clifford-Algebra mittels Generatoren und Relationen . . . . . . . 121 A.3 Clifford-Algebra als Quotient der Tensor-Algebra . . . . . . . . 123 A.4 Universelle Eigenschaft, Kategorien und Funktoren . . . . . . . . 127 A.5 Chevalley-Deformation der Grassmann-Algebra . . . . . . . . . 133 A.6 Die Konstruktion von Lounesto . . . . . . . . . . . . . . . . 137 B Wichtige Isomorphien der Clifford-Algebra 141 C Geometrische Algebra und klassische Vektoranalysis 143 Literaturverzeichnis 145 1. Einführung Gott kümmert sich nicht um unsere mathematischen Schwierigkeiten. Er integriert empirisch. Albert Einstein Die Clifford-Algebra taucht in der Physik üblicherweise in Gestalt der Pauli- und Dirac-Matrizen auf. Es erscheint deshalb so, als ob sie nur für die Beschreibung des Spins in der Quantenmechanik relevant ist. Das Clifford-Produkt besitzt jedoch eine weitere, zutiefst geometrische Bedeutung, die lange Zeit übersehen wurde. Wie sich herausstellt, hat diese Geometrische Algebra nicht nur Anwendungen in der Quantenmechanik, sondern auf allen wichtigen Gebieten der Physik. Die Geometrische Algebra – wie die Clifford-Algebra übrigens auch von William Kingdon Clifford persönlich bezeichnet wurde – besitzt eine interessante Entstehungsgeschichte. Auf der einen Seite hat sie ihre Ursprünge in der äußeren Algebra, die Herrmann Grassmann 1844 in seiner „Linealen Ausdehungslehre“ [Gra69, Gra72] formulierte. Das ursprüngliche Ziel der Grassmann-Algebra war eine Verallgemeinerung des Vektorbegriffs auf höhere Dimensionen, um orientierte Flächenelemente, Volumina etc. zu beschreiben. Heutzutage spielt das antisymmetrische, äußere Produkt (oder auch Dachprodukt) „∧“ eine fundamentale Rolle in der Theorie der Differentialformen nach Élie Cartan. Weitere Ideen der Geometrische Algebra stammen aus der Algebra der Quaternionen , die 1843 von Sir William Rowan Hamilton entdeckt wurden. Die Quaternionen bilden eine vierdimensionale Verallgemeinerung der komplexen Zahlen. Ein allgemeines Quaternion Q ∈ lässt sich schreiben als: mit α, βi ∈ Q = α + β 1 i + β2 j + β3 k , . (1.1) Die Elemente i, j, k ∈ übernehmen dabei die Aufgabe von imaginären Einheiten. Ihre algebraischen Eigenschaften lassen sich zusammenfassen in der fundamentalen Formel: i2 = j 2 = k2 = ijk = −1 . (1.2) Quaternionen eignen sich für eine höchst effiziente Beschreibung von Drehungen in drei und vier Dimensionen. Eine wichtige Eigenschaft der Quaternionen ist ihre Invertierbarkeit, auf die wir später zurückkommen werden. Da man ihre geometrische Bedeutung damals jedoch missverstand, wurden sie um 1881 durch die bekannte Vektoralgebra mit dem Kreuzprodukt „ד von Josiah Williard Gibbs abgelöst, welche bis heute in der Physik verwendet wird. Um 1880 konstruierte William Kingdon Clifford seine Geometrische Algebra, um die äußere Algebra von Grassmann und die Quaternionen von Hamilton in einem gemeinsamen mathematischen Rahmen zu vereinigen. Die Clifford-Algebra zeichnet sich dabei durch eine Art „Kontraktionsregel“ für Vektoren a aus: 2 a2 = aa := kak , (1.3) wobei wir das Clifford-Produkt durch einfache Juxtapposition der beiden Faktoren bezeichnen werden. Mittels Gleichung (1.3) wird dem Quadrat eine Vektors a das 2 Kapitel 1. Einführung Quadrat seiner Norm kak2 = ha|ai ∈ zugeordnet. Falls man eine negativ definite Norm verwendet, ist das Quadrat von Basisvektoren (ei )2 = −1. Dadurch lassen sich die Quaternionen innerhalb der Geometrischen Algebra beschreiben (Für Einzelheiten siehe Abschnitt A.2 im Anhang). Wie bei den Quaternionen ist auch das Clifford-Produkt invertierbar, mit dem Inversen: a−1 = a kak 2 =⇒ aa−1 = a2 kak 2 = kak2 kak 2 =1. (1.4) In der Geometrischen Algebra darf man deshalb durch Vektoren teilen, was einige neue algebraische Möglichkeiten zur Manipulation von Formeln eröffnet! Wie wir später sehen werden, lässt sich Gleichung (1.3) umschreiben zu: ab + ba = 2ha|bi . (1.5) In dieser Form ist die definierende Relation der Clifford-Algebra von den Pauli- und Dirac-Matrizen bekannt. Das Dachprodukt lässt sich im Rahmen der Geometrischen Algebra beschreiben durch den antisymmetrischen Ausdruck: ab − ba = 2a ∧ b . (1.6) Wie anfangs erwähnt, werden in der Clifford-Algebra also die äußere Algebra von Grassmann und die Algebra der Hamilton’schen Quaternionen vereinigt. Leider ging das Wissen über den geometrischen Hintergrund in den folgenden Jahren weitgehend verloren, da man sich im Sinne der Bourbaki-Bewegung mehr für die abstrakten algebraischen Eigenschaften der Clifford-Algebra interessierte. Aus dieser Zeit stammen die Arbeiten von Claude Chevalley [Che97c, Che97a] sowie die Entdeckung der Cartan-Bott-Periodizität (siehe Anhang B). Erst um 1960 wurde auch die geometrische Bedeutung des Clifford-Produkts weiter untersucht. Grundlegend ist dabei die Arbeit von Marcel Riesz [Rie93], sowie verschiedene Publikationen von David Hestenes, angefangen mit seinem Buch über Spacetime-Algebra [Hes66]. Mittlerweile sind die Geometrische Algebra und die darauf aufbauende Geometrische Analysis aktive Forschungsgebiete, sowohl in der Physik als auch in der Mathematik und Informatik. 1.1 Das Clifford-Produkt als Geometrisches Produkt Wir wollen nun die Relevanz des Clifford-Produkts für die Geometrie erläutern. Das Wort Geometrie stammt vom griechischen γεωµετρία, was soviel wie Vermessung („metria“) der Erde („geo“) bedeutet. Dabei beschäftigte man sich klassischerweise mit Längen und räumlichen Beziehungen zueinander. In der modernen Geometrie wurden diese Begriffe stark abstrahiert und man beschränkt sich natürlich auch nicht mehr auf die Erde. Trotzdem ist das grundlegende Konzept der „metria“ in Form der für die Geometrie notwendigen Metrik erhalten geblieben. Durch diese Metrik – die oft in Form eines Skalarprodukts vorgegeben ist – unterscheiden sich die geometrischen Vektoren von den algebraischen Vektoren. Als algebraische Vektoren bezeichnen wir hierbei die Elemente eines Vektorraums, mit den üblichen algebraischen Eigenschaften (siehe Definition A.5 auf Seite 119). Etwas allgemeiner fallen unter diesen Begriff zum Beispiel auch Elemente der äußeren Algebra oder Tensoren. Man muss sich also nicht auf die üblichen, eindimensionalen Vektoren einschränken. 1.2 Das Clifford-Produkt in der Quantenmechanik 3 Im Gegensatz dazu sind die geometrischen Vektoren die Elemente eines metrischen Vektorraums. Erst durch die Metrik lassen sich den Vektoren Eigenschaften wie Länge und Richtung zuordnen! Wie der Begriff einer physikalischen Größe suggeriert, haben wir es deshalb in der Physik fast immer mit geometrischen Vektoren zu tun. Außerdem ist die Metrik zwingend notwendig um Analysis auf diesen Räumen zu betreiben. Wir kommen nun auf die fundamentale Rolle des Clifford-Produkts in der Geometrie zu sprechen. Wie sich mit einem einfachen Argument einsehen lässt, ist im Clifford-Produkt ab nämlich die vollständige geometrische Beziehung der Vektoren a und b zueinander kodiert! Dazu nehmen wir einmal an, dass wir sowohl das Produkt P := ab, als auch den Vektor b kennen. Falls sich daraus der ursprüngliche Vektor a rekonstruieren ließe, dann müsste das Produkt P die komplette geometrische Beziehung von a relativ zu b enthalten. Aufgrund der Invertierbarkeit des Clifford-Produkts ist die Lösung dieser Aufgabe in der Geometrischen Algebra allerdings trivial. Um den Vektor a zu erhalten, teilen wir P einfach durch den Vektor b: P b−1 = (ab)b−1 = a(bb−1 ) = a , mit b−1 = b/ kbk2 . (1.7) Hierbei haben wir die bisher noch nicht erwähnte Assoziativität des Clifford-Produkts ausgenutzt. Das selbe Argument lässt sich mit dem Vektor a anstelle von b wiederholen, wenn man in Gleichung (1.7) mit a−1 von links multipliziert. Im Gegensatz zum Clifford-Produkt besitzen weder das Skalarprodukt, noch das Dachprodukt allein diese Eigenschaft. Das Skalarprodukt ha|bi beschreibt zwar den Winkel zwischen Vektoren, es ist allerdings unklar in welcher Ebene der Winkel gemessen wird. Außerdem ist der Winkel nicht orientiert, so dass selbst bei Kenntnis der Ebene unklar ist (wie zum Beispiel in zwei Dimensionen der Fall), ob man Links oder Rechts herum drehen muss. Das Dachprodukt a ∧ b besitzt genau diese beiden fehlenden Eigenschaften, nämlich die Ebene und die Orientierung. Im Gegenzug lässt das äußere Produkt allerdings keinerlei Rückschlüsse auf den Winkel zwischen den Vektoren a und b zu. Folglich beschreibt keines der beiden Produkte allein die vollständige geometrische Beziehung der Vektoren zueinander. Beide Produkte zusammen, also ha|bi und a ∧ b, erlauben dagegen die Rekonstruktion des einen Vektors aus dem jeweils anderen. Aufgrund der Gleichungen (1.5) und (1.6) werden diese beiden Teile im Clifford-Produkt in einmaliger Weise zusammengefügt: ab = ha|bi + a ∧ b . (1.8) Nach David Hestenes [Hes03a] handelt es sich deshalb bei der Geometrischen Algebra um die universelle Sprache zur Beschreibung von geometrischen Sachverhalten. Er belegt diese Aussage eindrucksvoll in seinem Buch [HS92] durch Übersetzung verschiedenster geometrischer Kalküle (Tensoren, Differentialformen, Spinoren etc.) in die Sprache der Clifford-Algebra. 1.2 Das Clifford-Produkt in der Quantenmechanik In der nichtrelativistischen Quantenmechanik taucht das Clifford-Produkt im Zusammenhang mit den Pauli-Matrizen σi auf. Diese erfüllen die definierende Eigenschaft (1.5): σi σj + σj σi = δij . (1.9) 4 Kapitel 1. Einführung Man verwendet nun einen formalen Vektor σ mit den drei Pauli-Matrizen als Einträgen und übersetzt damit Vektoren a ∈ 3 in Matrizen σ · a ∈ Mat(2, ). Zur Vereinfachung der Rechnungen verwendet man die bekannte Rechenregel: (σ · a)(σ · b) = ha|bi + iσ · (a × b) . (1.10) In Wirklichkeit handelt es sich bei Ausdrücken der Form σ · a nur um eine unschöne Schreibweise für Vektoren in der Geometrischen Algebra. Dies sieht man, indem man das formale Skalarprodukt σ · a in Koordinaten ausschreibt: σ · a = σ i a i = a i σi = b ai σ i , (1.11) wobei sich die fettgedruckten σ i als Basisvektoren einer dreidimensionalen Clifford-Algebra interpretieren lassen. Außerdem hat die imaginäre Einheit i = σ1 σ2 σ3 in Gleichung (1.10) – wie wir später sehen werden – eine tiefere geometrische Bedeutung als Operator der Hodge-Dualität. Dadurch wird dem Kreuzprodukt a × b das dazu orthogonale Flächenelement a ∧ b zugeordnet. Die Rechenregel (1.10) entpuppt sich deshalb als nichts anderes als die fundamentale Zerlegung des Clifford-Produkts (1.8). Diese versteckte geometrische Bedeutung des Clifford-Produkts lässt Zweifel an der üblichen Beschreibung des Spins und der Bedeutung der komplexen Zahlen in der Quantenmechanik aufkommen. Dementsprechend werden wir in Kapitel 5 zeigen, dass sich die Quantenmechanik vollständig innerhalb der reellen Geometrischen Algebra in drei Dimensionen beschreiben lässt. Die konventionelle Pauli-Schrödinger-Gleichung wird dabei ersetzt durch die Pauli-Schrödinger-Hestenes-Gleichung (siehe [HG71] und [Hes03a]): ∂t ψ ~Iσ 3 = Ĥψ + e (IB)ψ ~Iσ 3 . 2mc (1.12) Alle Terme in dieser Gleichung lassen sich geometrisch interpretieren. Speziell kann der ursprüngliche komplexe Faktor i~ aus der Schrödinger-Gleichung mit dem Spin in Verbindung gebracht werden. 1.3 Aufbau und Ziel dieser Arbeit Das Ziel dieser Arbeit ist es, die Bedeutung der Geometrischen Algebra sowohl für die klassische Physik als auch für die Quantenmechanik zu illustrieren. In Kapitel 2 beschreiben wir die Grundlagen der Geometrischen Algebra in Anlehung an das Buch von Hestenes [HS92]. Dabei bieten sich einige kleinere Modifikationen an, mit denen sich verschiedene Unstimmigkeiten beseitigen lassen. Speziell werden wir das übliche innere Produkt der Geometrischen Algebra vollständig durch zwei „Kontraktionen“ ersetzen [DDL02, Lou01], die eine deutlich einfachere geometrische Interpretation erlauben. Verschiedene alternative Zugänge zur Clifford-Algebra und deren mathematische Eigenheiten sind im Anhang A zusammengefasst. In Kapitel 3 widmen wir uns der Beschreibung von Reflexionen und Rotationen, die in der Geometrischen Algebra eine besonders einfache und auch rechnerisch sehr effiziente Form erhalten. Neben den wichtigen Spin- und Pin-Gruppen werden wir ausführlich die unterschiedlichen Typen von Lorentz-Transformationen diskutieren, die in diesem Zusammenhang als Isometrien von Minkowski-Vektorräumen 1.3 Aufbau und Ziel dieser Arbeit 5 auftreten. Ein spezielles Augenmerk liegt dabei auf den sogenannten parabolischen Lorentz-Transformationen, die in der Literatur normalerweise übersehen werden. Als Anwendung betrachten wir die Bewegung von Teilchen in Zentralkraftfeldern und die Lösung des Kepler-Problems, welches sich in der Geometrischen Algebra auf einen einfachen, harmonischen Oszillator reduzieren lässt. Kapitel 4 beschäftigt sich mit der Speziellen Relativitätstheorie. Hier können die koordinatenfreien Methoden der Geometrischen Algebra ihre volle Stärke entfalten und liefern viele interessante Einsichten. Unter anderem kann den Dirac-Matrizen eine geometrische Bedeutung als Darstellung der Basisvektoren der Geometrischen Algebra über der Minkowski-Raumzeit zugeordnet werden. Als Anwendung des Formalismus der Spacetime-Algebra zeigen wir, wie sich die Maxwellgleichungen in der Geometrischen Algebra durch eine einzige kompakte Formel beschreiben lassen. Die reelle Beschreibung der nichtrelativistischen Quantenmechanik durch die Pauli-Schrödinger-Hestenes-Gleichung werden wir schließlich in 5. Kapitel untersuchen. Besonderer Wert liegt dabei auf dem Äquivalenzbeweis der reellen Quantenmechnik zur konventionellen Formulierung, da dieser in der Literatur nicht zu finden ist. Als Folge der geometrischen Bedeutung der Pauli-Matrizen muss die Beschreibung und Interpretation des Spins in der Quantenmechanik grundlegend modifiziert werden. Dies liefert tiefe Einblicke in die Rolle der Pauli-Spinoren und die Bedeutung der Faktoren i~ in der nichtrelativistischen Quantentheorie. Die großen Leute haben eine Vorliebe für Zahlen. Wenn ihr ihnen von einem neuen Freund erzählt, befragen sie euch nie über das Wesentliche. Sie fragen euch nie: Wie ist der Klang seiner Stimme? Welche Spiele liebt er am meisten? Sammelt er Schmetterlinge? Sie fragen euch: Wie alt ist er? Wieviele Brüder hat er? Wieviel wiegt er? Wieviel verdient sein Vater? Dann erst glauben sie, ihn zu kennen. Antoine de Saint-Exupéry, „Le petit prince“ 6 Kapitel 1. Einführung 2. Grundlagen der Geometrischen Algebra Mathematics is the language with which God has written the universe. Galileo Galilei 2.1 Die Bauelemente Die Geometrische Algebra basiert auf einem Vektorraum, der mit einer Metrik versehen ist. Einen geometrischen Vektor wollen wir als ein gerichtetes Linienelement interpretieren. Er wird also vollständig durch einen Betrag und eine Richtung charakterisiert. Etwas abstrakter können wir einen Vektor als orientiertes Element eines eindimensionalen (affinen) Untervektorraums auffassen. Algebraisch können wir Vektoren manipulieren, indem wir sie addieren, mit Skalaren multiplizieren, und das Skalarprodukt bilden, welches eine Aussage über den Winkel zwischen zwei Vektoren macht.1 Neben Vektoren brauchen wir in der Geometrie weitere Objekte, wie Flächen, Volumina, usw. In gewisser Weise stellen diese eine Verallgemeinerung des VektorKonzepts dar und werden von der Geometrischen Algebra gleichberechtigt als Basisobjekte betrachtet. Ein orientiertes Element eines k-dim. Untervektorraums (anschaulich eine k-dim. Hyperebene) wollen wir k-Spat oder k-Flächenelement nennen. Analog zu oben wird ein k-Spat vollständig durch seinen Betrag und seine Orientierung festgelegt. Ein 1-Spat ist also gerade ein Vektor, ein 0-Spat ist ein Skalar. An dieser Stelle ist noch eine kurze Bemerkung über den Begriff der Orientierung angebracht, welcher sich aus zwei Teilen zusammen setzt. Der erste Teil ist die innere Orientierung, womit wir den Unterschied zwischen rechts- und linkshändigen Spaten bezeichnen wollen. Wie man in der lineare Algebra lernt, gibt es immer genau diese beiden Möglichkeiten, unabhängig von der Dimension des (Unter-)Vektorraums (vgl. [Fis03, Abschnitt 3.4]). Abgesehen von der inneren Orientierung gibt es auch eine äußere Orientierung, welche die Ausrichtung des k-Spats, also anschaulich die Einbettung der k-dimensionalen Hyperfläche in den umgebenden Vektorraum, beschreibt. Eine übliche Methode ist es, die k-Spate durch Vektoren aufzuspannen. Die Geometrische Algebra stellt uns dazu ein äußeres Produkt oder auch Dachprodukt zur Verfügung, welches mit ∧ bezeichnet wird. Wir können den 2-Spat a∧b geometrisch als Parallelogramm repräsentieren, welches von den Vektoren a und b aufgespannt wird. An dieser Stelle müssen wir allerdings vorsichtig sein, da das gescherte Parallelgramm a ∧ b̃ (vgl. Abbildung 2.1 auf der nächsten Seite) sowohl die gleiche Orientierung, als auch die gleiche Fläche hat. Nach der obigen Definition eines kSpats sind deshalb a ∧ b und a ∧ b̃ identisch. Die Form spielt demnach keine Rolle, 1 Eventuell vermisst man bei dieser Aufzählung das Gibbs’sche Kreuzprodukt. Da dieses aber nur im dreidimensionalen Fall existiert, ist es für uns uninteressant. Später wird sich zudem herausstellen, dass die Geometrische Algebra einen deutlich flexibleren Ersatz dafür bietet. 8 Kapitel 2. Grundlagen der Geometrischen Algebra b a = b̃ = a Abbildung 2.1 Beim k-Spat ist die Form der Fläche irrelevant. allein der Betrag der Fläche ist relevant. Damit ist ein k-Spat in Wirklichkeit eine Äquivalenzklasse, und das Parallelogramm, welches von k Vektoren aufgespannt wird, ein Repräsentant daraus. Die obige Aussage, a ∧ b = a ∧ b̃, bedeutet also gerade, dass es egal ist, welchen Repräsentanten wir wählen. In diesem Sinne haben die k-Spate eine von den aufspannenden Vektoren unabhängige Existenz. Noch einen Schritt weiter können wir formale Linearkombinationen von k-dimensionalen Spaten bilden, ein sogenannter k-Vektor oder homogener Multivektor k-ter Stufe. Sogar eine Linearkombination von Spaten unterschiedlicher Dimension ist möglich, welche wir Multivektor nennen wollen. Auf den ersten Blick erscheint dies unsinnig, fast so als wollten wir Äpfel und Birnen zusammenzählen. Andererseits tun wir hier nichts anderes als bei den komplexen Zahlen, wo wir die formale Linearkombination von Real- und Imaginärteil z = a + ib bilden. Wie wir von den komplexen Zahlen wissen, ist dies weit mehr als ein fauler Trick. Die Betrachtung der komplexen Zahl z als eigenständiges Objekt bringt nicht nur rechnerisch enorme Vorteile mit sich, wie man zum Beispiel bei der Beschreibung von Schwingungen sieht. Das Gleiche zeigt sich auch in der geometrischen Algebra, wodurch die Multivektoren ihre eigenständige Daseinsberechtigung erhalten. 2.2 Die Clifford-Algebra und das Geometrische Produkt Im Folgenden wollen wir eine solide Grundlage für die Geometrische Algebra schaffen. Die Basis bildet eine Clifford-Algebra G(V, Q) über einem Vektorraum V mit quadratischer Form Q. Diese ist normalerweise das Quadrat der Norm, welche durch das Skalarprodukt induziert wird. In der Mathematik definiert man die CliffordAlgebra gerne durch eine universelle Eigenschaft oder durch Faktorbildung ausgehend von einer Tensor-Algebra (beide Methoden finden sich in [BtD85, Kapitel 1.6] oder [Jun05, Abschnitt 1]). Da wir aber vor allem auf die geometrische Interpretation und konkrete Anwendungen aus sind, wollen wir einen weniger abstrakten Ansatz wählen und die Algebra über ihre Verknüpfungen definieren. Beliebige Multivektoren lassen sich danach als Summe über Produkte von Vektoren schreiben. Wir sagen deshalb auch, dass die Algebra von den Vektoren generiert wird. Im Folgenden beschränken wir uns zugunsten der Einfachheit auf den Vektorraum V = n mit quadratischer Form Q(a) = |a|2 für Vektoren a ∈ V, wobei | · | die übliche euklidische Norm ist. Die zugehörige Clifford-Algebra bezeichnen 2 wir kurz mit Gn ≡ G( n , | · | ). Später werden wir dies auf kompliziertere Fälle verallgemeinern. Um die Übersicht zu behalten und unnötige Wiederholungen zu vermeiden, bezeichnen wir Skalare mit kleinen griechischen Buchstaben α, β, γ. Für Vektoren verwenden wir Kleinbuchstaben a, b, c und für Multivektoren Großbuchstaben A, B, C. Dies ist in Übereinstimmung mit der einschlägigen Literatur. 2.2 Die Clifford-Algebra und das Geometrische Produkt 9 Wie schon die Vektoren bilden auch die Multivektoren bezüglich Addition eine abelsche Gruppe, d. h. für A, B, C ∈ Gn gilt: kommutativ A + B = B + A , (2.1) assoziativ (A + B) + C = A + (B + C) , Neutrales ∃!0 s. d. A + 0 = 0 , Inverses ∀A ∃!(−A) s. d. A + (−A) = 0 . (2.2) (2.3) (2.4) Das Clifford-Produkt von Multivektoren A und B, welches auch geometrisches Produkt heißt, bezeichnen wir mit AB. Es erfüllt die Eigenschaften einer nichtkommutativen assoziativen Algebra mit Eins: assoziativ (AB)C = A(BC) , distributiv A(B + C) = AB + AC , (B + C)A = BA + CA , Neutrales ∃!1 s. d. A1 = A = 1A . (2.5) (2.6) (2.7) (2.8) Außerdem soll die Multiplikation mit der Skalarmultiplikation verträglich sein. Für Skalare α ∈ fordern wir deshalb die Kommutativität: (2.9) αA = Aα . Was die Clifford-Algebra von anderen assoziativen Algebren abgrenzt, ist eine Kontraktionsregel für Vektoren, wie wir sie vom Skalarprodukt her kennen. Für einen Vektor a fordern wir nämlich zusätzlich: a2 = Q(a) = |a|2 . (2.10) Es lohnt sich, diese Relation etwas näher zu betrachten. Auf der linken Seite steht das geometrische Produkt von zwei Vektoren, auf der rechten Seite dagegen ein Skalar. Es handelt sich demnach um eine Beziehung zwischen verschiedenen Stufen von Multivektoren. Für einen euklidischen Vektorraum definiert man die Norm |a| ausgehend vom 2 Skalarprodukt h · | · i mittels |a| = ha|ai. Dies lässt sich verallgemeinern: Jeder symmetrischen Bilinearform B : V × V → K auf einem K-Vektorraum V ist mittels Q(a) = B(a, a) eine quadratische Form Q : V → K zugeordnet. Ist die Charakteristik des Körpers char(K) 6= 2, so verliert man hierbei noch nicht einmal Information, denn durch Polarisierung lässt sich die ursprüngliche Bilinearform zurückgewinnen: B(a, b) = 12 Q(a + b) − Q(a) − Q(b) . 2 In unserem euklidischen Vektorraum mit Q(a) = |a| und B(a, b) = ha|bi gilt daher: 2 2 2 ha|bi = 12 |a + b| − |a| − |b| . Andererseits ist aber auch: (2.10) (2.10) |a + b|2 = (a + b)2 = a2 + b2 + ab + ba = |a|2 + |b|2 + ab + ba , zusammen also: ab + ba = 2B(a, b) = 2ha|bi . (2.11) 10 Kapitel 2. Grundlagen der Geometrischen Algebra Setzt man a = b ein, so erhält man (2.10) zurück, die Gleichung (2.11) ist also äquivalent zur Kontraktionsregel (2.10). In Übereinstimmung mit der üblichen Sprechweise nennen wir zwei Vektoren orthogonal oder senkrecht aufeinander, wenn ihr Skalarprodukt verschwindet: (2.12) a ⊥ b ⇐⇒ ha|bi = 0 . Wegen (2.11) sind zwei Vektoren also genau dann orthogonal, wenn sie bezüglich des geometrischen Produkts antikommutieren: (2.13) a ⊥ b ⇐⇒ ab = −ba . Umgekehrt sind sie genau dann parallel, wenn sie kommutieren: (2.14) a k b ⇐⇒ ab = ba , wie man anhand von Gleichung (2.10) mit b = αa sieht. Ein weiteres bemerkenswertes Ergebnis der Kontraktionsregel (2.10) ist die Tatsache, dass jeder Vektor a mit |a|2 6= 0 bezüglich Multiplikation invertierbar ist. Das Inverse ist gegeben durch: a−1 = 1 |a| 2 2 a ∀a mit |a| 6= 0. (2.15) Dies eröffnet ganz neue algebraische Möglichkeiten zur Manipulation von Gleichungen, ebenso wie eine Multivektor-Analysis analog zur Analysis mit komplexen Zahlen in der Funktionentheorie. In Abschnitt 2.1 erwähnten wir, dass wir jeden Multivektor in eine Summe von Spaten zerlegen können. Da dies für die geometrische Interpretation sehr wichtig ist, führen wir einen Operator ein, der uns zu einem Multivektor den Anteil k-ter Stufe liefert. Das Ergebnis ist ein k-Vektor, also eine Linearkombination von k-Spaten. Der Stufenoperator wird mit h · ik bezeichnet und erfüllt die Eigenschaften: hA + Bik = hAik + hBik , hλAik = λ hAik = hAik λ für λ ∈ hhAik ik = hAik . , (2.16) (2.17) (2.18) Die Gleichungen (2.16) und (2.17) bedeuten hierbei, dass die Menge der k-Vektoren Gnk einen linearen Unterraum von Gn bildet. Gleichung (2.18) ist die charakteristische Eigenschaft eines Projektionsoperators. hAik lässt sich also als Projektion von A auf den Unterraum Gnk auffassen. Damit können wir einen beliebigen Multivektor in Stufen zerlegen: A= X k hAik = hAi0 + hAi1 + hAi2 + · · · . (2.19) Da der Stufenoperator so häufig vorkommt, verwenden wir in manchen Situation die alternative Kurz-Schreibweise Ak̄ ≡ hAik . Für den Spezialfall der Skalare ist zusätzlich auch noch die Notation hAi ≡ A0̄ ≡ hAi0 gebräuchlich. 2.3 Kanonische Automorphismen 11 Ein Multivektor Ak ist übrigens genau dann ein k-Spat (auch einfacher kVektor genannt), wenn man ihn in ein Produkt von k antikommutierenden Vektoren a1 , . . . , ak faktorisieren kann, das bedeutet es gibt a1 , . . . , ak , so dass: Ak = a 1 a2 · · · a k mit ai aj = −aj ai für alle i 6= j. (2.20) Wie wir in Gleichung (2.12) bemerkt haben, antikommutieren Vektoren genau dann, wenn sie senkrecht aufeinander stehen. Später werden wir sehen, dass in diesem Fall das geometrische Produkt gleich dem oben erwähnten Dachprodukt a1 · · · ak = a1 ∧· · ·∧ak ist. Umgekehrt wissen wir aus Abschnitt 2.1, dass wir einen k-Spat durch ein Parallelogramm repräsentieren können, welches von k Vektoren aufgespannt wird. Die Wahl der Vektoren ist aber nicht eindeutig, so dass das Parallelogramm beliebig geschert werden darf. Deshalb können wir ohne Einschränkung paarweise orthogonale Vektoren verwenden um den Spat aufzuspannen. 2.3 Kanonische Automorphismen Ein Automorphismus ist eine bijektive Abbildung der Geometrischen Algebra auf sich selbst, die die Verknüpfungen respektiert. Die Clifford-Algebra besitzt mehrere kanonische Automorphismen, die Aussagen über die Struktur der Algebra machen und uns zur algebraischen Manipulation von Multivektoren dienen. 2.3.1 Die Transposition Der wichtigste Automorphismus für unsere Belange ist die Transposition, welche mit · t bezeichnent wird. Die Transposition ist ein Anti-Automorphismus 2 , d. h. für beliebige Multivektoren A, B gilt: (AB)t = B t At . (2.21) Eindeutig wird der Anti-Automorphismus durch die zusätzliche Forderung: at := a (2.22) für Vektoren a ∈ V festgelegt. Für ein Produkt aus k Vektoren erhält man also: (a1 · · · ak )t = ak · · · a1 . (2.23) Da die Transposition die Reihenfolge der Faktoren im Produkt umkehrt, wird sie manchmal auch Reversion genannt. Außerdem ist die Transposition eine Involution, d. h. zweimal nacheinander angewendet ergibt sich die Identität: (At )t = A . (2.24) Besonders nützlich ist die Transposition in Verbindung mit homogenen Multivektoren. Im Folgenden wollen wir mit Ak , Bl und Cm homogene Multivektoren der Stufen k, l und m bezeichnen. Dann gilt: Atk = (−1)k(k−1)/2 Ak . (2.25) 2 Die Abbildung α : A → A ist ein Algebren-Automorphismus der Algebra A, wenn α ein Vektorraum-Automorphismus ist und zusätzlich α(AB) = α(A)α(B) für alle A, B ∈ A gilt. Ein Algebren-Anti-Automorphismus vertauscht demgegenüber die Reihenfolge der Faktoren und es gilt stattdessen α(AB) = α(B)α(A) für alle A, B ∈ A. 12 Kapitel 2. Grundlagen der Geometrischen Algebra Um dies zu beweisen, betrachten wir als erstes den Fall eines k-Spats Ak .3 Gee mäß (2.20) können wir diesen in ein Produkt von k antikommutierenden Vektoren zerlegen. Damit ergibt sich: Atk = (a1 · · · ak )t = ak · · · a1 = (−1)k(k−1)/2 a1 · · · ak = (−1)k(k−1)/2 Ak , (2.26) e e wobei wir im vorletzten Schritt die Antikommutativität verwendet haben, um die Reihenfolge der aj umzukehren. Da ein k-Vektor eine Linearkombination von kSpaten ist, folgt (2.25) aus Summation über (2.26). Das Vorzeichen kann man dabei aus der Summe herausziehen, da es nur von der Stufe abhängt. Mit Hilfe des Stufenoperators können wir dieses Ergebnis auch auf Multivektoren anwenden. Da hAik gerade der k-Vektor-Anteil von A ist, gilt nämlich: hAt ik = hAitk = (−1)k(k−1)/2 hAik . (2.27) Aus Gleichung (2.27) in Verbindung mit (2.25) und (2.21) kann man einige nützliche Identitäten ableiten. Für das Produkt AB gilt zum Beispiel: hABik = (−1)k(k−1)/2 hB t At ik . (2.28) Ist A ein homogener Multivektor der gleichen Stufe k wie der Stufenoperator, so kann man zusätzlich innerhalb der Klammer mit (2.25) die Reihenfolge umkehren: (2.25) (2.28) hAk Bik = (−1)k(k−1)/2 hB t Atk ik = hB t Ak ik . (2.29) Ist auch B ein homogener Multivektor, so erhält man durch nochmalige Anwendung von (2.25) die Relation: hAk Bl ik = (−1)l(l−1)/2 hBl Ak ik . (2.30) Auf die gleiche Weise bekommt man die folgenden Identitäten für das Produkt aus drei Multivektoren: hABl Cil = hC t Bl At il , (2.31) ε hAk Bl Cm in = (−1) hCm Bl Ak in , (2.32) mit ε = 21 k(k − 1) + l(l − 1) + m(m − 1) + n(n − 1) . Obwohl diese Identitäten auf den ersten Blick wie algebraische Spielereien aussehen, werden sie später wertvolle Dienste leisten, wenn wir, aufbauend auf dem geometrischen Produkt, weitere Produkte definieren und deren Eigenschaften ableiten wollen. 2.3.2 Der Graduierungs-Automorphismus Ein weiterer kanonischer Automorphismus der Clifford-Algebra ist der Graduierungs-Automorphismus, welcher auch Grad-Involution genannt wird. Wir wollen ihn mit α̂ bezeichnen. Die Grad-Involution ist ein echter Automorphismus, d. h. für Multivektoren A, B gilt: α̂(AB) = α̂(A)α̂(B) . (2.33) 3 Die Schreibweise A soll hervorheben, dass es sich um einen k-Spat handelt, allerdings werden k e konsequent durchhalten. wir diese Notation nicht 2.4 Inneres und äußeres Produkt 13 Er wird eindeutig festgelegt durch die Forderung: α̂(a) := −a (2.34) für Vektoren a ∈ V. Für ein Produkt aus k Vektoren gilt also: α̂(a1 · · · ak ) = (−1)k a1 · · · ak . Die alternative Bezeichnung als Grad-Involution ist wegen α̂ α̂(A) = A (2.35) (2.36) gerechtfertigt. Durch die Grad-Involution α̂ bekommt die Clifford-Algebra eine Struktur, d. h. wir können Gn zerlegen in eine direkte Summe: Gn = Gn+ ⊕ Gn− , 2 -graduierte (2.37) wobei Gn± der Eigenraum von α̂ bezüglich des Eigenwerts ±1 ist. Das geometrische Produkt respektiert diese Graduierung, d. h. es gilt: AB ∈ Gnµν für A ∈ Gnµ und B ∈ Gnν (2.38) mit µ, ν ∈ {±1}, was man durch einfaches Nachrechnen bestätigt. Eine solche 2 graduierte Algebra nennnt man auch Superalgebra. Wie man sich anhand von (2.38) klarmacht, ist Gn+ sogar eine Unteralgebra von Gn , für Gn− ist dies allerdings nicht der Fall. Mehr dazu findet sich zum Beispiel in [Jun05]. Die Eigenräume Gn± können wir auch konkret angeben. Wegen (2.35) enthält + Gn alle Multivektoren, die sich in eine Linearkombination von Produkten mit einer geraden Anzahl von Faktoren zerlegen lassen, wie dies zum Beispiel für Skalare und k-Spate mit geradem k der Fall ist. In Gn− liegen dagegen alle Multivektoren mit einer ungeraden Anzahl von Faktoren. Dort finden sich also unter anderem die Vektoren und k-Spate mit ungeraden k. Einen beliebigen Multivektor A können wir gemäß (2.37) eindeutig zerlegen in einen geraden und ungeraden Anteil: A = A + + A− mit A± ∈ Gn± , (2.39) was in vielen Situationen nützlich ist. Verschwindet ein Anteil davon, d. h. im Fall A = A+ oder A = A− , so sprechen wir auch von einem geraden bzw. ungeraden Multivektor. 2.4 Inneres und äußeres Produkt Für effiziente Rechnungen und zur besseren Interpretation ist es nützlich weitere Produkte zu definieren. Diese sind aber nicht mehr grundlegend, sondern wir erhalten sie auf rein algebraische Weise aus dem geometrischen Produkt. Das äußere Produkt oder Dachprodukt von zwei Multivektoren ist gegeben durch: X A ∧ B := hAk̄ Bl̄ ik+l . (2.40) kl 14 Kapitel 2. Grundlagen der Geometrischen Algebra Das innere Produkt definieren wir mittels: A • B := X kl hAk̄ Bl̄ i|l−k| . (2.41) Hierbei ist Vorsicht geboten, da in der einschlägigen Literatur oft eine alternative Definition verwendet wird. Im Standardwerk [HS92] ist das innere Produkt definiert als: X hAk̄ Bl̄ i|l−k| , (2.42) A · B := k6=0,l6=0 d. h. Terme, die einen Skalar als Faktor enthalten, setzt man künstlich auf Null. Schon auf den ersten Blick erscheint diese Definition etwas unnatürlich. Für uns viel wichtiger ist aber, dass sich aus der Wahl (2.42) für das innere Produkt einige Probleme ergeben, was in [DDL02] näher ausgeführt wird. Wir verwenden deshalb die erste Definition, die in Verbindung mit der Links- und Rechts-Kontraktion, die in Abschnitt 2.6 eingeführt werden, viele Vorteile aufweist. Die meisten der folgenden Aussagen, wie zum Beispiel das Kommutations-Verhalten, gelten allerdings unabhängig davon, ob wir gerade • oder · verwenden. Dies ist als Zeichen zu werten, dass die Einschränkung auf k, l 6= 0 unnötig ist. Wir wollen nun die Eigenschaften der beiden Produkte näher untersuchen. Als erstes betrachten wir dazu den Spezialfall von homogenen Multivektoren. Für diese gilt: Ak ∧ Bl = hAk Bl ik+l , Ak • Bl = hAk Bl i|l−k| . (2.43) (2.44) Die äußere Multiplikation hebt also die Stufe, wogegen durch das innere Produkt die Stufe gesenkt wird. Die äußere und innere Multiplikation wirken also bezüglich der Stufen als Auf- und Absteige-Operationen in der Geometrischen Algebra. Die algebraischen Eigenschaften der beiden Produkte ergeben sich direkt aus den Definitionen und den Eigenschaften des geometrischen Produkts. Wie dieses sind sowohl das innere als auch das äußere Produkt im Allgemeinen nicht-kommutativ. Dennoch bekommt man für homogene Multivektoren durch Anwendung von (2.25) auf die rechte Seite von (2.28) die Vertauschungsregeln: Ak ∧ Bl = (−1)kl Bl ∧ Ak , Ak • Bl = (−1)(k−l) min(k,l) Bl • Ak . (2.45) (2.46) Beim Dachprodukt ergibt sich also genau dann ein Minuszeichen, wenn k und l beide ungerade sind. Man kann deshalb (2.45) auf gerade und ungerade Multivektoren verallgemeinern, wobei ein negatives Vorzeichen genau bei zwei ungeraden Multivektoren auftritt. Dieses Vertauschungsverhalten nennt man superkommutativ. Die Distributivität überträgt sich vom geometrischen Produkt: A ∧ (B + C) = A ∧ B + A ∧ C , A • (B + C) = A • B + A • C , (B + C) ∧ A = B ∧ A + C ∧ A , (B + C) • A = B • A + C • A . (2.47) (2.48) Das äußere Produkt ist außerdem assoziativ: A ∧ (B ∧ C) = (A ∧ B) ∧ C . (2.49) 2.4 Inneres und äußeres Produkt 15 Das innere Produkt ist nicht-assoziativ, für homogene Multivektoren gilt aber: 4 Ak • (Bl • Cm ) = (Ak ∧ Bl ) • Cm Ak • (Bl • Cm ) = (Ak • Bl ) • Cm für k + l ≤ m. für k + m ≤ l. (2.50) (2.51) Gleichung (2.51) wird auch Regel des mittleren Faktors genannt, da dieser die höchste Stufe haben muss, damit das innere Produkt assoziativ ist. Für den Beweis von (2.49–2.51) betrachten wir allgemein das geometrische Produkt von zwei Spaten Ak B l . Diese können wir nach (2.20) in Produkte antikommue e so dass A = a · · · a und B = b · · · b gilt. Damit tierender Vektoren zerlegen, k 1 k l 1 l e e ergibt sich: Ak B l = a1 · · · ak b1 · · · bl . (2.52) e e Die höchste Stufe, die beim geometrischen Produkt auftreten kann, ist also k + l. Nun haben wir aber zusätzlich die Kontraktionsregel (2.10) zu beachten, wonach das Produkt von zwei Vektoren einen Skalar ergeben kann. Da Spate allerdings schon vollständig auf diese Weise reduziert sind, kann nur noch ai mit bj für i = 1, . . . , k und j = 1, . . . , l kontrahiert werden. Hierbei steigt man jeweils um zwei Stufen ab, im Einklang mit der oben erwähnten 2 -Graduierung von Gn . Übrig bleibt eine minimale Stufe von |k − l|. Verallgemeinern wir dies auf homogene Multivektoren, so ist jeder Term des Produkts von der Form (2.52) und es ergibt sich die wichtige Formel: (2.53) Ak Bl = hAk Bl i|k−l| + hAk Bl i|k−l|+2 + · · · + hAk Bl ik+l . Das geometrische Produkt von zwei homogenen Multivektoren ist also im Allgemeinen inhomogen, wobei sich die Stufen der Terme jeweils um Zwei unterscheiden. Nebenbei haben wir damit das innere Produkt als niedrigsten Term, das äußere Produkt als höchsten Term dieser Reihe identifiziert. Man kann nun Gleichung (2.49) beweisen, indem man beide Seiten von (2.54) hAk (Bl Cm )ik+(l+m) = h(Ak Bl )Cm i(k+l)+m mit Hilfe von (2.53) entwickelt. Gleichung (2.50) ergibt sich analog aus: hAk (Bl Cm )i(m−l)−k = h(Ak Bl )Cm im−(l+k) für k + l ≤ m. (2.55) Die Regel des mittleren Faktors (2.51) erhält man schließlich aus: hAk (Bl Cm )i(l−m)−k = h(Ak Bl )Cm i(l−k)−m für k + m ≤ l. (2.56) Für Gleichung (2.50) wollen wir dies kurz einmal demonstrieren. Für die linke Seite von Gleichung (2.55) gilt unter Beachtung von k + l ≤ m: LS = hAk (Bl Cm )i(m−l)−k iE D h = Ak hBl Cm i|l−m| + hBl Cm i|l−m|+2 + · · · + hBl Cm i|l+m| = Ak hBl Cm im−l m−l−k h + Ak hBl Cm im−l+2 m−l−k + · · · + Ak hBl Cm im+l = Ak • (Bl • Cm ) für k + l ≤ m, (m−l)−k m−l−k i 4 Wenn man · statt • als inneres Produkt verwendet, muss man in (2.50) zusätzlich k, l > 0 fordern. Dies ist einer der Fälle, in dem unsere Definition des inneren Produkts Vorteile aufweist. 16 Kapitel 2. Grundlagen der Geometrischen Algebra a a∧b b = − b b∧a a Abbildung 2.2 Geometrisch anschauliche Interpretation der Antisymmetrie des Dachprodukts. Die beiden Spate a ∧ b und b ∧ a haben entgegengesetzte Orientierung und unterscheiden sich deshalb im Vorzeichen, a ∧ b = −b ∧ a. wobei der Term in eckigen Klammern verschwindet, da wegen (2.53) alle Produkte in der Klammer mindestens die Stufe m − l − k + 2 haben, der Stufenoperator aber die Stufe m − l − k herausprojeziert. Die rechte Seite von (2.55) ergibt sich in analoger Weise zu: RS = h(Ak Bl )Cm im−(l+k) = . . . = (Ak ∧ Bl ) • Cm für k + l ≤ m. Durch Gleichsetzen der beiden Seiten folgt die Behauptung. Als Spezialfall von Gleichung (2.53) ergibt sich eine wichtige Zerlegung des geometrischen Produkts, wenn der eine Faktor ein Vektor ist und der andere Faktor mindestens gleiche Stufe besitzt, d. h. kein Skalar ist. Es gilt dann: aAk = haAk ik−1 + haAk ik+1 = a • Ak + a ∧ Ak . (2.57) Den Skalar-Anteil muss man hierbei ausschließen, da sonst die beiden Terme auf der rechten Seite zusammenfallen. Durch Summation über die Stufen lässt sich Gleichung (2.57) auf beliebige Multivektoren A ohne Skalar-Anteil, A0̄ = 0, verallgemeinern. Für diese existiert die Zerlegung: aA = a • A + a ∧ A für A0̄ = 0, (2.58) Aa = A • a + A ∧ a für A0̄ = 0. (2.59) und analog: Diese Gleichungen sind übrigens der Grund, weshalb in der Literatur oft die alternative Definition ‚·‘ für das innere Produkt verwendet wird, wodurch die Einschränkungen auf A0̄ = 0 entfallen. Wir werden allerdings in Abschnitt 2.6 im Zusammenhang mit Links- und Rechts-Kontraktion Methoden kennen lernen, die dieses Problem sehr viel eleganter und auch für allgemeinere Fälle lösen. Wir wollen nun noch zeigen, dass das Dachprodukt unter Vertauschung von zwei Vektoren antisymmetrisch ist (vgl. Abbildung 2.2): a ∧ A ∧ b = −b ∧ A ∧ a . (2.60) Dazu zerlegen wir wieder einmal A in eine Summe von homogenen Multivektoren und betrachten die einzelnen Terme getrennt. Für jeden dieser Terme ergibt sich: (2.45) (2.49) a ∧ Ak̄ ∧ b = (−1)k (Ak̄ ∧ a) ∧ b = (−1)k Ak̄ ∧ (a ∧ b) (2.45) = −(−1)k Ak̄ ∧ (b ∧ a) = −b ∧ Ak̄ ∧ a . Die Behauptung erhalten wir daraus wie üblich durch Summation. 2.5 Das Skalarprodukt von Gn 17 Als Folge von (2.60) verschwindet das Dachprodukt, wenn zwei gleiche Vektoren auftreten: a∧A∧a=0 . (2.61) Zusammen genommen hat das Dachprodukt also alle Eigenschaften, wie man sie (eventuell) schon vom Dachprodukt der Differentialformen oder aus der äußeren Algebra (Grassmann-Algebra) eines Vektorraums kennt. 2.5 Das Skalarprodukt von Gn Wie wir oben gesehen haben, ist das innere Produkt von zwei homogenen Multivektoren Ak • Bl ein Multivektor der Stufe |l − k|. Für zwei Vektoren ist also a • b ein Skalar, und das innere Produkt kann mit dem Skalarprodukt des zugrundeliegenden Vektorraums identifiziert werden.5 Uns fehlt aber bis jetzt ein Produkt, welches auch für allgemeine Multivektoren einen Skalar ergibt. Ein solches ist aber sehr nützlich, um beispielsweise den Betrag von Multivektoren festzulegen oder um Winkel zu beschreiben. Wir definieren deshalb das Skalarprodukt von zwei Multivektoren als: A ∗ B := hABi . (2.62) Es bleibt zu zeigen, dass dieses Produkt alle Eigenschaft erfüllt, die man von einem Skalarprodukt erwartet. Als erstes bemerken wird, dass wegen Gleichung (2.53) das Skalarprodukt von homogenen Multivektoren unterschiedlicher Stufen verschwindet: Ak ∗ Bl = 0 für k 6= l. (2.63) Für gleiche Stufen stimmt das Skalarprodukt dagegen mit dem inneren Produkt (2.41) überein, und wegen Relation (2.46) ist es kommutativ: Ak ∗ B k = A k • B k = B k ∗ A k . Damit können wir es als Summe über die Stufen schreiben: X X A∗B = hAk̄ Bk̄ i = Ak̄ • Bk̄ . k (2.64) (2.65) k Folglich ist das Skalarprodukt für beliebige Multivektoren symmetrisch und linear: A ∗ B = hABi = hBAi = B ∗ A , A ∗ (αB + βC) = αA ∗ B + βA ∗ C . (2.66) (2.67) Wegen (2.28) gilt außerdem: A ∗ B = At ∗ B t . (2.68) Das mit einer Transposition versehene, alternative Skalarprodukt A ˜∗ B := At ∗ B = A ∗ B t 5 Für (2.69) Vektoren ist a • b = a · b = a ∗ b = ha|bi, was wir in Abschnitt 2.7 beweisen werden. 18 Kapitel 2. Grundlagen der Geometrischen Algebra ist für unsere euklidische Metrik zusätzlich sogar positiv definit,6 d. h. es gilt: A ˜∗ A > 0 ∀A 6= 0 (2.70) A ˜∗ A = 0 ⇐⇒ A = 0 . (2.71) kAk2 := A ˜∗ A = At ∗ A = A ∗ At . (2.72) und Damit können wir jedem Multivektor einen Betrag zuordnen: Für Vektoren stimmt dies mit der üblichen Definition des Betrags überein, denn es gilt: 2 2 2 kak = a ˜∗ a = at ∗ a = hat ai = haai = h|a| i = |a| , wobei man im letzten Schritt den Stufenoperator weglassen kann, da |a|2 sowieso nur aus einem Skalar-Anteil besteht. Wir zeigen nun, dass das Skalarprodukt wirklich positiv definit ist. Dazu verwenden wir eine Orthogonalbasis der Clifford-Algebra. Wie in [Jun05, Korollar 1.12] gezeigt, ist die Dimension von Gn als -Vektorraum gleich 2n . Haben wir eine Basis (e1 , . . . , en ) des Stamm-Vektorraums V = n gegeben, so bilden die Produkte: e j1 · · · e jk , 1 ≤ j1 < · · · < jk ≤ n (2.73) zusammen mit 1 (entsprechend k = 0) eine Orthogonalbasis von Gn bezüglich geometrischem Produkt. Beispielsweise ist (1, e1 , e2 , e3 , e1 e2 , e1 e3 , e2 e3 , e1 e2 e3 ) eine Basis von G3 . Als erstes bemerken wir, dass die Basis-Vektoren ej senkrecht aufeinander stehen und dass sie deshalb wegen Gleichung (2.13) antikommutieren. Nach Definition (2.20) sind die obigen Produkte also k-Spate. Man sieht leicht, dass dadurch auch bezüglich dem Skalarprodukt der Algebra eine Orthogonalbasis definiert ist. Hierbei nennen wir zwei Multivektoren in Bezug auf das Skalarprodukt ˜∗ orthogonal, oder kurz ˜∗-orthogonal, wenn A ˜∗ B = 0 ist. Wie in (2.63) erwähnt, verschwindet das Skalarprodukt von homogenen Multivektoren unterschiedlicher Stufen, weshalb diese ˜∗-orthogonal sind. Es bleibt also der Fall gleicher Stufen zu betrachten. Dazu wählen wir zwei Basis-Elemente EI = ei1 · · · eik und EJ = ej1 · · · ejk . Sind diese identisch, so gilt: EI ˜∗ EJ = heik · · · ei1 ei1 · · · eik i = |ei1 |2 · · · |eik |2 = 1 für EI = EJ . Wegen (2.73) ist die Reihenfolge der Vektoren im Produkt eindeutig festlegt. Die beiden Basis-Elemente können sich demzufolge nicht nur in der Reihenfolge der Basisvektoren ei unterscheiden. Für EI 6= EJ existiert also mindestens ein js mit ejs 6= eir für alle r = 1, . . . , k. Da dieser Vektor ejs beim Reduzieren gemäß der Kontraktionsregel (2.10) übrig bleibt, hat das Produkt EIt EJ = eik · · · ei1 ej1 · · · ejk keinen Skalaranteil, und folglich sind EI und EJ zueinander ˜∗-orthogonal. Also bilden die Produkte aus (2.73) zusammen mit 1 eine Orthonormalbasis von Gn bezüglich des Skalarprodukts ˜∗. 6 Das Produkt A ∗ B ist zwar nur nicht entartet, in vielen Fällen aber sehr nützlich, da die Definition von ∗ sehr eng mit den anderen Produkten verwandt ist. Mit Hilfe von Gleichung (2.69) kann man aber immer zwischen diesen beiden Alternativen übersetzen. 2.6 Links- und Rechts-Kontraktion 19 Damit sind wir aber schon fast fertig, denn wir können einen beliebigen Multivektor in dieser Basis zerlegen: X αI E I , A= I wobei EI die Produkte aus Gleichung (2.73) durchläuft und αI ein skalarer Faktor ist. Es folgt: X X X 2 (αI )2 ≥ 0 , αI αJ δIJ = αI αJ EI ˜∗ EJ = kAk = A ˜∗ A = IJ IJ I 2 da keiner der Summanden negativ werden kann. Der Betrag kAk verschwindet genau dann, wenn alle αI Null sind. Dann ist aber auch A = 0 und wir haben die Behauptung bewiesen. Da das Skalarprodukt positiv definit ist, gilt für Multivektoren die CauchySchwarz-Ungleichung: |At ∗ B| = |A ˜∗ B| ≤ kAk kBk . (2.74) Den Beweis kann man direkt aus der Linearen Algebra übernehmen (siehe zum Beispiel [Fis03, Abschnitt 5.4.7]), da dieser nur die abstrakten Eigenschaften des Skalarprodukts ausnutzt. Außerdem wissen wir jetzt, dass das Skalarprodukt nicht entartet ist, d. h. wir haben die wichtige Kürzungsregel: A∗C =B∗C ∀C =⇒ A = B . (2.75) Für eine entartete quadratische Form – die wir hier aber nicht betrachten wollen – gilt diese Relation natürlich nicht mehr. 2.6 Links- und Rechts-Kontraktion Wie wir in Abschnitt 2.4 gesehen haben, gibt es beim inneren Produkt ein paar unschöne Formeln (speziell (2.50) und (2.51)), die von den Stufen der Faktoren abhängen. Außerdem mussten wir bei der sehr nützlichen Zerlegung (2.58), aA = a • A + a ∧ A, die Einschränkung auf A0̄ = 0 vornehmen. Diese Probleme lassen sich durch die Einführung von zwei neuen Produkten lösen, die man an Stelle des inneren Produkts verwendet. Wir definieren die Links-Kontraktion („Kontraktion auf“) als: A y B := X kl hAk̄ Bl̄ il−k , (2.76) und die Rechts-Kontraktion („Kontraktion mit“) durch: A x B := X kl hAk̄ Bl̄ ik−l , wobei der Stufenoperator für negative Stufen verschwindet. (2.77) 20 Kapitel 2. Grundlagen der Geometrischen Algebra An dieser Stelle fällt natürlich sofort die Analogie zur Definition des inneren Produkts auf: X hAk̄ Bl̄ i|l−k| . (2.41) A•B = kl Für zwei homogene Multivektoren Ak und Bl kann man drei Fälle unterscheiden: k < l : Ak y Bl = A k • B l , Ak x Bl = A k ∗ B l = 0 , y : k=l Ak Bl = A k • B l = A k ∗ B l = A k x Bl , k > l : Ak y Bl = A k ∗ B l = 0 , A k x Bl = A k • B l . (2.78) Aus dieser Betrachtung ergibt sich die universelle Relation: AyB+AxB =A•B+A∗B . (2.79) Man beachte, wie die beiden Kontraktionen zusammenspielen, um das innere Produkt zu erzeugen. Die Terme mit k = l treten dabei wegen Ak y Bk = Ak x Bk doppelt auf, was das Skalarprodukt auf der rechten Seite liefert. Diese Relation zeigt, dass Links- und Rechts-Kontraktion die gleiche Information kodieren wie inneres Produkt und Skalarprodukt. Zusätzlich weisen die Kontraktionen aber eine Sensibilität gegenüber den relativen Stufen der Faktoren auf. Damit kann man Bedingungen an die Stufen, wie z. B. k ≤ l, direkt algebraisch formulieren. Außerdem lassen sie sich sehr schön geometrisch als Projektionen interpretieren, was wir später noch genauer untersuchen wollen.7 Wie versprochen kommen wir nun zur Zerlegung (2.58) bzw. (2.59) zurück. Das Problem entstand hier durch den Skalaranteil, der aufgrund von a • α = a ∧ α = αa bzw. α•a = α∧a = αa doppelt auftrat. Wegen (2.78) ist das bei den Kontraktionen anders. Für diese gilt zwar α y a = αa = a x α, aber umgekehrt haben wir a y α = 0 = α x a. Damit können wir die Gleichungen (2.58) und (2.59) umschreiben zu: aA = a y A + a ∧ A , Aa = A x a + A ∧ a , (2.80) (2.81) wobei A keinen Einschränkungen mehr unterliegt. Diese beiden wichtigen Zerlegungen werden uns später ständig begegnen. Die Kontraktionen sind in spezieller Weise adjungiert zum äußeren Produkt: A ∗ (B y C) = (A ∧ B) ∗ C , (C x B) ∗ A = C ∗ (B ∧ A) . (2.82) (2.83) Da wir es mit einer nicht-kommutativen Algebra zu tun haben, ist dabei die Reihenfolge zu beachten. Genauer muss man also sagen: Die Wirkung der Links-Kontraktion B y · nach rechts ist adjungiert zur Wirkung des Dachprodukts · ∧ B nach links. Analoges gilt für die Rechts-Kontraktion. 7 Normalerweise (siehe z. B. [HS92, Abschnitt 1.2]) wird das innere Produkt · als Projektion aufgefasst. Diese Interpretation hat allerdings einige Schwachstellen, auf die wir nachher noch genauer eingehen wollen. Sehr wichtig wir dabei sein, dass die Projektion keine symmetrische Operation ist. 2.6 Links- und Rechts-Kontraktion 21 A A A∧B B C C (A ∧ B) ∗ C A ∗ (B y C) ByC Abbildung 2.3 Die Adjungiertheit von Kontraktion und äußerem Produkt lässt sich für Spate auch geometrisch veranschaulichen. Der Winkel zwischen den Spaten A∧B und C ist gleich dem Winkel zwischen A und einem geeignet gewählten Spat in C. Dieser ist nach Gleichung (2.82) durch B y C gegeben. Den Beweis führt man durch Zerlegung in Stufen. Die linke Seite von (2.82) schreibt sich als: X X (Ak̄ ∧ Bl̄ ) ∗ Cm = (A ∧ B) ∗ C = hAk̄ Bl̄ ik+l ∗ Cm . klm klm Da das Skalarprodukt für unterschiedliche Stufen verschwindet, können wir die Summe über m eliminieren: X X (A ∧ B) ∗ C = hAk̄ Bl̄ ik+l ∗ Ck+l = (Ak̄ Bl̄ ) ∗ Ck+l , kl kl wobei wir den Stufenoperator im letzten Schritt weglassen können, da die Stufe jetzt durch das Skalarprodukt gewährleistet wird. Wir verwenden nun die Definition des Skalarprodukts und nutzen die Assoziativität des geometrischen Produkts aus: X X X (A ∧ B) ∗ C = h(Ak̄ Bl̄ )Ck+l i = hAk̄ (Bl̄ Ck+l )i = Ak̄ ∗ (Bl̄ Ck+l ) . kl kl kl Da die Stufe wieder durch das Skalarprodukt festgelegt ist, können wir ohne etwas zu ändern statt der Klammer einen Stufenoperator einführen: X X (A ∧ B) ∗ C = Ak̄ hBl̄ Ck+l ik = Ak̄ ∗ (Bl̄ y Ck+l ) , kl kl wobei wir im letzten Schritt die Definition der Links-Konraktion (2.76) verwendet haben. Jetzt führen wir die Summe über m = k + l wieder ein, nach dem gleichen Argument, weshalb wir sie oben weglassen durften. Daraus ergibt sich (2.82): X (A ∧ B) ∗ C = Ak̄ ∗ (Bl̄ y Cm ) = A ∗ (B y C) . klm Gleichung (2.83) beweist man analog. Letztendlich ist der Grund für die Adjungiertheit von Kontraktionen und äußerem Produkt also in der Assoziativität des geometrischen Produkts zu finden. Als Folge der Adjungiertheit bekommen wir einen einfachen Zusammenhang zwischen Links- und Rechts-Kontraktion: (A y B)t = B t x At bzw. (B x A)t = At y B t . (2.84) 22 Kapitel 2. Grundlagen der Geometrischen Algebra Beim Beweis kann man sehr schön das Zusammenspiel der Kontraktionen mit dem Skalarprodukt bewundern. Wir haben: C ∗ (A y B)t = C t ∗ (A y B) = (C t ∧ A) ∗ B = (C t ∧ A)t ∗ B t = (At ∧ C) ∗ B = B t ∗ (At ∧ C) = (B t x At ) ∗ C = C ∗ (B t x At ) ∀C . Da das Skalarprodukt nicht entartet ist, können wir die Kürzungsregel (2.75) anwenden und erhalten die erste Relation in (2.84). Die zweite Beziehung zeigt man analog. Abschließend wollen wir noch die Assoziativität ansprechen. Wie man sich einfach geometrisch klar macht, können Projektionen – bei denen ja Information verloren geht – nicht assoziativ sein. Beim inneren Produkt hatten wir die Gleichungen (2.50) und (2.51), die aber leider von den Stufen abhängen und noch nicht einmal alle möglichen Fälle abdecken. Für die Kontraktionen gilt dagegen die universelle Quasi-Assoziativität: A y (B y C) = (A ∧ B) y C , (2.85) x x x (C B) A = C (B ∧ A) . (2.86) Beachtlich ist die Ähnlichkeit zur Relation (2.50) für das innere Produkt, allerdings ohne die Stufen-Abhängigkeit. Wieder einmal beweisen wir nur die Formel (2.85) für die Links-Kontraktion. Für jeden beliebigen Multivektor D gilt: D ∗ A y (B y C) = (D ∧ A) ∗ (B y C) = (D ∧ A) ∧ B ∗ C = D ∧ (A ∧ B) ∗ C = D ∗ (A ∧ B) y C . Da das Skalarprodukt nicht entartet ist, dürfen wir die Kürzungsregel (2.75) anwenden, woraus sich die gewünschte Relation (2.85) ergibt. Der Beweis für die Rechts-Kontraktion funktioniert auf die gleiche Weise. 2.7 Wichtige algebraische Identitäten In diesem Abschnitt werden wir konkrete Ausdrücke für die verschiedenen Produkte ableiten, die ohne den Stufenoperator auskommen, sowie ein paar wichtige Formeln herleiten. Solche Identitäten sind vor allem in der konkreten Anwendung zur Manipulation von Formeln wichtig. Außerdem liefern sie Ansätze zur geometrischen Interpretation und stellen Bezüge zu bekannten Formeln der Vektor-Analysis her. Um Klammern zu sparen, wollen wir ab jetzt festlegen, dass innere und äußere Produkte sowie die Kontraktionen Vorrang vor dem geometrischen Produkt haben, d. h. es gilt: A • B C = (A • B)C 6= A • (BC) , usw. In der Literatur stößt man außerdem auf die Konvention, dass äußere vor inneren Produkten ausgeführt werden, also: A • B ∧ C = A • (B ∧ C) 6= (A • B) ∧ C . Da dies manchmal sehr verwirrend sein kann, werden wir hier allerdings keinen Gebrauch von dieser Möglichkeit machen. 2.7 Wichtige algebraische Identitäten 23 Wir beginnen mit dem inneren Produkt von zwei Vektoren. Nach der Definition (2.41) ist dieses gegeben durch: a • b = habi . Aus Gleichung (2.11) wissen wir schon, dass die Kombination ab + ba = 2ha|bi (2.11) ein Skalar ist. Also können wir auf der linken Seite ohne etwas zu ändern einen Stufenoperator einführen. Daraus ergibt sich: ab + ba = hab + bai = habi + hbai . Wegen der Relation (2.28) gilt außerdem habi = hbai, also habi + hbai = 2 habi. Damit kommen wir zum Ergebnis: a • b = 12 (ab + ba) = ha|bi . (2.87) Wie man sieht, ist das innere Produkt das symmetrisierte geometrische Produkt von a und b. Nebenbei haben wir die in Abschnitt 2.5 aufgestellte Behauptung bewiesen, nach welcher das innere Produkt für Vektoren gerade dem Skalarprodukt des zugrunde liegenden Vektorraums entspricht. Wegen (2.64) stimmt dies außerdem mit dem Multivektor-Skalarprodukt a ∗ b = a • b = ha|bi überein. Folglich ist das in Abschnitt 2.5 eingeführte Skalarprodukt die Fortsetzung des Vektor-Skalarprodukts vom Stamm-Vektorraum V auf die Geometrische Algebra Gn . Für die Links-Kontraktion eines Vektors mit einem k-Vektor gibt es einen algebraischen Ausdruck, der (2.87) fortsetzt:8 a y Ak = 12 aAk − (−1)k Ak a . (2.88) Für den Beweis benutzen wir die Zerlegung (2.80) des geometrischen Produkts. Für einen beliebigen k-Vektor gilt demnach: aAk = a y Ak + a ∧ Ak ⇐⇒ a y Ak = aAk − a ∧ Ak . (2.89) Aus (2.81) ergibt sich dagegen: Ak a = Ak x a + Ak ∧ a ⇐⇒ Ak x a = Ak a − Ak ∧ a . (2.90) Der zweite Term lässt sich wegen der Kommutations-Relation (2.45) des äußeren Produkts umformen: Ak ∧ a = (−1)k a ∧ Ak . (2.91) Die Rechts-Kontraktion in (2.89) hängt nach Gleichung (2.84) mit der Links-Kontraktion zusammen: Ak x a = (a y Atk )t = (−1)(k−1)(k−2)/2 a y Atk = (−1)(k−1)(k−2)/2 (−1)k(k−1)/2 a y Ak = −(−1)k a y Ak , (2.92) 8 Wie wir weiter oben in Gleichung (2.78) bemerkt haben, fallen die Links- und Rechts-Kontraktion von zwei Vektoren mit dem inneren Produkt zusammen, was zum Spezialfall (2.87) führt. Für allgemeinere Produkte müssen wir dagegen immer zwischen den beiden Kontraktionen unterscheiden. Für das innere Produkt muss man wieder die Einschränkung auf k ≥ 1 vornehmen. 24 Kapitel 2. Grundlagen der Geometrischen Algebra wobei die Transpositionen mit Hilfe der Umordnungs-Relationen (2.25) und (2.27) ausgeführt wurden. Setzt man diese beiden Ergebnisse in (2.90) ein, so ergibt sich: −(−1)k a y Ak = Ak a − (−1)k a ∧ Ak , oder äquivalent dazu: a y Ak = −(−1)k Ak a + a ∧ Ak . (2.93) Addiert man nun die Gleichungen (2.89) und (2.93), dann heben sich die Terme mit dem Dachprodukt weg und man erhält das gesuchte Ergebnis: a y Ak = 12 a y Ak + a y Ak = 12 aAk − a ∧ Ak − (−1)k Ak a + a ∧ Ak = 21 aAk − (−1)k Ak a . Auf die gleiche Weise bekommt man für das äußere Produkt den Ausdruck: a ∧ Ak = 21 aAk + (−1)k Ak a . (2.94) Beide Ausdrücke lassen sich durch Summation über die Stufen auf beliebige Multivektoren fortsetzen. Wir bekommen also zusammenfassend: a y A = 12 aA − α̂(A)a = −α̂(A) x a , (2.95) 1 a ∧ A = 2 aA + α̂(A)a = +α̂(A) ∧ a , (2.96) wobei die Grad-Involution α̂ aus Abschnitt 2.3.2 verwendet wurde. Die Links-Kontraktion eines Vektors auf einen k-Spat ist eine ( Derivation, d. h. es gilt die graduierte Leibniz-Regel: a y (a1 ∧ · · · ∧ ak ) = 2 -graduierte) k X (−1)j+1 (a y aj ) a1 ∧ · · · ǎj · · · ∧ ak , (2.97) j=1 wobei die Notation ǎj bedeutet, dass der Vektor aj im Produkt ausgelassen wird. Um diese Formel zu beweisen, schreiben wir zuerst (2.87) etwas um. Für beliebige Vektoren a und b gilt: 1 2 (ab + ba) = a y b ⇐⇒ ab = 2 a y b − ba . Durch sukzessive Anwendung dieser Identität können wir den Vektor a im folgenden Produkt von ganz links nach ganz rechts bringen: aa1 · · · ak = 2(a y a1 ) a2 · · · ak − a1 aa2 · · · ak = 2(a y a1 ) a2 · · · ak − 2(a y a2 ) a1 a3 · · · ak + a1 a2 aa3 · · · ak .. k . X =2 (−1)j+1 (a y aj ) a1 · · · ǎj · · · ak + (−1)k a1 · · · ak a . j=1 Daraus erhalten wir die Relation: 1 2 k X aa1 · · · ak − (−1)k a1 · · · ak a = (−1)j+1 (a y aj ) a1 · · · ǎj · · · ak , j=1 (2.98) 2.7 Wichtige algebraische Identitäten 25 welche für beliebige Vektoren a1 , . . . , ak gültig ist. Um zur rechten Seite von (2.97) zu kommen, nehmen wir hiervon nur den Anteil (k − 1)-ter Stufe: 1 2 aa1 · · · ak − (−1)k a1 · · · ak a k−1 = k X j=1 (−1)j+1 (a y aj ) ha1 · · · ǎj · · · ak ik−1 k X = (−1)j+1 (a y aj ) a1 ∧ · · · ǎj · · · ∧ ak , (2.99) j=1 wobei im letzten Schritt die Entwicklung des geometrischen Produkts (2.53) herangezogen wurde. Die linke Seite von Gleichung (2.99) kann man umschreiben zu: LS = 1 2 aa1 · · · ak k−1 − 12 (−1)k a1 · · · ak a k−1 . Für den ersten Summanden ergibt sich mit Hilfe der Zerlegung (2.80) und unter Berücksichtigung von (2.53): aa1 · · · ak k−1 = a y (a1 · · · ak ) k−1 + a ∧ (a1 · · · ak ) k−1 E D = a y ha1 · · · ak ik + ha1 · · · ak ik−2 + · · · k−1 D E + a ∧ ha1 · · · ak ik + ha1 · · · ak ik−2 + · · · k−1 D E = a ha1 · · · ak ik k−1 + a ha1 · · · ak ik−2 k−3 + · · · k−1 E D + a ha1 · · · ak ik k+1 + a ha1 · · · ak ik−2 k−1 + · · · k−1 = a y ha1 · · · ak ik + a ∧ ha1 · · · ak ik−2 (2.100) = a y (a1 ∧ · · · ∧ ak ) + a ∧ ha1 · · · ak ik−2 . Für den zweiten Term berechnet man analog dazu: ha1 · · · ak aik−1 = (a1 ∧ · · · ∧ ak ) x a + ha1 · · · ak ik−2 ∧ a . Mit Hilfe der oben hergeleiteten Vertauschungs-Relationen (2.91) und (2.92) lässt sich dies umschreiben zu: ha1 · · · ak aik−1 = −(−1)k a y (a1 ∧ · · · ∧ ak ) + (−1)k a ∧ ha1 · · · ak ik−2 . (2.101) Beim Einsetzen von (2.100) und (2.101) in die linke Seite von (2.99) heben sich deshalb die Terme mit ha1 · · · ak ik−2 weg und man bekommt: k 1 1 y y 2 aa1 · · · ak − (−1) a1 · · · ak a k−1 = 2 a (a1 ∧ · · · ∧ ak ) + a (a1 ∧ · · · ∧ ak ) (2.102) = a y (a1 ∧ · · · ∧ ak ) , insgesamt also die gesuchte Relation (2.97): a y (a1 ∧ · · · ∧ ak ) = k X j=1 (−1)j+1 (a y aj ) a1 ∧ · · · ǎj · · · ∧ ak . (2.97) Aufgrund von (2.78) bekommt man aus (2.97) für das innere Produkt unter der Einschränkung auf k ≥ 1 die Relation: a • (a1 ∧ · · · ∧ ak ) = k X j=1 (−1)j+1 (a • aj ) a1 ∧ · · · ǎj · · · ∧ ak ∀k ≥ 1 . (2.103) 26 Kapitel 2. Grundlagen der Geometrischen Algebra Im Spezialfall k = 2 wird (2.103) zu: a • (a1 ∧ a2 ) = (a • a1 ) a2 − (a • a2 ) a1 . Dies ist die Übersetzung der wohlbekannten Formel (a1 × a2 ) × a = (a · a1 ) a2 − (a · a2 ) a1 , aus der klassischen Vektoranalysis, in die Geometrische Algebra. Die GA-Formel ist allerdings nicht nur im 3 gültig, sondern kann auf Vektoren beliebiger Dimension angewandt werden. Gleichung (2.97) lässt sich sogar noch etwas verallgemeinern. Durch Anwendung auf das äußere Produkt von zwei Spaten, Ak ∧ B l = a 1 ∧ · · · ∧ a k ∧ b 1 ∧ · · · ∧ b l , erhält man: a y (Ak ∧ Bk ) = (a y Ak ) ∧ Bl + α̂(Ak ) ∧ (a y B) . Diese Gleichung lässt sich über die Stufen summieren und man bekommt für beliebige Multivektoren das wichtige Ergebnis: a y (A ∧ B) = (a y A) ∧ B + α̂(A) ∧ (a y B) . (2.104) Also ist die Links-Kontraktion eines Vektors auch allgemein eine Derivation bezüglich dem äußeren Produkt von Multivektoren. Das gleiche Argument lässt sich auch auf Gleichung (2.98) anwenden, wobei man für die linke Seite die Zerlegung (2.53) nutzt. Es ergibt sich: a y (AB) = (a y A)B + α̂(A)(a y B) , (2.105) also ist die Kontraktion eines Vektors zusätzlich auch bezüglich des geometrischen Produkts eine Derivation. Alternativ lässt sich dieses Ergebnis übrigens auch direkt aus Gleichung (2.95) gewinnen: a y (AB) = 21 a(AB) − α̂(AB)a = 21 aAB − α̂(A)aB + α̂(A)aB − α̂(A)α̂(B)a = 21 aA − α̂(A)a B + α̂(A) 21 aB − α̂(B)a = (a y A)B + α̂(A)(a y B) . Leider kann man diesen kurzen Beweis nicht auf das Dachprodukt verallgemeinern, da wir hierfür explizit ausgenutzt haben, dass sich die Kontraktion durch geometrische Produkte beschreiben lässt. Einen analogen Ausdruck der Kontraktion mit Hilfe von Dachprodukten gibt es dagegen nicht. An dieser Stelle sind wir nun endlich in der Lage zu beweisen, dass das geometrische Produkt von paarweise senkrechten Vektoren gleich dem Dachprodukt ist. Konkret wollen wir also zeigen: ai ⊥ aj ∀i 6= j =⇒ ak · · · a1 = ak ∧ · · · ∧ a1 . (2.106) 2.7 Wichtige algebraische Identitäten 27 Dazu gehen wir induktiv vor. Für die Fälle k = 0 und k = 1 ist die Behauptung klar. Für k = 2 benutzen wir die Zerlegung (2.80) mit Ak = a1 . Daraus folgt: a2 a1 = a 2 y a1 + a 2 ∧ a 1 . Wegen (2.12) und (2.78) ist aber a2 ⊥ a1 äquivalent zu 0 = a2 • a1 = a2 y a1 und somit a2 a1 = a2 ∧ a1 . Im allgemeinen Fall benutzen wir die Identität (2.97). Da die Vektoren aj paarweise senkrecht aufeinander stehen, ist ai ∗ aj = ai • aj = 0 für alle i 6= j. Deshalb verschwindet die rechte Seite von (2.97) und wir erhalten: aj y (aj−1 ∧ · · · ∧ a1 ) = 0 . Wieder mit der Zerlegung (2.80) ergibt sich deshalb: aj (aj−1 ∧ · · · ∧ a1 ) = aj y (aj−1 ∧ · · · ∧ a1 ) + aj ∧ (aj−1 ∧ · · · ∧ a1 ) = aj ∧ (aj−1 ∧ · · · ∧ a1 ) = aj ∧ · · · ∧ a1 , womit die Behauptung (2.106) bewiesen ist. Zum Abschluss dieses Abschnitts zeigen wir noch einen wichtigen Zusammenhang zwischen dem Skalarprodukt von Dachprodukten und der Determinante: · · · ha1 |bk i .. . .. . . hak |b1 i · · · hak |bk i ha1 |b1 i .. (a1 ∧ · · · ∧ ak ) ˜∗ (b1 ∧ · · · ∧ bk ) = det . (2.107) Den Beweis dazu führen wir induktiv. Der Fall k = 1 ist trivial, denn es gilt det(ha|bi) = ha|bi = a ˜∗ b . Für den Induktionsschritt von k − 1 nach k bezeichnen wir die k × k-Matrix auf der rechten Seite durch M . Außerdem verwenden wir, wie im Laplace’schen Entwicklungssatz der Determinante nach einer Zeile, die (k − 1) × (k − 1)-Matrix Mij , die sich aus M ergibt, wenn man die i-te Zeile und die j-te Spalte streicht. Wir nehmen nun an, dass die Behauptung für k − 1 wahr ist, d. h. es gelte: (a1 ∧ · · · ǎi · · · ∧ ak ) ˜∗ (b1 ∧ · · · b̌j · · · ∧ bk ) = det(Mij ) . Dann bekommt man: (a1 ∧ · · · ∧ ak ) ˜∗ (b1 ∧ · · · ∧ bk ) = (−1)i−1 (ai ∧ a1 ∧ · · · ǎi · · · ∧ ak ) ˜∗ (b1 ∧ · · · ∧ bk ) = (−1)i−1 (a1 ∧ · · · ǎi · · · ∧ ak ) ˜∗ ai y (b1 ∧ · · · ∧ bk ) k X (2.97) = (−1)i−1 (a1 ∧ · · · ǎi · · · ∧ ak ) ˜∗ (−1)j+1 hai |bj i b1 ∧ · · · b̌j · · · ∧ bk (2.82) = k X j=1 = k X j=1 j=1 (−1) i+j hai |bj i(a1 ∧ · · · ǎi · · · ∧ ak ) ˜∗ (b1 ∧ · · · b̌j · · · ∧ bk ) (−1)i+j hai |bj i det(Mij ) = det(M ) , 28 Kapitel 2. Grundlagen der Geometrischen Algebra wobei im vorletzten Schritt die Induktionsannahme verwendet wurde und der letzte Schritt gerade der Laplace’sche Entwicklungssatz (vgl. [Fis03, Satz 3.3.3]) ist. Damit haben wir den Induktionsschritt vollzogen und die Behauptung ist gezeigt. Als Spezialfall von Gleichung (2.107) bekommt man die Determinante einer n × n-Matrix mit Spalten a1 , . . . , an zu: det a1 · · · an = det hai |ej iij = (a1 ∧ · · · ∧ an ) ˜∗ In , mit dem in Gn eindeutig festgelegten Pseudoskalar In = e1 ∧ · · · ∧ en . Die Theorie der Determinanten innerhalb der Clifford-Algebra wurde ausführlich von Hestenes und Sobczyk in [HS92] untersucht. 2.8 Unterräume, Projektionen und Hodge-Dualität Im Folgenden wollen wir den Zusammenhang von Spaten mit Unterräumen untersuchen. Außerdem werden wir zeigen, wie man die Kontraktionen aus Abschnitt 2.6 zur Definition von Projektionen auf diese Unterräume nutzen kann. 2.8.1 Spate und Unterräume Wir beginnen mit der n-dimensionalen Geometrischen Algebra Gn über dem Vektorraum V = n . Zu jedem k-Spat Ak 6= 0 gibt es dann einen eindeutig bestimmten k-dimensionalen Untervektorraum V(Ak ) ⊂ V mit: V(Ak ) := {a ∈ V : a ∧ Ak = 0} , (2.108) ein Vektor a ist also genau dann in V(Ak ), wenn sein Dachprodukt mit Ak verschwindet. Wir nennen V(Ak ) deshalb auch den Vektorraum von Ak . Skalarmultiplikation und Addition übernehmen wir aus V. Die Abgeschlossenheit von V(Ak ) unter diesen beiden Verknüpfungen ist klar, denn es gilt: a ∧ Ak = 0 , b ∧ Ak = 0 =⇒ (αa + βb) ∧ Ak = 0 . Es bleibt zu zeigen, dass der Vektorraum k-dimensional ist. Dazu erinnern wir uns, dass man den Spat Ak durch Vektoren a1 , . . . , ak ∈ V aufspannen kann: Ak = a 1 ∧ · · · ∧ a k . (2.109) Wegen der Antisymmetrie des äußeren Produkts (2.61) gilt: aj ∧ Ak = aj ∧ a1 ∧ · · · ∧ ak = 0 ∀j = 1, . . . , k , also liegen die Vektoren aj nach der obigen Definition im Untervektorraum V(Ak ). Außerdem sind die aj linear unabhängig. Ansonsten ließe sich nämlich einer – ohne Einschränkung sei dies ak – als Linearkombination der restlichen ausdrücken: ak = k−1 X j=1 αj a j . 2.8 Unterräume, Projektionen und Hodge-Dualität 29 Durch Einsetzen in (2.109) folgt daraus aber: Ak = k−1 X j=1 a1 ∧ · · · ∧ ak−1 ∧ (αj aj ) = 0 , im Widerspruch zur Voraussetzung Ak 6= 0. Wir zeigen nun noch, dass sich jeder andere Vektor in V(Ak ) als Linearkombination der aj schreiben lässt. Ohne Beschränkung der Allgemeinheit können wir dazu die Vektoren aj als orthogonal annehmen, so dass Ak = a1 ∧ · · · ∧ ak = a1 · · · ak gilt. Sei nun a ein weiterer Vektor aus V(Ak ), d. h. a erfüllt die Bedingung a ∧ Ak = 0. Aufgrund der Zerlegung (2.80) gilt dann: aAk = a y Ak + a ∧ Ak = a y Ak . Außerdem hat jeder k-Spat Ak 6= 0 ein multiplikatives Inverses: A−1 k = 1 kAk k t 2 Ak −1 = a−1 k · · · a1 , mit a−1 j = 1 |aj |2 aj . Damit bekommen wir: −1 y a = aAk A−1 k = (a Ak )Ak . Dies kann man anhand der Identität (2.97) entwickeln in: −1 −1 y a = (a y Ak )A−1 k = a (a1 · · · ak ) (ak · · · a1 ) = k X j=1 = = −1 (−1)j+1 (a ∗ aj )(a1 · · · ǎj · · · ak )(a−1 k · · · a1 ) k X −1 −1 −1 j−1 (−1)j+1 (a ∗ aj ) (a1 · · · ǎj · · · ak )(a−1 k · · · ǎj · · · a1 ) aj (−1) {z } | j=1 k X j=1 =1 (a ∗ aj ) a−1 j = k X a ∗ aj j=1 |aj |2 aj = k X αj a j , (2.110) j=1 2 mit αj = (a ∗ aj )/ |aj | ∈ . Damit haben wir gezeigt, dass sich jeder Vektor a ∈ V(Ak ) als Linearkombination der aj schreiben lässt, d. h. die Vektoren (a1 , . . . , ak ) bilden eine Basis von V(Ak ). Folglich ist V(Ak ) ein k-dimensionaler Untervektorraum und unsere anfängliche Behauptung ist bewiesen. Als Nebenprodukt habe wir gezeigt, dass einen Menge von Vektoren genau dann linear unabhängig ist, wenn ihr äußeres Produkt nicht verschwindet: {a1 , . . . , ak } linear unabhängig ⇐⇒ a1 ∧ · · · ∧ ak 6= 0 . (2.111) Haben wir nun umgekehrt einen k-dimensionalen Untervektorraum Vk ⊂ V vorgegeben, so kann man ihm einen, bis auf das Vorzeichen eindeutig bestimmten, normierten k-Spat Ik ∈ G(Vk ) mit kIk k = 1 zuordnen. Die Festlegung auf das positive oder negative Vorzeichen entspricht der Wahl der Orientierung des Vektorraums Vk . Dies ist einfach anhand der Dimension von G l (Vk ) zu zeigen. Wie man 30 Kapitel 2. Grundlagen der Geometrischen Algebra sich eventuell schon anhand der Konstruktion der Basis von Gn in Abschnitt 2.5 klar gemacht hat,9 gilt dim G l (Vk ) = kl , und deshalb ist G k (Vk ) ein eindimensionaler linearer Raum. Geben wir uns also einen k-Spat Ik ∈ G(Vk ) mit kIk k = 1 vor, so ist jeder andere k-Spat Ak , der von Vektoren a1 , . . . , ak ∈ Vk aufgespannt wird, proportional zu Ik : Ak = a1 ∧ · · · ∧ ak = λIk mit λ ∈ . (2.112) Wegen des Transformationsverhaltens unter Raumspiegelung im Unterraum Vk bezeichnet man jedes skalare Vielfache von Ik als Pseudoskalar von Vk . Da zu jedem k-Spat ein eindeutig bestimmter k-dimensionaler Untervektorraum V(Ak ) gehört und umgekehrt, können wir die Vektorräume und Spate in diesem Sinne als äquivalent auffassen. Geometrische und mengentheoretische Relationen zwischen Untervektorräumen lassen sich deshalb durch algebraische Identitäten zwischen den zugehörigen Spaten ausdrücken. 2.8.2 Projektionen Mit dem Pseudoskalar Ak von V(Ak ) können wir jeden Vektor b ∈ V sehr einfach in einen Anteil parallel und senkrecht zum Unterraum V(Ak ) zerlegen: b = b k + b⊥ . (2.113) Da der Anteil bk im Unterraum V(Ak ) liegen soll, muss er nach der obigen Definition die Bedingung bk ∧ Ak = 0 erfüllen. Um die Projektion eindeutig zu machen, muss b⊥ senkrecht auf jedem Vektor a ∈ V(Ak ) stehen. Speziell gilt das natürlich für die Basisvektoren aj , die Ak aufspannen, also b⊥ ∗ aj = 0 für alle j = 1, . . . , k. Wegen der Entwicklung (2.97) ist dies äquivalent zu b⊥ y Ak = 0. Damit bekommen wir: bk A k = b k y A k + b k ∧ A k = b k y A k = bk y Ak + b⊥ y Ak = (bk + b⊥ ) y Ak = b y Ak , sowie b⊥ A k = b ⊥ y A k + b ⊥ ∧ A k = b ⊥ ∧ A k = b⊥ ∧ Ak + bk ∧ Ak = (b⊥ + bk ) ∧ Ak = b ∧ Ak . Multiplikation mit A−1 k von rechts liefert das Ergebnis: −1 y bk = bk Ak A−1 k = (b Ak )Ak , (2.114) −1 b⊥ = b⊥ Ak A−1 k = (b ∧ Ak )Ak . (2.115) und 9 Wir werden später allgemeine Basen von G betrachten und dieses Ergebnis dort noch einmal n explizit herleiten. 2.8 Unterräume, Projektionen und Hodge-Dualität 31 b b⊥ · bk Ak Abbildung 2.4 Orthogonale Projektion des Vektors b auf den Spat Ak . Wichtig für die Eindeutigkeit der Zerlegung ist, dass b⊥ senkrecht auf dem Unterraum V(Ak ) steht. Die Forderung b⊥ ⊥ bk reicht dagegen nicht aus. Alternativ lassen sich die Gleichungen (2.114) und (2.115) als Definitionen auffassen. Dann gilt: −1 −1 bk + b⊥ = (b y Ak )A−1 k + (b ∧ Ak )Ak = bAk Ak = b , also bilden bk und b⊥ eine Zerlegung von b. Um zu zeigen, dass bk in Ak liegt, nehmen wir wie oben ohne Einschränkung an, dass die Vektoren aj orthogonal sind. Dann lässt sich (2.110) anwenden und man erhält: bk = (b y Ak )A−1 k = k X b ∗ aj j=1 |aj | 2 aj = k X αj a j . j=1 Wegen aj ∧ Ak = 0 folgt daraus das gesuchte Ergebnis: bk ∧ A k = k X j=1 αj aj ∧ Ak = 0 =⇒ bk ∈ V(Ak ) . Für b⊥ bekommt man dagegen: b⊥ y Ak = (b − bk ) y Ak = b y Ak − bk y Ak y y = (b y Ak ) A−1 k Ak − b k Ak = b k Ak − b k Ak = b k y Ak + b k ∧ A k − b k y Ak = 0 , also steht b⊥ wie erwartet senkrecht auf dem Unterraum V(Ak ). Allgemein definieren wir die orthogonale Projektion eines beliebigen Multivektors B auf den zum Spat Ak gehörigen Unterraum als: PAk (B) := (B y Ak )A−1 k , (2.116) PA⊥k (B) := (B ∧ Ak )A−1 k . (2.117) sowie die Rejektion 10 : Bemerkenswert an diesen Formeln ist die Tatsache, dass der umgebende Raum gar nicht explizit auftaucht sondern nur indirekt durch die Einbettung des Spates 10 Der Begriff „Rejektion“ wurde von David Hestenes [HS92] geprägt und soll das Zurückweisen des zum Unterraum V(Ak ) parallelen Anteils andeuten. 32 Kapitel 2. Grundlagen der Geometrischen Algebra Ak . Der umgebende Raum spielt also nur eine untergeordnete Rolle, und die Projektion bzw. Rejektion hat in allen Räumen dieselbe Form. Für die Matrixdarstellung einer Projektion (von Vektoren) in der klassischen Linearen Algebra braucht man dagegen zwingend immer auch auch den umgebenden Raum, der die Form des Projektions-Operators beeinflusst. Betrachtet man die Projektion eines Spates Bl auf Ak , so fällt sofort auf, dass PAk (Bl ) für l > k aufgrund der Definition der Links-Kontraktion in (2.76) verschwindet. Geometrisch ist dies sofort klar, denn man kann keine höherdimensionalen Unterräume auf niedrigerdimensionale projizieren. Beispielsweise macht es keine Probleme einen Vektor auf eine Ebene zu projizieren, umgekehrt macht die Projektion einer Ebene auf einen Vektor wenig Sinn. Dies ist die schon in Abschnitt 2.6 erwähnte Asymmetrie und gleichzeitig der Grund, weshalb das innere Produkt nicht geeignet ist, eine echte Projektion für beliebige Multivektoren zu definieren. Dieses Problem wurde von Hestenes in [HS92, Seite 20] zwar erkannt, allerdings nicht zufriedenstellend durch Zusatzforderungen gelöst. Unsere obigen Definitionen sind dagegen ohne weitere Einschränkungen für beliebige Fälle gültig. Im Folgenden werden wir uns vor allem der Projektion zuwenden und die Rejektion etwas vernachlässigen, die Eigenschaften sind aber sehr ähnlich. Für den Projektions-Operator gilt: PAk (βB + γC) = β PAk (B) + γ PAk (C) , PAk PAk (B) = PAk (B) , PAk (B ∧ C) = PAk (B) ∧ PAk (C) , PAk (hBil ) = hPAk (B)il . (2.118) (2.119) (2.120) (2.121) Die Linearität (2.118) folgt direkt aus der Linearität der Kontraktion. Gleichung (2.119) ist die Idempotenz, die jeder Projektions-Operator erfüllen muss. Das bedeutet, wenn wir erst einmal im Unterraum von Ak sind, wirkt der Operator als Identität. Die Eigenschaft (2.120) bedeutet, dass die Projektion ein äußerer Morphismus, also ein Homomorphismus bezüglich äußerem Produkt ist. Die letzte Gleichung (2.121) sagt uns dagegen, dass der Stufenoperator mit der Projektion vertauscht. Um die obigen Relationen zu beweisen, untersuchen wir zuerst, wie die Projektion auf einen Spat Bl wirkt. Wir verwenden die Zerlegung Bl = bl ∧ · · · ∧ b1 , wobei die umgekehrte Reihenfolge der Indizes allein praktische Gründe hat. Damit ergibt sich für die Projektion von Bl der Ausdruck: PAk (bl ∧ · · · ∧ b1 ) = PAk (bl ) ∧ · · · ∧ PAk (b1 ) . (2.122) Es bietet sich an, den Beweis induktiv zu führen. Explizit zeigen wir: (bl ∧ · · · ∧ b1 ) y Ak = (blk ∧ · · · ∧ b1k )Ak , woraus sich durch Multiplikation mit A−1 k die Behauptung ergibt. Für die Projektion von Vektoren benutzen wir die Kurznotation bjk = PAk (bj ) und bj⊥ = PA⊥k (bj ). Für l = 1 ist die Aussage schon in (2.114) bewiesen. Wir nehmen also an, die Behauptung gelte für l = j: (bj ∧ · · · ∧ b1 ) y Ak = (bjk ∧ · · · ∧ b1k )Ak = Bjk Ak , 2.8 Unterräume, Projektionen und Hodge-Dualität 33 mit der Abkürzung Bjk = bjk ∧ · · · ∧ b1k . Dann ist unter Verwendung der Regel (2.85) für die Kontraktion: (bj+1 ∧ · · · ∧ b1 ) y Ak = bj+1 y (bj ∧ · · · ∧ b1 ) y Ak = bj+1 y Bjk Ak . Da die Kontraktion nach Gleichung (2.105) eine Derivation bezüglich geometrischem Produkt ist, folgt daraus: (bj+1 ∧ · · · ∧ b1 ) y Ak = (bj+1 y Bjk ) Ak + α̂(Bjk ) (bj+1 y Ak ) = (bj+1 y Bjk ) Ak + α̂(Bjk ) (bj+1 y Ak A−1 k Ak ) = (bj+1 y Bjk ) Ak + α̂(Bjk ) (bj+1k Ak ) = bj+1 y Bjk + α̂(Bjk )bj+1k Ak = bj+1 y Bjk + α̂(Bjk ) x bj+1k + α̂(Bjk ) ∧ bj+1k Ak = bj+1 y Bjk − bj+1k y Bjk + bj+1k ∧ Bjk Ak = bj+1⊥ y Bjk + bj+1k ∧ Bjk Ak = (bj+1k ∧ bjk ∧ · · · ∧ b1k )Ak , wobei im letzten Schritt der erste Term in der Klammer verschwindet, da bj+1⊥ senkrecht auf Bjk steht und somit aufgrund des Arguments direkt nach Gleichung (2.113) die Kontraktion bj+1⊥ y Bjk = 0 ist. Damit ist die Induktion abgeschlossen und die Aussage (2.122) bewiesen. Die Projektion eines Spates entspricht also der Projektion der aufspannenden Vektoren, wie man es auch geometrisch erwarten würde. Speziell folgt daraus, das die Stufe eines homogenen Multivektors unter der Projektion erhalten bleibt, weshalb der Stufenoperator mit der Projektion vertauscht, was die Aussage von Gleichung (2.121) war. Da das äußere Produkt assoziativ ist, folgt aus (2.122) für zwei Spate: PAk (Bl ∧ Cm ) = PAk (b1 ∧ · · · ∧ bl ∧ c1 ∧ · · · ∧ cm ) = PAk (b1 ) ∧ · · · ∧ PAk (bk ) ∧ PAk (c1 ) ∧ · · · ∧ PAk (cm ) = PAk (b1 ∧ · · · ∧ bl ) ∧ PAk (c1 ∧ · · · ∧ cm ) = PAk (Bk ) ∧ PAk (Cm ) , und durch Summation über die Stufen ergibt sich unter Ausnutzung der Linearität (2.118) die Eigenschaft des äußeren Morphismus (2.120). Wir hatten oben definiert, dass ein Vektor genau dann im Untervektorraum V(Ak ) liegt, wenn sein äußeres Produkt mit Ak verschwindet, explizit: a ∈ V(Ak ) ⇐⇒ a ∧ Ak = 0 . Wegen der Zerlegung (2.80), aA = a y A + a ∧ A, ist dies äquivalent zu: a ∈ V(Ak ) ⇐⇒ aAk = a y Ak ⇐⇒ PAk (a) = a . (2.123) Da die Projektion ein äußerer Morphismus ist, lässt sich dies auf die Stufe von Multivektoren hochheben, also allgemein: B ∈ G(Ak ) ⇐⇒ BAk = B y Ak ⇐⇒ PAk (B) = B , (2.124) 34 Kapitel 2. Grundlagen der Geometrischen Algebra Abbildung 2.5 Die Projektion von Untervektorräumen als Punktmengen senkt die Dimension, wenn die Unterräume orthogonal sind. Die Projektion einer Geraden auf eine Ebene kann einen Punkt ergeben, die Projektion einer Ebene eine Gerade. Bei der Projektion von Multivektoren entspricht der Punkt dem Nullvektor, die Gerade einem 2-Spat mit Betrag 0. wobei G(Ak ) ≡ G(V(Ak ), Q|V(Ak ) ) ist. Damit haben wir ein leicht überprüfbares Kriterium für B ∈ G(Ak ) und wir definieren deshalb jetzt einfach: G(Ak ) := {B ∈ G(V, Q) : PAk (B) = B} . (2.125) Offensichtlich folgt daraus Gleichung (2.119), denn es ist PAk (B) ∈ G(Ak ). Etwas Vorsicht ist bei der geometrischen Interpretation der Projektion geboten. Projiziert man beispielsweise eine Gerade auf eine Ebene, so ergibt sich im Allgemeinen wieder eine Gerade. Steht die Gerade allerdings senkrecht auf der Ebene, dann bekommt man einen Punkt. Analog kann man bei der Projektion einer Ebene eine Gerade erhalten11 , wie in Abbildung 2.5 dargestellt. Die Projektion von Unterräumen erhält dehalb nicht die Dimension. Bei unserer Projektion von Elementen von Unterräumen ist dagegen die Stufe von Multivektoren streng erhalten, wie man direkt aus Gleichung (2.122) ablesen kann. Die Projektion eines homogenen l-Vektors ist also wieder ein l-Vektor. Das gleiche Phänomen tritt auch schon in der klassischen Vektoranalysis auf. Wenn die Projektion eines Vektors verschwindet, ist das Ergebnis kein Punkt, sondern der Null-Vektor. Andernfalls würde eine orthogonale Zerlegung b = b⊥ + bk , wie in (2.113), keinen Sinn ergeben, weil sich Skalare und Vektoren nicht addieren lassen. In der Geometrischen Algebra wäre diese Addition zwar möglich, das Ergebnis ist aber kein reiner Vektor mehr. Dies steht dann aber im Widerspruch zur Tatsache, dass auf beiden Seiten einer Gleichung natürlich Multivektoren gleicher Stufen stehen müssen. Man muss also immer zwischen der Projektion von Unterräumen als Punktmengen und der Projektion von Elementen von Unterräumen unterscheiden. Allerdings kann man einen Punkt auch als entartetes Linienelement vom Betrag 0 auffassen und eine Strecke als entartetes Flächenelement. 11 In 4 Dimensionen und höher ist sogar ein einzelner Punkt als Projektion möglich. In diesem Fall existieren zwei zweidimensionale, orthogonale Unterräume, die sich nur im Ursprung schneiden. 2.8 Unterräume, Projektionen und Hodge-Dualität 35 2.8.3 Pseudoskalar und Hodge-Dualität Wir hatten vorher schon erwähnt, dass zu jedem k-Spat Ak 6= 0 ein eindeutig bestimmter Untervektorraum V(Ak ) gehört und dass umgekehrt jedem orientierten, k-dimensionalen Untervektorraum ein eindeutig bestimmter, auf 1 normierter Pseudoskalar Ik zugeordnet werden kann. Oft sind in der Anwendung gleichzeitig mehrere Pseudoskalare relevant, beispielsweise bei der Bewegung in einer Ebene – ein 2-dimensionaler Unterraum –, die in den 3-dimensionalen Vektorraum 3 eingebettet ist. Deshalb lohnt es sich, die Eigenschaften des (normierten) Pseudoskalars Ik näher zu untersuchen. Als erstes stellt man fest, dass der Pseudoskalar ein wohldefiniertes Vertauschungsverhalten mit den Elementen der zugehörigen Algebra G(Ik ) besitzt: Bl Ik = (−1)l(k−1) Ik Bl für Bl ∈ G(Ik ) . (2.126) Konkret bedeutet dies, dass der Pseudoskalar für ungerade Dimension k mit allen Multivektoren kommutiert. Für eine gerade Dimension des Unterraums, kommutiert Ik dagegen nur mit allen geraden Multivektoren und antikommutiert mit ungeraden Multivektoren. Der Beweis ist ganz einfach, denn mit dem Ergebnis von Gleichung (2.124) und dem Zusammenhang (2.84) zwischen Links- und Rechts-Kontraktion folgt: Bl Ik = Bl y Ik = (Ikt x Blt )t = (−1)(k−l)(k−l−1)/2 (−1)k(k−1)/2 (−1)l(l−1)/2 Ik x Bl = (−1)(k = (−1) 2 −2kl+l2 −k+l−k2 +k−l2 +l)/2 (2l−2kl)/2 Ik Bl = (−1) l(k−1) Ik B l Ik Bl , wo man beim Zusammenfassen (−1)n = (−1)−n für n ∈ verwendet hat. Wenn man Ik quadriert, macht man eine überraschende Entdeckung, denn es ergibt sich: 2 Ik2 = Ik Ik = (−1)k(k−1)/2 Ikt Ik = (−1)k(k−1)/2 kIk k = (−1)k(k−1)/2 . (2.127) Das heißt, es ist Ik2 = 1 für k mod 4 ∈ {0, 1} , aber Ik2 = −1 für k mod 4 ∈ {2, 3} , wie man es von der imaginären Einheit i kennt. Deshalb können wir in der Geometrischen Algebra komplett auf komplexe Zahlen verzichten, die die geometrische Interpretation erschweren würden. Stattdessen werden die komplexen Strukturen hier durch einen (oder mehrere!) Pseudoskalare erzeugt, die eine einfache geometrische Interpretation als k-Spate haben. Betrachten wir beispielsweise die Geometrische Algebra über dem Vektorraum 3 , dann kommutiert der zugehörige Pseudoskalar I3 mit allen Multivektoren und es gilt I32 = −1, d. h. I3 hat alle algebraischen Eigenschaften der imaginären Einheit i. k 0 1 2 3 4 5 6 7 8 Ik2 1 1 −1 −1 1 1 −1 −1 1 ··· ··· Tabelle 2.1 Quadrat des Pseudoskalars für verschiedene Dimensionen k. 36 Kapitel 2. Grundlagen der Geometrischen Algebra Eine weitere Eigenschaft des Pseudoskalars ist die Wirkung auf Multivektoren im zugehörigen Unterraum als Dualitäts-Transformation, in der Literatur auch als Hodge-Dualität 12 bekannt. Für Multivektoren aus dem Unterraum G(Ik ) definiert man die Hodge-Dualität, oder auch Sternoperator genannt, als Abbildung: ?Ik : G(Ik ) → G(Ik ) , A 7→ ?Ik A := AIk−1 . Jedem l-Vektor Al ∈ G(Ik ) wird dadurch ein (k − l)-Vektor ?Ik Al zugeordnet, da das geometrische Produkt mit dem Pseudoskalar Ikt nach Gleichung (2.124) gleich der Kontraktion ist. Bei der Fortsetzung des Sternoperators auf die komplette Algebra G(In ) haben wir die Wahl zwischen Kontraktion und geometrischem Produkt mit dem Pseudoskalar. Wir entscheiden uns für das geometrische Produkt: ?Ik : G(In ) → G(In ) , A 7→ ?Ik A := AIk−1 , (2.128) auch wenn dann das hodge-duale eines homogenen Multivektors im Allgemeinen kein homogener Multivektor mehr ist. Als Entschädigung dafür existiert aber immer die inverse Abbildung: k(k−1)/2 ?−1 ? Ik A , Ik A := AIk = (−1) was den Sternoperator zu einem Vektorraum-Isomorphismus macht. Die notwendige Linearität folgt dabei direkt aus der Linearität des geometrischen Produkts und der Definition. Den Sternoperator zum eindeutig bestimmten Pseudoskalar In der kompletten Geometrischen Algebra G(In ), wollen wir kurz mit ? = ?In bezeichnen. Geometrisch betrachtet, übersetzt die Hodge-Dualität zwischen l-dimensionalen und den dazu orthogonalen (k − l)-dimensionalen Flächenelementen in der Unteralgebra G(Ik ). Der Betrag eines Multivektors bleibt unter dieser Abbildung erhalten: 2 2 kAIk−1 k = kAIk k = (AIk ) ˜∗ (AIk ) = hAIk Ikt At i = hAAt i = A ˜∗ A = kAk2 , denn es gilt Ik Ikt = 1. In der klassischen Vektoranalysis tritt die Hodge-Dualität bei der Definition des Kreuzprodukts auf. Der Vektor c = a × b hat als Länge den Betrag der von a und b aufgespannten Fläche und steht senkrecht auf diesen beiden Vektoren, also senkrecht auf der Fläche a ∧ b. Explizit ist die Beziehung zwischen Kreuz- und Dachprodukt im 3 gegeben als a × b = ?(a ∧ b) = (a ∧ b)I3−1 (siehe dazu Gleichung (C.3) im Anhang auf Seite 143). Am effektivsten lässt sich die Hodge-Dualität in Rechnungen zum Vertauschen von Kontraktion und Dachprodukt verwenden, es gilt nämlich:13 B y (AIk−1 ) = (B ∧ A)Ik−1 ∀B ∈ G(Ik ) , (2.129) 12 Hier muss man etwas aufpassen, da die Definition der Hodge-Dualität in der Literatur nicht einheitlich ist. Üblicherweise hängt diese allerdings von der Stufe ab, was bei uns nicht der Fall ist. Da allen Definitionen aber das Konzept des orthogonalen Komplements zugrunde liegt, wollen wir auch hier die Bezeichnung Hodge-Dualität verwenden. Mehr zur Hodge-Dualität von Differentialformen findet man beispielsweise in [Jän01b, Kapitel 12.3]. 13 Man kann in dieser Formel an Stelle von I sogar jeden beliebigen k-Spat aus G(I ) verwenden. k k Dies ist klar, da G k (Ik ) ein eindimensionaler Unterraum ist und ein skalarer Faktor auf beiden Seiten vorgezogen werden kann. 2.9 Grassmann-Basis und Koordinaten 37 ?a ?a a a (a) (b) Abbildung 2.6 Die Hodge-Dualität übersetzt zwischen l-Spaten und den dazu orthogonalen (k − l)-Spaten. Im zweidimensionalen Fall (a) ist das hodgeduale eines Vektors wieder ein Vektor gleicher Länge, in drei Dimensionen (b) bekommt man dagegen als Ergebnis einen 2-Spat. oder in alternativer Schreibweise: B y (?Ik A) = ?Ik (B ∧ A) ∀B ∈ G(Ik ) , (2.130) d. h. Kontrakion und Dachprodukt sind hodge-dual zueinander. Bemerkenswert an der Formel ist, dass A nicht in der Unteralgebra G(Ik ) liegen muss, sondern dass A ∈ G(In ) vollständig ausreicht. Den Beweis führt man stückweise, zuerst für den Fall eines Vektors b ∈ G 1 (Ik ). Dann gilt: b y (AIk−1 ) = 12 bAIk−1 − α̂(AIk−1 )b = 12 bAIk−1 − α̂(A)α̂(Ik−1 )b = 21 bAIk−1 − α̂(A)(−1)n (−1)n−1 bIk−1 = 12 bA + α̂(A)b Ik−1 = (b ∧ A)Ik−1 . Falls B = Bl ∈ G l (Ik ) ein l-Spat ist, gibt es eine Zerlegung Bl = bl ∧ · · · ∧ b1 . Damit bekommt man: Bl y (AIk−1 ) = (bl ∧ · · · ∧ b1 ) y (AIk−1 ) = bl y · · · y (b1 y (AIk−1 )) = bl y · · · y ((b1 ∧ A)Ik−1 ) = . . . = (bl ∧ · · · ∧ b1 ∧ A)Ik−1 = (Bl ∧ A)Ik−1 . Das Resultat (2.129) für einen beliebigen Multivektor B ∈ G(Ik ) folgt daraus durch Summation unter Ausnutzung der Linearität der Hodge-Dualität. Wenn A in G(Ik ) liegt, gibt es einen viel kürzeren Beweis. Dann ist nämlich AIk−1 = A y Ik−1 und somit: B y (AIk−1 ) = B y (A y Ik−1 ) = (B ∧ A) y Ik−1 = (B ∧ A)Ik−1 ∀A, B ∈ G(Ik ) , aufgrund der Identität (2.85) für die Kontraktion, und weil in diesem Fall natürlich auch das äußere Produkt B ∧ A in G(Ik ) liegt. 2.9 Grassmann-Basis und Koordinaten Von Natur aus besitzt die Clifford-Algebra nur eine 2 -Graduierung und keine n Graduierung, d. h. das geometrische Produkt respektiert zwar die Unterteilung in gerade und ungerade Multivektoren, wie am Ende von Abschnitt 2.3.2 erwähnt, nicht aber die Zerlegung in Stufen. Trotzdem macht es von der geometrischen Interpretation her oft Sinn, Multivektoren in Summen von Spaten zu entwickeln. Wir 38 Kapitel 2. Grundlagen der Geometrischen Algebra Bezeichnung Dimension n-Vektor (Pseudoskalar) 1 (n − 1)-Vektor (Pseudovektor) n `n´ (n − 2)-Vektor 2 . . . `n´ (n − k)-Vektor k `n´ k-Vektor k . . . `n´ 2-Vektor (Bivektor) 2 1-Vektor (Vektor) n 1 0-Vektor (Skalar) Abbildung 2.7 Die schematische Darstellung von G(Vn ) soll die Dualität zwischen k- und (n−k)-Vektoren verdeutlichen. Die bekommt man Dimensionen n . In Klammern sind aus Gleichung (2.132) und der Beziehung nk = n−k alternative Bezeichnung für einige besonders wichtige k-Vektoren angegeben. beginnen dazu mit dem zugrundeliegenden n-dimensionalen Vektorraum Vn , über dem die Geometrische Algebra errichtet werden soll. Für diesen können wir eine Basis (e1 , . . . , en ) aus n linear unabhängigen Vektoren finden, für diese gilt also e1 ∧ · · · ∧ en 6= 0 . Im Folgenden brauchen diese Basisvektoren weder orthogonal noch normiert sein. Eine Basis für den Unterraum der k-Vektoren G k (Vn ) als Vektorraum ist dann offensichtlich durch die k-Spate e i1 ∧ · · · ∧ e ik mit 1 ≤ i1 < . . . < ik ≤ n , (2.131) gegeben. Speziell für den Fall k = 0 muss man das Produkt aus 0 Vektoren bilden, was man natürlicherweise als 1 definiert und somit eine Basis von erhält. Da für die Konstruktion der Basis das erstmals von Hermann Grassmann in [Gra69] und [Gra72] eingeführte äußere Produkt – und nicht das geometrische Produkt – verwendet wurde, wird diese auch als Grassmann-Basis bezeichnet. Da es nk Möglichkeiten gibt, k Elemente aus einer Menge von n Elementen auszuwählen, bekommt man die Dimension des Raums der k-Vektoren zu: n dim G k (Vn ) = . (2.132) k Insgesamt ergibt sich daraus die Dimension der Geometrischen Algebra als Vektorraum zu: n n X X n k = 2n , (2.133) dim G(Vn ) = dim G (Vn ) = k k=0 k=0 was wir auch schon früher erwähnt hatten. Die Aufteilung der Geometrischen Algebra G(Vn ) in die Unterräume G k (Vn ) ist in Abbildung 2.7 schematisch dargestellt. In dieser Darstellung wird sehr schön die Symmetrie zwischen k- und (n − k)-Vektoren deutlich, welche der Hodge-Dualität zugrunde liegt. 2.9 Grassmann-Basis und Koordinaten 39 e2 e2 e1 e1 Abbildung 2.8 Basis ei und reziproke Basis ei in einem zweidimensionalen Vektorraum. Der reziproke Basisvektor e1 steht senkrecht auf e2 und e2 ist orthogonal zu e1 . Die reziproken Basisvektoren sind so normiert, dass e1 ˜∗ e1 = e2 ˜∗ e2 = 1 ist. Für effiziente Rechnungen mit einer solchen „schiefen“ Basis, ist es sinnvoll, zusätzlich die sogenannte reziproke Basis zu verwenden. Wie oben beginnen wir mit dem Vektorraum Vn mit vorgegebener Basis (e1 , . . . , en ). Die reziproken Basisvektoren e1 , . . . , en werden dann durch die Bedingung: hei |ej i = ei ˜∗ ej = δji ∀i, j (2.134) eindeutig festgelegt. Der Basisvektor ei steht also senkrecht auf allen ej mit j 6= i und ist so normiert, dass ei ˜∗ ei = 1 gilt. Um ei zu bekommen, spannen wir zuerst den Unterraum der ej mit j 6= i durch den Spat e1 ∧ · · · ěi · · · ∧ en auf. Daraus bekommt man ei bis auf das Vorzeichen durch Anwendung der Hodge-Dualität mit dem (nicht normierten) Pseudoskalar En = e1 ∧ · · · ∧ en . Explizit ist ei also gegeben durch: ei = (−1)i−1 e1 ∧ · · · ěi · · · ∧ en En−1 . (2.135) Dieser reziproke Basisvektor hat die gewünschte Eigenschaft (2.134), denn durch einfache Rechnung ergibt sich unter Zuhilfenahme der Relation (2.129): ej ˜∗ ei = ej y (−1)i−1 e1 ∧ · · · ěi · · · ∧ en En−1 = (−1)i−1 ej ∧ e1 ∧ · · · ěi · · · ∧ en En−1 = δji . Ziel ist es nun, dieses Ergebnis auf Multivektoren zu verallgemeinern. Durch analoge Konstruktion erhält man eine reziproke k-Vektor-Basis zu: ei1 ∧ · · · ∧ eik = (−1) Pk r=1 (ir −1) eik+1 ∧ · · · ∧ ein En−1 (2.136) mit 1 ≤ ik+1 < . . . < in ≤ n . Dabei ist eik+1 ∧ · · · ∧ ein natürlich gerade gleich dem Produkt e1 ∧ · · · ∧ en ohne die Faktoren ei1 , . . . , eik , in Analogie zu Gleichung (2.135). Den Beweis von (2.136) führt man induktiv. Für eine 1-Spat gilt: ei1 En = ei1 y (e1 ∧ · · · ∧ en ) = = n X i=1 (−1)i−1 δii1 e1 n X i=1 (−1)i−1 (ei1 ˜∗ ei )e1 ∧ · · · ěi · · · ∧ en ∧ · · · ěi · · · ∧ en = (−1)i1 −1 e1 ∧ · · · ěi1 · · · ∧ en . 40 Kapitel 2. Grundlagen der Geometrischen Algebra Für einen 2-Spat bekommt man: (ei2 ∧ ei1 )En = (ei2 ∧ ei1 ) y En = ei2 y ei1 y (e1 ∧ · · · ∧ en ) = (−1)i1 −1 ei2 y (e1 ∧ · · · ěi1 · · · ∧ en ) iX 1 −1 i1 −1 = (−1) (−1)i−1 δii2 e1 ∧ · · · ěi2 · · · ěi1 · · · ∧ en i=1 + n X i=i1 +1 = (−1) i1 −1 (−1)i−2 δii2 e1 ∧ · · · ěi1 · · · ěi2 · · · ∧ en (−1)i2 −1 e1 ∧ · · · ěi1 · · · ěi2 · · · ∧ en . Die erste Summe in der Klammer fällt dabei weg, da nach Voraussetzung i2 > i1 gilt, die Summe aber nur bis i1 − 1 läuft. Setzt man dies fort, so erhält man für einen k-Spat den Ausdruck: (eik ∧ · · · ∧ ei1 )En = (−1)i1 −1 · · · (−1)ik −k e1 ∧ · · · ěi1 · · · ěi2 · · · ěik · · · ∧ en = (−1) Pk r=1 (ir −r) (2.137) eik+1 ∧ · · · ∧ ein . Beim Umkehren der Reihenfolge der Faktoren des reziproken k-Spats tritt ein zusätzliches Vorzeichen von (−1)k(k−1)/2 auf. Dieses lässt sich umformen zu: (−1)k(k−1)/2 = (−1)(k 2 +k−2k)/2 = (−1)k (−1)k(k+1)/2 , um darauf die gut bekannte Summenformel: k X r= r=1 k(k + 1) 2 anzuwenden. Insgesamt bekommt man deshalb für das Vorzeichen: (−1)k(k−1)/2 (−1) Pk r=1 (ir −r) = (−1)k (−1) Pk r=1 ir = (−1) Pk r=1 (ir −1) . Damit lässt sich das obige Zwischenergebnis (2.137) für den k-Spat schreiben als: (ei1 ∧ · · · ∧ eik )En = (−1) Pk r=1 (ir −1) eik+1 ∧ · · · ∧ ein , woraus sich durch Multiplikation mit En−1 das gesuchte Resultat (2.136) ergibt. Jetzt brauchen wir nur noch die Orthogonalität bezüglich ˜∗ zu überprüfen. Da das Skalarprodukt von homogenen Multivektoren unterschiedlicher Stufen immer verschwindet, brauchen wir nur Spate gleicher Stufen betrachten. Für diese bekommt man mit Hilfe von (2.136) und der Dualität (2.129): (ei1 ∧ · · · ∧ eik ) ˜∗ (ej1 ∧ · · · ∧ ejk ) = (ei1 ∧ · · · ∧ eik )t y (ej1 ∧ · · · ∧ ejk ) = (eik ∧ · · · ∧ ei1 ) y (−1) = (−1) Pk r=1 (jr −1) = δij11 · · · δijkk , Pk r=1 (jr −1) ejk+1 ∧ · · · ∧ ejn En−1 eik ∧ · · · ∧ ei1 ∧ ejk+1 ∧ · · · ∧ ein En−1 (2.138) wobei man in der letzten Umformung die bekannte Reihenfolge i1 < · · · < ik sowie j1 < · · · < j1 und jk+1 < · · · < jn ausnutzt. 2.9 Grassmann-Basis und Koordinaten 41 An dieser Stelle ist es nützlich eine kompakte Notation mit Multiindizes einzuführen. Dazu benennen wir einen geordneten Satz von Indizes mit einem Großbuchstaben: I = (i1 , . . . , ik ) mit 1 ≤ i1 < · · · < ik ≤ n . Die Anzahl der einfachen Indizes ir in diesem Multiindex I wollen wir mit |I| bezeichnen, im obigen Fall also |I| = k. Ein k-Spat lässt sich damit sehr kompakt schreiben als: aI = a(i1 ,...,ik ) := ai1 ∧ · · · ∧ aik . Die Orthogonalität (2.138) der Basisspate wird damit zu: eI ˜∗ eJ = δIJ . (2.1380 ) Zum Abschluss wollen wir nun noch die Koordinaten eines Multivektors in solch einer Basis berechnen. Wir suchen also eine Zerlegung: X X A= AI eI = AI eI , I I mit geeigneten skalaren Vorfaktoren AI bzw. AI . Es stellt sich heraus, dass diese gerade durch das Skalarprodukt von A mit dem entsprechenden Basisspat gegeben sind, denn wegen (2.1380 ) gilt: X X X A ˜∗ eI = AJ eJ ˜∗ eI = AJ eJ ˜∗ eI = AJ δJI = AI . J J J Analog ergibt sich für die Komponenten in der reziproken Basis: A ˜∗ eI = AI . Zusammen erhält man also die Darstellung eines Multivektors in der GrassmannBasis zu: X X A= (A ˜∗ eI ) eI = (A ˜∗ eI ) eI . (2.139) I I Das Skalarprodukt zweier Multivektoren A und B kann man in dieser Basisdarstellung einfach berechnen, denn es gilt: X X X A ˜∗ B = (AI eI ) ˜∗ (BJ eJ ) = AI BJ δIJ = AI BI . IJ IJ I Die Norm eines Multivektors ist dann natürlich: X 2 kAk = A ˜∗ A = AI AI . I An diesen Formeln wird deutlich, wie die Verwendung einer reziproken Basis die Rechnungen mit schiefen Koordinatensystemen vereinfacht. Man sollte allerdings immer sorgfältig zwischen dem Konzept eines Multivektors als geometrisches Objekt und der Darstellung desselben in einer Basis trennen. Wie sich in der klassischen Vektoranalysis des 3 gezeigt hat, bietet der synthetische Zugang zur Geometrie viele Vorteile gegenüber den reinen Koordinatenrechnungen, wie sie zum Beispiel im Ricci-Kalkül der Tensoralgebra üblich sind. 42 Kapitel 2. Grundlagen der Geometrischen Algebra 2.10 Geometrische Algebra für nicht-euklidische Räume Bisher hatten wir uns auf den Fall des euklidischen Vektorraums n mit positiv definitem Skalarprodukt beschränkt. In der konkreten physikalischen Anwendung kommen aber auch nicht-euklidische Vektorräume vor, wie zum Beispiel in der Speziellen Relatvitätstheorie und damit natürlich auch in der relativistischen Quantenmechanik. Die dabei auftretenden Besonderheiten wollen wir in diesem Abschnitt genauer untersuchen. Wir beginnen dazu mit einer beliebigen symmetrischen Bilinearform B auf einem n-dimensionalen Vektorraum V. Jede symmetrische Bilinearform lässt sich mit Hilfe einer Hauptachsentransformation [Fis03, Abschnitt 5.7] diagonalisieren. Dadurch lässt sich B auf die Form: 0 p − q B= 0 0r bringen, wobei k eine k-dimensionale Einheitsmatrix und 0r eine r-dimensionale Nullmatrix bezeichnen. Nach dem Trägheitssatz von Sylvester [Fis03, Satz 5.7.4] sind die Zahlen p, q und r Invarianten von B. Genauer ist p die Dimension des größten Unterraums von V, auf dem B positiv definit ist, bzw. die Anzahl der positiven Eigenwerte von B. Die Zahl q ist die Dimension des größten Unterraums, auf dem B negativ definit ist, und r ist die Dimension des Ausartungsraums V0 = {a ∈ V : B(a, b) = 0 ∀b ∈ V}. Zusammen ergibt sich p + q + r = dim V. Für uns ist nur der Fall einer nicht-entarteten Bilinearform interessant, wo r = 0 ist. Dann lässt sich B anhand der Signatur (p, q) klassifizieren, wobei offensichtlich p + q = n gilt. Die Anzahl q der negativen Eigenwerte nennt man auch Index von 2 B. Durch das Skalarprodukt h · | · ip,q := B( · , · ) wird wie üblich eine Norm k · kp,q induziert. Den zugehörigen Vektorraum bezeichnen wir mit p,q und die darüber errichtete Geometrische Algebra mit Gp,q = G( p,q ) = G( n , k · k2p,q ). Der bisher verwendete euklidische Vektorraum n taucht in dieser Nomenklatur als n = n,0 auf und die dazu passende Geometrische Algebra ist dann natürlich Gn = Gn,0 . Leider ist diese Klassifikation in der Literatur nicht einheitlich, da manche Autoren bei der Definition der Clifford-Algebra in die Kontraktionsregel (2.10) ein zusätzliches Minus-Zeichen einbauen. Die hier verwendete Bezeichnung 0 Gp,q wir dort zur Gq,p und umgekehrt. Da die Clifford-Algebren mit entgegengesetzter Signatur im Allgemeinen nicht isomorph sind, Gp,q Gq,p , muss man immer sorgfältig aufpassen, welche Konvention gerade verwendet wird. Wir kommen nun zu den Besonderheiten, die sich als Folge eines nicht-euklidischen Skalarprodukts ergeben. Fast alle bisherigen Ergebnisse lassen sich ohne weiteres auf den nicht-euklidischen Fall verallgemeinern, da wir in den meisten Beweisen nur ein nicht entartetes Skalarprodukt vorausgesetzt haben. Nur an wenigen Stellen musste dieses wirklich positiv definit sein. Im einzelnen sind dies Abschnitt 2.5 über das Multivektor-Skalarprodukt, welches natürlich nicht mehr positiv definit sein kann. Dies hat Auswirkungen auf die Norm von Multivektoren und damit auf das Inverse. Deshalb muss auch der Zusammenhang zwischen Spaten und Unterräumen aus Abschnitt 2.8.1 noch einmal angesprochen werden. Gleichzeitig treten bei der Diskussion des Pseudoskalars Ip,q teilweise andere Vorzeichen auf, was auch Auswirkungen auf die Hodge-Dualität hat. 2.10 Geometrische Algebra für nicht-euklidische Räume 43 Das Skalarprodukt von Multivektoren wurde in Abschnitt 2.5 definiert als: A ˜∗ B = hAt Bi = hAB t i . Die zugehörige Norm eines Multivektors ist gegeben durch: kAk2 = A ˜∗ A . Anders als im euklidischen Fall kann diese Norm jetzt aber auch negativ sein, streng 2 genommen ist sie also nur noch eine Halbnorm. Außerdem folgt aus kAk = 0 nicht mehr automatisch A = 0. Alle Multivektoren A mit verschwindendem Betrag kAk2 = 0 nennt man singulär oder auch isotrop. Ein Vektor a ist genau dann invertierbar, wenn er nicht singulär ist. Der Beweis 2 dafür ist einfach: Offensichtlich ist das Inverse eines Vektors mit kak 6= 0 wie bisher durch a−1 = a/ kak2 gegeben. Sei nun kak2 = 0. Wir nehmen an, dass ein Inverses b existiert, d. h. es gilt ab = 1. Wie üblich können wir das Produkt in Skalar- und Bivektoranteil zerlegen: ab = a y b + a ∧ b. Damit der Bivektoranteil verschwindet, muss a ∧ b = 0 gelten, woraus mit Gleichung (2.14) sofort b k a folgt. Demzufolge ist das Inverse von der Form b = λa mit λ ∈ . Dann gilt aber: ab = a(λa) = λa2 = λ kak2 = λ0 = 0 , im Widerspruch zur Forderung ab = 1. Also hat ein singulärer Vektor kein Inverses. Die Menge der invertierbaren Vektoren in V bezeichnen wir mit V × . Für einen × euklidischen Vektorraum ist offensichtlich Vn,0 = Vn,0 \ {0}. Ein homogener Multivektor Ak ist nach Gleichung (2.20) genau dann ein k-Spat, wenn man ihn als Produkt Ak = a1 · · · ak von k senkrechten Vektoren a1 , . . . , ak schreiben kann. Der Betrag von Ak ergibt sich damit zu: 2 2 2 kAk k = hAk Atk i = ha1 · · · ak ak · · · a1 i = a21 · · · a2k = ka1 k · · · kak k . Ein Spat ist also genau dann singulär, wenn ein singulärer Vektor in der Faktorisierung auftritt. Wie man außerdem an dieser Zerlegung sieht, ist das Inverse eines nichtsingulären Spats Ak gegeben durch: A−1 k = 1 kAk k2 Atk . (2.140) Singuläre Spate sind – genau wie singuläre Vektoren – nicht invertierbar. Wenn Ak nicht singulär ist, dann haben p der Vektoren aj einen positiven und q Vektoren einen negativen Betrag. Die Zahlen p und q sind unabhängig von der gewählten Faktorisierung und es gilt p+q = k. Wir sprechen dann von einem k-Spat mit Signatur (p, q) und bezeichnen ihn, falls die Signatur interessant ist, mit Ap,q . In Abschnitt 2.8.1 gabe es zu jedem k-Spat Ak 6= 0 einen eindeutig bestimmten k-dimensionalen Untervektorraum V(Ak ) ⊂ V. Im nicht-euklidischen Fall ist die Forderung Ak 6= 0 allerdings zu schwach und muss durch kAk k2 6= 0 ersetzt werden. Dies ist notwendig, da man für die Entwicklung (2.110) das Inverse von Ak benötigt. Dann gehört zu jedem nichtsingulären Spat Ap,q mit Signatur (p, q) ein eindeutig bestimmter Untervektorraum V(Ap,q ) mit Signatur (p, q), definiert wie oben durch: V(Ap,q ) := {a ∈ V : a ∧ Ap,q = 0} . (2.141) 44 Kapitel 2. Grundlagen der Geometrischen Algebra Die Aussage über die Signatur folgt dabei direkt aus der Tatsache, dass die Vektoren aj aus der Faktorisierung von Ap,q eine Basis von V(Ap,q ) bilden. Umgekehrt gibt es zu jedem k-dimensionalen Untervektorraum Vp,q ⊂ V mit Signatur (p, q) einen, bis auf das Vorzeichen eindeutig bestimmten, normierten Pseudoskalar Ip,q ∈ G(Vp,q ). Im nicht-euklidischen Fall lässt sich aber nicht mehr 2 2 unbedingt kIp,q k = 1 realisieren, sondern wir können nur kIp,q k = ±1 fordern. Das Vertauschungsverhalten des Pseudoskalars mit den Elementen der Unteralgebra G(Ip,q ) ist unabhängig von der Signatur durch Gleichung (2.126) gegeben. Das Quadrat des Pseudoskalars ist dagegen von der Signatur abhängig: 2 Ip,q = (−1)k(k−1)/2 (−1)q . (2.142) Um dies zu beweisen, kann man eine Faktorisierung von Ip,q verwenden. Ist eine Zerlegung durch Ip,q = e1 · · · ek , mit e2i = +1 für i ∈ {1, . . . , p} und e2i = −1 für i ∈ {p + 1, . . . , k} gegeben, dann gilt nämlich: 2 t Ip,q = (−1)k(k−1)/2 Ip,q Ip,q = (−1)k(k−1)/2 kIp,q k 2 = (−1)k(k−1)/2 e21 · · · e2p e2p+1 · · · e2k = (−1)k(k−1)/2 (−1)q . | {z } | {z } (+1)p (−1)q Außerdem erhält man aus diesem Ergebnis für das Inverse die explizite Formel: −1 t Ip,q = (−1)q Ip,q = (−1)k(k−1)/2 (−1)q Ip,q . (2.143) Für ungeraden Index q unterscheiden sich Transponierte und Inverse des Pseudoskalars also um ein Vorzeichen. Etwas allgemeiner gilt für einen beliebigen Ap,q mit Signatur (p, q): kAp,q k2 = (−1)q kAp,q k2 , die Norm von Ap,q ist also genau dann negativ, wenn q ungerade ist. Durch Gleichung (2.142) entstehen neue Möglichkeiten, wie komplexe Strukturen in die Geometrische Algebra Einzug halten. Unter anderem stellt man dabei fest, dass G0,1 isomorph zu den komplexen Zahlen ist. Den Isomorphismus erhält man durch lineare Fortsetzung der Abbildung ϕ : G0,1 → , e1 7→ i . Die Algebra G0,2 ist isomorph zu den Hamilton’schen Quaternionen , die eine sehr effiziente Formulierung von Drehungen im dreidimensionalen Raum ermöglichen. Im nächsten Kapitel wollen wir darauf zurückkommen. Bei der Hodge-Dualität gibt es nur eine wichtige Änderung gegenüber den Ergebnissen von Abschnitt 2.8.3. Neu ist die Tatsache, dass die Norm eines Multivektors A unter der Hodge-Dualität nur noch betragsmäßig erhalten ist. Konkret ergibt sich mit Hilfe von Gleichung (2.143): 2 −1 k?Ip,q Ak2 = kAIp,q k = (−1)q kAk2 , das heißt für ungeraden Index q taucht ein negatives Vorzeichen auf. (2.144) 2.11 Zusammenfassung 45 2.11 Zusammenfassung In diesem Kapitel haben wir die Geometrische Algebra G(V, Q) von Multivektoren konstruiert. Ein Multivektor ist das allgemeinste Element der Algebra G(V, Q) und lässt sich nach Abschnitt 2.1 in eine Summe von Spaten unterschiedlicher Stufen zerlegen. Ein k-Spat lässt sich wiederum geometrisch als orientiertes Element eines k-dimensionalen Untervektorraums von V interpretieren. Die Geometrische Algebra G(V, Q) ist die Clifford-Algebra über dem Vektorraum V mit der quadratischen 2 Form Q. Im Normalfall verwenden wir die Algebra Gn := G( n , | · | ) über dem 2 n Standardvektorraum mit der quadratischen Form Q(x) = |x| , wobei | · | die übliche euklidische Norm von Vektoren ist. Um die Notation zu vereinfachen, benutzen wir kleine griechische Buchstaben α, β, γ für Skalare, lateinische Kleinbuchstaben a, b, c für Vektoren und Großbuchstaben A, B, C für Multivektoren. Für homogene Multivektoren der Stufen k, l, m ist in der Literatur die Bezeichnung Ak , Bl , Cm usw. üblich. Die Clifford-Algebra G(V, Q) erfüllt nach Abschnitt 2.2 alle Eigenschaften einer nicht-kommutativen, assoziativen Algebra mit 1, die von den Vektoren aus V generiert wird. Das Geometrische bzw. Clifford-Produkt wird durch Juxtaposition AB der Multivektoren A und B bezeichnet. Ein allgemeiner Multivektor entsteht dann – wie bei den Tensoren – indem man Summen von Produkten der Generatoren bildet. Zusätzlich gilt dabei aber für Vektoren die Kontraktionsregel : a2 = Q(a) = |a|2 , (2.10) die beim Bilden der Produkte beachtet werden muss. Wenn die Charakteristik des zugrundeliegenden Körpers ungleich 2 ist, dann lässt sich jeder symmetrischen Bilinearform B eine eindeutig bestimmte quadratische Form Q(a) = B(a, a) zuordnen und umgekehrt. Die Kontraktionsregel (2.10) ist deshalb äquivalent zu: ab + ba = 2B(a, b) = 2ha|bi . (2.11) Die passende Bilinearform von Gn ist gerade das Skalarprodukt h · | · i. Dies ist auch gerade die Relation, welche von den Pauli-Matrizen erfüllt wird: σi σj + σj σi = 2δij , die die Basis einer dreidimensionalen Clifford-Algebra bilden. Mit Hilfe des linearen Stufenoperators h · ik lässt sich ein Multivektor in seine homogenen Anteile zerlegen: X X A= hAik = Ak̄ , (2.190 ) k k wobei · k̄ eine alternative, platzsparende Notation darstellt. Für den Skalaranteil ist in der Literatur zusätzlich die Bezeichnung hAi = A0̄ = hAi0 üblich. Der Stufenoperator wird vor allem genutzt, um abgeleitete Produkte zu definieren, die nur einen Teil der Information des Geometrischen Produkts enthalten. Wie wir gesehen haben, ist ein Multivektor Ak genau dann ein Spat der Stufe k, wenn man ihn in ein Produkt von k antikommutierenden Vektoren faktorisieren kann. 46 Kapitel 2. Grundlagen der Geometrischen Algebra Die Clifford-Algebra besitzt zwei wichtige kanonische Automorphismen. Die Transposition · t aus Abschnitt 2.3.1 ist ein Anti-Automorphismus, d. h. er vertauscht die Reihenfolge eines Produkts gemäß (AB)t = B t At . Eindeutig wird die Transposition durch die Forderung at = a für Vektoren festgelegt. Für einen k-Spat gilt dann die wichtige Formel: Atk = (−1)k(k−1)/2 Ak . (2.25) Der zweite wichtige Automorphismus ist die Grad-Involution α̂ aus Abschnitt 2.3.2. Dieser erhält die Reihenfolge des Produkts α̂(AB) = α̂(A)α̂(B) und wird eindeutig durch die Forderung α̂(a) = −a für Vektoren festgelegt. Für einen homogenen Multivektor Ak ist α̂(Ak ) = (−1)k Ak . Dadurch zerfällt die Clifford-Algebra in eine direkte Summe von geraden Multivektoren G + , die unter der Gradinvolution ihr Vorzeichen behalten, und ungeraden Multivektoren G − , die das Vorzeichen ändern. Aufbauend auf dem geometrischen Produkt definierten wir in Abschnitt 2.4 mit Hilfe des Stufenoperators das äußere Produkt oder Dachprodukt: X hAk̄ Bl̄ ik+l (2.40) A ∧ B := kl und das innere Produkt: A • B := X kl hAk̄ Bl̄ i|l−k| . (2.41) Für homogene Multivektoren gelten die Vertauschungsregeln: Ak ∧ Bl = (−1)kl Bl ∧ Ak , Ak • Bl = (−1) (k−l) min(k,l) (2.45) Bl • A k . (2.46) Das äußere Produkt ist außerdem assoziativ, das innere Produkt nicht. Nach Gleichung (2.60) ist das Dachprodukt antisymmetrisch unter Vertauschung von zwei Vektoren und verschwindet, wenn zwei Vektoren linear abhängig sind. Das Skalarprodukt von Multivektoren wurde in Abschnitt 2.5 definiert durch: A ∗ B := hABi , (2.62) und alternativ durch A ˜∗ B := At ∗ B = A ∗ B t . Ersteres wird in der Standard-Literatur verwendet, da es sich sehr gut mit den anderen Produkten verträgt, ist aber nicht positiv definit. Das alternative Skalarprodukt ˜∗ ist für alle Multivektoren positiv definit und kann deshalb auch verwendet werden, um die Norm von Multivektoren zu definieren: kAk2 := A ˜∗ A = At ∗ A = A ∗ At . (2.72) Beide Skalarprodukte sind nicht entartet. Das bedeutet aus A ∗ C = B ∗ C oder aus A˜∗ C = B ˜∗ C für alle C folgt A = B. Für homogene Multivektoren unterschiedlicher Stufen verschwindet das Skalarprodukt. Außerdem gilt: At ∗ B t = A ∗ B. 2.11 Zusammenfassung 47 Das innere Produkt hat einige Probleme, die aus der Verwendung des Betrags in der Definition (2.41) herrühren. Deshalb ersetzten wir es in Abschnitt 2.6 durch die Links-Kontraktion: X hAk̄ Bl̄ il−k , (2.76) A y B := kl und die Rechts-Kontraktion: A x B := X kl hAk̄ Bl̄ ik−l . (2.77) In Gleichung (2.78) wurde der Zusammenhang mit den anderen Produkten analysiert. Mit Hilfe der Kontraktion ergaben sich die fundamentalen Zerlegungen: aA = a y A + a ∧ A , Aa = A x a + A ∧ a . (2.80) (2.81) Außerdem sind die Kontraktionen adjungiert zum äußeren Produkt: A ∗ (B y C) = (A ∧ B) ∗ C , (C x B) ∗ A = C ∗ (B ∧ A) . (2.82) (2.83) Obwohl die Kontraktionen, wie das innere Produkt, nicht assoziativ sind, erfüllen diese eine universelle Quasi-Assoziativität: A y (B y C) = (A ∧ B) y C , (C x B) x A = C x (B ∧ A) . (2.85) (2.86) In Abschnitt 2.7 haben wir einige wichtige algebraische Identitäten abgeleitet. Die Kontraktion und das äußere Produkt eines Vektors mit einem beliebigen Multivektor lässt sich demnach schreiben als: (2.95) a y A = 12 aA − α̂(A)a = −α̂(A) x a , 1 a ∧ A = 2 aA + α̂(A)a = +α̂(A) ∧ a . (2.96) Weiterhin stellten wir fest, dass die Kontraktion von Vektoren eine graduierte Derivation sowohl bezüglich äußerem als auch geometrischem Produkt ist: a y (A ∧ B) = (a y A) ∧ B + α̂(A) ∧ (a y B) , a y (AB) = (a y A)B + α̂(A)(a y B) . (2.104) (2.105) Als wichtigen Spezialfall von (2.104) erhält man: a y (a1 ∧ · · · ∧ ak ) = k X j=1 (−1)j+1 (a y aj ) a1 ∧ · · · ǎj · · · ∧ ak , (2.97) wobei die Notation ǎj bedeutet, dass der Vektor aj im Produkt ausgelassen wird. Ein analoger Ausdruck ergibt sich aus (2.105) für das geometrische Produkt. Anschließend haben wir den Zusammenhang zwischen Spaten und Unterräumen untersucht. Es stellte sich heraus, dass zu jedem k-Spat Ak ein eindeutig bestimmter k-dimensionaler Untervektorraum von V gehört: V(Ak ) := {a ∈ V : a ∧ Ak = 0} . (2.108) 48 Kapitel 2. Grundlagen der Geometrischen Algebra Umgekehrt besitzt jeder k-dimensionale Untervektorraum Vk einen, bis auf das Vorzeichen eindeutig festgelegten, auf 1 normierten k-Spat Ik ∈ G(Vk ), der auch Pseudoskalar genannt wird. In diesem Sinn ließen sich Spat und zugehöriger Vektorraum als äquivalent auffassen. Mit Hilfe eines, nicht notwendigerweise normierten, Pseudoskalars wurde in Abschnitt 2.8.2 die Projektion und die Rejektion auf den zugehörigen Unterraum definiert als: PAk (B) := (B y Ak )A−1 k , PA⊥k (B) := (B ∧ Ak )A−1 k . (2.116) (2.117) Diese erfüllen alle Eigenschaften eines mathematischen Projektionsoperators und sind äußere Morphismen, d. h. es gilt: PAk (B ∧ C) = PAk (B) ∧ PAk (C) . (2.120) Die Projektion wurde verwendet, um eine einfache Definition der Geometrischen Algebra eines Spats zu geben: G(Ak ) := {B ∈ G(V, Q) : PAk (B) = B} . (2.125) Danach wurden der Pseudoskalar und die Hodge-Dualität diskutiert. Der Pseudoskalar besitzt ein wohldefiniertes Vertauschungsverhalten mit den Elementen der zugehörigen Algebra: Bl Ik = (−1)l(k−1) Ik Bl für Bl ∈ G(Ik ) . (2.126) Beim Quadrieren machte man eine überraschende Entdeckung. Es ergab sich: Ik2 = (−1)k(k−1)/2 , d. h. für bestimmte Dimensionen ist das Quadrat des Pseudoskalars gleich −1. Auf diese Weise finden komplexe Strukturen Eingang in die Geometrische Algebra und man kann deshalb auf komplexe Zahlen verzichten, die die geometrische Interpretation erschweren würden. Die Hodge-Dualität der Geometrischen Algebra ist definiert als: ?Ik : G(In ) → G(In ) , A 7→ ?Ik A := AIk−1 . (2.128) Die Hodge-Dualität ist ein Isomorphismus von G(In ) (nicht nur von G(Ik )!) und übersetzt im Unterraum l-Vektoren in (k − l)-Vektoren. Man stellt weiterhin fest, dass Kontraktion und äußeres Produkt hodge-dual zueinander sind: B y (AIk−1 ) = (B ∧ A)Ik−1 ∀B ∈ G(Ik ) , (2.129) wobei der dabei verwendete Pseudoskalar nicht normiert sein braucht. In Abschnitt 2.9 wurden Basis-Darstellungen von Multivektoren in einer Grassmann-Basis konstruiert. Für „schiefe“ Basen wurde dazu das Hilfsmittel der reziproken Basis eingeführt. Unter Verwendung von Multiinizes kam man zum Ergebnis: X X A= (A ˜∗ eI ) eI = (A ˜∗ eI ) eI , (2.139) I I 2.11 Zusammenfassung 49 mit eI = e(i1 ,...,ik ) := ei1 ∧ · · · ∧ eik und eI ˜∗ eJ = δIJ . Abschließend haben wir in Abschnitt 2.10 die Geometrische Algebra auf nichteuklidische Räume verallgemeinert. Dazu wurde eine nichtentartete Bilinearform B anhand der Signatur (p, q), also der Anzahl der positiven (p) und negativen (q) Eigenwerte klassifiziert. Die zugehörige Geometrische Algebra trägt dann die Bezeichnung Gp,q . Die euklidische Algebra Gn wird in dieser Schreibweise zu Gn,0 . Im wesentlichen konnten alle bisherigen Resultate auch für den nicht-euklidischen Fall übernommen werden. Änderungen gab es beim Skalarprodukt und der Norm, welche dann nicht mehr positiv definit sind. Dies wirkte sich auch auf die Invertierbarkeit von Multivektoren aus. Auch einem Spat konnte eine Signatur (p, q) zugewiesen werden, anhand der Vektoren mit positvem (p) und negativem (q) Quadrat für eine beliebige orthogonale Zerlegung. Wie wir gesehen haben, gehört zu einem Spat Ap,q mit Signatur (p, q) ein eindeutig bestimmter Untervektorraum V(Ap,q ) von V mit Signatur (p, q). Das Quadrat des Pseudoskalars Ip,q zu einem Raum mit Signatur (p, q) bekam ein zusätzliches Minus-Zeichen: 2 Ip,q = (−1)k(k−1)/2 (−1)q , (2.142) abhängig vom Index q. Dadurch entstanden neue Möglichkeiten, wie komplexe Strukturen ihren Weg in die Geometrische Algebra fanden. Wichtige Isomorphien sind: G0,0 ∼ und G0,2 ∼ = , G0,1 ∼ = = . Letztendlich trat aufgrund von Gleichung (2.142) bei der Norm des hodge-dualen eines Multivektors ein zusätzliches Vorzeichen auf: 2 −1 k?Ip,q Ak2 = kAIp,q k = (−1)q kAk2 . (2.144) Dieses Ergebnis könnte möglicherweise in der Spezielle Relativitätstheorie von Bedeutung sein, wenn es darum geht die Signatur der Raumzeit auszuwählen. Auch wenn die Signatur im üblichen, vierdimensionalen Fall egal ist, treten in einer 2 + 1dimensionalen Raumzeit je nach gewählter Signatur unterschiedliche Vorzeichen in Gleichung (2.144) auf. Allerdings ist unklar, ob diese Form der Hodge-Dualität in den physikalisch relevanten Ausdrücken überhaupt eine Rolle spielt. 50 Kapitel 2. Grundlagen der Geometrischen Algebra 3. Reflexionen und Rotationen In diesem Kapitel beschäftigen wir uns mit der Beschreibung von Spiegelungen und Drehungen, die innerhalb der Geometrischen Algebra eine sehr einfache Form erhalten. Auch Lorentz-Transformationen tauchen in diesem Formalismus ganz natürlich auf, sobald man Räume mit nicht-euklidischer Metrik betrachtet. Im ganzen Kapitel bezeichnet V einen n-dimensionaler Vektorraum mit Signatur (p, q). Reflexionen und Rotationen sind Beispiele für Isometrien eines Vektorraums. Isometrien sind Automorphismen von V, die das Skalarprodukt (oder allgemeiner eine beliebige Bilinearform) von Vektoren invariant lassen, genauer: Definition 3.1 (Isometrie) Sei V ein K-Vektorraum, der mit einer Bilinearform B : V × V → K versehen ist. Ein Automorphismus U : V → V heißt Isometrie, wenn gilt: B(U(v), U(w)) = B(v, w) für alle v, w ∈ V , d. h. der Wert der Bilinearform B ist unter der Transformation U erhalten. Die Bilinearform induziert eine metrische Struktur auf V. Man kann B(v, v) als eine Art „Länge“ interpretieren, wogegen B(v, w) etwas mit einem „Winkel“ zwischen den Vektoren v und w zu tun hat. Im Fall einer symmetrischen Bilinearform, d. h. B(v, w) = B(w, v) , nennt man die Geometrie orthogonal. Die zugehörigen Isometrien heißen dann auch orthogonale Transformationen. Falls die Bilinearform antisymmetrisch ist, d. h. B(v, w) = −B(w, v) , spricht man von einer symplektischen Geometrie. Eine ausführliche Behandlung von Isometrien in orthogonalen und symplektischen Vektorräumen findet sich in [Art57]. Im Folgenden werden wir nur den orthogonalen Fall ohne Entartung diskutieren.1 Die orthogonalen Transformationen eines Vektorraums V mit Signatur (p, q) bilden eine Gruppe, die man mit O(p, q) bezeichnet. Die Rotationen bilden eine Untergruppe, die spezielle orthogonale Gruppe SO(p, q) genannt wird. Indem man die Bilinearform B durch eine Matrix beschreibt und diese diagonalisiert, kommt man zur wohlbekannten Matrixdarstellung dieser Gruppen (vgl. [BS95, Abschnitt 17.1]): O(p, q) = {U ∈ GL(n, SO(p, q) = {U ∈ GL(n, ) : Ut p,q U = t p,q U = ):U p,q } p,q , , det U = +1} . 1 Wir haben die Clifford-Algebra bisher nur für symmetrische Bilinearformen definiert. Das Analogon zur Clifford-Algebra über einem symplektischen Vektorraum ist die Weyl-Algebra. Wie man Clifford-Algebren für eine nicht-symmetrische Bilinearform definieren kann, ist im Abschnitt A.5 des Anhangs auf Seite 133 skizziert. 52 Kapitel 3. Reflexionen und Rotationen s v vk v⊥ −vk S(v) Abbildung 3.1 Spiegelung des Vektors v an der Hyperebene senkrecht zum nichtsingulären Vektor s. Hierbei ist p,q die diagonalisierte Matrix der Bilinearform mit Signatur (p, q): + p , p,q = − q und k die Einheitsmatrix. Die Forderung U t p,q U = p,q garantiert, dass die Bilinearform unter der linearen Transformation U erhalten ist. Die Gruppe GL(n, K) heißt allgemeine lineare Gruppe und besteht aus den invertierbaren n × n-Matrizen mit Einträgen in K. Die Invertierbarkeit entspricht der Forderung nach Automorphismen in der Definition der Isometrie. Im euklidischen Fall (p = n, q = 0), vereinfachen sich die obigen Darstellungen zu: ) : U tU = } , O(n) = {U ∈ GL(n, SO(n) = {U ∈ GL(n, t ) : U tU = Eine Matrix mit der Eigenschaft U U = 3.1 , det U = +1} . heißt orthogonal. Spiegelung an einer Hyperebene Wir beginnen mit der Spiegelung eines Vektors v an der (n − 1)-dimensionalen Hyperebene senkrecht zum nichtsingulären Vektor s. Dazu zerlegen wir den Vektor mit Hilfe der Projektion in Anteile senkrecht und parallel zu s: v = v⊥ + vk = (v ∧ s)s−1 + (v y s)s−1 . Dass dafür die Inverse s−1 benötigt wird, stellt kein Problem dar, da jeder nichtsinguläre Vektor invertierbar ist. Wie aus Abbildung 3.1 deutlich wird, ist der an der Hyperebene reflektierte Vektor S(v) durch S(v) = v⊥ − vk gegeben. Dies kann man mit Hilfe der Relationen zwischen den unterschiedlichen Produkten vereinfachen. S(v) = v⊥ − vk = (v ∧ s)s−1 − (v y s)s−1 = −(s ∧ v)s−1 − (s x v)s−1 = −(s ∧ v + s x v)s−1 = −svs−1 . Die Reflexion an einer Hyperebene senkrecht zu s hat deshalb in der geometrischen Algebra die einfache Form: S(v) = −svs−1 = α̂(s)vs−1 . (3.1) 3.2 Der Satz von Cartan-Dieudonné 53 3.2 Der Satz von Cartan-Dieudonné Ein wichtiges Resultat aus der Algebra ist, dass sich jede orthogonale Transformation aus den Spiegelungen an Hyperebenen aufbauen lässt. Man sagt deshalb, dass die orthogonalen Transformationen von den Spiegelungen generiert werden. Dies ist die Aussage des Satzes von Cartan-Dieudonné: Satz 3.1 (Cartan-Dieudonné) Sei V ein nicht-entarteter Vektorraum der Dimension n. Dann lässt sich jede orthogonale Transformation U ∈ O(p, q) von V als Produkt von maximal n Reflexionen Sj an Ebenen senkrecht zu nichtsingulären Vektoren schreiben: U = Sk ◦ · · · ◦ S1 mit k ≤ n . (3.2) Jede Rotation ist dabei das Produkt einer geraden Anzahl von Spiegelungen. Wir wollen hier nur den Beweis für einen euklidischen Vektorraum über wiedergeben, wie er bei Riesz [Rie93, Section 2.2] dargestellt ist. Einen allgemeinen Beweis für beliebige Körper und Vektorräume beliebiger Signatur findet man im Buch von Artin [Art57, Theorem 3.20]. Das Hauptproblem im nicht-euklidischen Fall liegt dabei darin, dass im Allgemeinen außer dem Nullvektor weitere singuläre Vektoren auftreten, die man gesondert behandeln muss. Der folgende Beweis beruht auf Induktion über die Dimension n. Für n = 0 ist die einzige orthogonale Transformation die Identität, und die Behauptung wird durch k = 0 in Gleichung (3.2) erfüllt. Für n = 1 gibt es zusätzlich nur eine einzige Spiegelung, weshalb auch dieser Fall klar ist. Wir nehmen also an, die Behauptung gelte für (n − 1). Für den Induktionsschritt von (n − 1) nach n unterscheiden wir zwischen zwei Fällen: 1. Fall: Wir nehmen an, dass ein Vektor 0 6= v ∈ V existiert, der unter der Transformation U invariant ist, d. h. es gelte Uv = v. Bezeichne mit H die (n − 1)dimensionale Hyperebene senkrecht zu v. Für jeden Vektor w in der Ebene H gilt 0 = hv |wi = hUv |Uwi = hv |Uwi, folglich ist auch das Bild Uw von w wieder in H, wobei wir die Erhaltung des Skalarprodukts unter der Isometrie U ausgenutzt haben. Die Transformation U bildet also die Ebene H auf sich selbst ab. Sei nun UH die Einschränkung von U auf die Ebene H. Nach Vorraussetzung ist U eine Isometrie von V und somit UH eine Isometrie des Untervektorraums H. Nach Induktionsvorraussetzung existieren in H dann k ≤ n − 1 Hyperebenen Ẽ1 , . . . , Ẽk der Dimension (n − 2), so dass UH = S̃k ◦ · · · ◦ S̃1 ist, wobei S̃j die Reflexion an der Hyperebene Ẽj bezeichnet (siehe Abbildung 3.2a auf der nächsten Seite). Diese Reflexionen in der Hyperebene H wollen wir nun zu Reflexionen in ganz V fortsetzen. Dazu bezeichnen wir mit L den eindimensionalen Untervektorraum, der von v aufgespannt wird und bilden die direkte Summe Ej := L ⊕ Ẽj . Jedes Ej ist eine (n − 1)-dimensionale Hyperebene in V und die Einschränkung der Reflexion Sj an der Ebene Ej auf den Unterraum H liefert Sj |H = S̃j . Die gesuchte Zerlegung ist deshalb U = Sk ◦ · · · ◦ S1 mit k ≤ n − 1 und wir sind mit diesem Fall fertig. 2. Fall: Wir nehmen an, es gibt einen Vektor v mit Uv 6= v (ansonsten sind wir im 1. Fall). Da jede lineare Transformation den Nullvektor auf sich selbst abbildet, muss v 6= 0 sein. Außerdem gilt: hUv |Uvi = hv |vi ⇐⇒ hUv − v |Uv + vi = 0 , (3.3) 54 Kapitel 3. Reflexionen und Rotationen L E1 v E2 Uv + v Uv v H Ẽ2 Uv − v · Ẽ1 H (a) (b) Abbildung 3.2 Zum Beweis des Satzes von Cartan-Dieudonné. was man durch Ausmultiplizieren schnell nachprüfen kann. Sei nun H die Hyperebene senkrecht zum Vektor Uv − v 6= 0 und SH die zugehörige Spiegelung (siehe Abbildung 3.2b). Wegen Gleichung (3.3) liegt der Vektor Uv + v in dieser Ebene und ist deshalb unter der Spiegelung SH erhalten: SH (Uv + v) = +(Uv + v) = v + Uv . Andererseits gilt natürlich für den auf H senkrechten Vektor Uv − v: SH (Uv − v) = −(Uv − v) = v − Uv . Addition der beiden Gleichung liefert SH Uv = v, folglich ist v invariant unter der zusammengesetzten Transformation SH ◦ U. Da nach Vorraussetzung v 6= 0 war, können wir auf SH ◦ U den ersten Fall anwenden und bekommen eine Zerlegung SH ◦ U = Sk ◦ · · · ◦ S1 mit k ≤ n − 1. Weil Reflexionen selbstinvers sind, folgt daraus durch Multiplikation mit SH von links: U = S H ◦ Sk ◦ · · · ◦ S 1 mit k + 1 ≤ n . Damit haben wir auch in diesem Fall eine geeignete Zerlegung von U konstruiert und der Beweis des Satzes für den euklidischen Vektorraum ist abgeschlossen. Im nächsten Abschnitt werden wir sehen, wie sich aus zwei Reflexionen eine Rotation ergibt. Da die Drehungen eine Untergruppe der orthogonalen Transformationen bilden, folgt daraus der Rest der Behauptung. Der Satz von Cartan-Dieudonné erlaubt einige interessante Schlussfolgerungen. Die Darstellung einer Reflexion an einer Hyperebene ist uns schon in Form von Gleichung (3.1) bekannt. Damit lässt sich in der geometrischen Algebra jede beliebige orthogonale Transformation U schreiben als: −1 U(v) = α̂(sk · · · s1 ) v s−1 1 · · · sk mit k ≤ n , (3.4) wobei sj nichtsinguläre Vektoren sind, die man geeignet wählen muss. Fasst man dieses Produkt aus k invertierbaren Vektoren zu einem Multivektor U = sk · · · s1 zusammen, so wird Gleichung (3.4) zu: U(v) = α̂(U )vU −1 . (3.5) 3.2 Der Satz von Cartan-Dieudonné 55 Diese Darstellung von orthogonalen Transformationen heißt verschränkt adjungierte Darstellung (im Englischen twisted adjoint representation) und wurde erstmals von Atiyah, Bott und Shapiro in [ABS64] verwendet. Der Vorteil gegenüber der einfacheren adjungierten Darstellung UvU −1 ist, dass man auf diese Weise Reflexionen und Rotationen gemeinsam beschreiben kann. Die Art der in Gleichung (3.5) auftretenden Multivektoren ist so wichtig, dass sie einen eigenen Namen verdient haben. Einen Multivektor, der sich in ein Produkt von k invertierbaren Vektoren zerlegen lässt, wollen wir mit dem Begriff k-Versor 2 bezeichnen. Die Versoren bilden unter dem geometrischen Produkt eine Gruppe, die man Clifford-Lipschitz-Gruppe Γp,q nennt. Nach Lounesto [Lou01, Section 17.2] lässt sich diese auch ausdrücken als: Γp,q = {U = sk · · · s1 : sj ∈ V × } × : α̂(U )vU −1 ∈ V ∀v ∈ V} , = {U ∈ Gp,q × wobei Gp,q die Gruppe der invertierbaren Multivektoren bezeichnet. Die Elemente der Clifford-Lipschitz-Gruppe sind also genau die invertierbaren Multivektoren, die unter der verschränkt adjungierten Darstellung Vektoren auf Vektoren abbilden. Im Allgemeinen ist ein Versor ein inhomogener Multivektor, wie man sich einfach am Produkt von zwei Vektoren deutlich macht. Wenn man allerdings nur senkrechte Vektoren in der Zerlegung verwendet, sieht man direkt, dass die k-Spate einen Spezialfall der k-Versoren darstellen. Man kann nun leicht zeigen, dass das Skalarprodukt wirklich unter allen Transformationen der Form (3.5) erhalten ist. Da es ohne zusätzlichen Aufwand möglich ist, wollen wir sogar eine etwas allgemeinere Aussage beweisen, nämlich die Erhaltung des Skalarprodukts von Multi vektoren unter solch einer Transformation. Sei −1 dazu U = sk · · · s1 ein beliebiger k-Versor mit Inversem U −1 = s−1 1 · · · sk . Wegen −1 −1 sj ∝ sj ist auch U proportional zu U . Da ein Skalar aber mit jedem Multivektor kommutiert, folgt daraus UAU −1 = U −1AU für alle A ∈ Gp,q . Mit diesem Vorwissen ergibt sich für beliebige Multivektoren A, B ∈ Gp,q : α̂(U )AU −1 ˜∗ α̂(U )BU −1 = (UAU −1 ) ˜∗ (UBU −1 ) = (U −1AU ) ˜∗ (UBU −1 ) −1 −1 −1 t = hs−1 k · · · s1 As1 · · · sk sk · · · s1 B s1 · · · sk i −1 −1 −1 t t = hs−1 k · · · s1 AB s1 · · · sk i = hAB s1 · · · sk sk · · · s1 i = hAB t i = A ˜∗ B , wobei wir im vorletzten Schritt die Zyklizität hABCi = (AB) ∗ C = C ∗ (AB) = hCABi ausgenutzt haben. Als Spezialfall gilt dieses Ergebnis natürlich auch für Vektoren, womit wir unsere ursprüngliche Behauptung gezeigt haben. An dieser Stelle wird aber schon deutlich, dass sich die Darstellung (3.5) ohne große Änderungen auf Isometrien von Multivektoren verallgemeinern lässt. Neben der Zerlegung einer beliebigen orthogonalen Transformation in Spiegelungen, macht der Satz von Cartan-Dieudonné die Aussage, dass die Komposition einer geraden Anzahl von Reflexionen eine Rotation ergibt. Eine Drehung, die sich 2 Die Bezeichnung ist vom Englischen „re-verse“ abgeleitet und wurde nach [HS92] schon von Hamilton in seinem Quaternionen-Kalkül verwendet. Dieser Kalkül stellt einen Spezialfall der in beliebigen Dimensionen gültigen Formel (3.5) dar. 56 Kapitel 3. Reflexionen und Rotationen in genau zwei Reflexionen zerlegen lässt, wollen wir einfache Drehung nennen. Dementgegen heißt eine Drehung zusammengesetzt, falls sie sich nur durch eine höhere Anzahl von Reflexionen ausdrücken lässt. Jede zusammengesetzte Drehung lässt sich nach dem Satz jedoch in eine Komposition von einfachen Drehungen zerlegen, indem man jeweils zwei Reflexionen im Produkt (3.2) zu einer einfachen Rotation zusammenfasst. In der Sprache der geometrischen Algebra beschreibt man Drehungen durch einen geraden Versor R = s2k · · · s1 ∈ Γ+ p,q mit 2k ≤ n. Da ein gerader Versor nach Gleichung (2.54) ein gerader Multivektor ist (ein ungerader Versor ist dagegen ein ungerader Multivektor), ergibt die Grad-Involution α̂(R) = R. Damit vereinfacht sich Gleichung (3.5) für Rotationen zu: −1 R(v) = RvR−1 = s2k · · · s1 vs−1 1 · · · s2k für R ∈ Γ+ p,q . Fasst man nun jeweils zwei Reflexionen zu einer einfachen Drehung Rj = s2j s2j−1 zusammen, dann ergibt sich die Zerlegung einer zusammengesetzten Rotation in einfache Drehungen als: R(v) = RvR−1 = Rk · · · R1 vR1−1 · · · Rk−1 mit k ≤ 21 n . (3.6) Dies ist eine Folge der Assoziativität des geometrischen Produkts. Die Zusatzbedingung k ≤ 21 n in Gleichung (3.6) macht sogar eine Aussage über die maximal mögliche Anzahl von einfachen Drehungen in der Zerlegung. Wie man direkt erkennt, gibt es für n = 0, 1 außer der wenig interessanten Identität keine weiteren Drehungen, da k nur ganzzahlige Werte annehmen kann. In zwei und drei Dimensionen treten dagegen nur einfache Drehungen auf. Jede beliebige Verkettung von Drehungen lässt sich deshalb auf eine einzige, einfache Drehung zurückführen. Im zweidimensionalen Fall ist dies offensichtlich, da man nur die Drehwinkel addieren muss. Im dreidimensionalen Raum ist es dagegen nicht mehr so trivial, den Drehwinkel und die Drehachse zu bestimmen. Wirklich interessant wird es im vierdimensionalen Raum, wo erstmals zusammengesetzte Drehungen auftauchen. In der speziellen Relativitätstheorie ist dies eine wohlbekannte Tatsache, da sich die eigentlichen, orthochronen Lorentz-Transformationen als Rotationen auffassen lassen (mehr dazu in Abschnitt 3.6). Die Zerlegung in einfache Drehungen ist dann im Wesentlichen der Satz über die Zerlegung einer eigentlichen, orthochronen Lorentz-Transformation in ein Produkt aus einer räumlicher Drehung, gefolgt von einer speziellen Lorentz-Transformation (siehe z. B. [Sch99, Abschnitt 4.4.1]). Abschließend ist noch eine kurze Bemerkung zum Konzept der „Drehachse“ angebracht. In drei Dimensionen ist eine Drehachse, die senkrecht auf der Drehebene steht, ein sinnvoller Begriff. Auch im zweidimensionalen Fall stellen wir uns immer eine Drehachse vor, was daran liegt, dass wir eine Ebene automatisch in unsere anschauliche, dreidimensionale Welt einbetten. Diese Dreh-„achse“ ist im Zweidimensionalen in Wirklichkeit aber nur ein Punkt, da die „Achse“ gar nicht mehr in der zweidimensionalen Ebene liegt. In vier Dimensionen reicht dagegen ein eindimensionaler Unterraum nicht mehr aus, um eine einfache Drehung eindeutig festzulegen. Andererseits gibt es dort wiederum zusammengesetzte Drehungen, die nur den Nullvektor konstant lassen. Im Allgemeinen ist es deshalb viel sinnvoller, die einfachen Drehungen durch eine zweidimensionale Drehebene zu beschreiben. Im Gegensatz zur Drehachse nimmt 3.3 Einfache Drehungen im Euklidischen 57 die Drehebene keinen Bezug auf den umgebenden Raum, weshalb sie ohne Probleme auf beliebige Dimensionen verallgemeinert werden kann. Zusammengesetzte Drehungen besitzen dann mehrere Drehebenen, die sich nur in einem Punkt (dem Ursprung) schneiden. Die Anzahl der einfachen Drehungen k aus Gleichung (3.6) entspricht also genau der Anzahl von zweidimensionalen Ebenen, die man auf diese Art im n-dimensionalen Raum unterbringen kann. In drei Dimensionen ist die Schnittmenge zweier Ebenen durch den Ursprung offensichtlich immer mindestestens eine Gerade, weshalb es in diesem Fall nur einfache Drehungen gibt. Im vierdimensionalen Raum ist dagegen genug Platz, um zwei Drehebenen unterzubringen. In der geometrischen Algebra entspricht dies der Aussage, dass in drei Dimensionen jeder 2-Vektor ein 2-Spat ist, wogegen es im vierdimensionalen Fall 2-Vektoren gibt, die keine 2-Spate sind. Ein Beispiel dafür ist der Bivektor B = e1 ∧ e2 + e3 ∧ e4 , der sich nicht weiter vereinfachen lässt. Wie wir sehen werden, besteht zwischen Drehungen und Bivektoren ein enger Zusammenhang. 3.3 Einfache Drehungen im Euklidischen In diesem Abschnitt wollen wir zeigen, dass die Verkettung von zwei Reflexionen eine Rotation ergibt und wie man daraus die Drehebene und den Drehwinkel bestimmt. Nach Gleichung (3.1) war die Spiegelung an einer Hyperebene senkrecht zum nichtsingulären Vektor a gegeben durch: Sa (v) = −ava−1 = α̂(a)va−1 . Offensichtlich spielt in dieser Formel die Länge des Vektors a gar keine Rolle, so dass wir ihn ohne Einschränkungen auf 1 normieren dürfen. Im euklidischen Fall ist dann a−1 = a und deshalb: Sa (v) = −ava für kak = 1 . Da man alle möglichen Reflexionen an Hyperebenen durch auf 1 normierte Vektoren beschreiben kann, stellt dies keine Einschränkung dar. Um Schreibarbeit zu sparen wollen wir deshalb im Folgenden nur noch normierte Vektoren zur Beschreibung von Reflexionen verwenden. Spiegelt man jetzt das Resultat Sa (v) ein weiteres Mal, an einer Ebene senkrecht zum (normierten) Vektor b, so ergibt sich: R(v) := Sb ◦ Sa (v) = bavab = RvRt , (3.7) wobei wir R := ba definiert haben und kRk = kbk kak = 1 gilt. Der Versor R ist im Allgemeinen inhomogen und besteht aus einem Skalar b y a = hb|ai und einem 2-Spat b ∧ a. Wir zerlegen nun v in einen Anteil vk parallel, und v⊥ , senkrecht zur zweidimensionalen Ebene, die durch den Spat b ∧ a aufgespannt wird. Den Pseudoskalar dieser Ebene bezeichnen wir mit I2 . Dann ist nach Abschnitt 2.8.2: vk I2 = v k y I2 und v ⊥ I2 = v ⊥ ∧ I 2 . Außerdem haben wir für einen Bivektor α̂(I2 ) = I2 , und unter Verwendung der Relationen (2.96) und (2.97) ergibt sich: vk I2 = vk y I2 = −I2 x vk = I2t vk , v⊥ I2 = v⊥ ∧ I2 = +I2 ∧ v⊥ = I2 v⊥ . 58 Kapitel 3. Reflexionen und Rotationen R(vk ) ?b 2ϕ ϕ Sa (vk ) ?a vk Abbildung 3.3 Zwei aufeinanderfolgende Spiegelungen an Geraden in der Ebene ergeben eine Drehung um das Doppelte des Winkels ϕ, der von a und b eingeschlossen wird. Da der skalare Anteil mit jedem Vektor kommutiert und nach unseren Voraussetzungen RRt = 1 ist, wird (3.7) zu: R(v) = RvRt = R(v⊥ + vk )Rt = RRt v⊥ + R2 vk = v⊥ + R2 vk , (3.8) Die beidseitige Wirkung des Versors R auf v lässt also den Anteil v⊥ senkrecht zur Ebene b ∧ a invariant und wirkt nur auf den Anteil vk in der Ebene. Es gilt nun herauszufinden, was R2 vk ist. Als erstes stellen wir dazu fest, dass auch R2 vk wieder in der Ebene I2 liegen muss, da R = ba in der Unteralgebra G(I2 ) liegt und diese abgeschlossen ist. Ab jetzt dürfen wir uns also ganz auf die Ebene beschränken und den umgebenden Raum vergessen. Es gibt dann verschiedene Möglicheiten zu zeigen, dass R2 vk = Rvk Rt eine Drehung ist. Wie aus der geometrischen Konstruktion von Abbildung 3.3 folgt, ergeben zwei aufeinanderfolgende Spiegelungen an Geraden in der Ebene eine Drehung um das Doppelte des Winkels ϕ, der von den Geraden eingeschlossen wird. Da die Vektoren a und b senkrecht auf den Geraden ?a bzw. ?b stehen, ist der Winkel ϕ zwischen den Geraden gleich dem Winkel zwischen den Vektoren a und b. In der Geometrie ist diese Aussage als Hamilton’sches Prinzip bekannt [Rie93, Chapter II]. Damit ist (3.8) eine Drehung von v um den zweifachen Winkel zwischen a und b in der Drehebene, die durch den Spat b ∧ a aufgespannt wird. Interessanterweise stellt sich heraus, dass schon die einfache, linksseitige Wirkung Rvk in der Ebene (in höheren Dimensionen nicht mehr!) eine Rotation um den Winkel ϕ ist, der von den Vektoren a und b eingeschlossen wird. Um dies zu beweisen, wählen wir in der Ebene eine orthonormale Basis (e1 , e2 ) mit der Orientierung des Spats a ∧ b = −b ∧ a und zerlegen vk in dieser Basis als vk = vk1 e1 + vk2 e2 . Den Pseudoskalar der Ebene können wir mit Hilfe dieser Basis als I2 = e2 e1 = (b ∧ a)/ kb ∧ ak schreiben. Der Versor R lässt sich dann zerlegen in: R = ba = hb|ai + b ∧ a = cos ϕ + I2 sin ϕ , wobei ϕ der Winkel zwischen a und b ist. Damit ergibt sich: Rvk = (cos ϕ + I2 sin ϕ)(vk1 e1 + vk2 e2 ) = cos ϕ vk1 e1 + cos ϕ vk2 e2 + sin ϕ vk1 I2 e1 + sin ϕ vk2 I2 e2 = cos ϕ vk1 e1 + cos ϕ vk2 e2 + sin ϕ vk1 e2 − sin ϕ vk2 e1 (3.9) 3.3 Einfache Drehungen im Euklidischen 59 = (cos ϕ vk1 − sin ϕ vk2 ) e1 + (sin ϕ vk1 + cos ϕ vk2 ) e2 . Dies ist eine Drehung von vk um den Winkel ϕ. Folglich ist R2 vk = R(Rvk ) eine Drehung um den doppelten Winkel, 2ϕ. Letztendlich erhalten wir also das gleiche Ergebnis wie nach dem Hamilton’schen Prinzip, was natürlich zu erwarten war. Die Zerlegung von R gemäß Gleichung (3.9) lässt sich jedoch noch etwas umschreiben. Dazu erinnern wir uns, dass im euklidischen Fall das Quadrat des Pseudoskalars (I2 )2 = −1 ergibt (vgl. Abschnitt 2.8.3), genau wie die imaginäre Einheit i. Deshalb lässt sich R in einer weiteren Form ausdrücken als: R = ba = hb|ai + b ∧ a = cos ϕ + I2 sin ϕ = eI2 ϕ . (3.10) Die Drehung um den Winkel ϕ in der Ebene I2 ist dann gegeben durch: Rvk = eI2 ϕ vk . Man vergleiche dies mit der bekannten Drehformel für komplexe Zahlen, eiϕ z ! Ursprünglich versuchte Hamilton diese einseitige Wirkung von Rotationen mit Hilfe der Quaternionen auf 3 Dimensionen zu verallgemeinern. Wie sich herausstellt ist dies nicht möglich, da in höheren Dimensionen Zusatzterme mit den falschen Stufen auftreten. Für Dimensionen größer als 2 muss man deshalb immer die beidseitige Wirkung (3.8) verwenden. Mit der Schreibweise (3.10) wird dies zu: R(v) = RvRt = eI2 ϕ ve−I2 ϕ . Will man eine Drehung von v um einen vorgegebenen Winkel ϑ beschreiben, so muss man in dieser Gleichung den Winkel ϕ halbieren und erhält die Form: R(v) = RvRt = eI2 ϑ/2 ve−I2 ϑ/2 , (3.11) wobei ϑ der Drehwinkel und I2 der Pseudoskalar der Drehebene ist. Falls die Vektoren a und b nicht auf 1 normiert sind, ändert sich nur wenig. In diesem Fall wird die Zerlegung (3.9) zu: R = ba = kbk kak (cos ϕ + I2 sin ϕ) = kRk (cos ϕ + I2 sin ϕ) . Drehwinkel und -ebene ergeben sich aus R dann mittels: cos(ϑ/2) = 1 hRi , kRk I2 = 1 hRi2 ∝ hRi2 . kRk sin(ϑ/2) Umgekehrt wird ein einfacher (auf 1 normierter) Versor R anhand von Gleichung (3.10) eindeutig durch die orientierte Drehebene I2 und den halben Drehwinkel ϕ festgelegt. Demnach können wir den Versor geometrisch als orientierten Kreisbogen in der zweidimensionalen Ebene I2 auffassen. Da keine Richtung ausgezeichnet ist, darf dieser entlang des Einheitskreises beliebig gedreht werden (siehe Abbildung 3.4a auf der nächsten Seite). Auffallend ist die Analogie zur Interpretation von Vektoren als orientierte Linienelemente. Das Produkt von zwei Versoren R2 und R1 mit der gleichen Drehebene I2 ist gegeben durch: R2 R1 = eI2 ϕ2 eI2 ϕ1 = eI2 (ϕ1 +ϕ2 ) . 60 Kapitel 3. Reflexionen und Rotationen R2 R1 R R ϕ2 ϕ ϕ ϕ1 (b) (a) Abbildung 3.4 (a) Die geometrische Interpretation des Versors R als Kreisbogen. (b) Multiplikation von Versoren mit der gleichen Drehebene. Dies lässt sich geometrisch durch das Zusammenhängen der Kreisbögen in der Ebene I2 realisieren, wobei die Orientierung der Drehungen zu beachten ist (siehe Abbildung 3.4b). Diese Überlegungen lassen sich auf den Fall von unterschiedlichen Drehebenen verallgemeinern. Die Kreise in der Ebene werden dabei zu Großkreisen auf der Einheitskugel, die sich als Schnitt mit der Kugel mit der Drehebene ergeben. Das Produkt von zwei einfachen Versoren R1 und R2 ist für den dreidimensionalen Fall in Abbildung 3.5 dargestellt. Hier schneiden sich zwei Großkreise mindestens in einem Punkt und man erhält das Produkt R2 R1 bzw. R1 R2 wieder durch Zusammenhängen der Kreisbögen. Im Gegensatz zum zweidimensionalen Fall funktioniert diese geometrische Interpretation des Clifford-Produkts übrigens nur, wenn man die Halbwinkel ϕ = ϑ/2 wie in Gleichung (3.11) verwendet. Wie im Bild deutlich wird, ist die Multiplikation im Allgemeinen nichtkommutativ. In mehr als drei Dimensionen bekommt man eine kleine Änderung durch die Tatsache, dass sich zwei Großkreise nicht mehr unbedingt schneiden müssen. In n ≥ 4 Dimensionen gibt es nämlich zwei vollständig orthogonale, 2-dimensionale Unterräume, die nur den Ursprung gemeinsam haben. In diesem Fall ist ein allgemeiner Versor durch mehrere Kreisbögen darzustellen. Im Wesentlichen ist uns R2 R2 R1 R1 R1 R2 R1 R2 Abbildung 3.5 Multiplikation von Versoren in drei Dimensionen. Wie man sieht, ist die Komposition von Rotationen im Allgemeinen nichtkommutativ. 3.3 Einfache Drehungen im Euklidischen 61 b n a −nan Abbildung 3.6 Die Rotation von a nach b entspricht der Spiegelung an der Hyperebene senkrecht zu n, gefolgt von einer Reflexion an der Hyperebene senkrecht zu b. das schon vom Ende des Abschnitts 3.2 bekannt, wonach eine beliebige Drehung im n-dimensionalen Raum durch k ≤ n/2 Drehebenen und Drehwinkel beschrieben werden kann. Als Spezialfall von Gleichung (3.11) wollen wir kurz zeigen, wie man im dreidimensionalen Vektorraum 3 Rotationen um eine Drehachse durch einen Vektor a beschreiben kann. Üblicherweise kodiert man dazu den Drehwinkel α durch die Länge des Vektors: α = kak. Die Drehung um a mit Winkel α lässt sich dann schreiben als: Ra (v) = e?a/2 ve− ?a/2 . (3.12) Aus Abschnitt 2.8.3 wissen wir schon, dass der Hodgeoperator den Vektor a auf den dazu senkrechten 2-Spat ? a abbildet, wobei der Betrag erhalten bleibt. Deshalb ist: 1 1 a = αI2 mit α = kak und I2 = ? kak a , ? a = kak ? kak woraus sich durch Vergleich mit (3.11) die nur im dreidimensionalen gültige Darstellung einer Drehung um eine Drehachse ergibt. Zum Ende dieses Abschnitts wollen wir noch vorführen, wie sich zu einer vorgegebenen, einfachen Drehung die passenden Spiegelungen und damit der Versor R = ba konstruieren lässt (vgl. [DL03, Section 2.7.2]). Dazu betrachten wir eine einfache Rotation, die den Vektor a nach b dreht und alle Vektoren senkrecht zur Ebene b ∧ a invariant lässt. Da die Rotation eine Isometrie ist, dürfen wir ohne Beschränkung der Allgemeinheit annehmen, dass a und b auf 1 normiert sind. Wie in Abbildung 3.6 dargestellt ist, entspricht diese Drehung einer Spiegelung an der Ebene senkrecht zum Vektor n, der mittig zwischen a und b liegt, gefolgt von einer Reflexion an der Hyperebene senkrecht zu b. Der für die erste Spiegelung notwendige Vektor n ist für normierte a und b gegeben durch: n= a+b . ka + bk Kombiniert man dies mit der Spiegelung senkrecht zu b, ergibt sich der gesuchte Versor als: R = bn = ba + 1 1 + ba 1 + ba =p = p . ka + bk kak + kbk + 2ha|bi 2(1 + ha|bi) (3.13) 62 Kapitel 3. Reflexionen und Rotationen Der Versor ist schon auf 1 normiert, da dies für b und n der Fall war. Wendet man ihn auf a an, so erhält man das gewünschte Resultat: 1 a + 2b + bab 2(1 + ha|bi) 2(1 + ha|bi) 2(1 + ha|bi) 1 a + 2b + b y (ab) + b ∧ (ab) = 2(1 + ha|bi) 1 = a + 2b + ha|bib − ahb|bi + bha|bi + b ∧ a ∧ b 2(1 + ha|bi) 2b(1 + ha|bi) 1 2b + 2bha|bi = =b. = 2(1 + ha|bi) 2(1 + ha|bi) RaRt = p 1 + ba ap 1 + ab = Mit einem kleinen Trick geht es in diesem Fall auch schneller. Dazu bemerkt man, dass bn gleich na ist. Damit bekommt man sofort RaRt = bnaan = bnn = b und ist fertig. 3.4 Die Pin- und Spin-Gruppen In diesem Abschnitt wollen wir die Gruppeneigenschaft der Isometrien genauer untersuchen. Wir beginnen mit einer Bestandsaufnahme, welche interessanten Gruppen sich in der Geometrischen Algebra konstruieren lassen, wenn man das geometrische Produkt als Verknüpfung verwendet. Die Menge aller Multivektoren selbst liefert dabei allerdings nur einen Monoid (siehe Definion A.1 auf Seite 117), da nicht alle Multivektoren ein Inverses besitzen. Die größtmögliche Gruppe ist des× halb die Gruppe der Einheiten Gp,q von Gp,q , welche aus den invertierbaren Multivektoren gebildet wird: × := {A ∈ Gp,q : A invertierbar} . Gp,q (3.14) Offensichtlich sind alle weiteren Gruppen, die sich in der Algebra Gp,q konstruieren × lassen, in Gp,q als Untergruppen enthalten. Leider ist es sehr schwer, ein allgemeines Kriterium für die Invertierbarkeit von Multivektoren anzugeben, weshalb man nur in Spezialfällen die Elemente A explizit hinschreiben kann. Eine Gruppe, bei der man die Elemente konkret angeben kann, ist die Clifford-Lipschitz-Gruppe Γp,q , die wir in Abschnitt 3.2 eingeführt haben. Sie besteht aus den Versoren, d. h. invertierbaren Multivektoren, die sich in ein Produkt von Vektoren zerlegen lassen: × : sj ∈ V} . Γp,q = {A = sk · · · s1 ∈ Gp,q Das Produkt A = sk · · · s1 ist genau dann invertierbar, wenn die Vektoren sk inver−1 tierbar sind, wobei in diesem Fall das Inverse offensichtlich durch A−1 = s−1 1 · · · sk gegeben ist. Nach unserer Diskussion in Abschnitt 2.10 ist ein Vektor sj genau dann 2 invertierbar, wenn er nicht singulär ist, d. h. wenn ksj k 6= 0 gilt. Bezeichnet man die Menge der invertierbaren Vektoren durch V × , dann erhält man eine nützlichere Charakterisierung der Clifford-Lipschitz-Gruppe als: Γp,q := {A = sk · · · s1 ∈ Gp,q : sj ∈ V × } . (3.15) Der Satz von Cartan-Dieudonné gewährleistet, dass man ein Produkt von beliebig vielen Vektoren zu einem Produkt von maximal n = p + q Vektoren vereinfachen 3.4 Die Pin- und Spin-Gruppen 63 kann. In der Definition (3.15) dürfen wir deshalb ohne Einschränkung k ≤ n annehmen. Da die Anzahl k der Vektoren in der Zerlegung entweder gerade oder ungerade sein muss, kann ein Versor nur entweder ein gerader oder ein ungerader Multivektor sein. Deshalb ist ist die Clifford-Lipschitz-Gruppe eine Teilmenge der + · − disjunkten Vereinigung Γp,q ⊂ Gp,q ∪ Gp,q . Nach den Erkenntnissen aus Abschnitt 3.2 spielt die Clifford-Lipschitz-Gruppe eine wichtige Rolle bei der Beschreibung von orthogonalen Transformationen. Sie enthält aber eine Menge überflüssiger Information, da die Länge der Vektoren für die Beschreibung von Reflexionen an einer Hyperebene keine Rolle spielt. Wie wir im letzten Abschnitt gesehen haben, lässt sich vieles vereinfachen, wenn man stattdessen nur noch geeignet normierte Versoren verwendet. Die Norm eines Versors ist gegeben durch: kAk2 = ksk · · · s1 k2 = hsk · · · s1 s1 · · · sk i = ksk k2 · · · ks1 k2 . (3.16) In einem euklidischen Vektorraum kann man die nichtsingulären Vektoren sj senkrecht zu den Hyperebenen immer so wählen, dass ksj k2 = 1 gilt. Für eine nichteuklidische Bilinearform gibt es aber auch Vektoren mit negativem Normquadrat (der Unterschied zwischen raum- und zeitartigen Vektoren). In diesem Fall kön2 nen wir nur ksj k = ±1 erreichen. Nach Gleichung (3.16) gilt dann für den Versor 2 kAk = ±1 und auch das Produkt von zwei Versoren besitzt wieder diese Normierung. Da außerdem das Inverse eines auf ±1 normierten Vektors sj durch s−1 j = ±sj gegeben ist, hat auch der inverse Versor eine Norm von ±1. Folglich bilden die normierten Versoren eine Gruppe, die Pin-Gruppe 3 genannt wird: 2 Pin(p, q) := {A ∈ Γp,q : kAk = ±1} = {A = sk · · · s1 ∈ Gp,q : sj ∈ V (3.17) × 2 , ksj k = ±1} . Die Elemente der Pin-Gruppe werden manchmal als Pinoren bezeichnet. Die geraden Pinoren bilden eine Untergruppe, die Spin-Gruppe: 2 + Spin(p, q) := {A ∈ Γ+ p,q : kAk = ±1} = Pin(p, q) ∩ Gp,q = {A = s2k · · · s1 ∈ Gp,q : sj ∈ V × (3.18) 2 , ksj k = ±1} . In mathematischen Werken und der Literatur zur Geometrischen Algebra ist es üblich, die Elemente der Spin-Gruppe Spinoren zu nennen. Unglücklicherweise wird diese Bezeichnung in der Physik aber auch schon für die komplexen (Spalten-)Spinoren in der Quantenmechanik verwendet. Um Verwechslungen auszuschließen, wollen wir hier einen anderen Begriff verwenden und die Elemente der Spin-Gruppe als Rotoren 4 bezeichnen, da sich mit ihrer Hilfe Rotationen beschreiben lassen. Der Zusammenhang zwischen Rotoren und quantenmechanischen Spinoren ist nicht trivial und wird in Kapitel 5 ausführlich diskutiert. 3 Nach [ABS64] ist dieser Name ein Witz von Jean-Pierre Serre. Einerseits soll die Bezeichnung natürlich den Zusammenhang zwischen den Gruppen Pin(p, q) und Spin(p, q) andeuten, analog zu O(p, q) und SO(p, q). Andererseits klingt ‚pin group‘ im Englischen aber wie der vulgäre französische Begriff ‚pine groupe‘. 4 Auch der Begriff des Rotors ist leider vorbelastet, da er zum Beispiel in [HS92] für die Elemente der Untergruppe Spin+ (p, q) (siehe unten) verwendet wird. 64 Kapitel 3. Reflexionen und Rotationen Im nicht-euklidischen Fall ist eine weitere Untergruppe von Bedeutung, nämlich die Gruppe der Rotoren mit Normquadrat +1: 2 Spin+ (p, q) := {A ∈ Γ+ p,q : kAk = +1} ⊂ Spin(p, q) . (3.19) Im euklidischen Fall ist natürlich Spin+ (n, 0) = Spin(n, 0) =: Spin(n). Sehr interessant ist an dieser Stelle die Frage, wie die Versoren mit den orthogonalen Transformationen zusammenhängen. Eine elegante Antwort darauf findet man zum Beispiel in [HS92, Section 3.8], allerdings müssen wir dazu etwas weiter ausholen. Wir erinnern uns, dass für jeden Vektor v in einem Vektorraum V(Ik ) das Dachprodukt mit dem Pseudoskalar Ik verschwindet. Andererseits können wir mit Gleichung (2.97) das Dachprodukt explizit auschreiben. Es ergibt sich: 0 = 2 v ∧ Ik = vIk + (−1)k Ik v ⇐⇒ vIk = (−1)k+1 Ik v . Für ungerades k kommutiert der Pseudoskalar Ik mit jedem Vektor und deshalb mit allen Elementen von G(Ik ), da sich jeder Multivektor in eine Summe über Produkte von Vektoren zerlegen lässt. Für gerades k antikommutiert der Pseudoskalar mit allen Vektoren. Die Menge der Elemente einer Algebra A, die mit allen Elementen der Algebra kommutieren heißt Zentrum Z(A) der Algebra. Das Zentrum der geometrischen Algebra G(Ik ) ist also gegeben durch (siehe auch [Rie93, Section 1.5]): ( für gerades k , (3.20) Z G(Ik ) = + Ik für ungerades k . Wir wollen nun herausfinden, welche Freiheiten bei der Wahl eines Versors zu einer vorgegebenen Transformation existieren. Es sei also U eine orthogonale Transformation und U, W zwei Versoren, die diese Transformation darstellen: U(v) = ±UvU −1 = ±WvW −1 , wobei für Rotationen das positive Vorzeichen und sonst das negative Vorzeichen zu verwenden ist. Weil man diese beiden Fälle genau unterscheiden kann, muss entweder auf beiden Seiten das positive oder auf beiden Seiten das negative Vorzeichen stehen und es folgt UvU −1 = WvW −1 . Da die Versoren U und W per definitionem invertierbar sind, ist dies äquivalent zu: UvU −1 = WvW −1 ⇐⇒ v(U −1 W ) = (U −1 W )v . Weil die Gleichung für alle Vektoren v gilt, liegt U −1 W im Zentrum Z(G(Ik )) ⊂ + Ik . Nun sind U und W aber entweder beide gerade oder beide ungerade Versoren und folglich ist das Produkt U −1 W ein gerader Versor. Ein gerader Pseudoskalar Ik antikommutiert aber mit beliebigen Vektoren, also kann U −1 W keinen Anteil proportional zu Ik besitzen. Folglich bleibt U −1 W = α für ein α ∈ , respektive W = αU . Da ein Versor nicht singulär ist, muss α 6= 0 sein, was wir als α ∈ × = \ {0} schreiben. Zwei Versoren, die sich nur um einen skalaren Faktor α ∈ × unterscheiden, beschreiben also die selbe orthogonale Transformation. Man schreibt dies als: × Γp,q / Γ+ p,q / × ∼ = O(p, q) , ∼ = SO(p, q) . (3.21) 3.4 Die Pin- und Spin-Gruppen 65 π −1 (U ) ⊂ Y π U ⊂X (a) (b) Abbildung 3.7 (a) Eine Überlagerung π : Y → X von X. Lokal sieht das Urbild π −1 (U ) ⊂ Y einer offenen Umgebung U ⊂ X so aus wie das Produkt von U ׄdiskrete Menge“. (b) Eine nichttriviale Überlagerung der Kreislinie. Sie sieht zwar lokal aus wie das Produkt von offenen Umgebungen mit der diskreten Gruppe 2 , global ist sie aber zusammenhängend. 2 2 Falls man auf ±1 normierte Versoren verwendet, gilt zusätzlich kU k = ± kW k , also α ∈ {±1} = 2 . Damit bekommen wir die Isomorphien: Pin(p, q)/ Spin(p, q)/ Spin+ (p, q)/ 2 2 2 ∼ = O(p, q) , ∼ = SO(p, q) , ∼ SO+ (p, q) . = (3.22) Konkret bedeutet dies, dass zu jeder orthogonalen Transformation U ∈ O(p, q) zwei Pinoren ±U ∈ Pin(p, q) gehören, die sich nur im Vorzeichen unterscheiden. Analog gehören zu jeder Rotation R ∈ SO(p, q) zwei Rotoren ±R ∈ Spin(p, q) usw. Ein weiterer interessanter Aspekt der Pin- und Spin-Gruppen ist ihre Topologie. Allgemein kann man zeigen, dass Pin(p, q), Spin(p, q) und Spin+ (p, q) als topologische Räume zweifache Überlagerungen der Gruppen O(p, q), SO(p, q) bzw. SO+ (p, q) sind. Eine Überlagerung π : Y → X von zwei topologischen Räumen Y und X ist im Wesentlichen eine stetige surjektive Abbildung, so dass das Urbild π −1 (U ) ⊂ Y einer kleinen, offenen Menge U ⊂ X lokal so aussieht, wie das Produkt von U mit einer diskreten Menge (siehe Abbildung 3.7a ). Eine genaue Definition der Überlagerung würde den Rahmen der Arbeit sprengen, weshalb wir dafür auf die gängige Literatur verweisen müssen. Eine einfache und sehr anschauliche Einführung in die Theorie der Überlagerungen findet man bei Jänich [Jän01a, Kapitel 9]. Ein alternativer Zugang, der auf der gleichmäßigen Wirkung von Gruppen aufbaut, wird von Fulton [Ful95, Chapter 11] aufgezeigt. Dieser führt in unserem Fall besonders schnell zu Ergebnissen, da wir die Wirkung der Clifford-Lipschitz-Gruppe schon kennen. Den Beweis, dass Pin(p, q) und Spin(p, q) zweifache Überlagerungen der Gruppen O(p, q) bzw. SO(p, q) sind, kann man dann in [Gal04, Proposition 2.21] nachlesen. Für alle n ≥ 2, ausgenommen p = q = 1, ist die Überdeckung nichttrivial (siehe Abbildung 3.7b), d. h. es gilt zwar lokal π −1 (U ) ∼ = U × 2 für offene Umgebungen U ⊂ O(p, q) jedes Punktes, global ist aber Pin(p, q) O(p, q) × 2 und analog für Spin(p, q). Aus der Theorie der Drehgruppe wissen wir, dass SO(3) zweifach zusammenhängend ist (siehe z. B. [Sch99, Abschnitt 5.2.3]). Da die Spin-Gruppe Spin(3) eine zweifache Überlagerung der Drehgruppe ist, muss sie demzufolge einfach zusam- 66 Kapitel 3. Reflexionen und Rotationen I1,1 I1,1 1 (a) 1 (b) Abbildung 3.8 (a) Die Gruppe Spin+ (1, 1) besteht aus den beiden Hyperbelästen und ist deshalb nicht zusammenhängend. (b) Die komplette SpinGruppe Spin(1, 1) hat sogar vier Komponenten. menhängend sein. Eine einfach zusammenhängende Überlagerung heißt universelle Überlagerung und hat besonders schöne mathematische Eigenschaften. Speziell können alle überlagerten Gruppen aus der universellen Überlagerungsgruppe durch Quotientenbildung rekonstruiert werden. Im euklidischen Fall sind alle SpinGruppen Spin(n) für n ≥ 3 universelle Überlagerungen von SO(n). Für eine nicht-euklidische Metrik muss man diese Aussagen etwas modifizieren. Zum einen ist im Allgemeinen SO(p, q) nicht mehr zusammenhängend, weshalb man zur Untergruppe SO+ (p, q) übergeht, die gerade die Zusammenhangskomponente der Identität ist. Die Überlagerungen Spin+ (p, q) sind zusammenhängend für n ≥ 2, mit Ausnahme von Spin+ (1, 1), die zwei Komponenten besitzt, nämlich die beiden Äste einer Hyperbel (siehe Abbildung 3.8a ): 2 Spin+ (1, 1) = {R = ba : b, a ∈ V × , kRk = +1} = {R = α + β I1,1 : α2 − β 2 = +1} . Die komplette Gruppe Spin(1, 1) hat sogar vier Komponenten (Abbildung 3.8b): 2 Spin(1, 1) = {R = ba : b, a ∈ V × , kRk = ±1} = {R = α + β I1,1 : α2 − β 2 = ±1} , wobei der Pseudoskalar I1,1 durch I1,1 = e1 e2 gegeben ist. Für die Physik von besonderem Interesse sind natürlich die Lorentzmetriken, d. h. Metriken der Signatur (p, q) mit p = 1 oder q = 1. Die zugehörigen SpinGruppen Spin+ (n − 1, 1) ∼ = Spin+ (1, n − 1) sind für n ≥ 4 einfach zusammenhängend und somit universelle Überlagerungen von SO+ (n − 1, 1) ∼ = SO+ (1, n − 1). Speziell ist Spin+ (1, 3) die universelle Überlagerung der eigentlichen, orthochronen Lorentzgruppe L↑+ ∼ = SO+ (1, 3). Ein weiteres wichtiges Merkmal der universellen Überlagerung ist die Eigenschaft, dass sie verschiedene Strukturen des zugrundeliegenden Raums erbt. So induziert die Liegruppen-Struktur von O(p, q) bzw. SO(p, q) eine Liegruppen-Struktur auf Pin(p, q) und Spin(p, q). Die Liealgebra von Pin(p, q) und Spin(p, q) besteht aus den Bivektoren in Gp,q , wobei die Lieklammer der Kommutator zwischen den Bivektoren ist. Eine ausführliche Diskussion der Liegruppen-Struktur findet man in [DHS93], [DL03, Section 11] und [HS92, Chapter 8]. 3.5 Minkowski-Geometrie 67 zeitartig lichtartig raumartig Abbildung 3.9 Unterteilung der Raumzeit durch den Lichtkegel in zeit-, lichtund raumartige Vektoren. 3.5 Minkowski-Geometrie Wie eben schon erwähnt, spielt neben dem euklidischen dreidimensionalen Vektorraum auch die Minkowski-Raumzeit eine fundamentale Rolle in der Physik. Da Isometrien Winkel und Längen erhalten, wollen wir in diesem Abschnitt zuerst die Bedeutung dieser Begriffe im Minkowskiraum untersuchen, bevor wir uns später den allgemeinen Lorentz-Transformationen zuwenden. Im Gegensatz zum euklidischen Vektorraum, wo nur der Nullvektor singulär war, 2 bildet die Menge der singulären Vektoren (kvk = 0) im Minkowski-Vektorraum eine Kegelfläche, die – in Bezug auf die spätere Anwendung – Lichtkegel genannt wird. Vektoren innerhalb des Lichtkegels nennen wir zeitartig, Vektoren auf dem Lichtkegel heißen lichtartig und Vektoren außerhalb des Kegels raumartig (siehe dazu auch Abbildung 3.9 ). Im Folgenden wollen wir immer eine Metrik mit Signatur (1, n − 1) verwenden. Diese Wahl hat den Vorteil, dass die physikalisch kausalen (zeitartigen) Längen eine positive Norm bekommen. Die nicht-kausalen (raumartigen) Abstände haben in dieser Metrik dagegen ein negatives Normquadrat. Wir erhalten also folgende Einteilung für Vektoren v:5 kvk2 > 0 zeitartig , 2 kvk = 0 lichtartig , (3.23) 2 kvk < 0 raumartig . Wir wollen nun definieren, was ein Minkowski-Vektorraum ist. Die offensichtliche Definition anhand der Signatur der Bilinearform hat allerdings den Nachteil, dass man dadurch automatisch eine Basis festlegt, in der die Bilinearform diagonal ist. Da wir in der Geometrischen Algebra gezielt koordinatenfrei arbeiten wollen, verwenden wir stattdessen eine Definition von Riesz [Rie93, Section 3.6], die nur die Einteilung der Vektoren in die verschiedenen Typen (zeit-, licht- oder raumartig) benutzt. Den Beweis, dass diese Definition wirklich zu einer lorentzartigen Signatur führt, kann man in [Rie93, Section 3.6] nachlesen. 5 Für die entgegengesetzte Signatur (n−1, 1) bekommt man genau die umgekehrten Vorzeichen, d. h. kvk2 < 0 für zeitartige und kvk2 > 0 für raumartige Vektoren. 68 Kapitel 3. Reflexionen und Rotationen Definition 3.2 (Minkowski-Vektorraum) Sei M ein Vektorraum mit quadratischer Form. Dieser heißt Minkowski-Vektorraum genau dann, wenn er folgende Eigenschaften erfüllt: (i) Es gibt mindestens einen zeitartigen Vektor in M. (ii) Jeder zweidimensionale Untervektorraum von M enthält mindestens einen raumartigen Vektor. Die erste Bedingung garantiert hierbei, dass wir wenigstens einen Vektor haben, den man zeitartig nennen will. Noch könnten aber alle Vektoren zeitartig sein, was im eindimensionalen Minkowski-Vektorraum auch wirklich der Fall ist. Die zweite Bedingung fordert deshalb, dass jede zweidimensionale Ebene durch den Ursprung auch raumartige Vektoren außerhalb des Lichtkegels enthält. Speziell bedeutet dies, dass keine zweidimensionale Ebene existiert, die nur zeitartige Richtungen enthält. Folglich gibt es in der Minkowski-Raumzeit genau eine Zeitdimension. Wir kommen nun zum Begriff der Orthogonalität im Minkowski-Vektorraum. Wie üblich heißen zwei Vektoren a und b zueinander orthogonal, wenn ihr Skalarprodukt ha|bi = 0 erfüllt. Als Folge davon ist jeder lichtartige Vektor ` zu sich selbst 2 orthogonal, denn es gilt h`|`i = k`k = 0. Wir erhalten aber noch mehr interessante Eigenschaften, die wir im folgenden Satz zusammenfassen wollen: Satz 3.2 (Eigenschaften von orthogonalen Vektoren) Im Minkowski-Vektorraum M gilt für Vektoren a, b ∈ M: (i) Falls a zeitartig, ha|bi = 0 und b 6= 0, dann ist b raumartig. (ii) Falls a lichtartig ist und ha|bi = 0, dann ist b entweder raumartig oder kollinear zu a (d. h. b = λa mit λ ∈ ). (iii) Zwei licht- oder zeitartige Vektoren a, b 6= 0 sind nie orthogonal zueinander, ausgenommen sie sind beide lichtartig und kollinear. Zum Beweis der ersten Aussage erinnern wir uns, dass für einen zeitartigen Vek2 tor kak > 0 gilt und somit a 6= 0 sein muss. Da außerdem ha|bi = 0 und b 6= 0 ist, können a und b nicht kollinear sein. Ansonsten wäre nämlich b = λa mit λ 6= 0 und somit 0 = ha|bi = λha|ai, im Widerspruch zur Zeitartigkeit von a. Folglich spannen a und b eine zweidimensionale Ebene H auf. Nach der Definition 3.2 des Minkowski-Vektorraums enthält jeder zweidimensionale Unterraum H ⊂ M mindestens einen raumartigen Vektor. Diesen können wir als λa + µb mit λ, µ ∈ schreiben, und es folgt: 0 > kλa + µbk2 = λ2 kak2 + µ2 kbk2 . Da aber nach Voraussetzung kak2 > 0 ist, muss kbk2 < 0 sein, um die Ungleichung zu erfüllen. Also ist b raumartig, wie behauptet. Für die zweite Aussage betrachten wir zuerst den Fall, dass b kollinear zu a ist. Dann folgt hb|ai = λha|ai = 0 und die Aussage ist offensichtlich erfüllt. Falls b nicht kollinear zu a ist, dann existiert wieder ein raumartiger Vektor λa + µb und man erhält: 2 2 2 2 0 > kλa + µbk = λ2 kak + µ2 kbk = µ2 kbk , 3.5 Minkowski-Geometrie 69 e1 e1 e1 a a a H H · H · e2 e2 ϕ = π/8 e2 ϕ=0 ϕ = π/4 Abbildung 3.10 Ein fester Vektor a (siehe Text) und die Menge H der dazu orthogonalen Vektoren für verschiedene Parameter ϕ. a a a Abbildung 3.11 Die Verallgemeinerung von Abbildung 3.10 auf höhere Dimensionen. Aus der zu a senkrechten Geraden des zweidimensionalen Falls wird eine (n − 1)-dimensionale Ebene durch den Ursprung. da nach Voraussetzung kak2 = 0 gilt. Also ergibt sich kbk2 < 0 und folglich ist b raumartig. Die dritte Behauptung ist dann nur noch eine triviale Folgerung aus den ersten beiden Aussagen. Um anschaulich zu machen, was Orthogonalität im Minkowski-Vektorraum bedeutet, betrachten wir als Beispiel den zweidimensionalen, hyperbolischen Vektorraum M1,1 mit Signatur (1, 1). Eine Basis von M1,1 ist gegeben durch (e1 , e2 ) mit ke1 k2 = 1 und ke2 k2 = −1. Wir wählen einen Vektor a ∈ M1,1 \ {0}. Da uns nur die Richtung interessiert, wollen wir diese über einen (euklidischen) Winkels ϕ parametrisieren: a := cos ϕ e1 + sin ϕ e2 mit ϕ ∈ . Wir suchen nun für festgehaltenes ϕ alle Vektoren v = v0 e1 + v1 e2 , die senkrecht auf a stehen. Dazu berechnen wir: ! 0 = hcos ϕ e1 + sin ϕ e2 |v0 e1 + v1 e2 i = v0 cos ϕ − v1 sin ϕ . Wir erhalten also für v die Bedingung v0 = v1 tan ϕ. Die Menge dieser orthogonalen Vektoren H := {v ∈ M1,1 : v0 = v1 tan ϕ} ist für verschiedene Parameter ϕ in Abbildung 3.10 dargestellt. Wie man sieht, drehen sich der Vektor a und die dazu orthogonale Ebene H in entgegengesetzter Richtung aufeinander zu. Bei ϕ = π/4 liegt der Vektor a sogar direkt in der orthogonalen Ebene, da er dann lichtartig und damit zu sich selbst orthogonal ist. Die optisch auftretende Veränderung des Winkels zwischen a und H liegt dabei allein an der Einbettung des hyperbolischen Raums in die euklidische Zeichenebene, die zur graphischen Darstellung leider notwendig ist. 70 Kapitel 3. Reflexionen und Rotationen Nimmt man weitere Raumdimensionen hinzu, dann ergibt sich das Bild in Abbildung 3.11, wobei die zu a senkrechten Vektoren diesmal natürlich eine (n − 1)dimensionale Ebene bilden. Betrachtet man den Kegel genau von der Seite, so bekommt man das gleiche Bild wie in Abbildung 3.10, mit der „hyperbolischen Orthogonalität“. Schaut man dagegen genau von oben auf den Kegel, dann sieht man nur die herkömmliche „euklidische Orthogonalität“, da das Normquadrat in allen Raumrichtungen das gleiche Vorzeichen hat. Um der Anschauung von „hyperbolischen“ und „euklidischen Richtungen“ auf die Sprünge zu helfen, ist es sinnvoll die Einteilung in zeit-, licht- und raumartige Vektoren auf beliebige Untervektorräume zu verallgemeinern. Dies wird später auch bei der Klassifikation der Lorentz-Transformationen hilfreich sein. Definition 3.3 (zeit-, licht- und raumartige Unterräume) Sei H ⊂ M ein k-dimensionaler Untervektorraum des Minkowski-Vektorraums M mit k ≥ 1. (i) H heißt zeitartig, wenn H einen zeitartigen Vektor enthält. (ii) H heißt lichtartig, wenn H einen lichtartigen Vektor, aber keine zeitartigen Vektoren enthält. (iii) H heißt raumartig, falls alle Vektoren aus H \ {0} raumartig sind. Im letzten Fall muss man den Nullvektor ausschließen, da dieser immer lichtartig ist. Eine Gerade ist nach dieser Definition übrigens genau dann zeit-, licht- oder raumartig, wenn dies für den Vektor der Fall ist, von dem sie aufgespannt wird. Der Minkowski-Vektorraum M selbst ist offensichtlich zeitartig. Umgekehrt ist jeder zeitartige Untervektorraum von M wieder ein Minkowski-Vektorraum. Ein raumartiger Untervektorraum wird dadurch charakterisiert, dass er den Lichtkegel nur in einem einzigen Punkt – nämlich im Ursprung – schneidet. In einem raumartigen Unterraum Hr haben alle Vektoren außer dem Nullvektor ein strikt 2 negatives Normquadrat, kak < 0 für alle a ∈ Hr \{0}. Die Einschränkung der Minkowski-Norm auf den raumartigen Unterraum Hr ist also negativ definit. Folglich ist jeder raumartige Unterraum isomorph zu einem euklidischen Vektorraum V, wobei die Isomorphie einfach durch k · k2Hr 7→ k · k2V := − k · k2Hr gegeben ist. Mit einem lichtartigen Unterraum verbindet man die Anschauung, dass er den Lichtkegel gerade berührt, wie im letzten Teilbild von Abbildung 3.11 dargestellt. Dies kann man streng rechtfertigen: Satz 3.3 (Charakterisierung von lichtartigen Hyperebenen) Ein lichtartiger Untervektorraum H enthält genau eine lichtartige Gerade g ⊂ H. Alle übrigen Vektoren a ∈ H \ g sind raumartig und senkrecht zur Geraden g. Nach der Definition 3.3 enthält ein lichtartiger Unterraum H mindestens eine lichtartige Gerade. Falls H eindimensional ist, dann sind wir damit auch schon fertig. Für dim H ≥ 2 wählen wir einen lichtartigen Vektor 0 6= ` ∈ g, der die Gerade g aufspannt, d. h. g = span{`} = {v ∈ M : v = λ` mit λ ∈ }. Außerdem sei a ∈ H \ g ein beliebiger weiterer Vektor, der nicht auf der Geraden g liegt. Folglich sind a und ` linear unabhängig und spannen eine zweidimensionale Ebene H 0 := span{`, a} ⊂ H auf. Weil H 0 als Teilmenge von H per Definition keinen zeitartigen Vektor enthält, bekommen wir: 2 2 2 0 ≥ kλ` + ak = 2λh`|ai + kak ∀λ ⇐⇒ 2λh`|ai ≤ − kak ∀λ . 3.5 Minkowski-Geometrie 71 e1 e1 3 2 2 1 0 1 0 (a) e2 −1 −2 e2 (b) Abbildung 3.12 Zur Norm von Vektoren. (a) In der euklidischen Ebene liegen die Vektoren konstanter Norm auf Kreisen. (b) In der hyperbolischen Ebene M1,1 bekommt man dagegen Hyperbeln. Da diese Ungleichung für alle λ gilt, muss h`|ai = 0 sein. Wäre nämlich h`|ai > 0, dann gäbe es ein λ > 0 mit 2λh`|ai > − kak2 , im Widerspruch zur Voraussetzung. Analog kann man für h`|ai < 0 ein λ < 0 finden, welches zum selben Widerspruch führt. Es bleibt also nur h`|ai = 0 übrig. Zusammenfassend haben wir also einen lichtartigen Vektor ` und h`|ai = 0. Nach Satz 3.2(ii) folgt daraus, dass a entweder raumartig oder kollinear zu ` ist. Da aber a ∈ / g und somit a 6= µ` ist, muss a raumartig sein. Weil außerdem a ∈ H \ g beliebig gewählt war, sind alle Vektoren aus H \ g raumartig. Speziell gibt es also keinen weiteren lichtartigen Vektor `0 ∈ / g, woraus die behauptete Eindeutigkeit der Geraden g folgt. In ähnlicher Weise kann man auch die Umkehrung zeigen, nämlich dass ein Unterraum lichtartig ist, wenn er genau eine lichtartige Gerade enthält. Eine lichtartige Gerade g ist eindimensional und somit ein lichtartiger Unterraum mit minimaler Dimension. Dagegen hat die Tangentialebene Tg , die den Lichtkegel in der Geraden g berührt, die für einen lichtartigen Unterraum maximal mögliche Dimension n − 1. Die Ebene Tg ist das orthogonale Komplement Tg = g ⊥ von g (siehe Satz 3.3 und Abbildung 3.11). Jeder weitere lichtartige Unterraum H, der die Gerade g enthält, ist auch in der Tangentialebene Tg enthalten. Das heißt es gilt H ⊂ Tg für alle lichtartigen Unterräume H mit g ⊂ H. Zum Abschluss wollen wir noch kurz untersuchen, wie sich die indefinite Metrik auf die Längen von Vektoren auswirkt. Im euklidischen Fall bilden die Vektoren konstanter Norm Kreise (etwas allgemeiner eine Ellipse) um den Ursprung, wie in Abbildung 3.12a auf dieser Seite dargestellt ist. Im Minkowski-Vektorraum M1,1 in Abbildung 3.12b sehen die „Kreise“ dagegen wie Hyperbeln aus. Für den dreidimensionalen Fall nehmen wir eine zusätzliche Raumdimension e3 hinzu. Da die Norm in den beiden Raumrichtungen e2 und e3 das gleiche Vorzeichen hat, muss die (e2 -e3 )-Ebene in beiden Fällen wie die zweidimensionale euklidische Ebene aussehen. Anschaulich gesprochen müssen wir die Kurven in Abbildung 3.12 also nur um die e1 -Achse rotieren. Im euklidischen Vektorraum erhalten wir dadurch eine Kugel (bzw. einen Ellipsoid). Im dreidimensionalen Minkowski-Vektorraum ergibt sich dagegen ein Hyperboloid (siehe Abbildung 3.13). Die raumartigen Vektoren mit konstanter Norm liegen auf der zusammenhängenden Komponente. 72 Kapitel 3. Reflexionen und Rotationen +1 0 −1 +1 Abbildung 3.13 Im Minkowski-Vektorraum mit Dimension n ≥ 3 liegen die Vektoren mit konstanter Norm auf einem Hyperboloid. Die zeitartigen Vektoren liegen dagegen auf den zwei voneinander getrennten Kappen in positiver und negativer Zeitrichtung. Die Grenze zwischen diesen beiden Fällen bilden die lichtartigen Vektoren, die gerade dadurch definiert sind, dass ihr Abstand zum Ursprung verschwindet. 3.6 Einfache Lorentz-Transformationen Nach diesem kurzen Exkurs in die Minkowski-Geometrie kehren wir nun wieder zu den Lorentz-Transformationen zurück. Genauer interessieren wir uns für die eigentlichen, orthochronen Lorentz-Transformationen SO+ (1, n − 1), die die Zusammenhangskomponente der Eins bilden. Analog zum euklidischen Fall von Abschnitt 3.3, lässt sich jede einfache LorentzTransformation R ∈ SO+ (1, n − 1) durch eine Drehebene und einen Drehwinkel beschreiben gemäß: R(v) = RvR−1 = eIϑ/2 ve−Iϑ/2 , wobei I der Pseudoskalar der Drehebene und ϑ ein Drehwinkel ist. Im Gegensatz zu den euklidischen Drehungen, wo immer I 2 > 0 galt, müssen wir hier allerdings zwischen drei verschiedenen Möglichkeiten unterscheiden. Dazu verwendet man die gleiche Einteilung wie bei den Kegelschnitten, wobei der Kegel hier durch den Lichtkegel gegeben ist: (i) Für eine raumartige Drehebene ist Ie2 < 0 und man bekommt elliptische Lorentz-Transformationen. Dies sind gerade die räumlichen Drehungen. (ii) Für eine zeitartige Drehebene ist Ih2 > 0 und man bekommt hyperbolische Lorentz-Transformationen. Diese entsprechen den Lorentz-Boosts. (iii) Eine lichtartige Drehebene führt zu Ip2 = 0. Die zugehörigen Transformationen sind die wenig bekannten parabolischen Lorentz-Transformationen. Wir beginnen mit den elliptischen Drehungen. Eine raumartige, zweidimensionale Ebene He kann durch zwei raumartige Vektoren a und b aufgespannt werden. Da raumartige Vektoren immer ein negatives Normquadrat haben, können wir diese 2 2 ohne Einschränkungen auf kak = kbk = −1 normieren und senkrecht zueinander 3.6 Einfache Lorentz-Transformationen 73 e2 e0 e1 (a) e1 (b) Abbildung 3.14 (a) Einfache elliptische und (b) hyperbolische Lorentz-Transformationen. Die hyperbolischen Drehungen bilden den Lichtkegel auf sich selbst ab. wählen. Damit lässt sich der normierte Pseudoskalar der Ebene He als Ie = ba−1 schreiben. Das Quadrat berechnet man zu: Ie2 = (ba−1 )(ba−1 ) = −b2 a−2 = −(−1)(−1) = −1 . Wegen Ie2 = −1 können wir die Exponentialfunktion genau wie in Gleichung (3.10) in Sinus und Cosinus zerlegen: R = eIe ϑ/2 = cos(ϑ/2) + Ie sin(ϑ/2) . (3.24) Dies führt zu einer euklidische Drehung, die wir in Abschnitt 3.3 schon ausführlich diskutiert haben. Die Vektoren werden dabei so transformiert, dass Längen und Winkel erhalten bleiben. Die Spitzen der Vektoren werden also entlang der Kreise in Abbildung 3.14a verschoben, so dass der euklidische Winkel zwischen ihnen erhalten bleibt. Die zweite wichtige Klasse von Lorentz-Transformationen sind die hyperbolischen Drehungen oder auch Boosts, die in einer zeitartigen Drehebene Hh stattfinden. Die zeitartige Ebene können wir, wie vorher, durch zwei senkrechte und auf ±1 normierte Vektoren a und b aufspannen. Nach Satz 3.2 muss dann aber einer der beiden Vektoren zeitartig und der andere raumartig sein. Wir können also 2 2 diesmal nur kak = − kbk = ±1 erreichen. Dies wirkt sich auf das Quadrat des −1 Pseudoskalars Ih = ba aus, und für eine zeitartige Drehebene bekommen wir: Ih2 = −b2 a−2 = −(±1)(∓1) = +1 . Damit ist die Zerlegung (3.24) in Sinus und Cosinus nicht mehr möglich. Stattdessen bekommen wir eine Zerlegung in die hyperbolischen Funktionen: R = eIh ϑ/2 = cosh(ϑ/2) + Ih sinh(ϑ/2) . (3.25) Wie für die euklidischen Drehungen wählen wir in der Ebene Hh eine Basis (e0 , e1 ), 2 2 jetzt aber mit ke0 k = 1 und ke1 k = −1. Der Pseudoskalar der Drehebene ist 74 Kapitel 3. Reflexionen und Rotationen dann durch Ih = e0 e1 gegeben. Einen Vektor vk aus Hh zerlegen wir in dieser Basis gemäß vk = vk0 e0 + vk1 e1 . Eine kurze Rechnung führt zum Ergebnis: Rvk = cosh(ϑ/2) + e0 e1 sinh(ϑ/2) (vk0 e0 + vk1 e1 ) = cosh(ϑ/2) vk0 + sinh(ϑ/2) vk1 e0 + sinh(ϑ/2) vk0 + cosh(ϑ/2) vk1 e1 . Wie im euklidischen Fall ist also schon die einfache linksseitige Wirkung des Versors R auf Vektoren in der Drehebene eine Drehung, diesmal allerdings eine hyperbolische. Die beidseitige Wirkung Rvk R−1 = R2 v dreht dann um den doppelten Winkel: Rvk R−1 = (cosh ϑ vk0 + sinh ϑ vk1 )e0 + (sinh ϑ vk0 + cosh ϑ vk1 )e1 . Der Anteil von Vektoren senkrecht zur Drehebene bleibt unbeeinflusst. Die Wirkung einer hyperbolischen Drehung auf Vektoren in der Drehebene ist in Abbildung 3.14b dargestellt. Dabei fallen mehrere Dinge auf: Das erste ist die Tatsache, dass die Drehrichtung von zeitartigen und raumartigen Vektoren entgegengesetzt erscheint. Dies ist eine Folge der Ergebnisse des letzten Abschnitts, wonach orthogonale Vektoren sich in entgegengesetzter Richtung aufeinander zu drehen (siehe speziell Abbildung 3.10 auf Seite 69). Weiterhin stellt man fest, dass der Lichtkegel durch hyperbolische Drehungen auf sich selbst abgebildet wird. Dies ist klar, da Isometrien Längen erhalten und weil der Lichtkegel gerade als Nullstellengebilde des Normquadrats, k`k2 = 0, definiert wurde. Als letztes bemerkt man, dass die Drehwinkel unterschiedlich groß aussehen. Dies ist wieder ein Artefakt der Einbettung der hyperbolischen Ebene in die euklidische Zeichenebene. Man kann aber zeigen, dass die farblich markierten Flächen in Abbildung 3.14b gleich sind, die von Vektoren gleicher Länge überstrichen werden [Cal00, Section 2.2]. Eine raum- oder zeitartige Drehebene führte zu elliptischen bzw. hyperbolischen Lorentz-Transformationen. Eine Sonderstellung zwischen diesen beiden Fällen nehmen die lichtartigen Drehebenen ein, zu denen die parabolischen Lorentz-Transformationen gehören. Sei Hp eine solche zweidimensionale, lichtartige Ebene, die den Lichtkegel in der lichtartigen Geraden g ⊂ Hp berührt. Wie in den anderen beiden Fällen spannen wir die Ebene durch zwei senkrechte Vektoren a und b auf. Die lichtartige Ebene enthält lichtartige und raumartige Vektoren. Wir wählen 0 6= b ∈ g lichtartig und einen beliebigen raumartigen Vektor a ∈ Hp \ g. Nach Satz 3.3 sind dann a und b senkrecht zueinander. Das Quadrat des Pseudoskalars Ip = ba−1 berechnet man 2 aufgrund von kbk = 0 zu: Ip2 = −b2 a−2 = 0 . Es ist deshalb nicht möglich den Pseudoskalar auf ±1 zu normieren. Außerdem besitzt Ip kein Inverses, weshalb man Vektoren nicht in einen Anteil senkrecht und parallel zur Drehebene zerlegen kann. Trotzdem erscheint es sinnvoll die beidseitige Drehformel auch in diesem Fall beizubehalten. Ein Vorteil von Ip2 = 0 ist, dass die Exponentialreihe schon nach dem linearen Term abbricht: eIp ϑ/2 = 1 + Ip ϑ2 . (3.26) 3.6 Einfache Lorentz-Transformationen 75 g w2 w1 w1 v v (a) (b) Abbildung 3.15 Parabolische Lorentz-Transformationen. (a) Für einen Vektor v außerhalb der Drehebene. (b) Für einen Vektor in der Drehebene. Die beidseitige Wirkung auf einen beliebigen Vektor v ∈ M wird damit zu: RvR−1 = eIp ϑ/2 ve−Ip ϑ/2 = (1 + ϑ2 Ip )v(1 − ϑ2 Ip ) ϑ2 4 Ip vIp 2 vIp ) − ϑ4 Ip vIp = v + ϑ2 Ip v − ϑ2 vIp − = v + ϑ 21 (Ip v − = v − ϑ(v y Ip ) + 12 ϑ2 (v y Ip ) y Ip . (3.27) Für die letzte Umformung verwendet man dabei: (v y Ip ) y Ip = 12 (vIp − Ip v) y Ip = 1 4 (vIp − Ip v)Ip − Ip (vIp − Ip v) = − 12 Ip vIp , wobei im letzten Schritt unter Berücksichtigung von Ip2 = 0 ausmultipliziert wurde. Mit der Zerlegung Ip = ba−1 des Pseudoskalars und dem Inversen a−1 = a/a2 kann man die Kontraktionen explizit ausführen und erhält die Vektoren: w1 := v y Ip = v y (ba−1 ) = hv |bia−1 − hv |a−1 ib = w2 := (v y Ip ) y Ip = −ha−1 |a−1 ihv |bib = − hv |ai hv |bi a− b, ha|ai ha|ai hv |bi b. ha|ai Da der Vektor a raumartig ist, können wir ihn so wählen, dass kak2 = −1 gilt. Damit vereinfacht sich die Transformation (3.27) zu: RvR−1 = v − ϑ w1 − 21 ϑ2 w2 , (3.28) mit w1 = hv |bia − hv |aib und w2 = hv |bib . (3.29) Der Vektor v wird also entlang der Parabel (3.28) transformiert, die von den Vektoren w1 ∈ Hp und w2 ∈ g aufgespannt wird. Dies ist gerade die Schnittparabel der 76 Kapitel 3. Reflexionen und Rotationen Drehebene Hp mit dem Hyperboloiden, der durch die Norm von v definiert wird. Dies ist in Abbildung 3.15a veranschaulicht. Falls v in der Drehebene liegt, dann wird w2 = 0 und w1 liegt in g. Damit entartet die Parabel zu einer Geraden parallel zu g (siehe Abbildung 3.15b). Falls schließlich v ∈ g ist, so ergibt sich aus (3.29) für die beiden Vektoren w1 = w2 = 0 und v wird auf sich selbst transformiert. 3.7 Verallgemeinerung auf Multivektoren Die Wirkung von orthogonalen Transformationen auf Vektoren lässt sich in natürlicher Weise auf Multivektoren verallgemeinern. Dazu betrachten wir zuerst die Wirkung einer orthogonalen Transformation U auf einen 2-Spat a ∧ b. Wie man sich – zum Beispiel anhand einer Drehung – anschaulich klar macht, sollte der transformierte Spat U(a ∧ b) gerade von den beiden transformierten Vektoren U(a) und U(b) aufgespannt werden: U(a ∧ b) = U(a) ∧ U(b) . Wir setzen die Transformation U also so fort, dass sie zu einem äußeren Morphismus wird. Die Wirkung von U auf einen k-Spat definieren wir deshalb einfach als: U(Ak ) = U(a1 ∧ · · · ∧ ak ) := U(a1 ) ∧ · · · ∧ U(ak ) . (3.30) Die Wirkung auf einen allgemeinen Multivektor bekommt man daraus durch lineare Fortsetzung, da sich jeder Multivektor in eine Summe von Spaten zerlegen lässt. Als erstes Beispiel betrachten wir eine Drehung R. Die beidseitige Wirkung auf einen Vektor v kennen wir als R(v) = RvR−1 . Auf einen Spat a ∧ b wirkt diese also gemäß: R(a ∧ b) = R(a) ∧ R(b) = (RaR−1 ) ∧ (RbR−1 ) . Das Dachprodukt zweier Vektoren ist gegeben durch a ∧ b = 21 (ab − ba). Unter Verwendung der Assoziativität des geometrischen Produkts lässt sich die obige Gleichung damit wesentlich vereinfachen: R(a ∧ b) = (RaR−1 ) ∧ (RbR−1 ) = 12 RaR−1 RbR−1 − RbR−1 RaR−1 = 12 RabR−1 − RbaR−1 = R 21 (ab − ba) R−1 = R(a ∧ b)R−1 . Unter Verwendung von Gleichung (2.97) lässt sich dies per Induktion auf beliebige k-Spate verallgemeinern: R(a1 ∧ · · · ∧ ak ) = R(a1 ∧ · · · ∧ ak )R−1 . Als Folge der beidseitigen Wirkung können wir bei den Rotationen also einfach anstelle eines Vektors einen beliebigen Multivektor A einsetzen: R(A) = RAR−1 = α̂(R)AR−1 . (3.31) Bei Reflexionen U ∈ O(p, q) \ SO(p, q) muss man wegen α̂U = −U mit dem Vorzeichen aufpassen. Analog zum obigen Vorgehen berechnen wir zuerst die Wirkung auf einen 2-Spat a ∧ b. Mit der Wirkung U(v) = −UvU −1 auf einen Vektor v ergibt sich: U(a ∧ b) = U(a) ∧ U(b) = (−UaU −1 ) ∧ (−U bU −1 ) = U (a ∧ b)U −1 . 3.8 Anwendung: Bewegung in Zentralkraftfeldern 77 Für einen k-Spat erfasst man das Vorzeichen durch die Grad-Involution: U(a1 ∧ · · · ∧ ak ) = −U α̂(a1 ∧ · · · ∧ ak )U −1 = α̂(U a1 ∧ · · · ∧ ak )U −1 . Bei der Wirkung einer Reflexion auf einen beliebigen Multivektor A taucht deshalb ein zusätzliches Vorzeichen auf, welches von den Graden von A abhängt: U(A) = α̂(UA)U −1 = α̂(U )α̂(A)U −1 . (3.32) Aufgrund dieses Vorzeichens ist es nicht mehr möglich, die Wirkung der Rotationen und Reflexionen auf Multivektoren in einfacher Weise in einer einzigen Formel zusammenzufassen, wie dies für die Vektoren möglich war. 3.8 Anwendung: Bewegung in Zentralkraftfeldern In diesem Abschnitt wollen wir zeigen, wie sich die Klassische Mechanik in der Sprache der Geometrischen Algebra formulieren lässt. Das Rezept dazu ist einfach: Als erstes ersetzt man alle Kreuzprodukte von echten6 Vektoren durch Dachprodukte. Die axialen Vektoren werden dadurch in der GA automatisch zu Bivektoren, die auch das richtige Verhalten unter Parität aufweisen. In einem weiteren Schritt kann man versuchen, die Gleichungen mit Hilfe des Geometrischen Produkts auszudrücken, welches in Rechnungen einige algebraische Vorteile bietet. 3.8.1 Drehimpuls und Laplace-Runge-Lenz-Vektor Normalerweise ist der Drehimpuls definiert als Kreuzprodukt von Ortsvektor r und Impuls p. Nach dem Rezept wird aus dem Kreuz- ein Dachprodukt und man bekommt stattdessen einen Drehimpuls-Bivektor : L =r∧p . (3.33) Geometrisch lässt sich der Drehimpuls also als die orientierte Fläche interpretieren, die vom Radiusvektor r (Fahrstrahl) überstrichen wird. Für konstanten Drehimpuls L ergibt sich daraus ohne weitere Rechnung genau die Aussage des zweiten Kepler’schen Gesetzes. Im Hinblick auf Zentralkraftfelder ist es praktisch den obigen Ausdruck für den Drehimpuls noch etwas umzuschreiben. Dazu zerlegen wir den Ortsvektor in Betrag und Richtung: r = rr̂ mit r = krk und r̂ 2 = 1 . Damit lässt sich (3.33) umschreiben zu: ˙ = µ r ∧ (r r̂) ˙ = µr 2 r̂ ∧ r̂˙ . L = µ r ∧ ṙ = µ r ∧ (ṙr̂ + r r̂) Außerdem erhält man aus der Normierungsbedingung r̂ 2 = 1 durch Ableiten: 0= d d ˙ , 1 = (r̂ 2 ) = 2hr̂| r̂i dt dt 6 Polare/echte Vektoren (wie Ort und Impuls) wechseln unter Raumspiegelung/Parität das Vorzeichen. Axiale/Pseudo-Vektoren (wie der Drehimpuls) tun dies nicht. 78 Kapitel 3. Reflexionen und Rotationen also steht r̂˙ senkrecht auf r̂. Das Endergebnis kommt deshalb mit einem geometrischen Produkten aus: ˙ . L = µr 2 r̂ r̂˙ = −µr 2 r̂r̂ (3.34) Da man bezüglich geometrischem Produkt durch Vektoren teilen kann, lässt sich dies zum Beispiel nach r̂˙ auflösen: 1 1 r̂˙ = 2 r̂L = 2 r̂ y L , µr µr wobei für den letzten Schritt r̂ ∧ L = r̂ ∧ r ∧ p = 0 verwendet wurde. Hierbei profitiert man von der Assoziativität des Dachprodukts, welche beim Kreuzprodukt nicht vorhanden ist. Damit ergibt sich: 1 ṙ = ṙr̂ + r r̂˙ = ṙ − L r̂ , µr und als Folge davon zerfällt die kinetische Energie in einen Radial- und einen Drehimpulsanteil: µ µ µ D 1 t E 1 Ekin = ṙ 2 = hṙṙ t i = L r̂r̂ ṙ − L ṙ − 2 2 2 µr µr E 1 1 1 µD 2 ṙ − ṙ L − ṙ Lt + 2 2 LLt = 2 µr µr µ r µ 1 1 µ 2 2 kLk . (3.35) ṙ + 2 2 hLLt i = ṙ 2 + = 2 µ r 2 2µr 2 Im zweiten Schritt heben sich dabei die Kreuzterme gegeneinander weg, da für die Transposition eines Bivektors Lt = −L gilt. Als weitere Anwendung der Gleichung (3.34) zeigen wir, dass der Laplace-Runge-Lenz-Vektor in einem Kepler-Potential V (r) = −κ/r erhalten ist. Die Bewegungsgleichung eines Teilchens der Masse µ ist hier gegeben durch: µr̈ = − κ r̂ . r2 (3.36) Man berechnet dann unter Verwendung von Gleichung (3.34): Lr̈ = − κ κ ˙ Lr̂ = 2 µr 2 r̂r̂r̂ = κr̂˙ µr 2 µr ⇐⇒ Lv̇ − κr̂˙ = 0 . Da der Drehimpuls in Zentralkraftfeldern erhalten ist (L̇ = 0), folgt daraus: d Lv − κr̂ = 0 dt ⇐⇒ κe := Lv − κr̂ = const . (3.37) Die Erhaltungsgröße e heißt Laplace-Runge-Lenz-Vektor. Dass es sich dabei wirklich um einen Vektor handelt, folgt aus Lv = L x v = hLvi1 , wegen L ∧ v = µ r ∧ v ∧ v = 0. In klassischer Notation lautet der Laplace-Runge-Lenz-Vektor übrigens e = (v × l)/κ − r̂, wobei l = r × p der (axiale) Drehimpulsvektor ist. Die Äquivalenz dieser beiden Ausdrücke für den Laplace-Runge-Lenz-Vektor folgt aus Gleichung (C.6) auf Seite 144, denn es gilt: Lv = L x v = −v y L = −v y (r ∧ p) = v × (r × p) = v × l . 3.8 Anwendung: Bewegung in Zentralkraftfeldern 79 3.8.2 Lösung des Kepler-Problems mit Rotor-Methoden Neben der Vereinfachung von algebraischen Manipulationen eröffnet die Geometrische Algebra teilweise ganz neue Herangehensweisen an Probleme. Ein Beispiel ist die Verwendung von Rotoren7 zur Lösung des Kepler-Problems (siehe auch [Hes98], [Hes99, Section 8.4] und [DL03, Section 3.3]). Dazu bemerken wir, dass sich jeder Vektor eines euklidischen Vektorraums durch eine Drehstreckung aus einem festen Referenzvektor e1 gewinnen lässt: r = rr̂ = r U e1 U −1 = U e1 U t mit kU k2 = r , (3.38) wobei U ∈ Γ+ n ein gerader Versor ist. Obwohl U nicht auf 1 normiert ist, wollen wir ihn hier trotzdem als (verallgemeinerten) Rotor bezeichnen. Anschließend übersetzt man die Bewegungsgleichung für r(t) im Ortsraum, in eine Bewegungsgleichung für U (t) im Raum der Rotoren. Wie sich herausstellt, ist diese „Rotorgleichung“ – zumindest beim Kepler-Problem – in vielen Belangen deutlich einfacher zu handhaben, als die ursprüngliche Bewegungsgleichung. Anstelle des einzelnen Referenzvektors kann man in Gleichung (3.38) auch die Basis (ej )j eines Vektorraums einsetzen. In diesem Fall beschreibt die Transformation e0j = U ej U t eine Drehstreckung des ganzen Koordinatensystems. Dies ist unter anderem für die Beschreibung des starren Körpers nützlich. Auf die selbe Weise lässt sich aber auch ein begleitendes Vierbein in der speziellen Relativität beschreiben. Neben der klassischen Anwendung sind die Rotormethoden auch im Hinblick auf die Quantenmechanik relevant. Hier tauchen nämlich zu Gleichung (3.38) analoge Ausdrücke der Form hψ| . . . |ψi auf, wobei ein Spalten-Spinor ψ von beiden Seiten auf Operatoren wirkt. Dies werden wir später genauer diskutieren. Wir kommen nun zur Lösung des Kepler-Problems. Da der Drehimpuls in Zentralkraftfeldern erhalten ist, findet die Bewegung in einer Ebene statt. Im Gegensatz zum üblicherweise verwendeten Kreuzprodukt ist das Dachprodukt auch in zwei Dimensionen wohldefiniert. In der Geometrischen Algebra benötigen wir deshalb die dritte Dimension gar nicht, sondern wir können uns komplett auf den zweidimensionalen Vektorraum V(I) einschränken, wobei I = L/ kLk mit I 2 = −1 den Pseudoskalar bezeichnet, der die Ebene der Bewegung aufspannt. Der Rotor U lässt sich in diesem Fall schreiben als U = α + Iβ mit α, β ∈ . Nach Gleichung (2.127) kommutiert I mit allen geraden Multivektoren und antikommutiert mit allen ungeraden Multivektoren in G(I). Speziell ergibt sich also für einen Vektor a ∈ V(I) in der Drehebene: Ia = −aI = aI t . Für das Vertauschen eines Vektors a mit dem Rotor U folgt daraus: U a = aU t bzw. U t a = aU für alle a ∈ G(I) . was man mit Hilfe der obigen Zerlegung in Stufen leicht nachprüft. Da wir uns in einem zweidimensionalen Vektorraum befinden, muss der Referenzvektor e1 offensichtlich in der Drehebene liegen. Demzufolge ist r = U e1 U t = U 2 e1 und durch Ableiten nach der Zeit ergibt sich: ṙ = (U̇ U + U U̇ )e1 = 2U̇ U e1 = 2U̇ e1 U t , (3.39) 7 Wie in Abschnitt 3.4 erwähnt, werden die Rotoren in der Literatur zur Geometrischen Algebra normalerweise Spinoren genannt. Deshalb ist dort auch von „Spinor-Methoden“ die Rede. 80 Kapitel 3. Reflexionen und Rotationen P U r A P A A P Abbildung 3.16 Rotor- und Bahn-Orbit beim Kepler-Problem. Pro Umlauf des Rotors U durchläuft der Ortsvektor r den Orbit zweimal, aufgrund des Halbwinkels in Gleichung (3.11). Deshalb trifft man auf der Bahn von U das Perizentrum (P) und das Apozentrum (A) zweimal an. wobei man im zweiten Schritt die Kommutativität von U mit geraden Multivektoren ausgenutzt hat. Mit Hilfe des Zusammenhangs r = kU k2 = hU U t i = U U t zwischen r und U folgt daraus: 2r U̇ = 2U̇ r = 2U̇ (U U t ) = 2U̇ U (e1 e1 )U t = (2U̇ U e1 )U e1 = ṙU e1 . (3.40) Wir möchten nun den Faktor r auf der linken Seite in der Ableitung nach einem neuen Parameter s absorbieren. Dazu fordert man d dt d ! d = =r ds ds dt dt ⇐⇒ dt =r. ds (3.41) Bezeichnet man die Ableitung nach s mit einem Strich, dann ergibt sich: 2U 0 = 2 dU dt dU =2 = 2r U̇ = ṙU e1 . ds ds dt (3.42) Durch eine weitere Ableitung nach s wird daraus: 2U 00 = rr̈U e1 + ṙU 0 e1 = r̈U e1 r + ṙr U̇ e1 = r̈U e1 (U t U ) + ṙ(U t U )U̇ e1 = r̈(U e1 U t )U + U ṙ(U U̇ e1 ) = r̈rU + U ṙ( 21 ṙ) = U r̈r + 21 ṙ 2 , (3.43) wobei für die Umformungen mehrfach die Beziehung r = U U t = U t U und für die Ableitungen Gleichung (3.41) benutzt wurde. Nun verwendet man die Bewegungsgleichung eines Teilchens der Masse µ im Kepler-Potential: κ κ µr̈ = − 2 r̂ = − 3 r . r r Einsetzen in Gleichung (3.43) liefert die gesuchte Bewegungsgleichung für U : U 00 = beziehungsweise: 1 µ 2 κ 1 1 ṙ − U = U Ekin + V (r) = UE , 2µ 2 r 2µ 2µ U 00 − E U =0. 2µ (3.44) 3.8 Anwendung: Bewegung in Zentralkraftfeldern 81 a P r ψ ϕ C0 C b Abbildung 3.17 Parametrisierung der Ellipse mittels der exzentrischen Anomalie ψ als r(ψ) = a(1 + ε cos ψ). Der Punkt P hat per Konstruktion die Koordinaten P = (a cos ψ, b sin ψ), der linke Brennpunkt ist gegeben durch C = (−c, 0) mit c = εa, wobei ε die numerische Exzentrizität darstellt. Für negative Energie E < 0 (gebundene Bahnen) ist dies genau die Bewegungsgleichung eines harmonischen Oszillators mit der Frequenz: p ω = −E/2µ . (3.45) Die Lösung der Bewegungsgleichung (3.44) ist bekannt als: U (s) = α+ e+Iωs + α− e−Iωs , (3.46) wobei I der Pseudoskalar der zweidimensionalen Ebene und α± ∈ zwei Integrationskonstanten sind, die sich aus den Anfangsbedingungen ergeben. Mit Hilfe von Gleichung (3.38) lässt sich dann r berechnen: r(s) = U U t = α+ e+Iωs + α− e−Iωs α+ e−Iωs + α− e+Iωs 2 2 = (α+ + α− ) + α+ α− e2Iωs + e−2Iωs 2 2 = (α+ + α− ) + 2α+ α− cos(2ωs) . (3.47) Mit dt/ds = r folgt daraus für die Zeit t: 2 2 t(s) = (α+ + α− )s + 1 α+ α− sin(2ωs) . ω (3.48) Vergleicht man das Ergebnis (3.47) für r(s) mit der bekannten Parametrisierung der Ellipse durch r(ψ) = a(1 + ε cos ψ), wobei ψ die exzentrischen Anomalie 8 ist (siehe dazu Abbildung 3.17), dann bekommt man: ψ = 2ωs , 8 Die 2 2 a = α+ + α− und εa = 2α+ α− . Winkel werden in der Terminologie des Kepler-Problems oft als Anomalien bezeichnet. 82 Kapitel 3. Reflexionen und Rotationen Der Parameter s unterscheidet sich von der exzentrischen Anomalie ψ nur um den konstanten Faktor 2ω. Bei der Rechnung mit Rotoren taucht die wichtige, exzentrische Anomalie also als ein natürlicher Parameter auf, wogegen sie im Vektorkalkül einigermaßen künstlich eingeführt werden muss. Außerdem lässt sich s auch auf den Fall E > 0 fortsetzen, die Frequenz in Gleichung (3.45) mit Hilfe des p wenn man p Bivektors I als ω = −E/2µ = I E/2µ =: I ω̃ schreibt. Damit wird (3.47) zu: 2 2 2 2 r(s) = (α+ + α− ) + 2α+ α− cos(2I ω̃s) = (α+ + α− ) + 2α+ α− cosh(2ω̃s) , wodurch eine Hyperbelbahn beschrieben wird. Dies sieht man, indem man die Hyperbel durch (a cosh ψ, b sinh ψ) parametrisiert und dann genau wie in Abbildung 3.17 vorgeht. Insgesamt bietet die Verwendung von Rotoren bei der Lösung des Keplerproblems enorme Vorteile. Durch den Übergang von Vektoren zu Rotoren wird die Bewegungsgleichung linear. Außerdem ist sie überall regulär, im Gegensatz zur ursprünglichen Gleichung, die bei r = 0 eine Singularität aufweist. Dies wirkt sich positiv auf die Stabilität von numerischen Lösungen aus. Weiterhin haben wir in Gleichung (3.46) bzw. (3.47) eine universelle Lösung (für beliebige Energie E) gefunden, die durch die exzentrische Anomalie parametrisiert wird. Aufgrund der „Gutartigkeit“ der Rotorgleichung eignet sich diese auch hervorragend als Ausgangspunkt der Störungsrechnung in der Himmelsmechanik. Eine Matrixformulierung der Bewegungsgleichung (3.44) (mit einer zusätzlichen äußeren Kraft) ist dort als Kustaanheimo-Stiefel-Gleichung bekannt. Um diese herzuleiten, muss man die obige Argumentation auf drei Dimensionen verallgemeinern, da im gestörten Problem der Drehimpuls im Allgemeinen nicht mehr erhalten ist. Dabei tritt in Gleichung (3.38) eine Eichfreiheit auf, da der Rotor U ∈ Γ+ 3 vier freie Parameter besitzt, wogegen der Vektor r nur dreidimensional ist. Die Diskussion von verschiedenen Eichungen, zusammen mit der Herleitung der Kustaanheimo-StiefelGleichung, findet man in [Hes99, Section 8.4]. 3.9 Zusammenfassung In diesem Kapitel haben wir uns mit der Beschreibung von Isometrien in der Sprache der Geometrischen Algebra beschäftigt. Eine Spiegelung des Vektors v an einer Hyperebene senkrecht zum Vektor s lässt sich mit dem Clifford-Produkt schreiben als: S(v) = −svs−1 = α̂(s)vs−1 . (3.1) In Abschnitt 3.2 haben wir daraufhin den Satz von Cartan-Dieudonné bewiesen, wonach sich jede orthogonale Transformation U eines Vektorraums Vp,q in maximal n = p + q Spiegelungen an Ebenen senkrecht zu nichtsingulären Vektoren zerlegen lässt. Als Folge davon kann man jede beliebige orthogonale Transformation schreiben als: U(v) = α̂(U )vU −1 , (3.5) wobei U = sk · · · s1 ein sogenannter Versor ist. Besonders interessant sind für uns die Rotationen, die sich nach dem Satz in eine gerade Anzahl von Reflexionen zerlegen lassen. Die Komposition von zwei Spiegelungen nennen wir dabei einfache Drehung, wogegen sich zusammengesetzte Drehungen nur durch eine höhere Anzahl von Spiegelungen ausdrücken lassen. Da sich jede zusammengesetzte Drehung aus 3.9 Zusammenfassung 83 den einfachen aufbauen lässt, müssen wir nur diese genauer untersuchen. In einem euklidischen Vektorraum kann man jede einfache Drehung um den Winkel ϑ in der Drehebene, die vom normierten 2-Spat I2 aufgespannt wird, schreiben als: R(v) = RvRt = eI2 ϑ/2 ve−I2 ϑ/2 . (3.11) In diesem Zusammenhang wurde der Rotor R als orientierter Kreisbogen eines Großkreises auf der Einheitssphäre interpretiert. Hat man anstelle des Drehwinkels und der Drehebene einen Einheitsvektor a gegeben, der durch die Drehung in den Vektor b übergeht, dann ergibt sich für R die Formel: R= p 1 + ba 2(1 + ha|bi) . (3.130 ) Im darauf folgenden Abschnitt 3.4 haben wir die Gruppeneigenschaften der Isometrien diskutiert. Die Versoren bilden die Clifford-Lipschitz-Gruppe Γp,q , woraus sich durch eine geeignete Normierung die wichtigen Untergruppen Pin(p, q), Spin(p, q) und Spin+ (p, q) ergeben. Im Gegensatz zur üblichen Sprechweise in der Mathematik, werden die Elemente der Spin-Gruppe in dieser Arbeit Rotoren genannt, um Verwechslungen mit den Spinoren der Quantenmechanik zu vermeiden. Topologisch gesehen sind die Pin- und Spin-Gruppen zweifache Überlagerungen der orthogonalen Gruppen: Pin(p, q)/ 2 ∼ = O(p, q) , Spin(p, q)/ 2 ∼ = SO(p, q) ∼ und Spin+ (p, q)/ 2 = SO+ (p, q) . Im euklidischen Fall mit n ≥ 3 und für die Lorentzmetriken (n − 1, 1) bzw. (1, n − 1) mit n ≥ 4 sind die Überlagerungen einfach zusammenhängend und deshalb universell. Eine universelle Überlagerung hat besonders schöne mathematische Eigenschaften und alle überlagerten Gruppen können daraus durch Quotientenbildung rekonstruiert werden. In Abschnitt 3.5 haben wir den Minkowski-Vektorraum in geometrischer Weise definiert und ausführlich untersucht, wie sich die indefinite Metrik auf den Begriff der Orthogonalität und Längen auswirkt. Im Anschluss daran wurden in Abschnitt 3.6 die einfachen Lorentz-Transformationen diskutiert. Diese lassen sich durch die Kegelschnitte der Drehebene mit dem Lichtkegel klassifizieren. Eine raumartige Drehebene führt dabei zu den elliptischen Lorentz-Transformationen, die den gewöhnlichen Drehungen entsprechen. Eine zeitartige Drehebene liefert hyperbolische Drehungen, die auch Lorentz-Boosts genannt werden. Als oft vergessener Grenzfall zwischen diesen beiden bekannten Möglichkeiten, führt eine lichtartige Drehebene zu den sogenannten parabolischen Lorentz-Transformationen. Alle diese Transformationen lassen sich einheitlich durch die beidseitige Wirkung, wie in Gleichung (3.11), beschreiben, wobei sich die verschiedenen Fälle nur durch das Quadrat des Pseudoskalars der Dreheben I 2 ∈ {0, ±1} unterscheiden. Nach der ausführlichen Diskussion der Isometrien auf Stufen des Vektorraums, wurden diese in Abschnitt 3.7 auf die komplette Algebra fortgesetzt. Dazu definiert man die Wirkung von U auf einen k-Spat in natürlicher Weise als äußeren Morphismus: U(a1 ∧ · · · ∧ ak ) := U(a1 ) ∧ · · · ∧ U(ak ) , was sich dann linear auf beliebige Multivektoren fortsetzen lässt. 84 Kapitel 3. Reflexionen und Rotationen Als Anwendungsbeispiel wurde in Abschnitt 3.8 die Bewegung in Zentralkraftfeldern im Rahmen der Newton’schen Mechanik diskutiert. Die Rolle des Drehimpulsvektors wird dabei vom Drehimpuls-Bivektor L = r ∧ p übernommen. In der Geometrischen Algebra lässt sich dieser auch mit Hilfe des Clifford-Produkts ausdrücken als: ˙ . L = µr 2 r̂ r̂˙ = −µr 2 r̂r̂ (3.34) Diese speziell Form erlaubt besonders effiziente algebraische Umformungen, was unter anderem im darauf folgenden Beweis der Erhaltung des Laplace-Runge-LenzVektors demonstriert wurde. Zum Abschluss des Kapitels wurde vorgeführt, wie die Verwendung von (verallgemeinerten) Rotoren die Lösung des Kepler-Problems vereinfacht. Dazu übersetzt man anhand einer Drehstreckung: r = U e1 U t , (3.380 ) mit kU k2 = r und einem festen Referenzvektor e1 , die Bewegungsgleichung für r im Ortsraum in eine „Rotorgleichung“ für U . Als überraschendes Ergebnis bekommt man dadurch für U die Bewegungsgleichung eines harmonischen Oszillators: U 00 − E U =0, 2µ (3.43) wobei der Strich die Ableitung nach einem Parameter s bezeichnet, der in diesem Formalismus natürlich auftritt und sich als proportional zur exzentrischen Anomalie herausstellt. Die Lösung der Rotorgleichung ist einfach und lässt sich für beliebige Energien explizit angeben. Im Gegensatz zur Bewegungsgleichung im Ortsraum, welche bei r = 0 eine Singularität aufweist, ist die Rotorgleichung außerdem überall regulär. Dies prädestiniert sie als Ausgangspunkt für die Störungsrechnung in der Himmelsmechanik, wo eine Matrixformulierung von Gleichung (3.43) als Kustaanheimo-Stiefel-Gleichung bekannt ist. Die Geometrische Algebra hat viele weitere Anwendungen auf dem Gebiet der klassischen Newton’schen Mechanik (siehe dazu [Hes99]). Auch die Lagrange’sche und Hamilton’sche Mechanik lässt sich gewinnbringend in der Sprache der Geometrischen Algebra formulieren. Details dazu kann man zum Beispiel in [Hes93b], [LDG93] sowie in [DL03, Chapter 12] nachlesen. a 4. Spezielle Relativität und Spacetime-Algebra To show this diagram properly, I would really need a four dimensional screen. However, because of government cuts, we could manage to provide only a two dimensional screen. Stephen Hawking Im Jahr 1905 veröffentlichte Albert Einstein seinen berühmten Artikel „Zur Elektrodynamik bewegter Körper“ [Ein05] in dem er den Grundstein zur Speziellen Relativitätstheorie (SRT) legte. Obwohl die Maxwell-Gleichungen schon 1884 von Heaviside und Gibbs in der Sprache der klassischen Vektoranalysis formuliert wurden, musste Einstein in seinem Artikel auf Koordinatenausdrücke zurückgreifen, da sich das Kreuzprodukt nicht auf vier Dimensionen verallgemeinern lässt. Auch heutzutage ist die Beschreibung der SRT in Koordinaten durch Lorentz-kovariante Tensorgleichungen üblich. Dabei geht allerdings ein großer Teil der geometrischen Anschauung eines koordinatenfreien Zugangs verloren, wie man ihn zum Beispiel aus der klassischen Mechanik und der dreidimensionalen Elektrodynamik kennt. Mittlerweile wurde die klassische Vektoranalysis in der Mathematik weitgehend durch Differentialformen abgelöst, die langsam auch ihren Weg in die Physik finden. Als Beispiel sei die koordinatenfreie, vierdimensionale Formulierung der Elektrodynamik erwähnt, wodurch die ursprünglichen vier Maxwell-Gleichungen auf zwei gut interpretierbare Gleichungen reduziert werden konnten. Auf ein neues Problem stößt man allerdings in der Quantenmechanik, sobald der Spin eingeführt werden soll. Als Folge davon verwendet man in der relativistischen Quantenmechanik normalerweise eine Mischung aus einer Tensoralgebra über einem komplexifizierten Vektorraum, zusammen mit Spinoren. In diesem Kapitel wollen wir zeigen, wie die Geometrische Algebra eine koordinatenfreie Formulierung der Speziellen Relativität ermöglicht. Weil die dabei entstehenden Gleichungen ohne Bezug auf einen Beobachter auskommen sind sie sogar Lorentz-invariant, im Gegensatz zu den nur kovarianten Tensorgleichungen . Gleichzeitig gewinnt man eine geometrische Anschauung, da nicht mehr von symmetrischen und antisymmetrischen Tensoren p-ter Stufe die Rede ist, sondern Konzepte wie Vektoren, Flächenelemente und so weiter in den Vordergrund treten. Wie Hestenes in [Hes66] zeigt, lässt sich in dieser Spacetime-Algebra auch der Spin konsistent einführen. Die grundlegenden Prinzipien der Speziellen Relativitätstheorie wollen wir hier als bekannt voraussetzen (siehe z. B. [SU92]) und direkt mit der Beschreibung von Teilchen in der Minkowski-Raumzeit beginnen. Die Geometrie von Minkowski-Vektorräumen wurde schon ausführlich in Abschnitt 3.5 (auf Seite 67ff) diskutiert. Wie auch dort, wählen wir die in der Teilchenphysik übliche Metrik η mit der Signatur (p, q) = (1, 3), so dass kausale (zeitartige) Abstände positiv werden. Außerdem verwenden wir in diesem Kapitel natürliche Einheiten, für die c = 1 gilt. 4.1 Teilchen und Weltlinien Die Bewegung eines Teilchens lässt sich durch eine glatte, parametrisierte Kurve x(λ) von Ereignissen (Punkten) im Minkowskiraum M beschreiben (siehe Abbil- 86 Kapitel 4. Spezielle Relativität und Spacetime-Algebra x(λ) x(λ) (a) (b) Abbildung 4.1 (a) Weltlinie x(λ) eines Teilchens in der Minkowski-Raumzeit. (b) Bei der kausalen Bewegung eines Teilchens muss der Tangentialvektor x0 (λ) der Weltlinie x(λ) immer innerhalb oder auf einem lokal angehefteten Lichtkegel liegen. dung 4.1a). Der Kurvenparameter λ kann dabei frei gewählt werden, da er – bis auf die Orientierung der Kurve – keine physikalische Bedeutung hat. Die Äquivalenzklasse x( · ) aller Kurven, die die gleiche physikalische Bewegung parametrisieren, wollen wir Weltlinie nennen. In der Physik ist es üblich auch den Repräsentanten x(λ) als Weltlinie zu bezeichnen. Dieser Konvention wollen wir uns anschließen, solange dadurch keine Missverständnisse auftreten. Wir wollen nun eine Raumzeit-Geschwindigkeit 1 für das Teilchen definieren. Dazu betrachten wir als Erstes den Tangentialvektor der Kurve: x0 (λ) = dx (λ) . dλ (4.1) Da dieser Vektor aber unter den (physikalisch irrelevanten) Umparametrisierungen der Kurve seine Länge ändert, ist er durch die Weltlinie x( · ) nicht eindeutig bestimmt. Deshalb kann er (zumindest in dieser Form) nicht die Raumzeit-Geschwindigkeit des Teilchens beschreiben. Für ein massives Teilchen kann man den Tangentialvektor durch einen Trick eindeutig machen. Um die Kausalität zu wahren, muss der Tangentialvektor x0 (λ) an jedem Punkt der Weltlinie innerhalb oder auf einem lokal angeheftenen Lichtkegel liegen (siehe Abbildung 4.1b). Für ein Teilchen mit Masse m 6= 0 ist er bekanntermaßen sogar überall zeitartig. In diesem Fall ist durch die Bogenlänge `(λ) der Kurve ein bevorzugter Kurvenparameter gegeben: Z λ `(λ) = kx0 (λ)k dλ . (4.2) 0 Da der Parameter τ := ` die Zeit beschreibt, die im momentanen Ruhesystem des Teilchens vergeht, wird τ auch Eigenzeit genannt.2 Der Tangentialvektor einer 1 Der Begriff Vierergeschwindigkeit ist in diesem Kontext ungeeignet, da die Geschwindigkeit kein 4-Vektor ist. Außerdem bringt der Begriff der Raumzeit-Geschwindigkeit deutlicher zum Ausdruck, worum es sich dabei handelt. 2 Wenn man die Lichtgeschwindigkeit c nicht gleich 1 setzt, gilt zwischen Eigenzeit und Bogenlänge die Beziehung τ = `/c. Der Tangentialvektor ist dann auf kẋ(τ )k2 = c2 normiert. 4.2 Beobachter und Bezugssysteme 87 Kurve x(τ ), die mit der Eigenzeit parametrisiert ist, hat überall die Länge 1. Dies kann man für eine alternative (lokale) Definition der Eigenzeit verwenden. Dazu fordert man: dx 2 ! kẋ(τ )k = 1 , mit ẋ(τ ) := (τ ) . (4.3) dτ Der Punkt soll in der SRT immer Ableitungen nach der Eigenzeit τ bezeich nen, im Gegensatz zu den Ableitungen nach der Koordinatenzeit t, die wir später einführen werden. Für ein massives Teilchen können wir nun die Raumzeit-Geschwindigkeit oder auch Eigengeschwindigkeit u definieren als: u(τ ) := ẋ(τ ) = x0 (λ)/ kx0 (λ)k . (4.4) Durch die gewählte Normierung des Tangentialvektors ist die Raumzeit-Geschwindigkeit für massive Teilchen wohldefiniert und stellt für diese eine charakteristische Größe entlang der Weltlinie dar. Im Gegensatz zu den massiven Teilchen bewegen sich masselose Teilchen immer mit Lichtgeschwindigkeit. Der Tangentialvektor an die Bahnkurve x(λ) ist deshalb überall lichtartig, d. h. es gilt kx0 (λ)k2 = 0. Nach Gleichung (4.2) folgt daraus: τ (λ) = Z λ 0 q 2 kx0 (λ)k dλ = Z λ √ 0 dλ = 0 . 0 Für masselose Teilchen vergeht also keine (Eigen-)Zeit. Da man die Weltlinie nicht mehr mit τ parametrisieren kann, gibt es für masselose Teilchen keinen bevorzugten Kurvenparameter und somit auch keine wohldefinierte Raumzeit-Geschwindigkeit. Allein die Richtung des Tangentialvektors (und damit die Bewegungsrichtung) ist auch für masselose Teilchen entlang der Weltlinie eine sinnvolle Größe. 4.2 Beobachter und Bezugssysteme In der Speziellen Relativitätstheorie sollte man sorgfältig zwischen Beobachtern und Bezugssystemen unterscheiden. Als Beobachtung bezeichnen wir eine Messung, die lokal an einem Punkt xB in der Raumzeit stattfindet. Diese Definition berücksichtigt die Kausalität, so dass nur Ereignisse die Messung beeinflussen können, die im Rückwärtslichtkegel von xB liegen. Eine Beobachtung bezeichnet also genau das, was eine reale Person am Raumzeitpunkt xB sehen würde. Die vollständige Information über den Ausgang der Messung ist lokalisiert bei xB vorhanden und danach natürlich an jedem Punkt des Vorwärtslichtkegels von xB bekannt. Im Gegensatz dazu ordnet ein Bezugssystem global jedem Ereignis x im Minkowskiraum eine Koordinatenzeit t und einen Ort x zu. In Realität ließe sich dies durch eine (unendliche) Menge von Beobachtern realisieren, die ihre Uhren miteinander synchronisiert haben. Das Bezugssystem nimmt dabei keine Rücksicht auf die Kausalität. Die Information über den Ausgang einer Anzahl von Messungen, die zu einer festen Koordinatenzeit t an mehreren Orten xi stattfinden, ist zu diesem Zeitpunkt nicht lokal an einem Punkt vorhanden, sondern raumartig voneinander getrennt. Eine Folge davon ist die Unsichtbarkeit der Lorentzkontraktion, da die Ergebnisse der raumartig getrennten Messungen den Beobachter zu unterschiedlichen 88 Kapitel 4. Spezielle Relativität und Spacetime-Algebra γ0 γ0 γ1 (a) (b) Abbildung 4.2 (a) Ein zeitartiger Beobachter besitzt eine orthonormale Basis. (b) Für einen hypothetischen, lichtartigen Beobachter liegt die Bewegungsrichtung γ0 in einer Ebene mit den dazu orthogonalen Vektoren, wodurch die ehemalige Orthonormalbasis entartet. Zeiten erreichen. Bewegte Objekte erscheinen dadurch nicht in Bewegungsrichtung verkürzt, sondern gedreht (siehe [SU92]). Auch die scheinbaren Widersprüche bei Einstein-Podolsky-Rosen-Experimenten [EPR35] lassen sich auf diese Weise aufklären. Die Beobachtung ist in diesem Fall erst dann beendet, wenn das vollständige Messergebnis lokal an einem Ort vorliegt, da man erst dann Vergleiche zwischen raumartig getrennten Messungen durchführen kann. Die scheinbare Übertragung von Information mit Überlichtgeschwindigkeit ist also nur eine Folge der nicht hinreichend beachteten Kausalität. Einen Beobachter kann man nun – genauso wie ein Teilchen – durch eine Weltlinie beschreiben. Dabei ist es physikalisch sinnvoll, nur zeitartige Beobachter zuzulassen, da nur für diese die Begriffe Raum und Zeit sinnvoll sind. Den Grund dafür werden wir gleich näher erläutern. Lokal wird ein Beobachter also durch einen Weltpunkt xB (τ0 ) und seine Raumzeit-Geschwindigkeit ẋB (τ0 ) charakterisiert. Zu diesen beiden lokalen Daten kann man ein global gültiges Bezugssystem konstruieren. In der Literatur zur Spacetime-Algebra werden die Basisvektoren in der Raumzeit üblicherweise wie die Dirac-Matrizen durch γµ mit µ ∈ {0, 1, 2, 3} bezeichnet. Als Basisvektor in Zeitrichtung ist durch den Beobachter der zeitartige Tangentialvektor ausgezeichnet, der praktischerweise auch schon auf 1 normiert ist. Wir setzen also γ0 := ẋB (τ0 ) und wählen dann die restlichen Basisvektoren orthonormal dazu (siehe Abbildung 4.2a): ! 1 (4.5) 2 γµ γν + γν γµ = hγµ |γν i = ηµν . Die Bezeichnung als γµ ist damit im Nachhinein dadurch gerechtfertigt, dass die Basisvektoren algebraisch die gleichen Eigenschaften wie die Dirac-Matrizen besitzen. Nach Satz 3.2 von Seite 68 sind die zusätzlichen Basisvektoren γi mit i ∈ {1, 2, 3} übrigens automatisch alle raumartig. Wie gewünscht, kann der zeitartige Beobachter also zwischen Raum und Zeit trennen. Falls sich der Beobachter xB (τ ) geradlinig gleichförmig bewegt, ist der Tangentialvektor γ0 = ẋB (τ ) an die Weltlinie konstant. Die Wahl des Zeitpunkts τ0 zur Konstruktion des Bezugssystems wirkt sich dann nur auf den Koordinatenursprung aus, nicht jedoch auf die Zerlegung in Zeit und Raum. Man kann deshalb die Bezugssysteme zu allen Zeiten miteinander identifizieren. Ein solcher Beobachter wird 4.2 Beobachter und Bezugssysteme 89 eukl. Drehung (a) hyp. Drehung (b) Abbildung 4.3 (a) Euklidische und (b) hyperbolische Drehung (Erklärung siehe Text). inertial genannt, das zugehörige Bezugssystem heißt Inertialsystem. Weil die Aufspaltung zwischen Raum und Zeit eindeutig durch den zeitartigen Vektor γ0 festgelegt wird, nennen wir es auch γ0 -System. Geht man nun einmal von einem hypothetischen, lichtartigen Beobachter aus, so ist der Tangentialvektor an die Weltlinie nach den Erkenntnissen des letzten Abschnitts nicht mehr wohldefiniert, da sich lichtartige Vektoren nicht normieren lassen. Speziell legt der Beobachter durch die Bewegungsrichtung auch keinen zeitartigen Basisvektor mehr fest. Immerhin können wir auch in diesem Fall drei normierte, raumartige Vektoren orthogonal zur lichtartigen Bewegungsrichtung γ 0 finden. Da diese aber in einer Ebene mit γ0 liegen, spannen die vier Vektoren nicht mehr den ganzen Raum auf und die ehemalige Orthonormalbasis entartet (siehe Abbildung 4.2b). Zu einem lichtartigen Beobachter lässt sich also kein eindeutig festgelegtes Bezugssystem konstruieren und er kann nicht zwischen Raum und Zeit unterscheiden. Ein letzter Punkt zu den Beobachtern ist noch zu erwähnen. Auf den ersten Blick erscheint es in den Zeichnungen so, als ob durch den Lichtkegel im Minkowski-Vektorraum eine bevorzugte zeitartige Richtung durch die Kegelachse gegeben ist. Kann man die Raumzeit dann überhaupt zeichnen, ohne gleich auch einen bevorzugten Beobachter mit festzulegen? Um zu sehen, wieso dies kein Problem darstellt, betrachten wir zuerst noch einmal den euklidischen Fall. Durch die Festlegung einer horizontalen und einer vertikalen Richtung ist dann ein spezielles Koordinatensystem ausgezeichnet. Nun können wir das Blatt mit der Zeichnung aber einfach etwas drehen, und schon bezeichnen wir eine andere Richtung als horizontal bzw. vertikal (siehe Abbildung 4.3a). Demnach sind in der Zeichnung alle Richtungen gleichberechtigt. In der Raumzeit müssen wir aber keine euklidischen, sondern hyperbolische Drehungen betrachten. Wie wir in Abschnitt 3.5 gesehen haben, ändern zeit- und raumartige Vektoren unter hyperbolischen Drehungen ihre Richtung, wobei der Lichtkegel auf sich selbst abgebildet wird (siehe Abbildung 4.3b). Eine hypothetische Kegelachse wäre deshalb nicht invariant unter den hyperbolischen Drehungen. Der Lichtkegel im Minkowskiraum besitzt also gar keine ausgezeichnete Achse. Welche Einbettung in die euklidische Ebene man zum Zeichnen von Raumzeit-Diagrammen verwendet ist demnach irrelevant. Die unendlich vielen, äquivalenten Bilder gehen durch hyperbolische Drehungen der Zeichenebene auseinander hervor. 90 Kapitel 4. Spezielle Relativität und Spacetime-Algebra 4.3 Der Raumzeit-Split Nachdem wir im γ0 -System eine Basis γµ gewählt haben, könnte man nun jedem Ereignis x eine Zeitkoordinate und drei Raumkoordinaten zuordnen: x = xµ γµ = tγ0 + xi γi . (4.6) Die Koordinaten ergeben sich dabei mittels: xµ = x y γ µ = hx|γ0 i , (4.7) wobei die reziproke Basis γ µ aus Abschnitt 2.9 (Seite 37ff) verwendet wurde. Um die Zerlegung (4.6) durchzuführen, muss man neben dem zeitartigen Basisvektor γ0 auch drei raumartige Basisvektoren γi auswählen. Wie wir im letzten Abschnitt diskutierten, wird die Zerlegung in Raum und Zeit jedoch vollständig durch die alleinige Vorgabe der Zeitrichtung γ0 festgelegt. Man sollte also eigentlich auf die Wahl des Raumanteils der Basis verzichten können. In der Geometrischen Algebra steht uns dazu ein leistungsfähiges algebraisches Verfahren zur Verfügung, welches Raumzeit-Split genannt wird. Wie wir gesehen haben, erhält man die Zeitanteil tγ0 geometrisch durch Projektion des Ereignisses x auf die zeitartige Richtung γ0 . Den räumlichen Anteil sollte man demnach durch eine Rejektion bekommen (siehe Abbildung 4.4). Wir ersetzen die Zerlegung (4.6) also durch: x = Pγ0 (x) + Pγ⊥0 (x) = (x y γ0 )γ0 + (x ∧ γ0 )γ0 , (4.8) wobei man ausnutzt, dass bei der gewählten Signatur wegen (γ0 )2 = 1 das Inverse γ0−1 gleich γ0 ist. Im gewählten Bezugssystem sind für uns nur die Vorfaktoren interessant. Die Kontraktion x y γ0 haben wir schon als Zeitkoordinate t identifiziert. Der Spat x ∧ γ0 wird relativer Vektor (relativ zum γ0 -System) genannt und man schreibt diesen als: x := x ∧ γ0 . (4.9) Die Bezeichnung wie ein dreidimensionaler Vektor x wird durch die Isomorphie + ∼ G1,3 = G3,0 der Clifford-Algebra gerechtfertigt (siehe Anhang B ab Seite 141). Gleichung (4.9) lässt sich in diesem Zusammenhang als projektive Darstellung von Vek+ toren x ∈ G3,0 durch Bivektoren x ∧ γ0 ∈ G1,3 mit gemeinsamem Faktor γ0 interpretieren. γ0 x(τ ) t0 x0 x0 Abbildung 4.4 Projektive Zerlegung eines Ereignisses x0 auf der Weltlinie x(τ ) in Zeitanteil t0 und Raumanteil x0 . Hierzu muss man in der räumlichen Ebene keine Koordinaten wählen. 4.3 Der Raumzeit-Split 91 γ̃0 γ0 t̃ x t γi · · x x̃ γ̃i Abbildung 4.5 Der Raumzeit-Split des Ereignisses x in zwei relativ zueinander bewegten Bezugssystemen γ̃0 6= γ0 führt zu unterschiedlichen Zerlegungen zwischen Zeit und Raum. Mit dieser Notation lässt sich Gleichung (4.8) schreiben als: x = (x y γ0 )γ0 + (x ∧ γ0 )γ0 = tγ0 + xγ0 . Durch Multiplikation mit γ0 von rechts ergibt sich daraus der Raumzeit-Split: xγ0 = t + x , (4.10) + und die rechte Seite in G3,0 zu lesen ist. Die Koordiwobei die linke Seite in G1,3 natenzeit t und der relative Vektor x sind dabei abhängig vom Bezugssystem. Der Raumzeit-Split in einem anderen Bezugssystem, zum Beispiel im γ̃0 -System mit γ̃0 6= γ0 , führt zu einer neuen Zerlegung: xγ̃0 = x y γ̃0 + x ∧ γ̃0 = t̃ + x̃ . Dies ist anschaulich in Abbildung 4.5 dargestellt. Um den Raumzeit-Split effektiv in Rechnungen einzusetzen, braucht man außerdem die umgekehrte Gleichung: γ0 x = t − x , (4.11) die sich aus der Zerlegung γ0 x = γ0 x x+γ0 ∧x und der Antisymmetrie des Dachprodukts ergibt. Jetzt lässt sich der Raumzeit-Split in Rechnungen durch Einschieben einer 1 = γ0 γ0 anwenden,3 zum Beispiel: x2 = x(γ0 γ0 )x = (xγ0 )(γ0 x) = (t + x)(t − x) = t2 − x2 . (4.12) Da die linke Seite keinen Beobachter auszeichnet, muss auch die rechte Seite unabhängig von der Wahl des Beobachters sein. Man bekommt also das bekannte Ergebnis, dass das Raumzeit-Intervall x2 = t2 − x2 = t̃2 − x̃2 lorentzinvariant ist. 3 Falls man die umgekehrte Signatur, also G 2 3,1 statt G1,3 verwendet, ist (γ0 ) = −1. Dadurch treten überall zusätzliche Minuszeichen auf, die man allerdings dann im reziproken Basisvektor γ 0 = −γ0 absorbieren kann. In diesem Fall muss man eine 1 = γ 0 γ0 einschieben, was auf x2 = x2 − t2 führt. Die Wahl der Signatur (p, q) = (1, 3) vereinfacht die Rechnungen jedoch erheblich. 92 Kapitel 4. Spezielle Relativität und Spacetime-Algebra Wir wollen nun noch die projektive Darstellung der dreidimensionalen Algebra G3,0 durch gerade Multivektoren in G1,3 etwas genauer untersuchen. Indem man das Ereignis x in Koordinaten x = xµ γµ schreibt, ergibt sich aus Gleichung (4.9) unter Beachtung von γ0 ∧ γ0 = 0: x = x ∧ γ0 = (xµ γµ ) ∧ γ0 = xµ γµ ∧ γ0 = xi γi ∧ γ0 =: xi σ i . Die Basisvektoren σ i von G3,0 lassen sich also darstellen als: σ i = γ i ∧ γ 0 = γ i γ0 . (4.13) Wie es sein sollte, erfüllen diese die definierende Eigenschaft der Algebra G3,0 : 1 (4.14) 2 σ i σ j + σ j σ i = hσ i σ j i = hγi γ0 γj γ0 i = − hγi γj i = −ηij = δij . Dies wiederum rechtfertigt die Bezeichnung als σ i , genau wie die Paulimatrizen, die dieselben algebraischen Eigenschaften haben. Eine Basis für die Bivektoren in G3,0 bekommt man durch: σ i σ j = γi γ0 γj γ0 = −γi γj = γj γi , (4.15) dies sind also gerade die raumartigen 2-Spate senkrecht zu γ0 . Man beachte die Reihenfolger der Indizes! Übrig bleibt damit nur noch der Pseudoskalar: I 3 = σ 1 σ 2 σ 3 = γ1 γ0 γ2 γ0 γ3 γ0 = γ0 γ1 γ2 γ3 = I1,3 . (4.16) Aufgrund der Wahl der Signatur ist der Pseudoskalar I 3 von G3,0 mit dem Pseudoskalar I1,3 von G1,3 identisch. Ohne Missverständnisse zu provozieren können wir beide also als I := I1,3 = I 3 bezeichnen. Eine kleine Unstimmigkeit scheint allerdings bei der Grad-Involution α̂ aufzutreten. Vektoren werden dadurch normalerweise auf ihr Negatives abgebildet. Interpretiert man σ i dagegen als Bivektor, dann tritt kein Vorzeichen auf: α̂(σ i ) = α̂(γi γ0 ) = α̂(γi )α̂(γ0 ) = (−1)2 γi γ0 = σ i ? Des Rätsels Lösung liegt in der Tatsache, dass hier neben der Wirkung der Parität auf den räumlichen Anteil α̂(γi ) = −γi zusätzlich eine Zeitumkehr α̂(γ0 ) = −γ0 stattfindet. Ließe man die Involution dagegen nur auf den räumlichen Anteil wirken, dann würden sich die richtigen Vorzeichen ergeben. Ein ähnliches Problem tritt auch bei der Transposition auf. Die Transposition im Raum G3,0 bezeichnen wir deshalb mit · † , im Gegensatz zur Transposition in der Raumzeit G1,3 , die wir weiterhin · t nennen wollen. Der Zusammenhang zwischen diesen ist gegeben gegeben durch: A† = γ 0 At γ0 . (4.17) Für die Basisvektoren gilt also: σ i † = γ0 (γi γ0 )t γ0 = γ0 γ0 γi γ0 = γi γ0 = σ i , und die Eigenschaft des Antiautomorphismus folgt aus: (AB)† = γ0 (AB)t γ0 = γ0 B t At γ0 = (γ0 B t γ0 )(γ0 At γ0 ) = B † A† . Aufgrund der Faktoren γ0 in (4.17) ist die räumliche Transposition · † abhängig vom Beobachter. Dies war grundsätzlich allerdings auch zu erwarten, da die Zerlegung zwischen Raum und Zeit – und damit die relativen Vektoren – erst durch die Vorgabe eines Bezugssystems festgelegt werden. 4.4 Relativgeschwindigkeit 93 4.4 Relativgeschwindigkeit Die Relativgeschwindigkeit beschreibt die Bewegung eines Teilchens relativ zu einem Bezugssystem. Man definiert sie deshalb als Änderung des Ortes x mit der Koordinatenzeit t: dx v= . (4.18) dt Wie hängt diese aber mit der Raumzeit-Geschwindigkeit u zusammen? Durch Ableiten des Raumzeit-Split (4.10) nach der Eigenzeit τ erhält man: uγ0 = d dt dx dt dt dx dt 1+v . (xγ0 ) = + = + = dτ dτ dτ dτ dτ dt dτ Definiert man noch den Faktor γ := dt/dτ = u y γ0 , der die Änderung der Koordinatenzeit t mit der Eigenzeit τ beschreibt, dann ergibt sich das Resultat: uγ0 = γ + u = γ 1 + v . (4.19) Umgekehrt bekommt man aus u die Relativgeschwindigkeit zu: v= u u ∧ γ0 u ∧ γ0 = = . γ γ hu|γ0 i (4.20) Vertauscht man die Rollen u ↔ γ0 von Teilchen und Beobachter miteinander, so geht die Relativgeschwindigkeit v in ihr Negatives −v über. Hier wird die Antisymmetrie des Relativitätsprinzips deutlich sichtbar. Betrachtet man außerdem einmal ein Teilchen, welches sich mit dem Beobachter mitbewegt, also mit Raumzeit-Geschwindigkeit u = γ0 , dann ergibt sich: 1 = γ0 γ0 = uγ0 = γ(1 + v) . Wegen der Relativgeschwindigkeit v = 0 befindet sich das Teilchen im γ0 -System in Ruhe. Außerdem kann man ablesen, dass der Faktor der Zeitdilatation γ = 1 ist, und folglich t = τ gilt. Wie wir schon in Abschnitt 4.1 erwähnt hatten, beschreibt die Eigenzeit also die Zeit, die in einem mitbewegten Ruhesystem vergeht. Um den Faktor der Zeitdilatation γ in Abhängigkeit von der Relativgeschwindigkeit v zu berechnen, kann man die Normierung der Raumzeit-Geschwindigkeit u ausnutzen: 1 = u2 = (uγ0 )(γ0 u) = γ(1 + v)γ(1 − v) = γ 2 (1 − v 2 ) . Damit erhält man das bekannte Resultat: γ = u y γ0 = dt 1 . =√ dτ 1 − v2 (4.21) Wie man an diesem Ausdruck sieht, ist der Faktor γ für ein Teilchen, welches sich mit Lichtgeschwindigkeit v 2 = 1 bewegt, nicht definiert. Damit hat man noch einmal gezeigt, dass sich einem masselosen Teilchen keine Raumzeit-Geschwindigkeit zuordnen lässt. Dieses Problem ist also eng damit verknüpft, dass die RaumzeitGeschwindigkeit über die Eigenzeit τ definiert wurde, wogegen sich die Relativgeschwindigkeit auf die Koordinatenzeit t bezieht. 94 Kapitel 4. Spezielle Relativität und Spacetime-Algebra Als Anwendung wollen wir einmal ausrechnen, wie der Winkel ϑ in den hyperbolischen Lorentz-Transformationen aus Abschnitt 3.6 (Seite 72ff) mit der Relativgeschwindigkeit zusammenhängt. Wie muss man ϑ wählen, um ein Teilchen auf die Geschwindigkeit v anzuschieben? Als Startpunkt betrachten wir ein Teilchen, welches im γ0 -System ruht. Dieses wird durch die Weltlinie x(τ ) = τ γ0 beschrieben. Wegen ẋ(τ )2 = γ02 = 1 ist diese Weltlinie korrekt mit der Eigenzeit parametrisiert. Wir wenden nun eine hyperbolische Lorentz-Transformation um den Winkel ϑ in der Ebene mit Pseudoskalar I2 = nγ0 an, wobei n ein raumartiger Einheitsvektor senkrecht auf γ0 sei: y(τ ) = Rx(τ )Rt = eI2 ϑ/2 τ γ0 e−I2 ϑ/2 = cosh ϑ + nγ0 sinh ϑ τ γ0 = τ cosh ϑ γ0 + τ sinh ϑ n . Die Eigengeschwindigkeit ẏ(τ ) ist wieder auf 1 normiert, denn mit n2 = −1 und der Orthogonalität nγ0 = −γ0 n ergibt sich: ẏ 2 = cosh ϑ γ0 + sinh ϑ n)2 = cosh2 ϑ − sinh2 ϑ = 1 . Damit berechnet man die Relativgeschwindigkeit im γ0 -System zu: v= ẏ ∧ γ0 (cosh ϑ γ0 + sinh ϑ n) ∧ γ0 sinh ϑ n ∧ γ0 = = . ẏ y γ0 (cosh ϑ γ0 + sinh ϑ n) y γ0 cosh ϑ Drückt man dies durch den relativen Vektor n = n ∧ γ0 aus, dann bekommt man als Endergebnis: v = tanh ϑ n . (4.22) Hierbei gibt der Einheitsvektor n die Bewegungsrichtung des Teilchens im Raum an und tanh ϑ ist gleich dem Betrag der Relativgeschwindigkeit kvk = tanh ϑ. Wendet man zweimal eine hyperbolische Lorentz-Transformation in der gleichen Ebene an, dann muss man die Rotoren einfach miteinander multiplizieren: R = R2 R1 = eI2 ϑ2 /2 eI2 ϑ1 /2 = eI2 (ϑ1 +ϑ2 )/2 . Dies entspricht also einer einzelnen hyperbolischen Lorentz-Transformation um den Winkel ϑ1 + ϑ2 . In einer Formelsammlung findet man für den Tanges hyperbolicus das Additionstheorem: tanh(ϑ1 + ϑ2 ) = tanh ϑ1 + tanh ϑ2 . 1 + tanh ϑ1 tanh ϑ2 (4.23) Mit Gleichung (4.22) folgt daraus das bekannte Ergebnis für die Beträge der Relativgeschwindigkeiten: kv 1 k + kv 2 k kvk = . (4.24) 1 + kv 1 k kv 2 k 4.5 Weitere Raumzeit-Vektoren Weitere Raumzeit-Vektoren lassen sich mit Hilfe des Raumzeit-Split aus ihrer bekannten Form in Inertialsystemen konstruieren. Ein Photon lässt sich im γ0 -System 4.5 Weitere Raumzeit-Vektoren 95 zum Beispiel durch seine Frequenz ω und den Wellenvektor k beschreiben. Man erwartet also den Raumzeit-Split: kγ0 = ω + k . (4.25) Um dies zu erreichen definiert man den Raumzeit-Vektor k als: k := ωγ0 + kγ0 . (4.26) Das Quadrat des Wellenvektors sollte wieder eine lorentzinvariante Größe liefern: k 2 = (ω + k)(ω − k) = ω 2 − k2 . (4.27) Diese Differenz ist bekannt, da für Photonen die Frequenz mit dem Betrag des Wellenvektors im γ0 -System gemäß ω = kkk zusammenhängt. Folglich ist k 2 = 0 und k deshalb für masselose Teilchen ein lichtartiger Vektor. Mit Hilfe der Einstein-de Broglie-Beziehung lässt sich dem Photon auch ein Raumzeit-Impuls p = ~k zuordnen. Der Raumzeit-Split führt dann auf: E + p = pγ0 = ~kγ0 = ~ω + ~k , (4.28) im γ0 -System gelten deshalb die Beziehungen E = ~ω und p = ~k. Diese Definition des Raumzeit-Impulses lässt sich auch auf massive Teilchen ausdehnen. Bei diesen sind k und p natürlich keine lichtartigen Vektoren mehr. Außerdem gibt es für massive Teilchen einen Zusammenhang zwischen Raumzeit-Impuls und der Eigengeschwindigkeit. Indem man sich in das Ruhesystem des Teilchens begibt, kann man die Beziehung p = mu ableiten. Damit ergibt sich: E + p = pγ0 = muγ0 = γm(1 + v) . (4.29) Im Inertialsystem erhält man also die bekannten Gleichungen E = γm für die Energie4 und p = γmv für den räumlichen Impuls. Wie wir gesehen haben, ist der Impuls p und die Relativgeschwindigkeit v auch für masselose Teilchen immer definiert. Da in der Gleichung p = γmv der Faktor γ auftritt, gibt es für diese aber keinen Zusammenhang zwischen Impuls p und Geschwindigkeit v, weil γ für Teilchen mit Lichtgeschwindigkeit v 2 = 1 nicht definiert ist. Als Folge davon ist die Frequenz ω von Photonen unabhängig von der – betragsmäßig konstanten – Relativgeschwindigkeit. Die Frequenz massiver Teilchen wird dagegen über die de Broglie-Beziehung eindeutig durch ihre räumliche Geschwindigkeit v festgelegt. Indem man den Impuls p quadriert, ergibt sich weiter die relativistische Energie-Impuls-Beziehung: m2 = (mu)2 = p2 = (E + p)(E − p) = E 2 − p2 , (4.30) die somit auch unabhängig vom Bezugssystem ist. Nicht nur für Quadrate von Vektoren kann man ein Raumzeit-Split durchführen, sondern auch für andere Produkte. So erhält man zum Beispiel: px = (pγ0 )(γ0 x) = (E + p)(t − x) = Et − px + pt − Ex . (4.31) 4 In der älteren Literatur findet man diese Beziehung oft in der Form E = m c2 mit der rel relativistischen Masse mrel := γm. In der modernen Literatur wird dagegen normalerweise die fundamentalere – weil lorentzinvariante – Ruhemasse m verwendet. 96 Kapitel 4. Spezielle Relativität und Spacetime-Algebra Der Skalaranteil dieser Gleichung ist gegeben durch: hp|xi = hpxi0 = Et − hpxi = Et − hp|xi . (4.32) Dieser Phasenfaktor taucht ständig bei der Parametrisierung von ebenen Wellen auf. Auch der Bivektoranteil von Gleichung (4.31) muss lorentzinvariant sein, und man berechnet ihn zu: p ∧ x = hpxi2 = pt − Ex − p ∧ x . (4.33) Der Bivektor p ∧ x stellt also eine relativistische Verallgemeinerung des relativen Drehimpulses L = x ∧ p im γ0 -System dar. In den Gleichungen (4.32) und (4.33) ist außerdem zu beachten, dass auf der rechten Seite die Produkte der relativen Vektoren hp|xi und p ∧ x in der Algebra G3,0 zu nehmen sind. Würde man das Dachprodukt p ∧ x dagegen in G1,3 auswerten, wäre natürlich (p ∧ γ0 ) ∧ (x ∧ γ0 ) = 0. 4.6 Elektrodynamik In diesem Abschnitt wollen wir eine kurze Übersicht geben, wie sich die Elektrodynamik in der Sprache der Geometrische Algebra formulieren lässt. Die Ableitungsoperatoren 5 und ∇ kann man dabei im Wesentlichen wie Vektoren behandeln. Für Details muss allerdings auf die entsprechende Literatur [HS92, DL03] verwiesen werden, da eine genaue Behandlung der Analysis in der GA weit über das Ziel dieser Arbeit hinaus geht. Als Startpunkt verwenden wir die kovariante Beschreibung der Elektrodynamik mittels Tensorgleichungen. Der Faraday-Tensor, der die elektromagnetischen Felder beschreibt, ist definiert als F µν = ∂ µ Aν −∂ ν Aµ , mit dem Vektorpotential A = (Aµ ). Mit Hilfe der Felder E = −∇Φ−∂t A und B = ∇×A, wobei Φ = A0 und A = (Ai ) gilt, lässt er sich als Matrix ausdrücken: 0 −E 1 −E 2 −E 3 E 1 0 −B 3 B2 . (F µν ) = (4.34) E 2 B3 0 −B 1 E 3 −B 2 B1 0 Die Komponenten des elektrischen Feldes sind also F i0 = E i und für das Magnetfeld bekommt man F ij = −εijk B k . Die Maxwellgleichungen im Vakuum lassen sich damit schreiben als: ∂µ F µν = j µ , εµν%σ ∂ν F%σ = 0 . (4.35) Die Antisymmetrie F µν = −F νµ deutet darauf hin, dass man den Faraday-Tensor in der Geometrischen Algebra durch einen Faraday-Bivektor darstellen kann. Aus Gleichung (2.139) von Seite 41 kennen wir auch schon die Koordinatendarstellung eines Bivektors als: X F = F µν γµ ∧ γν = 12 F µν γµ ∧ γν , mit F µν = (γ µ ∧ γ ν ) ˜∗ F . (4.36) µ<ν Wir setzen also probeweise einmal die Komponenten von Gleichung (3.34) ein. Ein Raumzeit-Split von F liefert dann (mit Summation über i < j): F = F i0 γi ∧ γ0 + F ji γj ∧ γi = E i σ i + εijk B k σ i ∧ σ j = E + IB . (4.37) 4.6 Elektrodynamik 97 Hierbei wurde für die Übersetzung der raumartigen Bivektoren σ i σ j = γj γi Gleichung (4.15) herangezogen. Offensichtlich war unsere Annahme also richtig, da sich der richtige Raumzeit-Split ergibt. Wie es sein sollte, handelt es sich bei dem elektrischen Feld E um einen Vektor, wogegen das magnetische Feld, als Pseudovektor, in der GA durch einen Bivektor IB beschrieben wird. Wie zum Beispiel in [DL03, Section 7.1] gezeigt wird, lassen sich die Maxwellgleichungen (4.35) mit dem Faraday-Bivektor schreiben als: 5yF =j , 5∧F = 0 . (4.38) Die hierbei auftretende Ableitung 5 = γ µ ∂µ ist normalerweise als Dirac-Operator bekannt. In der Geometrischen Algebra lassen sich die Gleichungen (4.38) jedoch noch weiter zusammenfassen. Die Maxwellgleichung bekommt dadurch die einfache Form: 5F = j . (4.39) Den Raumzeit-Split des Dirac-Operators berechnet man mit γ i = −γi zu: γ0 5 = γ0 (γ 0 ∂t + γ i ∂i ) = ∂t − γ0 γi ∂i = ∂t + σ i ∂i = ∂t + ∇ . (4.40) Die linke Seite der Maxwellgleichung (4.39) wird im γ0 -System deshalb zu: γ0 5F = (∂t + ∇)(E + IB) = ∂t E + ∂t (IB) + ∇E + ∇(IB) = ∇ y E + ∂t E + ∇ y (IB) + ∂t (IB) + ∇ ∧ E + ∇ ∧ (IB) . (4.41) Der Spacetime-Split der rechten Seite ist: (4.42) γ0 j = % − j , wobei % die Ladungs- und j die Stromdichte bezeichnet. Gleichsetzen von (4.41) mit (4.42) und herausprojizieren der einzelnen Stufen liefert die Gleichungen: ∇ y E = % , (Skalar) −∂t E − ∇ y (IB) = j , (Vektor) ∇ ∧ E + ∂t (IB) = 0 , ∇ ∧ (IB) = 0 . (Bivektor) (Pseudoskalar) (4.43) (4.44) (4.45) (4.46) Mit der Identität ∇ y (IB) = ∇ y (BI) = (∇ ∧ B)I = I(∇ ∧ B) = −∇ × B, die sich aus den Gleichungen (2.129) und (C.1) ergibt, kann man die zweite Gleichung weiter umformen und erhält: ∇ × B − ∂t E = j . Die dritte Gleichung multipliziert man von links mit I. Es ergibt sich: I(∇ ∧ E) + I 2 ∂t B = 0 ⇐⇒ −∇ × E − ∂t B = 0 . Multiplikation der vierten Gleichung mit I von rechts führt schließlich auf: ∇ ∧ (IB) I ⇐⇒ ∇ y (IBI) ⇐⇒ −∇ y B = 0 . Der Raumzeit-Split von (4.39) liefert also die korrekten Maxwellgleichungen im Inertialsystem: ∇·E =% , ∇·B =0 , ∇ × B − ∂t E = j , ∇ × E + ∂t B = 0 . (4.47) (4.48) 98 Kapitel 4. Spezielle Relativität und Spacetime-Algebra 4.7 Zusammenfassung In diesem Kapitel haben wir die Spezielle Relativitätstheorie in der Sprache der Geometrischen Algebra formuliert. Da die Spacetime-Algebra ohne Koordinaten auskommt, sind die entstehenden Ausdrücke unabhängig von jeglichen Beobachtern und damit manifest lorentzinvariant. Im ersten Abschnitt wurde die Beschreibung von Teilchen durch Weltlinien x(λ) in der Minkowski-Raumzeit diskutiert. Für massive Teilchen lässt sich dann eine Raumzeit-Geschwindigkeit u(τ ) = ẋ(τ ) durch Ableitung nach der Eigenzeit τ definieren. Für masselose Teilchen ist dies nicht möglich, da für sie keine (Eigen-)Zeit vergeht. Im darauf folgenden Abschnitt haben wir die Rolle von Beobachtern und Bezugssystemen in der SRT diskutiert. Ein Beobachter kann dabei nur lokale Messungen an einem Punkt in der Raumzeit machen, ein Bezugssystem ist dagegen global über die ganze Raumzeit ausgedehnt. Sowohl Beobachter als auch Bezugssystem werden eindeutig durch Vorgabe eine zeitartigen Einheitsvektors γ0 festgelegt. In Abschnitt 4.3 wurde der Raumzeit-Split eingeführt, mit dem sich ein Ereignis x in eine Zeitkoordinate t und den raumartigen, relativen Vektor x im γ0 -System zerlegen lässt: xγ0 = t + x , γ0 x = t − x , mit t = x y γ0 und x = x ∧ γ0 . (4.100 ) Hierbei nutzt man eine projektive Darstellung von Vektoren der dreidimensionalen Algebra G3,0 durch Bivektoren in der Raumzeit-Algebra G1,3 . Durch Konstruktion + einer Basis lässt sich zeigen, dass die Algebra G3,0 und die gerade Unteralgebra G1,3 isomorph zueinander sind. Üblicherweise wird der Raumzeit-Split durch Einschieben einer 1 = γ0 γ0 angewendet. Im nächsten Abschnitt wurde die Relativgeschwindigkeit v eingeführt, als die räumliche Geschwindigkeit, die ein Beobachter im γ0 -System misst. Diese kann man schreiben als: dx u ∧ γ0 u ∧ γ0 v= = = , (4.200 ) dt γ hu|γ0 i √ wobei γ = dt/dτ = 1/ 1 − v 2 der Faktor der Zeitdilatation ist. Als Anwendung wurde der Zusammenhang des Winkels ϑ einer hyperbolischen Lorentz-Transformation mit der Relativgeschwindigkeit hergeleitet. Es ergibt sich das Resultat: v = tanh ϑ n , (4.22) wobei n ein Einheitsvektor in Bewegungsrichtung ist. In Abschnitt 4.5 wurden weitere Raumzeit-Vektoren und deren Zerlegung im Inertialsystem untersucht. Auch Produkte von unterschiedlichen Vektoren lassen sich in einfacher Weise zerlegen. Hierbei sind die Anteile unterschiedlicher Stufen auch für sich genommen schon lorentzinvariante Größen. Zum Abschluss des Kapitels haben wir in Abschnitt 4.6 die Formulierung der Elektrodynamik in der Spacetime-Algebra angeschnitten. Die Maxwellgleichungen im Vakuum vereinfachen sich dabei zu einer einzigen kompakten Gleichung: 5F = j , (4.39) wobei 5 = γ µ ∂µ der Dirac-Operator, F = E + IB der Faraday-Bivektor und j die Stromdichte ist. Wie wir skizziert haben, liefert ein Raumzeit-Split von (4.39) die bekannten Maxwellgleichungen im Inertialsystem. 5. Reelle Quantenmechanik In der Standard-Formulierung der Quantenmechanik hat man ständig mit komplexen Größen zu tun. Die Bedeutung der komplexen Zahlen in der Theorie bleibt allerdings unklar. Nach den Ideen von David Hestenes lässt sich die komplette Quantenmechanik in die Sprache der reellen Geometrischen Algebra übersetzen, was mehrere Vorteile mit sich bringt. Zum einen wird eine geometrische Interpretation der veschiedenen Objekte möglich, speziell kann dem allgegenwärtigen Faktor i~ eine Bedeutung zugeschrieben werden. Weiterhin lassen sich unterschiedliche mathematische Formalismen vereinheitlichen, wie wir am Beispiel der Pauli-Schrödinger-Gleichung vorführen werden. Grundlegend neu ist dabei die Interpretation der Pauli-Matrizen als Basisvektoren der Geometrischen Algebra G3 . Als Folge davon muss auch die Rolle des Spins und speziell die Definition des Spinoperators vollständig überdacht werden. Bevor wir jedoch mit der Umformulierung beginnen, wollen wir kurz ein paar wichtige Punkte aus dem Werdegang der nichtrelativistischen Quantenmechanik zusammenstellen. Besonders interessiert uns hierbei die Herkunft des Faktors i~, sowie die Beschreibung des Spins in der nichtrelativistischen Quantenmechanik. 5.1 Die Wellengleichungen von Schrödinger und Pauli Um den photoelektrischen Effekt und die Hohlraumstrahlung zu erklären, postulierte Einstein im Jahr 1905 das Konzept der Lichtquanten. Danach besteht eine Lichtwelle aus Photonen mit der Energie E = ~ω und dem Impuls p = ~k. Auf diese Weise werden den Welleneigenschaften Frequenz und Wellenvektor die Teilcheneigenschaften Energie und Impuls zugeordnet. Später, im Jahr 1923, stellte Louis de Broglie in seiner Doktorarbeit „Recherches sur la théorie des quanta“ die Hypothese auf, dass die Dualität zwischen Welle und Teilchen in beiden Richtungen funktioniert. Demnach sind Wellen- und Teilcheneigenschaften nicht nur für Licht, sondern auch allgemein für beliebige Teilchen durch die Einstein-de Broglie-Beziehung: E = ~ω , p = ~k , (5.1) miteinander verknüpft. Diese Annahme wurde 1927 von Clinton Davisson und Lester Germer in Interferenzexperimente mit Elektronenstrahlen experimentell bestätigt. Auf Grundlage der Ideen von de Broglie gehen wir nun davon aus, dass sich ein freies Teilchen – genau wie Photonen – durch eine Überlagerung von ebenen Wellen beschreiben lässt. Deshalb erscheint folgender Ansatz für eine komplexwertige Wellenfunktion Ψ(x, t) sinnvoll: Z −3/2 Ψ(x, t) = (2π) Ψ̃0 (k) ei(k·x−ωt) d3 k . (5.2) 100 Kapitel 5. Reelle Quantenmechanik Aus den Gleichungen (5.1) und der nichtrelativistischen Beziehung zwischen Energie und Impuls für ein freies Teilchen ergibt sich außerdem die Dispersionsrelation: ~ω = E = p2 ~2 k 2 = . 2m 2m (5.3) Daraus lässt sich eine Wellengleichung für Ψ(x, t) ableiten, denn: ~2 k2 i(k·x−ωt) 3 Ψ̃0 (k) ~ω − e d k 0 = (2π) 2m Z ~2 ∇2 i(k·x−ωt) 3 e d k = (2π)−3/2 Ψ̃0 (k) i~∂t + 2m ~2 ∇ 2 = i~∂t + Ψ(x, t) . 2m −3/2 Z Das Resultat ist die Schrödinger-Gleichung für ein freies Teilchen: i~∂t Ψ(x, t) = − ~2 ∇ 2 Ψ(x, t) . 2m (5.4) Um den Übergang von der klassischen Energie-Impuls-Relation (5.3) zur Wellengleichung (5.4) zu bewerkstelligen, werden die Energie E und der Impuls p also durch Differentialoperatoren ersetzt, gemäß dem Korrespondenzprinzip: E 7→ Ê = i~∂t , p 7→ p̂ = −i~∇ . (5.5) Um eine Wellengleichng für ein Teilchen in einem Potential V (x) zu erhalten, verwendet man die Analogie zur klassischen Mechanik. Die Gesamtenergie ist dort gegeben durch die Summe aus kinetischer und potentieller Energie: E= p2 + V (x) . 2m (5.6) Durch Anwenden der Korrespondenz (5.5) ergibt sich daraus die bekannte Form der Schrödinger-Gleichung : i~∂t Ψ(x, t) = ĤS Ψ(x, t) , (5.7) mit dem Schrödinger-Hamiltonoperator: ĤS = ~2 ∇ 2 p̂2 + V (x) = − + V (x) . 2m 2m (5.8) Wir wollen kurz festhalten, dass das Auftreten der komplexen Zahlen im Korrespondenzprinzip (5.5) eine Folge des komplexen Ansatzes (5.2) für die ebenen Wellen ist. Nach Max Born lässt sich das Betragsquadrat % := |Ψ(x, t)|2 der Wellenfunktion als Wahrscheinlichkeitsdichte interpretieren, dass man das Teilchen zur Zeit t am Ort x antrifft. In magnetischen Feldern kommt eine weitere Eigenschaft von Teilchen zum Tragen. Nach einem berühmten Experiment, welches 1922 von Otto Stern und Walther Gerlach durchgeführt wurde, teilt sich ein Elektronenstrahl im Magnetfeld in zwei 5.1 Die Wellengleichungen von Schrödinger und Pauli 101 Teilstrahlen auf. Zur Erklärung dieses Phänomens schlugen George Uhlenbeck und Samuel Goudmit im Jahre 1925 vor, dass das Elektron ein inneres Drehmoment besitzt, den sogenannten Spin, der mit dem Magnetfeld wechselwirkt. Analog zum Vorgehen in der klassischen Mechanik ersetzt man zur Ankopplung eines Teilchens der Ladung q an die elektromagnetischen Potentiale A und Φ im Hamiltonoperator (5.8) den Impuls p durch den kinetischen Impuls: p̂ 7→ π̂ = p̂ − qA , (5.9) Es ergibt sich: (p̂ − qA)2 π̂ 2 + qΦ = + qΦ . (5.10) 2m 2m Dieser Hamiltonoperator enthält allerdings noch nicht den Spin. Um auch den Spin quantenmechanisch zu beschreiben, führte Wolfgang Pauli 1927 die nach ihm benannten Pauli-Matrizen σi ein: 0 1 0 −i 1 0 σ1 = , σ2 = , σ3 = . (5.11) 1 0 i 0 0 −1 ĤS = Wir wollen kurzfristig einmal vergessen, dass es sich dabei um eine Darstellung der Basisvektoren der Geometrischen Algebra G3 handelt und verwenden die formale Schreibweise: σ · a = σ 1 a1 + σ2 a2 + σ3 a3 . (5.12) Um den zwei möglichen Einstellungen des Spin- 12 -Elektrons gerecht zu werden, ersetzte Pauli in der Schrödinger-Gleichung die ursprüngliche Wellenfunktion durch eine zweikomponentige Wellenfunktion Ψ(x, t) ∈ 2 . Die Kopplung des Spins an das Magnetfeld lässt sich dann durch einen Zusatzterm im Hamiltonoperator beschreiben, der proportional zu σ · B ist. Daraus ergibt sich die bekannte Form der Pauli-Schrödinger-Gleichung (PS-Gleichung): i~∂t Ψ = ĤS − 2 π̂ ~q ~q (σ · B) Ψ = + qΦ − (σ · B) Ψ , 2m 2m 2m mit dem zweikomponentigen, komplexwertigen Pauli-Spinor : Ψ1 (x, t) Ψ(x, t) = . Ψ2 (x, t) (5.13) (5.14) Interessanterweise kommt man auch noch auf einem anderen Weg zur PS-Gleichung (5.15), bei dem sich der Zusatzterm inklusive der richtigen Vorfaktoren automatisch ergibt. Dazu ersetzt man in der Schrödinger-Gleichung den kinetischen Impuls π̂ durch den Operator σ · π̂. Wie wir später sehen werden, erscheint diese Ersetzung im Kontext der Clifford-Algebra sehr natürlich. Mit der bekannten Identität: (σ · a)(σ · b) = a · b + iσ · (a × b) , (5.15) und dem Kommutator: [π̂i , π̂j ] = i~q εijk Bk ⇐⇒ π̂ × π̂ = i~qB , (5.16) lässt sich das Quadrat (σ · π̂)2 explizit ausrechnen: (σ · π̂)2 = π̂ 2 + iσ · (π̂ × π̂) = π̂ 2 − ~q(σ · B) . (5.17) 102 Kapitel 5. Reelle Quantenmechanik Die Pauli-Schrödinger-Gleichung ergibt sich alternativ also auch aus der einfachen Ersetzung des Vektors π̂ durch die Matrix σ · π̂: i~∂t Ψ = 5.2 2 (σ · π̂)2 π̂ ~q + qΦ Ψ = − (σ · B) + qΦ Ψ . 2m 2m 2m Der Pauli-Isomorphismus G3 ∼ = Mat(2, (5.18) ) In der Pauli-Schrödinger-Gleichung (5.13) bzw. (5.18) benutzt man mehrere mathematische Formalismen gleichzeitig. Der Pauli-Spinor ordnet Punkten in der Raumzeit Werte in 2 zu: Ψ: 3 × t → 2 (5.19) , (x, t) 7→ Ψ(x, t) . Auf der einen Seite verwendet man den dreidimensionalen Vektorraum ( 3 , ·, ×), der mit Skalar- und Kreuzprodukt zu einer Algebra gemacht wurde. Aus diesem Raum stammt der Ortsvektor x und auch das Magnetfeld B = ∇ × A. Die Operatoren π̂ und p̂ sind dagegen über dem komplexifizierten Vektorraum ⊗ 3 definiert. Auf der anderen Seite benutzt man komplexe 2 × 2-Matrizen, die auf die zweikomponentige Wellenfunktion wirken. Der Zusammenhang zwischen Vektoren und Matrizen wird durch die Pauli-Matrizen hergestellt, indem man jedem dreidimensionalen Vektor oder Operator a durch die Schreibweise σ · a eine Matrix zuordnet. Die Identität (5.15) verwendet man, um die Rechnungen mit diesen Matrizen zu vereinfachen. Wie wir in den vorherigen Kapiteln gesehen haben, lassen sich Rechnungen mit Skalar- und Kreuzprodukt viel eleganter in der Geometrischen Algebra durchführen. Ohne Einschränkungen können wir also den Vektorraum ( 3 , ·, ×) durch G3 ersetzen. Außerdem wissen wir, dass auch die Matrixalgebra Mat(2, ) isomorph zur Geometrischen Algebra G3 ist, wobei die Pauli-Matrizen σi ∈ Mat(2, ) als Darstellung der Basisvektoren σ i ∈ G3 aufgefasst werden können. Das formale Skalarprodukt σ · a beschreibt die Einbettung des Vektorraums 3 in die Matrixdarstellung Mat(2, ) der Geometrischen Algebra G3 : σ· : 3 → Mat(2, ) ∼ = G3 , a = ai ei 7→ σ · a = ai σi . (5.20) Die Matrix σ · a ist in Wirklichkeit also eine Darstellung des Clifford-Vektors a = ai σ i ∈ G3 . Die Rechenregel (5.15) für die 2 × 2-Matrizen ergibt mit Clifford-Vektoren geschrieben gerade die bekannte Zerlegung des geometrischen Produkts: ab = a · b + a ∧ b = a · b + I(a × b) , (5.21) wobei die Rolle der komplexen Einheit i durch den Pseudoskalar I von G3 übernommen wird, der hier die Bedeutung des Hodge-Operators hat. Ohne es zu merken, hat man also schon die ganze Zeit mit einer Darstellung der Geometrischen Algebra gerechnet. Unser Ziel ist es nun, alle Größen in der PS-Gleichung durch äquivalente Ausdrücke in der Geometrischen Algebra G3 zu beschreiben. Für den Vektorraum 3 müssen wird dazu nur die Basisvektoren ei ∈ 3 durch die Basisvektoren σ i ∈ G3 ersetzen. Wie man Skalar- und Kreuzprodukte im dreidimensionalen Fall ausdrückt, 5.2 Der Pauli-Isomorphismus G3 ∼ = Mat(2, ) 103 ist im Anhang C ab Seite 143 zusammengefasst. Um auch die restlichen Terme zu identifizieren, betrachten wir zuerst den Pauli-Isomorphismus etwas genauer: ∼ = (5.22) Σ : G3 −→ Mat(2, ) , welcher durch die Matrixdarstellung der Pauli-Matrizen in Gleichung (5.11) und die Forderung Σ(σ i ) = σi eindeutig festgelegt wird.1 Eine Grassmann-Basis der Clifford-Algebra G3 wird aufgespannt durch: 1, (σ i ) , (Iσ i ) , (5.23) I , mit dem Pseudoskalar I = σ 1 σ 2 σ 3 sowie den 2-Spaten Iσ 1 = σ 2 σ 3 und so weiter. Die Basisvektoren σ i werden – wie erwähnt – durch die Pauli-Matrizen dargestellt: 0 1 0 −i 1 0 σ1 ∼ , σ2 ∼ , σ3 ∼ . (5.24) = = = 1 0 i 0 0 −1 Die Darstellungen des Skalars 1 und des Pseudoskalars I 1 0 i , I∼ 1∼ = σ1 σ2 σ3 = = = 0 1 0 Für die 2-Spate ergibt sich damit: i 0 σ 1 σ 2 = Iσ 3 ∼ , = iσ3 = 0 −i 0 1 σ 3 σ 1 = Iσ 2 ∼ . = iσ2 = −1 0 berechnet man daraus zu: 0 (5.25) =i . i σ 2 σ 3 = Iσ 1 ∼ = iσ1 = 0 i i 0 Ein allgemeinen Multivektors A ∈ G3 lässt sich demnach darstellen als: A = a 0 1 + a1 σ 1 + a 2 σ 2 + a 3 σ 3 + a12 σ 1 σ 2 + a23 σ 2 σ 3 + a31 σ 3 σ 1 + a123 σ 1 σ 2 σ 3 (a0 + a3 ) + i(a12 + a123 ) (a1 + a31 ) − i(a2 − a23 ) ∼ . = (a1 − a31 ) + i(a2 + a23 ) (a0 − a3 ) − i(a12 − a123 ) , (5.26) (5.27) Wie man sieht, steht im Real- und Imaginärteil jeder Komponente immer eine Summe aus einem geraden und einem ungeraden Anteil von A. Außerdem treten alle Koordinaten in der jeder Spalte einmal auf. Schränkt man sich also auf die Teilmengen G3± ein, dann lässt sich der entsprechende Multivektor aus einer einzigen der beiden Spalten rekonstruieren. Dies wird uns später helfen, den zweikomponentigen Pauli-Spinor zu einem Element der Clifford-Algebra zu machen. Außerdem sieht man an Gleichung (5.27), dass das Transponierte des Multivektors A dem hermitesch Adjungierten der darstellenden Matrix entspricht: At ∼ = Σ(A)† . (5.28) 1 Man kann die Basisvektoren σ ∈ G natürlich auch durch andere Matrizen in Mat(2, ) 3 i darstellen. Die Pauli-Matrizen haben allerdings die spezielle Eigenschaft, dass σ3 diagonal ist. Dadurch wird die σ 3 -Richtung als Quantisierungsrichtung des Spins ausgezeichnet. 104 Kapitel 5. Reelle Quantenmechanik Als Spezialfall von Gleichung (5.27) wollen wir die Darstellung eines CliffordVektors a ∈ G3 betrachten: a3 a1 − ia2 ∼ . (5.29) a = a i σi = a1 + ia2 −a3 Die Vektoren bilden eine ausgezeichnete Teilmenge der Clifford-Algebra, da für sie die Kontraktionsregel a2 = kak2 gilt. Auf Stufe der Matrizen Mat(2, ) spiegelt sich dies darin wieder, dass die Vektoren durch selbstadjungierte, spurlose Matrizen beschreiben werden:2 A ∈ G31 ⇐⇒ Σ(A)† = Σ(A) und tr Σ(A) = 0 . (5.30) Durch diese ausgezeichnete Teilmenge erhält die Matrixdarstellung der Geometrischen Algebra eine zusätzliche Struktur, die in Mat(2, ) ursprünglich nicht vorhanden war. Da wir die Wellenfunktion Ψ später durch einen geraden Multivektor ψ ∈ G3+ beschreiben werden, wollen wir auch dessen Matrixdarstellung angeben: ( ∗ z1 = ψ0 + iψ3 z −z 1 2 , mit ψ = ψ0 + ψi Iσ i ∼ . (5.31) = z2 z1∗ z2 = −ψ2 + iψ1 Genau wie der Pauli-Spinor Ψ lässt sich der gerade Multivektor ψ also durch zwei komplexe Zahlen z1 , z2 ∈ charakterisieren. 5.3 Minimale Links-Ideale und Ideal-Spinoren Bis auf den Pauli-Spinor können wir mittlerweile alle Größen in der Pauli-Schrödinger-Gleichung (5.13) durch äquivalente Ausdrücke in der Geometrischen Algebra G3 ersetzen. Um auch Ψ zu einem Element der Clifford-Algebra zu machen, können wir als erste Möglichkeit einfach ein paar Nullen ergänzen: Ψ1 0 Ψ1 . (5.32) 7→ Ψ̃ = Ψ= Ψ2 0 Ψ2 Die Matrizen dieser Form bilden ein Links-Ideal S ⊂ Mat(2, ), d. h. das Resultat der Multiplikation mit einer beliebigen Matrix von links liegt wieder in S: Ψ̃ ∈ S =⇒ M Ψ̃ ∈ S für alle M ∈ Mat(2, ) . Deshalb wollen wir Ψ̃ einen Ideal-Spinor nennen. Rein rechnerisch macht die Ersetzung des Pauli-Spinors Ψ durch den Ideal-Spinor Ψ̃ in der PS-Gleichung (5.13) keinen Unterschied, da die Matrix Ψ̃ unter Multiplikation von Links die gleichen Ergebnisse liefert, wie der Pauli-Spinor Ψ. Wie sich herausstellt, kann man das Ideal S auch mit Hilfe eines primitiven idempotenten Elements ausdrücken. Ein idempotentes Element f+ ist ein Projektionsoperator, d. h. es besitzt die Eigenschaft (f+ )2 = f+ . Das Wort „primitiv“ 2 Dies ist eine Folge der Matrixdarstellung (5.26) der Pauli-Matrizen. In einer anderen Darstellung würde sich die Teilmenge der Vektoren anders auszeichen (siehe [Lou01, Section 4.2]). 5.4 Die Pauli-Schrödinger-Hestenes-Gleichung 105 bedeutet, dass sich f+ nicht in eine Summe von zwei sich gegenseitig annihilierenden Projektionsoperatoren f1 , f2 mit f1 f2 = 0 = f2 f1 zerlegen lässt. Das Ideal S lässt sich in unserem Fall schreiben als: 1 0 . (5.33) S = Mat(2, )f+ , mit f+ = 21 ( + σ3 ) = 0 0 Weil das idempotente Element f+ primitiv ist, muss das Ideal S ein minimales Links-Ideal sein, das bedeutet es gibt kein Ideal, außer dem Nullideal {0}, welches eine echte Teilmenge von S ist (siehe [Lou01, Section 4.8 und 17.5]). In analoger Weise kann man das Ideal S 0 ⊂ Mat(2, ) der Matrizen mit Einträgen in der zweiten Spalte schreiben: 0 0 . (5.34) S 0 = Mat(2, )f− , mit f− = 21 ( − σ3 ) = 0 1 Wegen f+ + f− = sind die Projektionsoperatoren f+ und f− komplementär zueinander. Als Folge davon zerfällt die Matrixalgebra Mat(2, ) in eine direkte Summe der beiden Ideale: Mat(2, ) = Mat(2, )f+ ⊕ Mat(2, )f− = S ⊕ S 0 . (5.35) Indem man die idempotenten Elemente f± mit Hilfe des Pauli-Isomorphismus zu Elementen der Clifford-Algebra macht, induziert die Zerlegung (5.35) eine direkte Zerlegung der Geometrischen Algebra in die Links-Ideale: G3 = G 3 f + ⊕ G 3 f − , mit f± = 21 (1 ± σ 3 ) . (5.36) Die Ideale sind beide auch Unteralgebren von G3 , besitzen aber keine Eins. Man bemerke, dass dies nicht der Zerlegung von G3 in gerade und ungerade Multivektoren entspricht, bei der nur die geraden Multivektoren eine Unteralgebra bilden. Mehr zu Links-Idealen und der Formulierung der Quantenmechanik mittels Ideal-Spinoren kann man im Buch von Lounesto [Lou01] in den Kapiteln 4, 17 und 18 nachlesen. Eine Klassifikation idempotenter Elemente in beliebigen Clifford-Algebren findet sich in [AFPR03]. Wie wollen die Ideal-Spinoren hier allerdings nur als „Sprungbrett“ benutzen, um den Spin innerhalb der Geometrischen Algebra mit Hilfe von geraden Multivektoren zu beschreiben. 5.4 Die Pauli-Schrödinger-Hestenes-Gleichung Die Ideal-Spinoren haben den Nachteil, dass sie sich schlecht geometrisch interpretieren lassen. Ferner ist anzuzweifeln, ob die Klassifikation von Multivektoren anhand ihrer Matrixdarstellung überhaupt sinnvoll ist. Wie David Hestenes in [HG71] feststellt, lässt sich der Spin allerdings auch durch gerade Multivektoren ψ ∈ G3+ beschreiben. Diese neue Art von Spinoren wollen wir als Hestenes-Spinoren bezeichnen. Es gibt verschiedene Argumente, die für die Verwendung von geraden Multivektoren sprechen. Zum Einen braucht man einen vierdimensionalen Unterraum der Geometrischen Algebra G3 , da die Pauli-Spinoren zwei komplexe und damit vier reelle Freiheitsgrade besitzen. Im Gegensatz zu den ungeraden Multivektoren G3− sind die geraden Multivektoren G3+ ausgezeichnet, da sie unter Multiplikation abgeschlossen sind. Ein weiteres Argument ist der Zusammenhang von Spinoren mit der 106 Kapitel 5. Reelle Quantenmechanik + Spin-Gruppe, die eine Teilmenge der geraden Versoren Γ+ 3 ⊂ G3 ist. Ebenfalls relevant wäre in diesem Zusammenhang die Pin-Gruppe, als Teilmenge der disjunkten · Γ− Vereinigung Γ3 = Γ+ 3 ∪ 3 . Hier ist allerdings unklar, wie man eine eindeutige Zuordnung zwischen Pauli-Spinoren und den Versoren konstruiert. Speziell stellt sich die Frage, wann man Ψ einen geraden und wann einen ungeraden Versor zuordnet. Ob dies möglich (und sinnvoll) ist, wäre das Thema einer weiteren Arbeit. Um den Zusammenhang zwischen dem geraden Multivektor ψ und dem Pauli-Spinor Ψ herzustellen, verwendet Hestenes in [HG71, Appendix A] und [Hes03a, Section VII] den Spin-Up-Eigenzustand des Spins als eine Art „Referenzspinor“. Das prinzipielle Vorgehen ist ähnlich wie bei der Lösung des Kepler-Problems mit Rotor-Methoden in Abschnitt 3.8.2 auf Seite 79. Durch die Matrixdarstellung der Pauli-Matrizen (5.11) ist die σ 3 -Richtung als Quantisierungsrichtung des Spins ausgezeichnet. Der Spin-Up-Eigenzustand χ+ lässt sich in dieser Darstellung schreiben als: 1 =⇒ σ3 χ + = χ + . (5.37) χ+ = 0 Unter Verwendung der Matrixdarstellung (5.31) ergibt sich deshalb: z 1 z −z2∗ = 1 ψχ+ = 1 z2 0 z2 z1∗ (5.38) Da die Anzahl der Freiheitsgrade stimmt, identifiziert Hestenes dieses Resultat nun mit dem Pauli-Spinor: Ψ = ψχ+ , (5.39) mit den Komponenten Ψ1 = z1 = ψ0 + iψ3 und Ψ2 = z2 = −ψ2 + iψ1 . Der gerade Multivektor ψ trägt also jetzt die gleiche Information wie der Pauli-Spinor Ψ. Dies sollte man mit Gleichung (3.38) vergleichen, wo die Dynamik des Kepler-Problems mittels r = U e1 U t auf den Rotor U übertragen wurde. Nach dieser Vorarbeit lässt sich die Pauli-Schrödinger-Gleichung (5.13) durch die reelle Pauli-Schrödinger-Hestenes-Gleichung (PSH-Gleichung) ersetzen: ∂t ψ~Iσ 3 = Ĥψ − ~q Bψσ 3 . 2mc (5.40) Anhand des Zusammenhangs (5.39) zeigt Hestenes nun, dass sich die PS-Gleichung aus der PSH-Gleichung ergibt. Dazu übersetzt man unter Verwendung des PauliIsomorphismus alle Größen in (5.40) durch Matrizen. Speziell kann man das Magnetfeld B damit schreiben als: B = Bi σ i ∼ = Bi σi = σ · B. Am Ende lässt man alles auf den Referenzspinor χ+ wirken. Aus der PSH-Gleichung folgt damit: ∂t ψ~iσ3 χ+ = Ĥψχ+ − ~q (σ · B)ψσ3 χ+ . 2mc (5.41) Wegen Gleichung (5.37) wirkt σ3 als Identität auf χ+ . Außerdem kommutiert i~ mit allen übrigen Größen. Gleichung (5.41) ist also äquivalent zu: i~∂t (ψχ+ ) = Ĥψχ+ − ~q (σ · B)ψχ+ . 2mc (5.42) 5.4 Die Pauli-Schrödinger-Hestenes-Gleichung 107 Identifiziert man nun noch das Produkt ψχ+ mit dem Pauli-Spinor Ψ, dann ergibt sich aus (5.42) die bekannte Form der Pauli-Schrödinger-Gleichung. Im Gegensatz zur Behauptung von Hestenes beweist dies allerdings nicht die Äquivalenz der PSH- mit der PS-Gleichung, da sich der wichtigste Schritt – das Wirkenlassen der Matrizen auf den Referenzspinor χ+ – nicht umkehren lässt. Am deutlichsten wird diese Problematik auf Stufe der Ideal-Spinoren. Der Zusammenhang (5.39) zwischen Pauli- und Hestenes-Spinor ist dann zu ersetzen durch: Ψ̃ = z1 z2 0 0 = z1 z2 −z2∗ z1∗ 1 0 0 0 (5.43) = ψf+ . Auch auf f+ wirkt σ3 als Identität: σ3 f + = σ 3 1 2 + σ3 = 1 2 σ3 + (σ3 )2 = 1 2 σ3 + = f+ . Dehalb lässt sich die obige Rechnung ohne Änderung mit f+ anstelle von χ+ wiederholen. Als Ergebnis bekommt man: i~∂t (ψf+ ) = Ĥψf+ − oder in Matrizen ausgeschrieben: z z 0 = Ĥ 1 i~∂t 1 z2 z2 0 ~q (σ · B)ψf+ , 2mc (5.44) ~q 0 z − (σ · B) 1 0 z2 2mc 0 0 . (5.45) Wenn man Ψ1 = z1 und Ψ2 = z2 setzt, dann steht in der ersten Spalte wieder die Pauli-Schrödinger-Gleichung. Wie wir im letzten Abschnitt diskutiert haben, hat f+ allerdings die Wirkung eines Projektionsoperators auf das Ideal S. Wir haben bisher also nur gezeigt, dass die Einschränkung der PSH-Gleichung auf S äquivalent zur PS-Gleichung ist. Um die Äquivalenz zwischen der PS-Gleichung und der PSH-Gleichung auf die kompletten Algebra G3 auszudehnen, müssen wir zusätzlich die Projektion f− auf das zu S komplementäre Ideal S 0 betrachten. Falls auch die Einschränkung der PSH-Gleichung auf S 0 äquivalent zur PS-Gleichung ist, würde daraus wegen der direkten Zerlegung Mat(2, ) = S ⊕ S 0 die Äquivalenz auf der ganzen Algebra folgen. Die Wirkung von σ3 auf f− produziert ein negatives Vorzeichen: σ3 f − = σ 3 1 2 − σ3 = 1 2 σ3 − (σ3 )2 = 1 2 Anstelle von Gleichung (5.44) bekommt man deshalb: −i~∂t (ψf− ) = Ĥψf− + σ3 − ~q (σ · B)ψf− . 2mc = −f− . (5.46) Wenn man die komplette Gleichung mit Matrizen ausschreibt und ausmultipliziert, ergibt sich: ~q 0 +(B1 − iB2 )z1∗ − B3 z2∗ 0 −z2∗ 0 −z2∗ −i~∂t = Ĥ + . (5.47) 0 z1∗ 0 z1∗ 2mc 0 −(B1 + iB2 )z2∗ − B3 z1∗ 108 Kapitel 5. Reelle Quantenmechanik Da hier überall die komplex konjugierten Größen auftauchen, ist eine Äquivalenz zum hermitesch Adjungierten der Pauli-Schrödinger-Gleichung zu erwarten. Wegen Ĥ † = Ĥ und σi † = σi ist dieses gegeben durch: † ~q (σ · B)Ψ 2mc ~q † † † −i~∂t Ψ = ĤΨ + Ψ (σ · B) . 2mc (i~∂t Ψ)† = (ĤΨ)† − ⇐⇒ Mit Ψ† = (z1∗ , z2∗ ) lässt sich das hermitesch Adjungierte der Pauli-SchrödingerGleichung also schreiben als: ∗ t t ∗ t ~q −(B1 + iB2 )z2∗ − B3 z1∗ z1 z1 −i~ ∗ = Ĥ ∗ + . (5.48) z2 z2 2mc −(B1 − iB2 )z1∗ + B3 z2∗ Multipliziert man die zweite Zeile mit −1 und vertauscht danach die Zeilen miteinander, dann erhält man genau die zweite Spalte von Gleichung (5.47). Folglich ist auch die Einschränkung der PSH-Gleichung auf das zu S komplementäre Ideal S 0 äquivalent zur PS-Gleichung. Da sich die Algebra Mat(2, ) als direkte Summe der beiden Ideale S ⊕ S 0 schreiben lässt, haben wir damit auch die Äquivalenz in der kompletten Algebra Mat(2, ) ∼ = G3 bewiesen. 5.5 Geometrische Interpretation der PSH-Gleichung Im letzten Abschnitt wurde gezeigt, dass die Pauli-Schrödinger-Gleichung völlig gleichwertig ist zur reellen Pauli-Schrödinger-Hestenes-Gleichung: ∂t ψ~Iσ 3 = Ĥψ − ~q Bψσ 3 , 2mc (5.49) mit dem Hestenes-Spinor ψ ∈ G3+ . Bevor wir diese geometrisch deuten, wollen wir jedoch noch ein kleine Umformung vornehmen. Durch Einschieben von I 2 = −1 im letzten Term3 ergibt sich: ∂t ψ ~Iσ 3 = Ĥψ + q (IB)ψ ~Iσ 3 . 2mc (5.50) In dieser Form der PSH-Gleichung wird das Magnetfeld in korrekter Weise durch einen Bivektor IB beschrieben. Außerdem taucht jetzt zweimal der gleiche Faktor ~Iσ 3 auf, der sich aus dem ursprünglichen, komplexen Faktor i~ ergeben hat. Auf den ersten Blick ist das Auftreten eines ausgezeichneten Basisvektors σ 3 in der PSH-Gleichung (5.50) verwirrend. Wie im Kepler-Problem hat σ 3 allerdings nur die Funktion eines Referenzvektors, der beliebig gewählt werden kann. Obwohl dies in der ursprünglichen Pauli-Schrödinger-Gleichung nicht manifest sichtbar ist, zeichnet man auch dort die σ 3 -Richtung aus, indem man die Pauli-Matrix σ3 diagonal wählt. Um den Vektor σ 3 in Gleichung (5.50) durch einen anderen Referenzvektor σ̃ 3 zu ersetzen, können wir diesen ohne Einschränkungen durch eine konstante Drehung U ∈ Spin(3) aus σ 3 gewinnen: σ̃ 3 = U σ 3 U t . (5.51) 3 Dadurch macht man nur eine Vereinfachung in Gleichung (5.17) rückgängig. Deshalb erscheint diese Modifikation sehr natürlich. 5.5 Geometrische Interpretation der PSH-Gleichung 109 σ3 ψ σ̃ 3 σ̃ 1 σ2 σ1 σ̃ 2 Abbildung 5.1 Der Hestenes-Spinor ψ beschreibt lokal eine Drehstreckung des Referenzkoordinatensystems (σ i ) auf die physikalische Basis (σ̃ i ). Damit bekommt man: (ψσ 3 )U t = ψ(U t U )σ 3 U t = ψU t σ̃ 3 =: ψ̃ σ̃ 3 , (5.52) wobei der Hestenes-Spinor einseitig als ψ̃ = ψU t und in umgekehrter Richtung als ψ = ψ̃U transformiert wird. Der Pseudoskalar I ist invariant unter einer solchen Drehung. Durch Multiplikation mit U t von rechts erhält man damit aus (5.50) die äquivalente Gleichung: ∂t ψ̃ ~I σ̃ 3 = Ĥ ψ̃ + q (IB)ψ̃ ~I σ̃ 3 , 2mc (5.53) wobei jetzt σ̃ 3 als Quantisierungsrichtung des Spins ausgezeichnet ist. In der ursprünglichen Pauli-Schrödinger-Gleichung würde die Änderung der Quantisierungsrichtung einem Wechsel der Matrixdarstellung der Pauli-Matrizen und des PauliSpinors entsprechen. Wie sich herausstellt ist das Produkt ψψ t ein reeller Skalar: ψψ t = (ψ0 + ψi Iσ i )(ψ0 + ψj σ j I t ) = ψ0 2 + (ψi ψ0 Iσ i − ψ0 ψj σ j I) + ψi ψj Iσ i σ j I t = ψ0 2 + ψi ψj (δij + σ i ∧ σ j )II t = ψ 0 2 + ψ 1 2 + ψ 2 2 + ψ 3 2 + ψ i ψj σ i ∧ σ j = ψ0 2 + ψ1 2 + ψ2 2 + ψ3 2 , (5.54) wobei im letzten Schritt die Summe über ψi ψj σ i σ j verschwindet, da ψi ψj symmetrisch und das Dachprodukt antisymmetrisch ist. Dieses Ergebnis war zu erwarten, weil in drei Dimensionen der gerade Anteil der Clifford-Lipschitz-Gruppe + Γ+ 3 = G3 \ {0} ist, und für alle Versoren V ∈ Γ3 der Stufenoperator im Skalarprodukt weggelassen werden darf, hV V t i = V V t . Also ist ψψ t = hψψ t i = kψk2 ∈ . Der Skalar ψψ t entspricht der Wahrscheinlichkeitsdichte %, denn: % = hΨ|Ψi = Ψ† Ψ = Ψ∗1 Ψ1 + Ψ∗2 Ψ2 = (ψ0 − iψ3 )(ψ0 + iψ3 ) + (−ψ2 − iψ1 )(−ψ2 + iψ1 ) = ψ0 2 + ψ1 2 + ψ2 2 + ψ3 2 . (5.55) Damit lässt sich der Hestenes-Spinor ψ zerlegen in das Produkt aus dem skalaren √ Faktor % und einem Rotor R ∈ Spin(3): ψ= √ %R , mit % = ψψ t = kψk2 und RRt = 1 . (5.56) 110 Kapitel 5. Reelle Quantenmechanik Der Hestenes-Spinor beschreibt also lokal eine Drehstreckung des Koordinatensystems. Die Referenzbasis (σ i ) wird dadurch auf das physikalische Koordinatensystem (σ̃ i ) transformiert (siehe Abbildung 5.1): σ̃ i = ψσ i ψ t = % Rσ i Rt . (5.57) Im Gegensatz zur Referenzbasis sind die Basisvektoren der physikalischen Basis nicht auf 1 normiert, sondern auf kσ̃ i k = %. Wir nennen diese Basis die physikalische Basis, da sie unabhängig von der verwendeten Referenzbasis durch die Wellenfunktion ψ eindeutig festgelegt wird. Wie wir gleich sehen werden, ist der Vektor σ̃ 3 sogar eine physikalische Observable! 5.6 Der Spin-Operator Die Geometrische Algebra erfordert grundlegende Änderungen in der Beschreibung und der Interpretation des Spins. Im Pauli-Schrödinger-Formalismus ist der SpinOperator ŝ proportional zum Vektor σ mit den Pauli-Matrizen als Einträgen: ŝ = 21 ~σ . (5.58) Sobald man allerdings die Pauli-Matrizen als Basisvektoren σ i der Geometrischen Algebra interpretiert, ist dieser Ausdruck unsinnig. In vollständig analoger Weise könnte man in einem dreidimensionalen Vektorraum V mit Basis (ei ) einen formalen Vektor e = (e1 , e2 , e3 ) mit den Basisvektoren als Einträgen definieren. Jeder Vektor a ∈ V ließe sich damit formal schreiben als a = ai ei = ei ai = e · a. Da der formale Vektor e allerdings selbst kein Elemente des Vektorraums V ist, kann ihm keinerlei geometrische Bedeutung zugeordnet werden. Außerdem haben die Pauli-Matrizen in der Geometrischen Algebra nichts direkt mit dem Spin zu tun, da sie nur eine Darstellung der Basisvektoren σ i sind. Demnach sind sie für das Kepler-Problem oder für den Raumzeit-Split mindestens genauso relevant, wie für die Beschreibung des Spins. Folglich ist die Rolle der Pauli-Matrizen als Spin-Operatoren grundlegend zu überdenken. Um einen sinnvollen Ausdruck für den Spin-Operator herzuleiten, betrachten wir die einzelnen Komponenten der Spindichte % s = hΨ|ŝ|Ψi = Ψ† ŝΨ. Da die Spindichte eine lokale Größe ist, wird hierbei nicht über den Raum integriert. Mit dem Pauli-Spinor Ψ = (z1 , z2 )t erhält man: % s1 = 12 ~hΨ|σ1 |Ψi = 21 ~ z1∗ z2 + z1 z2∗ , (5.59) ∗ ∗ 1 1 (5.60) % s2 = 2 ~hΨ|σ2 |Ψi = 2 ~ −i(z1 z2 − z1 z2 ) , ∗ ∗ 1 1 (5.61) % s3 = 2 ~hΨ|σ3 |Ψi = 2 ~ z1 z1 − z2 z2 . Diese Ergebnisse lassen sich in der Geometrischen Algebra reproduzieren. Im Gegensatz zum Pauli-Schrödinger-Formalismus erhält man allerdings alle Komponenten der Spindichte auf einmal durch den Ausdruck: % s = 12 ~ ψσ 3 ψ t . Eine direkte Rechnung in der Matrixdarstellung bestätigt dies: ∗ z −z2∗ 1 0 z1 z2∗ %s ∼ = 21 ~ 1 0 −1 z2 z1∗ −z2 z1 ∗ ∗ ∗ z z −z z 2(z1 z2 )∗ s3 s1 − is2 ! 1 = 12 ~ 1 1 ∗ 2 2 ~ . = 2 s1 + is2 −s3 2z1 z2 −(z1∗ z1 − z2∗ z2 ) (5.62) 5.6 Der Spin-Operator 111 σ3 s ψ S Iσ 3 σ2 σ̃ 1 σ1 σ̃ 2 Abbildung 5.2 Der Referenz-Vektor σ 3 und der Referenz-Bivektor Iσ 3 werden durch den Hestenes-Spinor auf den lokalen Spin-Vektor s bzw. den SpinBivektor S abgebildet. (Den konstanten Faktor ~/2 haben wir in der Zeichnung vernachlässigt.) Der Ausdruch für s3 lässt sich daraus direkt ablesen und stimmt mit Gleichung (5.61) überein. Die restlichen Komponenten bekommt man, indem man 2z1∗ z2 nach Real- und Imaginärteil zerlegt. Hierdurch ergeben sich die Resultate der Gleichungen (5.59) und (5.60). Erstaunlicherweise benötigt man in Gleichung (5.62) nur den Vektor σ 3 und nicht alle Basisvektoren σ i , wie man vom üblichen Spin-Operator (5.58) her eventuell erwarten würde. Der Vektor σ 3 taucht dabei – wie in der PSH-Gleichung – in seiner Rolle als Referenzvektor auf. Damit haben wir übrigens auch die Bedeutung der physikalischen Basis σ̃ i aus dem letzten Abschnitt aufgedeckt. Der Basisvektor σ̃ 3 entspricht bis auf einen konstanten Faktor dem lokalen Spin-Vektor : s = 21 ~ Rσ 3 Rt = 21 ~ σ̃ 3 . (5.63) Eine weitere bemerkenswerte Eigenschaft von Gleichung (5.62) bzw. (5.63) ist die Tatsache, dass wir nicht nur alle Komponenten der Spindichte auf einmal bekommen haben, sondern auch den lokalen Spin-Vektor s als Ganzes, ohne Verwendung von Koordinaten. Speziell kann man dadurch dem Spin-Vektor eine physikalische Bedeutung zuschreiben, die unabhängig von der Quantisierungsrichtung ist. Ein kleines Manko hat der lokale Spin-Vektor s allerdings noch. Wenn man den Spin als eine Art Drehimpuls interpretieren möchte, müsste er eigentlich durch einen Bivektor beschrieben werden. Man definiert deshalb mittels Hodge-Dualität den lokalen Spin-Bivektor : S := Is = 12 ~ RIσ 3 Rt . (5.64) Der Referenz-Bivektor Iσ 3 wird also durch den Rotoranteil R des Hestenes-Spinors in Richtung des Spin-Bivektors S gedreht. Damit haben wir die Bedeutung der Faktoren ~Iσ 3 in der PSH-Gleichung (5.50) entdeckt. In der Geometrischen Algebra lassen sich diese (bis auf den Faktor 1/2) als Referenz-Bivektoren des lokalen Spins interpretieren. Noch etwas deutlicher wird die Beziehung des Faktors ~Iσ 3 zum Spin, wenn man das Produkt Sψ berechnet: √ 1 √ Sψ = 12 ~ RIσ 3 Rt % R = 2 ~ % R Iσ 3 RtR = 12 ψ ~Iσ 3 . (5.65) Die Pauli-Schrödinger-Hestenes-Gleichung (5.50) lässt sich damit ein weiteres Mal umschreiben zu: q ∂t (2Sψ) = Ĥψ + (IB)(2Sψ) . (5.66) 2mc 112 Kapitel 5. Reelle Quantenmechanik Damit lässt sich der ursprüngliche, komplexe Faktor i~ mit dem Doppelten des Spin-Bivektors S identifizieren. Deshalb behauptet Hestenes zum Beispiel in [Hes03a], dass der Spin durch den Faktor i~ schon in der Schrödinger-Gleichung (5.7) zu finden ist. Dies würde bedeuten, dass die Schrödinger-Gleichung ein Teilchen in einem Eigenzustand des Spins beschreibt, im Gegensatz zur üblichen Auffassung, wonach durch die Schrödinger-Gleichung spinlose Teilchen beschrieben werden. Interessant mag in diesem Zusammenhang auch die übliche Herleitung der Schrödinger-Gleichung sein, die wegen Gleichung (5.2) auf ebenen, elektromagnetischen Wellen basiert. Damit ließe sich eventuell der Faktor 2 erklären, da Photonen als Spin-1-Teilchen das Zweifache des Elektronenspins besitzen. 5.7 Zusammenfassung In der konventionellen Formulierung der nichtrelativistischen Quantenmechanik verwendet man mehrere Algebren nebeneinander. Besonders deutlich wurde dies am Beispiel der Pauli-Schrödinger-Gleichung (PS-Gleichung): 2 ~q π̂ ~q i~∂t Ψ = ĤS − (σ · B) Ψ = + qΦ − (σ · B) Ψ . (5.13) 2m 2m 2m Auf der einen Seite benutzt man den (komplexifizierten) Vektorraum ( 3 , ·, ×), versehen mit Skalar- und Kreuzprodukt. Auf der anderen Seite stehen die komplexen Matrizen Mat(2, ), die oft in der Form σ · a geschrieben werden, wobei man die Rechenregel: (σ · a)(σ · b) = a · b + iσ · (a × b) (5.15) verwendet. Hierbei ist σ ein formaler Vektor mit den Pauli-Matrizen als Einträgen. Wie wir gezeigt haben, lassen sich alle verwendeten Formalismen unter dem Hut der Geometrischen Algebra G3 vereinigen. Mit Hilfe des Pauli-Isomorphismus G3 ∼ = Mat(2, ), den wir in Abschnitt 5.2 diskutiert haben, konnten die verschiedenen Größen in der PS-Gleichung (5.13) durch äquivalente Ausdrücke in der Clifford-Algebra ersetzt werden. Die formalen Skalarprodukte der Form σ · a sind dabei eine unschöne Schreibweise für Clifford-Vektoren, denn: G3 3 a = a i σ i = σ i a i ∼ = σi ai = σ · a ∈ Mat(2, ) . Mit Clifford-Vektoren geschrieben, wird die Rechenregel (5.15) zur wohlbekannten Zerlegung des Geometrischen Produkts: ab = a · b + a ∧ b = a · b + I(a × b) . (5.21) Um den Pauli-Spinor zu einem Elemente der Geometrischen Algebra zu machen, gibt es zwei wichtige Alternativen. Zum einen kann man Ideal-Spinoren Ψ̃ verwenden, die in einem Links-Ideal S ⊂ Mat(2, ) liegen. Das Vorgehen dazu wurde in Abschnitt 5.3 kurz skizziert. Die Alternative stellen Hestenes-Spinorren ψ ∈ G3+ dar, die wir in den folgenden Abschnitten ausführlich diskutiert haben. Unter Verwendung der Hestenes-Spinorren lässt sich die konventionelle PauliSchrödinger-Gleichung (5.13) ersetzen durch die reelle Pauli-Schrödinger-HestenesGleichung (PSH-Gleichung): ∂t ψ ~Iσ 3 = Ĥψ + q (IB)ψ ~Iσ 3 . 2mc (5.50) 5.7 Zusammenfassung 113 Der explizit auftretende Vektor σ 3 übernimmt dabei die Rolle eines Referenzvektors, wie auch in der Lösung des Kepler-Problems mittels Rotor-Methoden in Abschnitt 3.8.2. Der Zusammenhang zwischen Pauli- und Hestenes-Spinorr ist gegeben durch: 1 . (5.390 ) Ψ = ψχ+ , mit χ+ = 0 Die Äquivalenz von PSH- und PS-Gleichung wurde in Abschnitt 5.4 bewiesen. Im folgenden Abschnitt wurden die einzelnen Terme in der Pauli-SchrödingerHestenes-Gleichung geometrisch interpretiert. Wie sich herausstellt, erlaubt des Hestenes-Spinorr ψ eine koordinatenfreie Zerlegung in das Produkt aus einem Skalar % und einem Rotor R ∈ Spin(3): ψ= √ %R , 2 mit % = ψψ t = kψk und RRt = 1 . (5.56) Damit beschreibt der Spinor ψ lokal eine Drehstreckung der Referenzbasis (σ i ) auf die physikalische Basis σ̃ i = %Rσ i Rt . Der skalare Faktor % ist die bekannte Born’sche Wahrscheinlichkeitsdichte % = hΨ|Ψi = Ψ† Ψ. Zum Abschluss haben wir die Rolle des Spin-Operators im PSH-Formalismus erläutert. Einerseits entspricht die Schreibweise σ nur formal einem Vektor. Da wir außerdem die Pauli-Matrizen als Basisvektoren σ i interpretiert haben, sind in der Geometrischen Algebra einige grundlegende Änderungen in der Beschreibung und der Interpretation des Spins nötig. Wie wir gesehen haben, wird die Spindichte % s = hΨ|ŝ|Ψi ersetzt durch den Ausdruck: % s = 12 ~ψσ 3 ψ t . (5.62) Auch in dieser Gleichung hat σ 3 nicht die Rolle eines Operators, sondern ist als Referenzvektor aufzufassen, der durch den Hestenes-Spinor ψ in die Richtung des lokalen Spin-Vektors s gedreht wird. Da man den Spin als eine Art Drehimpuls interpretieren möchte, sollte er eigentlich durch einen Bivektor beschrieben werden. Dies gibt Anlass zur Definition des Spin-Bivektors: S = Is = 21 ~ RIσ 3 Rt . (5.64) Dem Faktor ~Iσ 3 in der PSH-Gleichung kann deshalb die Bedeutung eines Referenz-Bivektors zugewiesen werden. Weitere Einblicke liefert das Produkt Sψ = 1 2 ψ~Iσ 3 , womit sich die PSH-Gleichung schreiben lässt als: ∂t (2Sψ) = Ĥψ + q (IB)(2Sψ) . 2mc (5.66) Damit kann der ursprüngliche, komplexe Faktor i~ mit dem Doppelten des Spin-Bivektors identifiziert werden. Da der Faktor i~ schon in der Schrödinger-Gleichung auftaucht, behauptet David Hestenes, dass diese kein spinloses Teilchen, sondern ein Teilchen in einem Eigenzustand des Spins beschreibt. 114 Kapitel 5. Reelle Quantenmechanik 6. Zusammenfassung und Ausblick In dieser Arbeit haben wir die Rolle der Clifford-Algebra in der Physik untersucht. Wie sich herausstellt, besitzt das Clifford-Produkt eine fundamentale geometrische Bedeutung und hat deshalb nicht nur Anwendungen in der Quantenmechanik, sondern in allen wichtigen Bereichen der Physik. Da sehr unterschiedliche Gebiete behandelt wurden, finden sich einzelne Zusammenfassungen jeweils am Ende der jeweiligen Kapitel. Wir wollen deshalb hier vor allem weitere Entwicklungen und Anwendungen der Geometrischen Algebra vorstellen. Nach einer kurzen Einführung in die Problematik haben wir in Kapitel 2 die Grundlagen der Geometrischen Algebra nach Hestenes [HS92] zusammengefasst. Dabei wurden einige kleinere Modifikationen eingeführt, wie zum Beispiel das Skalarprodukt ˜∗ und die beiden Kontraktionen. Der grundlegende Formalismus lässt sich nun in mehreren Richtungen weiterentwicklen. Auf der algebraischen Seite lassen sich Clifford-Algebren über Räumen mit nichtsymmetrischer Bilinearform definieren. Dies haben wir kurz in Anhang A.5 skizziert. Ausführliche Darstellungen dieser Thematik – die eng mit der Theorie der Hopf-Algebren und der Deformation von Algebren verknüpft ist – finden sich zum Beispiel in den Arbeiten von Bertfried Fauser [Fau96, FA00, Fau02]. Passende Anwendungen gibt es sowohl in der symplektischen Geometrie (die man zum Beispiel in der theoretischen Mechanik benötigt), in der Quantenfeldtheorie, sowie auf dem Gebiet der Deformations-Quantisierung. Eine weitere wichtige Richtung ist die Geometrischen Analysis. Dabei geht es um die Entwicklung eines Differentialkalküls, basierend auf der Geometrischen Algebra. Dies ist sowohl in glatten Räumen, als auch für die Differentialgeometrie auf Mannigfaltigkeiten interessant. Es gibt enge Verbindungen zum Dirac-Operator, der als die natürliche Ableitung in der Geometrischen Algebra auftaucht. Die Grundlagen der Geometrischen Analysis findet man in [HS92, Hes93a, DL03]. Im dritten Kapitel wurde die Beschreibung von Reflexionen und Rotationen mittels Multivektoren dargestellt. Ein Thema, welches wir nur kurz erwähnt haben, ist dabei die Theorie der Lie-Algebren, die eng mit der Algebra der Bivektoren verknüpft ist. Mehr dazu kann man zum Beispiel in [DHS93] nachlesen. Außerdem lassen sich die, anhand des Kepler-Problems vorgestellten, Rotor-Methoden auf viele weitere Probleme anwenden. Ein Beispiel ist die Theorie des starren Körpers in [Hes99] und die Anwendung von Rotoren in der Speziellen Relativität und Elektrodynamik [Hes74, Hes98, DL03]. In Kapitel 4 haben wir die Spacetime-Algebra vorgestellt, welche eine koordinatenfreie Beschreibung der SRT ermöglicht. Eine interessante aktuelle Entwicklung auf diesem Gebiet ist die Formulierung der Allgemeinen Relativität als Eichtheorie [DL03, Hes05]. Weitere neue Anwendungen ergeben sich in der Elektrodynamik. Da Vektoren in der Geometrischen Algebra invertierbar sind, liegt die Vermutung 116 Kapitel 6. Zusammenfassung und Ausblick nahe, dass auch die Differentialoperatoren 5 und ∇ diese Eigenschaft besitzen. Damit ließen sich die Maxwellgleichungen geschlossen lösen, in der Form: 5F = j ⇐⇒ F = 5−1 j , (6.1) wobei 5−1 ein geeigneter Integraloperator ist, der natürlich von den Randbedingungen abhängt. Ein paar grundlegende Ansätze dazu findet man in [Hes03b, DL03]. In Kapitel 5 haben wir gezeigt, wie sich die nichtrelativistische Quantenmechanik in der Sprache der reellen Geometrischen Algebra G3 beschreiben lässt. Als Folge davon muss die Rolle des Spins in der Quantenmechanik grundlegend überdacht werden [Hes79, DLG+ 96]. Interessant wäre ein tieferes Verständnis des Spins zum Beispiel für einen Beweis des Spin-Statistik-Theorems in der nichtrelativistischen Quantentheorie. Eine weitere nützliche Entwicklung ist die Verallgemeinerung des Formalismus auf Vielteilchensysteme, wie sie in [DL03] beschrieben wird. Neben der Pauli-Schödinger-Theorie lässt sich mit der Geometrischen Algebra auch die relativistische Quantenmechanik umformulieren. Auch in der konventionellen Dirac-Gleichung tauchen wieder formale Produkte der Form p/ = γ µ pµ und ∂/ = γ µ ∂µ auf. Indem man die Dirac-Matrizen als Darstellung der Basisvektoren γµ ∈ G1,3 interpretiert, lässt sich – in Analogie zur PSH-Gleichung – die Dirac-Hestenes-Gleichung aufstellen [Hes66, Hes03b]: 5ψ ~Iσ 3 − qAψ = mψγ0 . (6.2) Auch hier taucht wieder der Faktor ~Iσ 3 = ~Iγ2 γ0 auf, den wir schon aus der PSHGleichung kennen. Mehr über die Dirac-Hestenes-Gleichung kann man in [Hes03b, DL03, Lou01] und vielen weiteren Publikationen nachlesen. Interessant ist wiederum die Verbindung zu bekannten Sachverhalten. Speziell die Wigner’sche Analyse der Poincaré-Gruppe sollte sich auch innerhalb der Spacetime-Algebra nachvollziehen lassen, womit sich die Bedeutung des Spins – im Zusammenhang mit dem Pauli-Lubansky-Pseudovektor – genauer untersuchen ließe. Weitere Impulse kann man auf dem Gebiet der Quantisierung erwarten. Hier bietet sich die Geometrische Algebra aufgrund ihrer Universalität an, da sich mit ihrer Hilfe sowohl die klassische Theorie, als auch die zugehörige quantisierte Theorie, in einem gemeinsamen mathematischen Rahmen beschreiben lassen. Außerdem wollen wir an dieser Stelle nochmals auf die Publikationen von Fauser [FA00, Fau02] hinweisen, die auf Anwendungen der Geometrischen Algebra in der Quantenfeldtheorie abzielen. A. Wege zur Clifford-Algebra The understanding of a mathematical theory is not the result of enlightened familiarity with an axiom system given once and for all. To the mathematician, an axiom system is a window through which an item, be it a group, a topological space or the real line, can be viewed from a different angles that will reveal heretofore unsuspected possibilities. Gian-Carlo Rota [Rot97] In diesem Kapitel sollen verschiedene Wege zur mathematischen Definition der Clifford-Algebra vorgestellt werden. Jede Definition bietet dabei ihren eigenen Blickwinkel auf die Clifford-Algebra, der bestimmte Eigenschaften hervortreten lässt und andere vernachlässigt. Die spezifischen Vor- und Nachteile der unterschiedlichen Möglichkeiten werden diskutiert sowie deren Anwendungsgebiete aufgezeigt. Eine ausführliche Diskussion der verschiedenen Zugänge findet sich auch in [Lou01], [Fau96] und [Fau02]. Um näher an der Standardliteratur zu bleiben, bezeichnen wir in diesem Kapitel die Clifford-Algebra mit Cl anstatt mit G. A.1 Ein paar Grundlagen Zu Beginn wollen wir ein paar wichtige Definitionen und die für uns relevanten Sätze zusammenstellen. Dies dient vor allem der Klärung der verschiedenen Begrifflichkeiten, und kann beim ersten Lesen übersprungen werden. Zur Vertiefung der unterschiedlichen Konzepte müssen wir auf die mathematische Fachliteratur verweisen. Die Grundlagen der Linearen Algebra sind sehr anschaulich bei Fischer [Fis03] dargestellt. Weiterführende Themen aus dem Bereich der Algebra finden sich beispielsweise bei Scheja und Storch [SS94], [SS88], oder im sehr übersichtlich und verständlich geschriebenen Buch von Hungerford [Hun74]. Eine moderne, allerdings auch deutlich abstraktere Darstellung findet man bei Rotman [Rot02]. Graduierte Algebren werden ausführlich im ersten Teil des Buchs von Chevalley [Che97c] und bei Rotman [Rot02] diskutiert. Definition A.1 (Gruppe) Eine Gruppe (G, ·) ist eine Menge G zusammen mit einer Verknüpfung · : G × G → G und den Eigenschaften: (i) Die Multiplikation ist assoziativ, d. h. (x · y) · z = x · (y · z) für alle x, y, z ∈ G, (ii) es gibt ein neutrales Element e ∈ G, mit e · x = x für alle x ∈ G, (iii) zu jedem x ∈ G gibt es ein inverses Element x−1 ∈ G, mit x−1 · x = e . Falls man nur die Assoziativität fordert, dann spricht man von einer Halbgruppe. Eine Halbgruppe mit neutralem Element heißt Monoid. Dies entspricht einer Gruppe, bei der man die Forderung (iii) nach Invertierbarkeit fallen lässt. Eine Gruppe heißt kommutativ oder abelsch, falls zusätzlich: (iv) x · y = y · x für alle x, y ∈ G. 118 Anhang A. Wege zur Clifford-Algebra Definition A.2 (Ring) Ein Ring (R, +, ·) ist eine Menge R versehen mit zwei Verknüpfungen + : R × R → R und · : R × R → R und den Eigenschaften: (i) (R, +) ist eine kommutative Gruppe (mit 0 := e), (ii) die Multiplikation · ist assoziativ. (iii) die Multiplikation ist links-distributiv x · (y + z) = x · y + x · z und rechtsdistributiv (y + z) · x = y · x + z · x für alle x, y, z ∈ R. Wir sprechen von einem Ring mit 1, wenn zusätzlich gilt: (iv) Es gibt ein Eins-Element 1 ∈ R mit 1 · x = x = x · 1 für alle x ∈ R. Außerdem nennen wir den Ring kommutativ, falls zusätzlich: (v) x · y = y · x für alle x, y ∈ R gilt. Definition A.3 (Körper) Ein Körper (K, +, ·) ist eine Menge K zusammen mit zwei Verknüpfungen + : K × K → K und · : K × K → K, so dass gilt: (i) (K, +, ·) ist ein kommutativer Ring mit 1. (ii) (K \ {0}, ·) ist eine abelsche Gruppe. Wenn (K \{0}, ·) stattdessen nur eine Gruppe ist, und nicht notwendig kommutativ, dann spricht man von einem Schiefkörper. Die Hamilton’schen Quaternionen der kein Körper ist. sind ein Beispiel für einen Schiefkörper, Definition A.4 (Modul) Sei R ein kommutativer Ring mit Eins, M eine Menge und zwei Verknüpfungen + : M × M → M und · : R × M → M gegeben, genannt Vektoraddition bzw. Skalarmultiplikation. Dann heißt (M, +, ·) Links-R-Modul, wenn gilt: (i) (M, +) ist eine abelsche Gruppe, (ii) die Distibutivgesetze (λ + µ) · a = λ · a + µ · a und λ · (a + b) = λ · a + λ · b gelten für alle λ, µ ∈ R und a, b ∈ M, (iii) die Assoziativität (λµ) · a = λ · (µ · a) ist für alle λ, µ ∈ R und a ∈ M erfüllt, (iv) für die Eins 1 ∈ R und a ∈ M gilt 1 · a = a. Ist stattdessen eine Skalarmultiplikation ◦ : M × R → M von rechts mit analogen Eigenschaften definiert, dann sprechen wir von einem Rechts-R-Modul. Sind beide Skalarmultiplikationen definiert und miteinander verträglich, d. h. λ · a = a ◦ λ für alle λ ∈ R und a ∈ M, dann nennt man M ein R-Bi-Modul oder auch einfach nur R-Modul. Wie man sieht, ist ein Modul die Verallgemeinerung eines Vektorraums auf einen Ring an Stelle eines Körpers. In einem kommutativen Ring lässt sich jedes Links- oder Rechts-Modul kanonisch zu einem Bi-Modul machen, weshalb man bei Vektorräumen auf diese Unterscheidung verzichtet: A.1 Ein paar Grundlagen 119 Definition A.5 (Vektorraum) Ein K-Vektorraum ist ein K-Modul über einem Körper. Ist K = oder , dann sprechen wir von einem reellen bzw. komplexen Vektorraum. Definition A.6 (Algebra) Sei A ein R-Modul über einem kommutativen Ring R mit 1 und ◦ : A × A → A eine zusätzliche Verknüpfung, die Algebramultiplikation heißt. Dann nennen wir A eine R-Algebra, wenn gilt: (i) Die Algebramultiplikation ist R-bilinear. (ii) (A, +) ist eine abelsche Gruppe. (iii) Die Multiplikation ◦ ist distributiv bezüglich Addition. Die Algebra heißt assoziativ, falls die Algebramultiplikation ◦ assoziativ ist und analog dazu spricht man von einer kommutativen Algebra, wenn die Multiplikation kommutativ ist. Wir nennen A Algebra mit 1, falls ein Einselement 1 ∈ A existiert, welches 1 ◦ B = B = B ◦ 1 für alle B ∈ A erfüllt. Ein Beispiel für eine assoziative Algebra mit 1 ist natürlich die Clifford-Algebra, aber auch die n × n-Matrizen über dem Körper K bilden unter der Matrix-Multiplikation eine assoziative Algebra mit der Einheitsmatrix als Einselement. Die vermutlich wichtigste Klasse von nicht-assoziativen Algebren ist durch die Lie-Algebren gegeben, in denen die Assoziativiät durch die Jacobi-Identität ersetzt wird. Ein Beispiel für eine nicht-assoziative Algebra, die keine Lie-Algebra ist, wären die Oktonionen von Cayley. Definition A.7 (Graduierung) Sei (G, +) eine additiv geschriebene Gruppe. Eine G-graduierte Algebra ist eine Algebra A zusammen mit einer Zerlegung in eine direkte Summe von Untermoduln: M A= Ag , so dass Ag Ah ⊂ Ag+h , g∈G d. h. für alle A ∈ Ag und B ∈ Ah ist das Produkt AB ∈ Ag+h . Die Algebramultiplikation respektiert also die Graduierung. Ein Element aus Ag heißt homogen von Grad g. Ein wichtiger Spezialfall ist G = 2 . Eine 2 -gaduierte Algebra wird in der Physik auch Superalgebra genannt, da solche Algebren eine wichtige Rolle bei der Beschreibung der Supersymmetrie von Elementarteilchen spielen. Für 2 schreibt man die Zerlegung A = A0 ⊕ A1 manchmal auch als A = A+ ⊕ A− . Die Geometrische Algebra mit der Zerlegung G = G + ⊕G − in gerade und ungerade Multivektoren ist ein Beispiel für eine Superalgebra. Einen Spezialfall davon bilden die komplexen Zahlen ∼ = G0,1 mit der Zerlegung = ⊕ i , was man leicht nachrechnet. Ein anderes Beispiel ist die Grassmann-Algebra, die V eine n -Graduierung beV V0 n sitzt, wobei die Zerlegung durch V = V ⊕ ··· ⊕ V gegeben ist, welche vom Dachprodukt respektiert wird. Alternativ kann man die Grassmann-Algebra aber auchVin eine direkteVSumme von Elementen geraden und ungeraden Grades V+ − zerlegen, V = V⊕ V, wodurch eine 2 -Graduierung induziert wird. Eine Algebra kann also durchaus mehrere Graduierungen gleichzeitig besitzen. Nachdem wir nun die für uns wichtigsten Räume definiert haben, kommen wir zu Strukturen auf diesen Räumen: 120 Anhang A. Wege zur Clifford-Algebra Definition A.8 (Bilinearform) Gegeben sein ein K-Vektorraum V sowie eine Abbildung: B : V × V → K , (a, b) 7→ B(a, b) . Diese heißt Bilinearform, wenn sie in beiden Komponenten linear ist: (i) B(a1 + a2 , b) = B(a1 , b) + B(a2 , b) und B(λa, b) = λB(a, b) , (ii) B(a, b1 + b2 ) = B(a, b1 ) + B(a, b2 ) und B(a, λb) = λB(a, b) . Die Bilinearform heißt symmetrisch, falls B(b, a) = B(a, b), und schiefsymmetrisch oder alternierend, falls B(b, a) = −B(a, b) für alle a, b ∈ V gilt. Man nennt die Bilinearform nicht entartet, falls: (vi) B(a, b) = 0 für alle b ∈ V =⇒ a = 0 . Eine Bilinearform heißt positiv definit, wenn: (v) B(a, a) > 0 für alle a ∈ V mit a 6= 0 . Jede positiv definite Bilinearform ist offensichtlich auch nicht entartet. Auf einem Vektorraum hat man oft durch das Skalarprodukt eine kanonische, symmetrische Bilinearform gegeben, die nicht entartet ist. Im Fall eines euklidischen Vektorraums ist das Skalarprodukt außerdem positiv definit. Definition A.9 (Quadratische Form) Sei V ein K-Vektorraum und Q eine Abbildung: Q : V → K , a 7→ Q(a) . Diese heißt quadratische Form genau dann, wenn: (i) Q(λa) = λ2 Q(a) , (ii) 2Bp (a, b) := Q(a + b) − Q(a) − Q(b) eine (symmetrische) Bilinearform ist. Die Abbildung Bp wird zu Q assoziierte polare Bilinearform genannt, und falls die Charakteristik des Körpers K ungleich 2 ist, gilt Q(a) = Bp (a, a). Die quadratische Form heißt positiv definit, wenn Q(a) > 0 für alle a ∈ V mit a 6= 0 gilt. Q heißt anisotrop, falls aus Q(a) = 0 sofort a = 0 folgt und umgekehrt dazu isotrop, falls es in V Vektoren a 6= 0 mit Q(a) = 0 gibt. Außerdem nennen wir Q nicht entartet, wenn die zugehörige polare Bilinearform nicht entartet ist. Wie man sich leicht verdeutlicht, ist jede positiv definite quadratische Form automatisch auch anisotrop und jede anisotrope quadratische Form nicht-entartet. Umgekehrt muss aber nicht jede isotrope quadratische Form entartet sein. Ein Beispiel für eine isotrope und trozdem nicht-entartete quadratische Form ist das Quadrat der Norm von Vektoren in der Minkowski-Raumzeit. Ein Vektorraum (V, Q) versehen mit einer quadratischen Form Q heißt quadratischer Raum und bildet normalerweise die Ausgangsbasis zur Definition einer Clifford-Algebra. Äquivalent dazu (natürlich char K 6= 2 vorausgesetzt) kann man die Clifford-Algebra auch über einem Vektorraum mit symmetrischer Bilinearform aufbauen. In Abschnitt A.5 werden wir auch eine Methode kennenlernen, mit der sich Clifford-Algebren über einem Vektorraum mit beliebiger Bilinearform errichten lassen. A.2 Clifford-Algebra mittels Generatoren und Relationen 121 A.2 Clifford-Algebra mittels Generatoren und Relationen Die bei Physikern wohl beliebteste Methode ist die Definition einer Algebra über Generatoren und Relationen. Von Vorteil ist dabei, dass man mit einfachen Objekten anfangen kann und dass man durch die Relationen direkt konkrete Rechenregeln in der Hand hat. Ein Nachteil ist allerdings die Tatsache, dass diese Methode für entartete Formen versagt. Doch nun zur Definition: Definition A.10 (Clifford-Algebra) Sei (V, Q) ein quadratischer Raum über dem Körper K mit nicht entarteter quadratischer Form Q. Eine assoziative KAlgebra mit 1 heißt dann Clifford-Algebra Cl (V, Q), wenn sie folgende Eigenschaften hat: (i) Die Relation a2 = Q(a) gilt für alle a ∈ V. (ii) Cl (V, Q) wird generiert von V und K. (iii) Cl (V, Q) wird von keinem echten Unterraum von V generiert. An dieser Definition bedürfen einige Punkte noch einer genaueren Erläuterung. Wie wir im vorherigen Abschnitt gesehen haben, ist die quadratische Form Q im Wesentlichen äquivalent zu einer symmetrischen Bilinearform B = Bp . Damit ist klar, dass man in der Definition anstelle von (i) alternativ auch die Relation ab + ba = 2B(a, b) verwenden kann. Die zugehörige Clifford-Algebra bezeichnen wir mit Cl (V, B) und es gilt natürlich Cl (V, B) = Cl (V, Q). Der zweite Punkt betrifft die harmlos aussehende Redewendung „wird generiert von“, die einer Präzisierung bedarf: Definition A.11 („generiert von“) Man sagt ein Raum (Gruppe, Ring, Vektorraum, Algebra, usw.) A wird generiert von einer Menge M , wenn A der kleinste Raum ist, der M enthält. Das heißt, für jeden weiteren Raum B mit M ⊂ B gilt auch A ⊂ B. Die Elemente von M nennt man Generatoren von A. Die Menge M der Generatoren ist alles andere als eindeutig. Ein Vektorraum wird beispielsweise von der Menge aller Vektoren generiert, es reicht aber auch schon eine Basis aus, die den Raum aufspannt. Der dreidimensionale Vektorraum 3 wird also beispielsweise von {e1 , e2 , e3 } generiert. Die wahre Bedeutung der Generatoren wird durch diese Definition leider nicht deutlich. Sie liegt darin, dass die Generatoren eine Verallgemeinerung des Erzeugendensystems eines Vektorraums darstellen. Jedes Element eines Raums A lässt sich nämlich mit Hilfe der in A vorhandenen Verknüpfungen aus den Generatoren aufbauen, wobei ggf. die Relationen anzuwenden sind. Als Beispiel betrachten wir eine Gruppe (G, ·), die von einer Menge M = {mi : i ∈ I} generiert wird, wobei I eine beliebige Indexmenge sei. Q Dann lässt sich jedes Element g ∈ G als Produkt der Generatoren schreiben: g = mj mit geeigneten j ∈ I. In einem Vektorraum V hat man dagegen die Addition von Vektoren und die Multiplikation mit einem skalaren Faktor zur Verfügung. Dann lässt P sich jeder Vektor v ∈ V als Linearkombination der Generatoren schreiben: v = j λj mj , wobei nun die mj ein Erzeugendensystem von V bilden. In einer Algebra hat man zusätzlich eine Multiplikation, d. h. dort bilden wir Linearkombinationen von Produkten von Generatoren. Die Zerlegung 122 Anhang A. Wege zur Clifford-Algebra ist natürlich im Allgemeinen nicht eindeutig, was für diese Konstruktion allerdings ohne Bedeutung ist. Unter gewissen Voraussetzungen (die meistens gegeben sind) gilt auch die Umkehrung, d. h. der Raum A besteht genau aus allen möglichen Kombinationen, die sich unter Beachtung der Relationen mit Hilfe der Verknüpfungen aus den Generatoren bilden lassen. Konkret ist dies genau dann der Fall, wenn wir mit einem freien Raum beginnen, d. h. im Raum, aus dem die Generatoren stammen, gibt es keine Relationen. Ein Beispiel dafür ist die Clifford-Algebra über dem Vektorraum V. Zwischen den Vektoren selbst gibt es keine Relationen, dieser ist frei. Wir bilden also einfach alle möglichen Produkte von Vektoren, wobei jetzt die Relation (i) zu beachten ist, und danach alle möglichen Summen daraus. Als Ergebnis bekommt man gerade die Menge aller Multivektoren der Clifford-Algebra. Ein Beispiel, bei dem diese bequeme Methode scheitert, wäre die Unteralgebra einer Clifford-Algebra, da in diesem Fall im Ausgangsraum schon Relationen vorhanden sind. Dort muss man direkt mit der Definition A.11 arbeiten. Damit landen wir auch schon beim nächsten Problem. In Punkt (ii) der Definition forderten wir nämlich, dass die Clifford-Algebra von V und K generiert wird, aber wenn man genau hinschaut, dann liegen V und K gar nicht in Cl (V, Q). Das Geheimnis ist eine Einbettung (eine injektive Abbildung), die normalerweise unterdrückt wird, um die Notation zu vereinfachen. Um ganz exakt zu sein, müsste man also Einbettungen γ : V → Cl (V, Q) und ν : K → Cl (V, Q) , λ 7→ λ1 mit 1 ∈ Cl (V, Q) verwenden. Die Relation in der Clifford-Algebra schreibt sich damit als γ(a)2 = Q(a) 1 und die Algebra wird generiert von γ(V) und ν(K). Da diese Schreibweise umständlich, und aufgrund der Injektivität meistens auch unnötig ist, wollen wir diese Tatsache im Hinterkopf behalten, im Allgemeinen werden wir aber auf die strenge Unterscheidung zwischen Vektoren in V und den eingebetteten Vektoren in Cl (V, Q) verzichten. Die dritte Bedingung, dass Cl (V, Q) von keinem echten Unterraum von V generiert wird, ist wichtig für die Universalität der Clifford-Algebra. Leider wird diese Forderung von vielen Autoren vernachlässigt und taucht in der Literatur nur selten auf. Um die Relevanz dieser Bedingung zu verstehen, müssen wir als erstes erklären, was mit dem Begriff „universell“ gemeint ist: Definition A.12 (universell) Ein Objekt A mit gewissen Eigenschaften heißt universell, wenn es bis auf einen eindeutig bestimmten Isomorphismus eindeutig festgelegt ist. Haben wir also ein zweites Objekt B mit den gleichen Eigenschaften, dann gibt es einen eindeutig festgelegten Isomorphismus von A nach B. Wenn man die dritte Bedingung in Definition A.10 einmal vernachlässigt, dann kann man ein einfaches Gegenbeispiel mit fehlender Universalität konstruieren. Wir betrachten dazu die reelle Algebra der Hamilton’schen Quaternionen die von der Menge {1, i, j, k} generiert wird. Jedes Quaternion Q ∈ lässt sich schreiben als Q = α1 + β1 i + β2 j + β3 k mit reellen Vorfaktoren a, βj ∈ und es gelten die bekannten Relationen: i2 = j 2 = k2 = −1 , ij = −ji = k , jk = −kj = i , ki = −ik = j . Die Dimension der Quaternionen als reelle Algebra ist offensichtlich gleich 4. A.3 Clifford-Algebra als Quotient der Tensor-Algebra 123 Ohne die letzte Bedingung der Definition wäre eine Clifford-Algebra über dem Vektorraum 3 mit der quadratischen Form Q(a) = − kak2 . Die dazu passende Einbettung ist gegeben durch: γ: 3 → , a = a1 e1 + a2 e2 + a3 e3 7→ a1 i + a2 j + a3 k . Wie wir wissen, kann man aber zu 3 mit der obigen quadratischen Form eine weitere Clifford-Algebra mit Dimension 23 = 8 konstruieren. Natürlich kann diese sein, da es keinen Isomorphismus zwischen Algebren unmöglich isomorph zu unterschiedlicher (endlicher) Dimension gibt, was aus der linearen Algebra bekannt ist. Dies steht im Widerspruch zur Universalität im Sinne von Definition A.12. Also kann die Algebra der Quaternionen über 3 nicht universell sein. Der Grund für die fehlende Universalität liegt in den zusätzlichen Relationen, die von den Generatoren erfüllt werden. Die Relation ij = k und deren zyklische Vertauschungen sind nämlich für die Clifford-Algebra unnötig. Mit Hilfe der Einbettung übersetzt man diese in γ(e1 )γ(e2 ) = γ(e3 ) usw. Daran sieht man, dass schon der zweidimensionale Unterraum, der von e1 und e2 aufgespannt wird, ausreichend, um zu generieren. Die dritte Bedingung in der Definition schließt diesen Fall aus und sorgt somit dafür, dass zwischen den Generatoren keine weiteren Relationen gelten. In Wirklichkeit konstruiert man die Quaternionen als Clifford-Algebra über dem zwei dimensionalen Vektorraum 2 mit quadratischer Form Q(a) = − kak2 . Die Einbettung lautet dann γ: 2 → , a = a1 e1 + a2 e2 7→ a1 i + a2 j , und k ergibt sich als Produkt ij = γ(e1 )γ(e2 ) = k. Die Universalität der CliffordAlgebra werden wir noch einmal ausführlich in Abschnitt A.4 diskutieren. Als letztes noch kurz ein Beispiel, dass die Definition mittels Generatoren und Relationen für eine entartete quadratische Form ungeeignet ist. Sei dazu (V, Q) ein beliebiger n-dimensionaler K-Vektorraum mit quadratischer Form Q = 0. Definieren nun das Produkt von zwei Vektoren a, b ∈ V durch ab := 0. Dann ist K ⊕ V eine assoziative Algebra mit 1, die von V und K generiert wird und die gewünschte Relation erfüllt. Die Dimension dieser Algebra ist offensichtlich durch n + 1 gegeben.VKorrekterweise würde man für diese quadratische Form die GrassmannAlgebra V erwarten, die auch alle Eigenschaften der Definition erfüllt, allerdings eine Dimension von 2n besitzt. A.3 Clifford-Algebra als Quotient der Tensor-Algebra In der Mathematik gibt es einen Satz, welcher besagt, dass jede Algebra der Quotient einer freien Algebra ist [Rot02, Corollary 9.109]. Über einem Vektorraum V ist diese freie Algebra gerade durch die Tensor-Algebra T (V) gegeben. Der Vorteil der Konstruktion durch Quotientenbildung liegt vor allem in der universellen Anwendbarkeit – mit einem geeigneten Quotienten lässt sich jede beliebige Algebra über V konstruieren – weshalb man die Tensor-Algebra auch „Mutter aller Algebren“ nennt. Außerdem folgt die Existenz der Algebra direkt aus der Konstruktion, so dass man darüber keine Gedanken mehr verlieren braucht. 124 Anhang A. Wege zur Clifford-Algebra Als erstes wollen wir den Begriff der „freien Algebra“ präzisieren, der im letzten Abschnitt schon einmal kurz angeschnitten wurde. Wir folgen dazu der Darstellung von Chevalley [Che97c], die man in abgewandelter Form auch bei Hungerford [Hun74] findet. Definition A.13 (Wörter) Sei A eine assoziative R-Algebra mit 1 über dem kommutativen Ring R, die von der Menge {xi : i ∈ I} generiert wird, wobei I eine beliebige Indexmenge ist. Sei σ = (i1 , . . . , ik ) eine endliche Sequenz von Elementen aus I, wobei die Zahl k Länge der Sequenz genannt wird. Mit Hilfe der Sequenzen bilden wir Wörter yσ = xi1 ◦ · · · ◦ xik aus den Generatoren, wobei der leeren Sequenz σ0 = ∅ das Wort yσ0 = 1 zugeordnet wird. Die Komposition zweier endlicher Sequenzen σ = (i1 , . . . , ik ) und τ = (j1 , . . . , jl ) ist durch einfaches Zusammenhängen gegeben, στ := (i1 , . . . , ik , j1 , . . . , jl ), und liefert eine neue Sequenz endlicher Länge. Damit definieren wir das Produkt zweier Wörter als yσ ◦ yτ := yστ . Per Konstruktion ist dieses Produkt assoziativ. Definition A.14 (Freie Algebra) Falls eine Menge {xi : i ∈ I} von Generatoren existiert, so dass alle Wörter yσ mit σ ⊂ I linear unabhängig sind, dann heißt A freie assoziative Algebra über R und die Menge {xi : i ∈ I} wird freies System von Generatoren oder auch Erzeugendensystem von A genannt. Jedes Element der Algebra A ∈ A lässt sich als endliche Linearkombination von Wörtern mit Koeffizienten µσ ∈ R darstellen: X0 µσ y σ , A= σ wobei der Strich an der Summe andeuten soll, dass nur endlich viele Summanden ungleich Null sind, wobei über alle endlichen Sequenzen σ summiert wird. Die Addition von zwei Elementen der freien Algebra definiert man komponentenweise. Die Multiplikation erhält man durch lineare Fortsetzung der Multiplikation von Wörtern: X X X ντ yτ := µσ y σ ◦ µσ ντ yστ . A◦B = σ τ σ,τ Offensichtlich ist diese Multiplikation assoziativ und R-bilinear. In der Tensor-Algebra T (V) verwendet man üblicherweise die Bezeichnung ⊗ für die Multiplikation. Die Tensor-Algebra wird von den Vektoren des K-Vektorraums V generiert. Ein freies System von Generatoren ist durch eine Basis von V gegeben. Da sich die Länge k von Wörtern bei der Addition oder Skalarmultiplikation nicht ändert, kann man diesbezüglich Untervektorräume T k (V) bilden, wodurch die Tensor-Algebra eine -Graduierung erhält: T (V) = ∞ M k=0 T k (V) mit T k (V) = V ⊗ · · · ⊗ V und T 0 (V) = K. | {z } (A.1) k Wie man leicht sieht, respektiert das Tensorprodukt diese Graduierung, denn bei der Multiplikation von zwei Wörtern der Längen k bzw. l entsteht ein Wort der Länge k + l. Der Grad ist deshalb in der Tensor-Algebra gleich der Länge der Wörter. Ein allgemeiner Tensor besitzt Anteile unterschiedlichen Grades, d. h. man A.3 Clifford-Algebra als Quotient der Tensor-Algebra 125 kann ihn als Linearkombination von Wörtern unterschiedlicher Länge schreiben. Besteht ein Tensor nur aus Wörtern eines Grades k, dann heißt er homogen. Außer dieser direkten Definition der Tensor-Algebra als freie Algebra gibt es auch den umgekehrten Weg, bei dem man zuerst das Tensorprodukt von Vektorräumen T k (V) definiert, woraus sich die Tensor-Algebra wie oben durch direkte Summation ergibt (siehe z. B. [Rot02]). Eine weitere Möglichkeit stellt die Definition mittels einer universellen Eigenschaft dar, wir im nächsten Abschnitt genauer erläutern werden. Wir kommen nun zur Suche nach den geeigneten Quotienten, mit deren Hilfe sich neue Algebren gewinnen lassen. Man möchte also Äquivalenzklassen bezüglich einer Äquivalenzrelation bilden, die die Relationen in der neuen Algebra induziert. Bei Gruppen verwendet man dazu Normalteiler [Hun74, Section I.5], bei Ringen sind die geeigneten Quotienten die beidseitigen Ideale [Hun74, Section III.2] und bei Algebren benötigt man beidseitige Algebra-Ideale.1 Definition A.15 (Ring-Ideal) Sei R ein Ring und I ⊂ R ein Unterring, d. h. abgeschlossen unter Addition und Multiplikation und gleichzeitg wieder ein Ring. Dieser heißt: (i) Links-Ideal, falls ri ∈ I für alle r ∈ R und i ∈ I. (ii) Rechts-Ideal, falls ir ∈ I für alle r ∈ R und i ∈ I. (iii) beidseitiges Ideal oder einfach nur Ideal, falls I gleichzeitig Links- und Rechts-Ideal ist. Definition A.16 (Algebra-Ideal) Sei A eine R-Algebra über einem kommutativen Ring mit 1 und I ⊂ A eine Unteralgebra, d. h. Unterring von A als Ring und R-Untermodul von A als Modul. Dann heißt I (Links-, Rechts-, bzw. beidseitiges) (Algebra-)Ideal von A, falls I ein (Links-, Rechts- bzw. beidseitiges) Ring-Ideal von A ist. Falls die Algebra A eine Eins besitzt, kann man die Forderung nach der Unteralgebra fallen lassen, da dann jedes Ring-Ideal von A automatisch auch ein AlgebraIdeal ist (siehe dazu [Hun74, Bemerkung nach Definition IV.7.3]). Deshalb wird oft nicht zwischen Ring- und Algebra-Idealen unterschieden. Wir demonstrieren V die Methode der Quotientenbildung zuerst am Beispiel der Grassmann-Algebra V. Die Algebramultiplikation der Grassmann-Algebra ist das alternierende Dachprodukt ∧ , d. h. für Vektoren2 a, b ∈ V gilt: a ∧ b = −b ∧ a ⇐⇒ a ∧ b + b ∧ a = 0 . (A.2) Um diese Relationen in der Tensor-Algebra zu implementieren, bildet man das beidseitige Ideal, welches von den Elementen der Form a ⊗ b + b ⊗ a mit a, b ∈ V 1 Die beidseitigen Ideale bzw. Normalteiler sind notwendig für eine wohldefinierte Multiplikation im Faktorraum [Rot02, Section 8.1]. In einem kommutativen Ring sind alle Ideale beidseitig, und in einer abelschen Gruppe alle Untergruppen Normalteiler, weshalb diese Unterscheidung in der Lehrbuchliteratur oft vernachlässigt wird. 2 Hier und im Folgenden benutzen wir die Bezeichung V bzw. Vektor synonym auch für die V Elemente des eingebetteten Vektorraums. Wir identifizieren also V je nach Kontext mit 1 V, 1 T (V) usw. 126 Anhang A. Wege zur Clifford-Algebra im Sinne von Definition A.11 generiert wird. Wir schreiben dies kurz als: I∧ := ha ⊗ b + b ⊗ a : a, b ∈ Vi (A.3) Bei der Quotientenbildung wird dieses Ideal auf die Äquivalenzklasse der Null abgebildet, wodurch in der Quotientenalgebra die Relationen realisiert werden. Da im Ausgangsraum (der Tensor-Algebra) keine Relationen gelten, kann man das Ideal auch explizit ausschreiben: I∧ = {A ⊗ (a ⊗ b + b ⊗ a) ⊗ B : a, b ∈ V ; A, B ∈ T (V)} . Die Grassmann-Algebra ist dann die Menge der Äquivalenzklassen: ^ V = T (V)/I∧ = ∞ M k=0 T k (V)/I∧ , (A.4) wobei die Verknüpfungen in der Quotienten-Algebra definiert sind durch: [A] ∧ [B] := [A ⊗ B] und [A] + [B] := [A + B] , V mit Repräsentaten A, B ∈ T (V) und [A] , [B] ∈ V. Wie wir schon wissen, ist für Charakteristik char K 6= 2 die Relation (A.2) äquivalent zu a ∧ a = 0. Anstatt des Ideals I∧ kann man deshalb alternativ auch I∧0 := ha ⊗ a : a ∈ Vi (A.5) verwenden und es gilt natürlich T (V)/I∧ = T (V)/I∧0 . Die Grassmann-Algebra respektiert eine -Graduierung, genau wie die Tensor-Algebra, was daran liegt, dass wir durch ein Ideal geteilt haben, das von Tensoren nur eines Grades generiert wird. Da in der Grassmann-Algebra, aufgrund der Antisymmetrie, maximal Elemente von Grad n = dim V auftreten können, ist dies äquivalent zu einer n -Graduierung. Eine weitere Diskussion ist Thema der graduierten Algebra und wird ausführlich in [Che97c] und [Rot02] behandelt, weshalb wir hier darauf verzichten möchten. Auch für die Clifford-Algebra haben wir zwei Möglichkeiten die Relationen aufzuschreiben, entweder mit Hilfe der symmetrischen Bilinearform B oder – äquivalent dazu – mittels der zugehörigen quadratischen Form Q. Im ersten Fall möchte man für Vektoren ab + ba = 2B(a, b) 1 ⇐⇒ ab + ba − 2B(a, b) 1 = 0 (A.6) erreichen. Wie oben ergibt sich aus diesen Relationen das notwendige Ideal zu: ICl := ha ⊗ b + b ⊗ a − 2B(a, b) 1 : a, b ∈ Vi . (A.7) Die Clifford-Algebra über V mit der symmetrischen Bilinearform B ist dann: Cl (V, B) = T (V)/ICl . (A.8) Alternativ kann man für char K 6= 2 auch die quadratische Form Q und die zugehörige Relation a2 − Q(a) 1 = 0 verwenden. Das entsprechende Ideal ist: 0 := ha ⊗ a − Q(a) 1 : a ∈ Vi , ICl (A.9) A.4 Universelle Eigenschaft, Kategorien und Funktoren 127 0 und die Clifford-Algebra ist Cl (V, Q) = T (V)/ICl . Obwohl die Ideale ICl den Idealen I∧ zur Konstruktion der Grassmann-Algebra sehr ähnlich sehen, gibt es doch ein paar grundlegende Unterschiede. Als erstes fällt auf, dass im Ideal ICl Elemente von Grad 0 und Grad 2 identifiziert werden. Dies zerstört die -Graduierung der freien Algebra und nach der Quotientenbildung bleibt nur noch eine 2 -Graduierung übrig. Die in der Geometrischen Algebra verwendeten Stufen sind deshalb a priori kein Bestandteil der Clifford-Algebra, die nur die Unterscheidung zwischen geraden und ungeraden Multivektoren kennt. Diese Einteilung in Stufen erreicht man im Nachhinein durch Auszeichnen einer bestimmten Klasse von Objekten innerhalb der Clifford-Algebra als Vektoren. Abschließend ist noch eine Bemerkung zum Thema der Metrik angebracht. Wie man an den Idealen sieht, ergibt sich für eine vollständig entartete Bilinearform (B = 0 bzw. Q = 0) rein mathematisch die Grassmann-Algebra als Spezialfall der Clifford-Algebra. Allerdings scheitert diese Sichtweise schon auf Stufe der graduierten Algebren, da die Grassmann-Algebra eine n -Graduierung erlaubt, die in der Clifford-Algebra nicht vorhanden ist. Ein weiteres, eher physikalisches Argument ist die Tatsache, dass die Clifford-Algebra die Metrik intrinsisch enthält (auch wenn sie entartet ist), wogegen die Grassmann-Algebra völlig unabhängig von einer Metrik konstruiert wurde. In der Grassmann-Algebra hat es deshalb durchaus einen Sinn nachträglich eine beliebige Metrik einzuführen. Fasst man sie dagegen als entartete Clifford-Algebra auf, dann wurde diese Wahl schon getroffen und die Einführung einer zweiten Metrik ist physikalisch wenig sinnvoll. A.4 Universelle Eigenschaft, Kategorien und Funktoren Die Methode der Generatoren und Relationen zur Definition der Clifford-Algebra war sehr nützlich für konkrete Rechnungen, hatte allerdings den gravierenden Nachteil, dass sie für entartete quadratische Formen versagte. Mit Hilfe der Tensor-Algebra konnte man dann die Existenz von Clifford-Algebren über beliebigen quadratischen Räumen nachweisen. In diesem Abschnitt verwenden wir nun eine universelle Eigenschaft, um die Eindeutigkeit der Clifford-Algebra zu untersuchen. Universelle Eigenschaften sind ein wichtiges Hilfsmittel der modernen Mathematik und sie tauchen in vielen unterschiedlichen Gewändern auf. Um trotzdem das allgemeine Konzept der Universalität zu formulieren, bedient man sich der Sprache der Kategorien und Funktoren. Bevor wir jedoch auf diese abstrakten Begriffe eingehen, wollen wir zuerst ein paar Beispiele für universelle Eigenschaften kennenlernen. Wie im letzten Abschnitt versprochen, beginnen wir mit der universellen Eigenschaft des Tensorprodukts: Satz A.1 (Universelle Eigenschaft des Tensorprodukts) Seien V1 , . . . , Vk Vektorräume über K. Dann gibt es gibt es einen K-Vektorraum V1 ⊗ · · · ⊗ Vk zusammen mit einer multilinearen Abbildung: γ : V1 × · · · × Vk → V1 ⊗ · · · ⊗ Vk , (a1 , . . . , ak ) 7→ a1 ⊗ · · · ⊗ ak , die folgende universelle Eigenschaft haben: Zu jedem weiteren K-Vektorraum U und zu jeder beliebigen multilinearen Abbildung η : V1 × · · · × Vk → U gibt es eine eindeutig bestimmte lineare Abbildung 128 Anhang A. Wege zur Clifford-Algebra η̃ : V1 ⊗ · · · ⊗ Vk → U mit η = η̃ ◦ γ, d. h. folgendes Diagramm kommutiert: η̃ V1 ⊗ · · · ⊗ V k γ U η V1 × · · · × V k Einen Beweis dieses Satzes findet man beispielsweise bei Fischer [Fis03, Abschnitt 6.4f]. Wichtig an der universellen Eigenschaft ist, dass es einen Vektorraum zusammen mit einer universellen Abbildung γ gibt, so dass für jeden weiteren Vektorraum U und zu jeder Abbildung η die Abbildung η̃ existiert und eindeutig ist. Das bedeutet, γ ist eine Abbildung, mit der sich multilineare Abbildungen – auf Kosten eines komplizierteren Vektorraums V1 ⊗ · · · ⊗ Vk – in lineare Abbildungen übersetzen lassen. Damit lassen sich die Methoden der Linearen Algebra auf multilineare Abbildungen anwenden. Die Multilinearität steckt dabei allein in der universellen Abbildung γ, weshalb diese auch Strukturabbildung genannt wird. Die Tensor-Algebra selbst erfüllt als freie Algebra auch eine universelle Eigenschaft (siehe z. B. [Rot02, Section 9.6]): Satz A.2 (Universelle Eigenschaft der Tensor-Algebra) Sei V ein K-Vektorraum. Dann gibt es eine assoziative K-Algebra T (V) mit 1, zusammen mit einer linearen Abbildung γ : V → T (V), die folgende universelle Eigenschaft besitzen: Zu jeder weiteren assoziativen K-Algebra A mit 1 und zu jeder beliebigen linearen Abbildung η : V → A gibt es einen eindeutig bestimmten Algebren-Homomorphismus η̃ : T (V) → A mit η = η̃ ◦ γ, d. h. folgendes Diagramm kommutiert: T (V) γ η̃ A η V In diesem Satz geht man also nicht von multilinearen Abbildungen, sondern von linearen Abbildungen aus. Dafür erhält man an Stelle der linearen Abbildung von vorher jetzt einen Algebren-Homomorphismus. Das Prinzip ist wieder das gleiche: Man hat eine Abbildung η von „minderer Qualität“. Die Strukturabbildung γ muss von der gleichen Art sein wie η – wie wir gleich sehen werden, ist dies für die Universalität notwendig. Dann liefert uns die universelle Eigenschaft eine eindeutig bestimmte Abbildung von „höherer Qualität“, die allerdings in einem neuen Raum startet. Das gleiche funktioniert auch für die Clifford-Algebra: Satz A.3 (Universelle Eigenschaft der Clifford-Algebra) Sei (V, Q) ein KVektorraum mit einer quadratischen Form Q. Dann gibt es eine assoziative Algebra Cl (V, Q) mit 1, zusammen mit einer linearen Abbildung γ : V → Cl (V, Q) mit γ(a)2 = Q(a) 1, die folgende universelle Eigenschaft haben: Zu jeder weiteren assoziativen Algebra A mit 1 und zu jeder beliebigen linearen Abbildung η : V → A mit η(a)2 = Q(a) 1 gibt es einen eindeutig bestimmten Algebren-Homomorphismus η̃ : Cl (V, Q) → A mit η = η̃ ◦ γ, d. h. folgendes Diagramm A.4 Universelle Eigenschaft, Kategorien und Funktoren 129 kommutiert: η̃ Cl (V, Q) γ A η (V, Q) Eine lineare Abbildung η mit der Eigenschaft η(a)2 = Q(a) 1 wollen wir kurz Clifford-Abbildung nennen. Um die Existenz einer Algebra mit dieser universellen Eigenschaft zu beweisen, nutzt man die Konstruktion als Quotient der Tensor-Algebra. Wir beginnen mit der Tensor-Algebra T (V) und der Inklusion V → T 1 (V) ⊂ T (V). Sei nun A eine weitere assoziative Algebra mit 1 und η : V → A eine Clifford-Abbildung. Nach der universellen Eigenschaft der Tensor-Algebra aus Satz A.2 lässt sich η eindeutig zu einem Algebren-Homomorphismus η̄ : T (V) → A fortsetzen: T (V) η̄ A η (V, Q) Damit haben wir auch schon fast alle Forderungen des Satzes erfüllt, allerdings hat die Strukturabbildung noch nicht die richtige Eigenschaft. Diese soll auch eine Clifford-Abbildung sein, d. h. γ(a)2 = Q(a) 1 erfüllen. Glücklicherweise können wir hier durch Quotientenbildung nachbessern. Sei dazu ICl = ha ⊗ a − Q(a) 1 : a ∈ Vi das Ideal aus Gleichung (A.9). Wegen ICl ⊂ ker η̄ gibt es nach der universellen Eigenschaft der Quotientenalgebra wieder einen eindeutig bestimmten Algebren-Homomorphismus η̃ : T (V)/ICl → A. Dann ist Cl (V, Q) ∼ = T (V)/ICl und die zugehörige Strukturabbildung gleich der Komposition γ : V → T (V) → T (V)/ICl : T (V)/ICl η̃ γ T (V) η̄ A η (V, Q) Satz A.4 (Universalität der Clifford-Algebra) Die Clifford-Algebra Cl (V, Q) aus Satz A.3 ist universell, d. h. bis auf eine eindeutig bestimmte Isomorphie eindeutig festgelegt. Im Beweis kann man sehr schön die universelle Eigenschaft ausspielen. Seien dazu Cl (V, Q) und Cl 0 (V, Q) zwei Clifford-Algebren über (V, Q) mit Strukturabbildung γ bzw. γ 0 . Da die Strukturabbildungen selbst Clifford-Abbildungen sind, existieren nach der universellen Eigenschaft eindeutig bestimmte Algebren-Homo- 130 Anhang A. Wege zur Clifford-Algebra morphismen γ̃ und γ̃ 0 , so dass folgendes Diagramm kommutiert: Cl (V, Q) γ̃ 0 γ Cl 0 (V, Q) γ0 γ̃ Cl (V, Q) γ (V, Q) Andererseits ist aber die Identität id Cl auf Cl (V, Q) ein Algebren-Homomorphismus mit γ = id Cl ◦ γ und hat damit alle Eigenschaften des gesuchten Homomorphismus zu γ : V → Cl (V, Q). Da der Homomorphismus nach der universellen Eigenschaft eindeutig bestimmt ist, ist id Cl auch der einzige Homomorphismus, der folgendes Diagramm kommutieren lässt: id Cl Cl (V, Q) γ Cl (V, Q) γ (V, Q) Betrachtet man beide Diagramme zusammen, so ergibt sich aus der Eindeutigkeit der Algebren-Homomorphismen sofort γ̃ ◦ γ̃ 0 = id Cl . Nach dem selben Argument, mit Cl (V, Q) und Cl 0 (V, Q) vertauscht, erhält man γ̃ 0 ◦ γ̃ = id Cl 0 . Folglich ist γ̃ ein eindeutig bestimmter Isomporphismus und γ̃ 0 die Inverse dazu. Also ist Cl (V, Q) universell und wir haben den Satz bewiesen. Bemerkenswert an diesem Eindeutigkeits-Beweis ist, dass wir an keiner Stelle verwendet haben, von welcher Art die einzelnen Abbildungen überhaupt sind. Deshalb lässt sich derselbe Beweis auf alle Objekte anwenden, die eine universelle Eigenschaft erfüllen, wie zum Beispiel Quotientenvektorräume, Tensor-Algebra und so weiter. Dafür verwendet man die abstrakte Sprache der Kategorien: Definition A.17 (Kategorie) Eine Kategorie C besteht aus folgenden drei Bestandteilen: (a) Einer Klasse Obj(C) von mathematischen Objekten, die Objekte der Kategorie heißen. (b) Zu jedem geordneten Paar (A, B) von Objekten A, B ∈ Obj(C) gibt es eine Menge Mor(A, B), deren Elemente Morphismen von A nach B genannt werden. Die Mengen Mor(A, B) sind dabei paarweise disjunkt, d. h. für unterschiedliche Paare (A, B) und (A0 , B 0 ) sind die Mengen Mor(A, B) und Mor(A0 , B 0 ) disjunkt. Statt f ∈ Mor(A, B) schreibt man auch f : A → B. Allerdings müssen im Allgemeinen weder f eine Abbildung noch A und B Mengen sein. (c) Eine Verknüpfung von Morphismen Mor(A, B) × Mor(B, C) → Mor(A, C), geschrieben als (f, g) 7→ f ◦ g. Diese erfüllen die folgenden Axiome: (i) Die Verknüpfung ◦ von Morphismen ist assoziativ. A.4 Universelle Eigenschaft, Kategorien und Funktoren 131 (ii) Zu jedem Objekt A ∈ C gibt es einen Morphismus 1A ∈ Mor(A, A) mit der Eigenschaft 1A ◦ f = f und g ◦ 1A = g für alle Morphismen f ∈ Mor(B, A) und g ∈ Mor(A, C). Dieser heißt Identität auf A. Der Begriff der Kategorie ist sehr allgemein gehalten. Meistens beschäftigt man sich jedoch mit Kategorien von bestimmten Räumen, deren Morphismen Abbildungen zwischen diesen Räumen sind. Ein paar Beispiele sollen dies verdeutlichen: • Die Kategorie Set der Mengen hat die Mengen als Objekte. Die passenden Morphismen sind die Abbildungen zwischen den Mengen. Als Verknüpfung dient die übliche Komposition von Abbildungen. • Die topologische Kategorie Top besteht aus den topologischen Räumen. Die Morphismen sind die stetigen Abbildungen zwischen topologischen Räumen. Die Isomorphismen in der topologischen Kategorie sind die Homöomorphismen. • Die Kategorie Grp der Gruppen besitzt die Gruppen als Objekte. Die geeigneten Morphismen sind in diesem Fall die Gruppen-Homomorphismen. • Die Kategorie Vect K der Vektorräume über K. Die Objekte sind K-Vektorräume, die Morphismen K-lineare Abbildungen. • Die Kategorie Quad K der quadratischen K-Vektorräume (V, Q). Die passenden Morphismen sind lineare Abbildungen, die die quadratischen Formen respektieren, d. h. die lineare Abbildung ϕ : (V, Q) → (W, P ) erfüllt Q = P ◦ ϕ , was man auch als Q = ϕ∗ P schreibt. • Die Kategorie Alg K der assoziativen K-Algebren mit 1. Die geeigneten Morphismen sind natürlich die Algebren-Homomorphismen. In allen diesen Beispielen waren die Morhpismen die zu den Räumen passenden strukturerhaltenden bzw. strukturverträglichen Abbildungen. Natürlich kann man auch andere Morphismen wählen, wie zum Beispiel beliebige Abbildungen als Morphismen in der Kategorie der Gruppen. Damit erhält man auch eine Kategorie im Sinne der Definition, allerdings ist diese deutlich weniger interessant. Ein Beispiel für eine Kategorie, in der die Morphismen keine Abbildungen sind, ist die Homotopiekategorie Htop. Diese und viele weitere Beispiele findet man in [Jän01a, Abschnitt 5.4]. Das Interessante an den Kategorien sind allerdings nicht die Kategorien selbst, sondern Abbildungen zwischen unterschiedlichen Kategorien. Einen Homomorphismus zwischen Kategorien nennt man Funktor und er bildet Räume und Morphismen einer Kategorie auf Räume und Morphismen einer anderen Kategorie ab, wobei gewisse Strukturen erhalten bleiben: Definition A.18 (Funktor) Seien C und D Kategorien. Dann ist ein kovarianter Funktor (oder einfach nur Funktor ) F : C → D eine Abbildung mit folgenden Eigenschaften: (i) Jedem Objekt A in C wird ein Objekt F(A) in D zugeordnet. (ii) Jedem Morphismus ϕ : A → B aus der Kategorie C wird ein Morphismus F(ϕ) : F(A) → F(B) in D zugeordnet. 132 Anhang A. Wege zur Clifford-Algebra (iii) Die Identität bleibt erhalten, d. h. es gilt F(1A ) = 1F (A) . (iv) Es gilt die Kettenregel F(ϕ ◦ ψ) = F(ϕ) ◦ F(ψ). Ein kontravarianter Funktor ist in analoger Weise definiert, kehrt aber die Richtung der Morphismen um, d. h. jedem Morphismus ϕ : A → B in C wird eine Morphismus F(ϕ) : F(B) → F(A) in D zugeordnet. Die Kettenregel muss dazu natürlich modifiziert werden und lautet dann: F(ϕ ◦ ψ) = F(ψ) ◦ F(ϕ). Funktoren sind deshalb so interessant, weil sich damit Eigenschaften einer Kategorie auf andere Kategorien fortsetzen lassen. Hat man beispielsweise ein kommutatives Diagramm in einer Kategorie gegeben, dann kommutiert auch das zugehörige Diagramm in einer anderen Kategorie, wobei Räume und Morphismen anhand des Funktors übersetzt werden. Der einfachste Funktor ist der kovariante Identitäts-Funktor id C : C → C. Dieser ist definiert als id C (A) := A für die Objekte und als id C (ϕ) := ϕ für die Morphismen in C, wobei die Funktor-Eigenschaft offensichtlich ist. Ein weniger triviales Beispiel ist der Typ des „Vergiss-Funktors“, von Kategorien mit mehr Struktur in strukturärmere Kategorien. In der Topologie macht man dies häufig, um unnötige Information über Bord zu werfen. Zum Beispiel gibt es einen Funktor Top → Set, der Topologische Räume auf die zugrundeliegenden Mengen abbildet und den stetigen Abbildungen zwischen den topologischen Räumen Abbildungen zwischen den Mengen zuordnet. Mehr dazu kann man wiederum in [Jän01a] erfahren. Wirklich interessant sind natürlich Funktoren, bei denen man zusätzliche Strukturen gewinnt. Ein Beispiel dafür ist der Clifford-Funktor : Satz A.5 (Clifford-Funktor) Durch Cl wird ein kovarianter Funktor von der Kategorie Quad K der quadratischen K-Vektorräume in die Kategorie Alg K der assoziativen K-Algebren mit 1 definiert. Wir wissen schon aus Satz A.3, dass zu jedem quadratischen Vektorraum (V, Q) aus Quad K eine Clifford-Algebra Cl (V, Q) in Alg K gehört. Was uns nocht fehlt, ist die Zuordnung zwischen den Morphismen von Quad K und den Algebren-Homomorphismen von Alg K . Seien dazu (V1 , Q1 ) und (V2 , Q2 ) quadratische Vektorräume und ϕ : V1 → V2 ein Morphismus zwischen diesen Räumen, also eine Abbildung, die die quadratischen Formen respektiert. Dann gibt nach Satz A.3 Clifford-Algebren Cl (V1 , Q1 ) und Cl (V2 , Q2 ) mit Strukturabbildung γ1 bzw. γ2 . Wir betrachten die Abbildung ϕ̄ := γ2 ◦ ϕ von (V1 , Q1 ) nach Cl (V2 , Q2 ). Diese ist eine Clifford-Abbildung, denn es gilt: ϕ̄(a)2 = γ2 ϕ(a) 2 = Q2 ϕ(a) 1 = (ϕ∗ Q2 )(a) 1 = Q1 (a) 1 , wobei zuerst verwendet wurde, dass die Strukturabbildung γ2 eine Clifford-Abbildung ist und danach, dass der Morphismus ϕ die quadratischen Formen respektiert. Da sowohl γ2 als auch ϕ linear sind, gilt dies auch für die Komposition ϕ̄. Also liefert uns die universelle Eigenschaft der Clifford-Algebra einen eindeutig bestimmten Al- A.5 Chevalley-Deformation der Grassmann-Algebra 133 gebren-Homomorphismus Cl (ϕ), der folgendes Diagramm kommutieren lässt: Cl (V1 , Q1 ) Cl(ϕ) Cl (V2 , Q2 ) ϕ̄ γ1 (V1 , Q1 ) γ2 (V2 , Q2 ) ϕ Aufgrund der Universalität der Clifford-Algebra ist die Identität unter dieser Abbildung für jeden quadratischen Vektorraum (V, Q) erhalten, das bedeutet es gilt Cl (id V ) = id Cl(V,Q) . Um dies zu beweisen, wählt man einfach im obigen Diagramm (V1 , Q1 ) = (V2 , Q2 ) und argumentiert dann genau wie im Beweis der Universalität (siehe Satz A.4). Es bleibt also die Kettenregel zu zeigen. Sei dazu (V3 , Q3 ) ein weiterer quadratischer Vektorraum und γ3 die Strukturabbildung der zugehörigen Clifford-Algebra Cl (V3 , Q3 ). Ist ψ : (V2 , Q2 ) → (V3 , Q3 ) eine weitere lineare Abbildung, die die quadratischen Formen respektiert, dann gilt dies offensichtlich auch für die Komposition ψ ◦ ϕ. Damit bekommen wir einen eindeutig bestimmten Algebren-Homomorphismus Cl (ψ ◦ ϕ), der folgendes Diagramm kommutieren lässt: Cl(ψ◦ϕ) Cl (V1 , Q1 ) Cl(ϕ) γ1 (V1 , Q1 ) Cl (V2 , Q2 ) Cl (ψ) γ2 ϕ (V2 , Q2 ) Cl (V3 , Q3 ) γ3 ψ (V3 , Q3 ) ψ◦ϕ Da aber auch die die Homomorphismen Cl (ϕ) und Cl (ψ) eindeutig festgelegt sind, muss Cl (ψ ◦ ϕ) die Komposition Cl (ψ ◦ ϕ) = Cl (ψ) ◦ Cl (ϕ) aus diesen sein, was gerade der Kettenregel entspricht. Damit ist Cl ein kovarianter Funktor und wir sind fertig. Wieder lässt sich dieser Beweis auf alle Objekte verallgemeinern, die einer universellen Eigenschaft genügen. Dadurch erhält man einen ganzen Haufen interessanten Funktoren. Aus Satz A.2 ergibt sich beispielsweise der Tensor-Funktor T von der Kategorie Vect K der Vektorräume in die Kategorie der freien assoziativen K-Algebren mit 1 und den zugehörigen Algebren-Homomorphismen. Ein weiteres wichtiges Beispiel, das auch für die Physik von Interesse ist, ist der Lie-Funktor L von der Kategorie der Liegruppen in die Kategorie der Liealgebren. Wie wir gesehen haben, ist die Sprache der Kategorien und Funktoren zusammen mit den universellen Eigenschaften ein mächtiges Hilfsmittel. Mehr dazu kann man kurz zusammengefasst in [Jän01a] oder [Rot02] nachlesen. Für den tieferen Einstieg ist das Standardwerk von Mac Lane [Mac98] sehr zu empfehlen. A.5 Chevalley-Deformation der Grassmann-Algebra In [Che97a] konstruiert Chevalley die Clifford-Algebra als Unteralgebra der Endomorphismenalgebra über der Grassmann-Algebra. Ursprünglich entwickelte Chevalley diese Methode, um Clifford-Algebren über Körpern mit Charakteristik 2 zu 134 Anhang A. Wege zur Clifford-Algebra V studieren. Die resultierende Unteralgebra von End( V) ist manchmal auch unter dem Namen Atiyah-Kähler-Algebra bekannt. Es stellte sich später heraus, dass dieser Zugang flexibel genug ist, um CliffordAlgebren über Vektorräumen mit einer beliebigen Bilinearform B zu definieren. Die Möglichkeit einer nicht-symmetrischen Bilinearform ist für die Quantentheorie sehr interessant, da auf diesem Weg Fermionen und Bosonen gleichzeitig beschrieben werden können. Die Antikommutator -Relationen der Fermionen werden dabei im symmetrischen Anteil der Bilinearform B kodiert, die Kommutator -Relationen der Bosonen hängen eng mit dem antisymmetrischen Anteil von B zusammen. CliffordAlgebren mit nicht-symmetrischer Bilinearform wurden von Fauser verwendet, um Quantenfeldtheorien zu untersuchen (siehe z. B. [Fau96], [Fau02]). Außerdem erhält man durch die Chevalley-Deformation tiefere Einblicke in die Bedeutung der Stufen von Multivektoren innerhalb der Clifford-Algebra. V Wir beginnen mit der Grassmann-Algebra V über dem K-Vektorraum V. Wie in der Clifford-Algebra definieren wir auch in der Grassmann-Algebra die GradInvolution α̂ bezüglich der vorhandenen 2 -Graduierung als: α̂(Ak ) := (−1)k Ak für Ak ∈ Vk V, V was sich linear auf ganz V fortsetzen lässt. Hat man nun eine Bilinearform B auf V gegeben, dann lässt sich innerhalb der Grassmann-Algebra eine Links-Kontraktion einführen. Diese ist eindeutig durch folgende drei Bedingungen festgelegt: (i) a y b := B(a, b) für Vektoren a, b ∈ V. (ii) a y (A ∧ B) := (a y A) ∧ B + α̂(A) ∧ (a y B) für a ∈ V und A, B ∈ V (iii) (A ∧ B) y C := A y (B y C) für A, B, C ∈ V. V V. Die erste Bedingung bedeutet, dass die Kontraktion der (eingebetteten) Vektoren mit dem Ergebnis der Bilinearform auf dem Vektorraum übereinstimmen soll. Ganz penibel müsste man dies als ζ(a) y ζ(b) = B(a, b) 1 schreiben, wobei ζ die Strukturabbildung der Grassmann-Algebra bezeichnet. Die zweite Bedingung ist uns schon in Form von Gleichung (2.104) bekannt und besagt, dass die Kontraktion von Vektoren als graduierte Derivation wirkt. Die letzte Bedingung, die wir in Gleichung (2.85) als Quasi-Assoziativität bezeichneten, kann nach einer Bemerkung von LouV nestoV [Lou01, Section 22.1] auch als Skalarmultiplikation in einem V-Links-Modul über V aufgefasst werden. Das Wesentliche an dieser Konstruktion ist die Tatsache, dass Dachprodukt und Kontraktion jetzt in der Grassmann-Algebra leben, wogegen wir sie ursprünglich in Kapitel 2 innerhalb der Clifford-Algebra eingeführt hatten. In der deformierten Grassmann-Algebra sind diese beiden Produkte als fundamental anzusehen. Innerhalb der Clifford-Algebra wurden Dachprodukt und Kontraktion dagegen vom Clifford-Produkt abgeleitet. Chevalley definiert nun inV[Che97a, Section 2.1] für jeden Vektor a ∈ V einen linearen Operator ϕa ∈ End( V) durch: ϕa : V V→ V V , ϕa := a ∧ · + a y · . A.5 Chevalley-Deformation der Grassmann-Algebra 135 Mit der üblichen Komposition ◦ von Endomorphismen gilt dann für alle A ∈ ϕ2a (A) = ϕa ◦ ϕa (A) = ϕa (a ∧ A + a y A) = a ∧ a ∧ A + a ∧ (a y A) + a y (a ∧ A) + a y (a y A) . | {z } | {z } =0 V V: =(a∧a)yA=0 Den dritten Summanden kann man mit der Derivationseigenschaft (ii) ausschreiben als a y (a ∧ A) = (a y a) ∧ A − a ∧ (a y A). Da der zweite Term hiervon gerade dem Negativen des zweiten Summanden in der obigen Formel entspricht, erhält man: ϕ2a (A) = (a y a) ∧ A = B(a, a) ∧ A = Q(a) A , wobei im letzten Schritt die quadratische Form Q(a) := B(a, a) definiert wurde und das Dachprodukt weggelassen werden kann, da Q(a) ein Skalar ist. VWir erhalten also letztendlich ϕ2a = Q(a) id. Damit ist die Inklusion ϕ : V → End( V) , a 7→ ϕa , die jedem Vektor a ∈ V den zugehörigen Endomorphismus ϕa zuordnet, eine CliffordAbbildung. Nach der universellen Eigenschaft kann man V ϕ deshalb eindeutig zu einem Algebren-Homomorphismus ϕ̃ : Cl (V, Q) → End( V) fortsetzen, der folgendes Diagramm kommutieren lässt: Cl (V, Q) ϕ̃ End( ϕ V V) (V, Q) Die Abbildung ϕ̃ ist eine treue Darstellung der Clifford-Algebra über der Grassmann-Algebra. Da das Clifford-Produkt in dieser Darstellung der Komposition ◦ von Endomorphismen entspricht, werden wir es – wenn eine explizite Kennzeichnung nötig ist – durch A ◦ B statt AB bezeichnen. V Indem man nun den Endomorphismus ϕ̃A := ϕ̃(A) an der V Stelle 1 ∈ V auswertet, bekommt man eine lineare Abbildung θ : Cl (V, Q) → (V) , θ(A) := ϕ̃A (1) : θ Cl (V, Q) ϕ̃ ϕ V End( V) · |1∈VV V V (V, Q) Ein Clifford-Produkt aus k Vektoren kann man mittels ϕ̃ schreiben als: ϕ̃(a1 · · · ak ) = ϕa1 ◦ · · · ◦ ϕak . Anhand der Definition von ϕa lässt sich dies in Dachprodukte und Kontraktionen zerlegen und ausmultiplizieren: ϕ̃(a1 · · · ak ) = (a1 ∧ · + a1 y · ) ◦ · · · ◦ (ak ∧ · + ak y · ) = (a1 ∧ · ) ◦ · · · ◦ (ak ∧ · ) + Terme mit Grad < k = a1 ∧ · · · ∧ (ak ∧ · ) + Terme mit Grad < k , 136 Anhang A. Wege zur Clifford-Algebra Für θ ergibt sich daraus: θ(a1 · · · ak ) = a1 ∧ · · · ∧ (ak ∧ 1) + Terme mit Grad < k = a1 ∧ · · · ∧ ak + Terme mit Grad < k . Auf Vektoren und Skalare wirkt θ als Identität, denn: θ(a) = a ∧ 1 + a y 1 = a ∧ 1 + 0 = a , θ(λ) = λ id(1) = λ . (A.10) Hierbei wurde allerdings die Einbettungsabbildung unterdrückt. Ganz genau müsste man dies als θ(γ(a)) = ζ(a) schreiben, wenn γ die Einbettung der Vektoren in die Clifford-Algebra und ζ die Einbettung in die Grassmann-Algebra beschreibt. Analoges gilt für die Skalare in der zweiten Gleichung. Mit Dimensionsargumenten zeigt Chevalley nun, dass θ ein Vektorraum-Isomorphismus zwischen Clifford- und Grassmann-Algebra ist, und identifiziert die zugrundeliegenden linearen Räume miteinander. Dabei entsprechen die Vektoren und Skalare der Clifford-Algebra wegen (A.10) den Vektoren und Skalaren der Grassmann-Algebra. Die Links-Multiplikation a ◦ · mit einem Vektor innerhalb der Clifford-Algebra entspricht dann der Summe aus Links-Multiplikation a ∧ · und Kontraktion a y · innerhalb der Grassmann-Algebra: a◦ · θ a∧ · +ay · , V wobei Vektoren a ∈ Cl (V, Q) und a = θ(a) ∈ V durch θ kanonisch miteinander identifiziert wurden (siehe auch [Che97a, Theorem II.1.6]). Etwas Vorsicht ist dabei allerdings geboten, da der Isomorphismus θ, und somit die Identifikation, von der Bilinearform B abhängt. Man muss deshalb immer von einem Paar bestehend aus Grassmann-Algebra und einer Bilinearform sprechen, die durch θ mit einer Clifford-Algebra identifiziert werden. Für eine symmetrische Bilinearform B haben wir somit einen kanonischen Isomorphismus konstruiert, der es uns erlaubt in der Geometrischen Algebra von Stufen zu sprechen. Falls B nicht symmetrisch ist, muss man dagegen sehr aufpassen, da in diesem Fall kein kanonischer Isomorphismus θ existiert. Um dies einzusehen zerlegen wir B gemäß B = g + F in einen symmetrischen Anteil g und den antisymmetrischen Anteil F . Dann lässt sich das Clifford-Produkt schreiben als: aA = a ∧ A + a yB A , mit a yB b = B(a, b). Alternativ lässt sich der antisymmetrische Anteil F aber auch dem Dachprodukt zuschlagen und man erhält eine andere Zerlegung: aA = a ∧˙ A + a yg A mit a ∧˙ b := a ∧ b + F (a, b) Wegen der Antisymmetrie von F gilt a ∧˙ b = −b ∧˙ a, d. h. der zugrundeliegende lineare Raum, versehen mit dem gepunkteten Dachprodukt, liefert eine GrassmannV̇ Algebra V. V Nun ist aber a ∧˙ b aufgrund des Skalaranteils F (a, b) offensichtlich inhomogen in V. Also entspricht die Stufenzerlegung bezüglich ∧˙ nicht den Stufen bezüglich ∧ und es gibt keinen kanonischen Isomorphismus θ. A.6 Die Konstruktion von Lounesto 137 Interessanterweise wirkt sich der antisymmetrische Anteil F nicht auf den Antikommutator aus. Dieser ist nur vom symmetrischen Anteil g abhängig: ab + ba = 2 g(a, b) Dagegen taucht im Kommutator nur der antisymmetrische Anteil F auf: ab − ba = 2 a ∧ b + F (a, b) = 2 a ∧˙ b . Leider würde eine weitere Diskussion von Clifford-Algebren mit nicht-symmetrischer Bilinearform weit über das Ziel dieser Arbeit hinausgehen. Mehr zur Problematik der nicht eindeutigen Stufen und deren physikalische Bedeutung kann man zum Beispiel in [FA00] und der dort zitierten Literatur erfahren. A.6 Die Konstruktion von Lounesto V Die Chevalley-Deformation lieferte einen Isomorphismus θ : Cl (V, Q) → V. Aufgrund des „Iso-“ muss es dazu auch eine Inverse geben. Diese wird von Lounesto in [Lou01, Section 22.1] konstruiert. V Wir beginnen wieder mit der Grassmann-Algebra V und einer symmetrischen Bilinearform B = h · | · i auf dem Vektorraum V. Wie im letzten Abschnitt definieren wir die Grad-Involution α̂ innerhalb der V Grassmann-Algebra durch α̂(Ak ) := (−1)k Ak für ein homogenes Element Ak ∈ k V und lineare Fortsetzung. Genauso V lässt sich auch die Transposition durch Atk := (−1)k(k−1)/2 Ak auf V einführen. Diese Abbildungen bilden in der Grassmann-Algebra einen Automorphismus bzw. einen Antiautomorphismus bezüglich Dachprodukt. Dies wird sofort klar, wenn man die Grassmann-Algebra als Spezialfall der Clifford-Algebra mit total entarteter Bilinearform betrachtet. Man setzt nun die Bilinearform zuerst auf Grassmann-k-Spate fort durch: ha1 ∧ · · · ∧ ak |b1 ∧ · · · ∧ bk i := det(hai |bj i) . Dies entspricht übrigens genau der Determinantenformel (2.107), wenn man h · | · i durch das Skalarprodukt ˜∗ aus Abschnitt 2.5 ersetzt und dabei von der Grassmann- zur Clifford-Algebra V übergeht. Durch lineare Fortsetzung bekommt man dann eine Bilinearform auf k V, die sichVunter Ausnutzung der Orthogonalität der Unterräume von k-Vektoren auf ganz V erweitern lässt. Wir kommen letztendlich also zu einer Bilinearform h · | · i, die genau die gleichen Eigenschaften wie unser Skalarprodukt ˜∗ hat, allerdings jetzt in der Grassmann-Algebra anstatt in der Clifford-Algebra lebt. An dieser Stelle gibt es zwei Möglichkeiten weiterzumachen.VFalls die Bilinearform B nicht entartet ist, können wir die Links-Kontraktion in V adjungiert zum Dachprodukt einführen. Wir definieren die Kontraktion A y B dann implizit durch: V hA y B |Ci = hB |At ∧ Ci für alle C ∈ V. (A.11) Dies entspricht in der Clifford-Algebra der Relation (2.82), wobei die Transposition auf die Verwendung von ˜∗ statt ∗ zurückzuführen ist. Man erhält nämlich: C ∗ (A y B) = (C ∧ A) ∗ B t t ⇐⇒ C ∗ (A y B) = (C ∧ A) ∗ B ⇐⇒ „⇐⇒“ t ∀C ∀C (A y B) ˜∗ C = B ˜∗ (A ∧ C) ∀C hA y B |Ci = hB |At ∧ Ci ∀C . 138 Anhang A. Wege zur Clifford-Algebra Die letzte Äquivalenz ist dabei natürlich nur symbolisch gemeint, da die ersten drei Gleichungen in der Clifford-Algebra gelten, wogegen die letzte in der GrassmannAlgebra gültig ist. Man zeigt nun, dass die durch (A.11) definierte Kontraktion die üblichen Eigenschaften hat. Wir führen dies am Beispiel der Kontraktion a y b von Vektoren vor. Dazu betrachten wir ha y b|Ci. Aufgrund der Orthogonalität von k-Vektoren unterschiedlicher Grade ist die Bilinearform nur dann ungleich Null, wenn C einen Skalaranteil besitzt. Wir dürfen also ohne Einschränkung statt C einen Skalar λ benutzen. Dann wird (A.11) zu: λ(a y b) = λha y b|1i = ha y b|λi = ha|b ∧ λi = ha|λbi = λha|bi für alle λ. Also ergibt sich a y b = ha|bi. Als weiteres Beispiel betrachten wir die Kontraktion eines Vektors auf einen einfachen Bivektor: a y (b ∧ c). Dazu berechnen wir das Skalarprodukt ha y (b ∧ c)|di für einen beliebigen Vektor d. Es ergibt sich: hb|ai hb|di ha y (b ∧ c)|di = hb ∧ c|a ∧ di = det hc|ai hc|di = hb|aihc|di − hc|aihb|di = (a y b)hc|di − (a y c)hb|di = h(a y b)c − (a y c)b|di für alle d , und man erhält die Derivationseigenschaft, a y (b ∧ c) = (a y b)c − (a y c)b , der Kontraktion eines Vektors auf einen Bivektor. Die restlichen Eigenschaften zeigt man in ähnlicher Weise (siehe dazu [Lou01]). Falls die Bilinearform entartet ist, kann man die Kontraktion natürlich auch wie im letzten Abschnitt durch ihre Eigenschaften definieren: (i) a y b := ha|bi für Vektoren a, b ∈ V. V (ii) a y (A ∧ B) := (a y A) ∧ B + α̂(A) ∧ (a y B) für a ∈ V und A, B ∈ V. V (iii) (A ∧ B) y C := A y (B y C) für A, B, C ∈ V. V Zum Abschluss führen wir nun das Clifford-Produkt auf V ein. Dazu definieren wir zuerst für einen Vektor: V a ◦ A := a ∧ A + a y A für A ∈ V. (A.12) V Durch Linearität und Assoziativität setzt man dieses auf ganz V fort. Dann ist der lineare Raum, welcher der Grassmann-Algebra zugrunde liegt, versehen mit dem Produkt ◦ zur Clifford-Algebra Cl (V, h · | · i) isomorph. Da wir fast alles miteinander identifiziert haben, liegt der wesentliche Unterschied zwischen Clifford- und deformierter Grassmann-Algebra nur noch darin, welches Produkt man als fundamental betrachet. In der Clifford-Algebra ist dies natürlich das Clifford-Produkt, woraus in Kapitel 2 das Dachprodukt und die Kontraktion abgeleitet wurden. In der Grassmann-Algebra ist das fundamentale Produkt dagegen das Dachprodukt, welches mit Hilfe der Kontraktion zum – dann zusammengesetzten – Clifford-Produkt deformiert wurde. Ein paar Beispiele sollen dies verdeutlichen. Dabei bezeichnen wir die Bilinearform auf V mit h · | · i = B. Wir beginnen mit dem Isomorphismus θ von V der Clifford-Algebra Cl (V, B) in die Chevalley-deformierte Grassmann-Algebra V: A.6 Die Konstruktion von Lounesto 139 • Wir betrachten das Produkt ab ∈ Cl (V, B) von zwei Vektoren. In der Clifford-Algebra ist diese Produkt fundamental und kann nicht weiter vereinfacht werden. In der Grassmann-Algebra kann man es dagegen in die Grade zerlegen. Der Isomorphismus θ wirkt nach Gleichung (A.10) auf Vektoren als Identität (modulo Einbettung). Damit ergibt sich in der deformierten Grassmann-Algebra: θ(ab) = θ(a)θ(b) = a ∧ b + a y b = a ∧ b + ha|bi ∈ V V . Hierbei steht schon nach dem ersten Schritt das zusammengesetzte CliffordProdukt der deformierten Grassmann-Algebra zwischen den θ’s. Das Ergebnis V ist ein inhomogenes Element in V, bestehend aus Skalar und GrassmannBivektor. Bemerkenswert an dieser Methode zum Ausreduzieren nach Stufen ist die Tatsache, dass nirgendwo ein Faktor von 2 auftaucht, was dieses Verfahren auch auf Körper mit char K = 2 anwendbar macht. In der Clifford-Algebra wurde das Dachprodukt von zwei Vektoren dagegen als a ∧ b = 12 (ab − ba) eingeführt, was für Körper mit Charakteristik 2 nicht definiert ist, weil wir in diesem Fall nicht durch 2 ≡ 0 mod 2 teilen dürfen. • Für kompliziertere Fälle geht man induktiv vor und nutzt die Assoziativität des Clifford-Produkts aus. Als Beispiel betrachten wir das Produkt abC, wobei C ein Multivektor ist. In der deformierten Grassmann-Algebra wird dies zu: θ(abC) = θ(a) θ(b)θ(C) = a b ∧ θ(C) + b y θ(C) = a ∧ b ∧ θ(C) + a ∧ b y θ(C) + a y b ∧ θ(C) + a y b y θ(C) = a ∧ b ∧ θ(C) + ha|bi θ(C) + a ∧ b y θ(C) − b ∧ a y θ(C) + a y b y θ(C) , was sich ohne explizite Kenntnis von C nicht mehr weiter vereinfachen lässt. Nun die umgekehrte Richtung: • In der Grassmann-Algebra ist das Dachprodukt a∧b fundamental. In der Clifford-Algebra ist es dagegen zusammengesetzt gemäß a∧b = habi2 = 12 (ab−ba). Analog erhält man für das Dachprodukt a ∧ b ∧ c in der Clifford-Algebra die Ausdrücke: a ∧ (b ∧ c) = 21 a ∧ (bc − cb) = 14 abc − acb + bca − cba , bzw. (a ∧ b) ∧ c = 21 (ab − ba) ∧ c = 1 4 abc − bac + cab − cba . Nun ist aber bc + cb ein Skalar, welcher mit allen Vektoren kommutiert. Deshalb ist acb + cab = (ac + ca)b = b(ac + ca) = bac + bca oder äquivalent dazu bca − acb = cab − bac. Es folgt a ∧ (b ∧ c) = (a ∧ b) ∧ c = a ∧ b ∧ c. Mit analoger 140 Anhang A. Wege zur Clifford-Algebra Argumentation kann man den obigen Ausdurck für das Dachprodukt auch in manifester Weise komplett alternierend machen: a ∧ b ∧ c = 16 abc + bca + cab − cba − bac − acb , wobei man allerdings auf die inhärent vorhandene, alternierende Struktur des Clifford-Produkts verzichtet. • In Gleichung (A.12) hatten wir das Clifford-Produkt innerhalb der Grassmann-Algebra nur für Vektoren definiert und gesagt, dass man dieses durch Linearität und Assoziativität fortsetzt. Wie geht das aber konkret? Als Beispiel berechnen wir das Clifford-Produkt eines Grassmann-Bivektors V a ∧ b mit einem beliebigen Element C ∈ V. Dafür ergibt sich: (a ∧ b) C = (ab − a y b) C = (ab)C − (a y b) C = a(bC) − (a y b) C = a(b ∧ C + b y C) − (a y b) C = a ∧ b ∧ C + a ∧ (b y C) + a y (b ∧ C) + a y (b y C) − (a y b) C = a ∧ b ∧ C + a ∧ (b y C) − b ∧ (a y C) + a y (b y C) . B. Wichtige Isomorphien der Clifford-Algebra Zwischen Clifford-Algebren gibt es einige interessante Isomorphien. Nach Elie Cartan lassen sich außerdem alle reellen Clifford-Algebren Cl p,q als Matrix-Algebren über , und darstellen. Wir wollen hier nur die wesentlichen Ergebnisse zitieren, eine ausführliche Darstellung mit Beweisen findet man zum Beispiel in [Gal04, Section 1.6]. Hierbei ist wichtig, welche Konvention für das Vorzeichen in der Kontraktionsregel der Clifford-Algebra gewählt wurde. Die hier angegebenen Isomorphien beziehen sich alle auf die Wahl a2 = + kak2p,q für Vektoren a ∈ V ⊂ Cl p,q , die durchweg in dieser Arbeit verwendet wurde. Zur Abkürzung verwenden wir die Schreibweise (n) := Mat(n × n, ) für die reelle Algebra der n × n-Matrizen mit Einträgen aus ∈ { , , }. Grundlegend sind die folgenden Isomorphien, die man durch Nachrechnen leicht bestätigen kann: Cl 0,0 Cl 0,1 Cl 0,2 ∼ = ∼ = ∼ = , , , Cl 1,0 Cl 1,1 ∼ = ∼ = ⊕ , (2) , Cl 2,0 ∼ = (B.1) (B.2) (B.3) (2) . Alle höherdimensionalen Clifford-Algebren lassen sich durch Tensorprodukten über daraus aufbauen, mittels der Isomorphien: Cl 0,n+2 Cl n+2,0 Cl p+1,q+1 ∼ = Cl n,0 ⊗ Cl 0,2 , ∼ = Cl 0,n ⊗ Cl 2,0 , ∼ = Cl p,q ⊗ Cl 1,1 . (B.4) (B.5) (B.6) Man beachte die Umkehrung der Signatur in den ersten beiden Gleichungen! Um die Formeln konkret anzuwenden, braucht man noch folgende Isomorphien zur Vereinfachung der Tensorprodukte: (m) ⊗ (n) ∼ = ⊗ ∼ = (mn) , ⊕ , (n) ⊗ ∼ (n) ⊗ ∼ = (n) , = ∼ ∼ ⊗ = (2) , ⊗ = (4) . (n) , Damit berechnet man zum Beispiel: Cl 3,0 ∼ = = Cl 0,1 ⊗ Cl 2,0 ∼ ⊗ (2) ∼ = (2) . Wir erhalten also als Ergebnis, dass die dreidimensionale, euklidische Clifford-Algebra eine Darstellung durch 2 × 2-Matrizen mit komplexen Einträgen besitzt. Dies sind natürlich gerade die bekannten Pauli-Matrizen. Analog ergibt sich: Cl 1,3 Cl 3,1 ∼ = Cl 1,1 ⊗ Cl 0,2 ∼ = Cl 1,1 ⊗ Cl 2,0 ∼ = ∼ = (2) ⊗ (2) ⊗ ∼ = ∼ (2) = (2) , (4) . 142 Anhang B. Wichtige Isomorphien der Clifford-Algebra Die Wahl der umgekehrten Signatur im Minkowskiraum führt also auf nicht isomorphe Clifford-Algebren. Außerdem liefert die erste Isomorphie, Cl 1,3 ∼ = (2), einen Hinweis auf die Blockstruktur der Dirac-Matrizen. Aus den Isomorphismen (B.4–B.6) folgt nun die berühmte Cartan-Bott-Periodizität, die erstmals 1908 von Elie Cartan und später – unabhängig davon – von Raoul Bott entdeckt wurde: Cl 0,n+8 Cl n+8,0 ∼ = Cl 0,n ⊗ Cl 0,8 , ∼ = Cl n,0 ⊗ Cl 8,0 , (B.7) (B.8) mit Cl 0,8 ∼ = (16). = Cl 8,0 ∼ Des weiteren kann man folgenden, sehr nützlichen Isomorphismus zeigen: Cl p+1,q ∼ = Cl q+1,p . (B.9) Letztendlich gilt für die gerade Unteralgebra der Isomorphismus: ∼ Cl + p,q+1 = Cl p,q (B.10) den wir in Abschnitt 4.3 für die Raumzeit-Aufspaltung verwendet haben. Außerdem folgt aus (B.9) und (B.10), dass die geraden Unteralgebren von Clifford-Algebren mit umgekehrter Signatur isomorph sind, denn: ∼ ∼ + ∼ Cl + p,q = Cl p,q−1 = Cl q,p−1 = Cl q,p . (B.11) Speziell ergibt sich daraus für die Spin-Gruppen: Spin(p, q) ∼ = Spin(q, p) , (B.12) da diese ja nur aus geraden Multivektoren bestehen. Die Pin-Gruppen mit entgegengesetzter Signatur sind dagegen im Allgemeinen nicht isomorph zueinander. C. GA und klassische Vektoranalysis In diesem Anhang wollen wir ein kleines Wörterbuch zusammenstellen, mit dem sich zwischen Geometrischer Algebra und klassischer Vektoranalysis in drei Dimensionen übersetzen lässt. Mit dem Begriff Vektoren sind dabei im Folgdenden immer echte1 Vektoren gemeint. Pseudovektoren muss man gesondert behandeln, da sie in der GA durch Bivektoren beschrieben werden, die übrigens automatisch das richtige Transformationsverhalten unter Parität mitbringen. Wir beginnen mit dem Kreuzprodukt zweier Vektoren a und b. In Komponenten in der kanonischen Basis (e1 , e2 , e3 ) ausgeschrieben lautet dieses: a × b = (a1 e1 + a2 e2 + a3 e3 ) × (b1 e1 + b2 e2 + b3 e3 ) = (a2 b3 − a3 b2 ) e1 + (a3 b1 − a1 b3 ) e2 + (a1 b2 − a2 b1 ) e3 . Das Dachprodukt der beiden Vektoren kann man dagegen in einer Bivektorbasis ei ∧ ej = ei ej entwickeln: a ∧ b = (a1 e1 + a2 e2 + a3 e3 ) ∧ (b1 e1 + b2 e2 + b3 e3 ) = (a1 b2 − b2 a1 ) e1 e2 + (a2 b3 − a3 b2 ) e2 e3 + (a3 b1 − a1 b3 ) e3 e1 . Vom Dachprodukt zum Kreuzprodukt kommt man durch Multiplikation dieser Formel mit dem inversen Pseudoskalar I3−1 = e3 e2 e1 von rechts. Man erhält also: a × b = (a ∧ b)I3−1 = ?(a ∧ b) = −I3 (a ∧ b) , (C.1) und in umgekehrter Richtung: a ∧ b = (a × b)I3 = − ?(a × b) = I3 (a × b) . (C.2) Manchmal bietet es sich an, in (C.1) die Identität (2.130) anzuwenden, um das Dachprodukt durch eine Kontraktion zu ersetzen: a × b = ?(a ∧ b) = a y (? b) = −b y (? a) = (? a) x b . (C.3) Das Skalarprodukt a · b von Vektoren lässt sich je nach Anwendung durch das GA-Skalarprodukt, mit Hilfe des Stufenoperators oder durch eine der beiden Kontraktionen ausdrücken: a · b = ha|bi = a ˜∗ b = habt i = a y b = a x b . (C.4) 1 Polare/echte Vektoren (wie Ort und Impuls) wechseln unter Raumspiegelung/Parität das Vorzeichen. Axiale/Pseudo-Vektoren (wie der Drehimpuls) tun dies nicht. 144 Anhang C. Geometrische Algebra und klassische Vektoranalysis Um kompliziertere Ausdrücke zu übersetzen kann man immer auf diese einfachen Formeln zurückgreifen. Als Erstes untersuchen wir das Spatprodukt a·(b×c) dreier Vektoren. Für dieses bekommt man: a · (b × c) = a y (b × c) = a y ?(b ∧ c) . Indem man Gleichung (2.130) rückwärts anwendet wird daraus: a · (b × c) = ?(a ∧ b ∧ c) = (a ∧ b ∧ c)I3−1 . (C.5) Das Spatprodukt ist also gerade das Hodgeduale des 3-Spats a ∧ b ∧ c. Die geometrische Bedeutung des Ausdrucks wird in dieser Form direkt sichtbar, genauso wie die zyklische Symmetrie unter Vertauschung der drei Vektoren. Als weiteres Beispiel übersetzen wir das doppelte Kreuzprodukt a × (b × c). Die Klammerung ist dabei essentiell notwendig, da das Kreuzprodukt nicht assoziativ ist. Unter Verwendung der Identität (C.1) und Gleichung (2.130) bekommt man: a × (b × c) = ? a ∧ ?(b ∧ c) = a y ?2 (b ∧ c) . Wegen ?2 = I3−2 = I32 = −1 erhält man das Resultat: a × (b × c) = −a y (b ∧ c) = −ha|bic + ha|cib , (C.6) wobei wir für die bekannte Vektoridentität im letzten Schritt ausgenutzt haben, dass die Kontraktion eine Derivation bezüglich Dachprodukten ist. Die einfache, algebraische Struktur von Dachprodukt und Kontraktion erlaubt eine deutlich kürzere Herleitung dieser Identität und lässt sie in einem neuen Licht erscheinen. Umkehren des einen Kreuzprodukts führt übrigens auf: (b × c) × a = a y (b ∧ c) . Aufgrund dieser Identität übersetzt man das Kreuzprodukt eines Vektors mit einem Pseudovektor in eine Kontraktion des Vektors mit einem Bivektor und nicht in ein Dachprodukt, wie man es mit dem Kreuzprodukt von zwei Vektoren tun würde. Wenn mehrere Kreuzprodukte in einer Formel auftreten, bietet es sich manchmal an, mit Stufenoperatoren zu arbeiten. Dadurch kann man die Assoziativität des geometrischen Produkts auszunutzen. Ein Beispiel dafür ist das Skalarprodukt von zwei Kreuzprodukten: (a × b) · (c × d) = (a × b)(c × d) = − (a ∧ b)I3−1 I3 (c ∧ d) = (a ∧ b)(c ∧ d)t = (a ∧ b) ˜∗ (c ∧ d) = −(a ∧ b) y (c ∧ d) = −a y b y (c ∧ d) . Indem man die Derivationen nacheinander ausführt, bekommt man wieder eine bekannte Vektoridentität: (a × b) · (c × d) = (a ∧ b) ˜∗ (c ∧ d) = ha|cihb|di − ha|dihb|ci . (C.7) Nebenbei stellt man fest, dass sich das Skalarprodukt zweier Pseudovektoren als Skalarprodukt der entsprechenden Bivektoren schreiben lässt. Literaturverzeichnis [ABS64] Michael F. Atiyah, Raoul Bott und Arnold Shapiro. Clifford Modules. Topology, 3, Supplement 1:3–38, 1964. [AFPR03] Rafał Abłamowicz, Bertfried Fauser, Krzysztof Podlaski und Jakub Rembieliński. Idempotents of Clifford Algebras. Czech. J. Phys., 53(11):949–954, 2003. arXiv:math-ph/0312015 v1. [Art57] Emil Artin. Geometric Algebra. Band 3 von Interscience Tracts in Pure and Applied Mathematics. Interscience Publishers, Inc., New York, 1957. [BS95] I. N. Bronstein und K. A. Semendjajew. Teubner-Taschenbuch der Mathematik – Teil II. B. G. Teubner Verlagsgesellschaft, Leipzig, 7. Auflage, 1995. Herausgegeben von G. Grosche et al. [BtD85] Theodor Bröcker und Tammo tom Dieck. Representations of Compact Lie Groups. Graduate Texts in Mathematics. Springer-Verlag, New York, 1985. [Cal00] James J. Callahan. The Geometry of Spacetime – An Introduction to Special and General Relativity. Springer-Verlag, New York, 2000. [Che97a] Claude Chevalley. The Algebraic Theory of Spinors. In The Algebraic Theory of Spinors and Clifford Algebras [Che97b]. Collected Works Vol. 2, Pierre Cartier, Catherine Chevalley Eds. [Che97b] Claude Chevalley. The Algebraic Theory of Spinors and Clifford Algebras. Springer-Verlag, Berlin, 1997. Collected Works Vol. 2, Pierre Cartier, Catherine Chevalley Eds. [Che97c] Claude Chevalley. The Construction and Study of Certain Important Algebras. In The Algebraic Theory of Spinors and Clifford Algebras [Che97b]. Collected Works Vol. 2, Pierre Cartier, Catherine Chevalley Eds. [DDL02] Leo Dorst, Chris Doran und Joan Lasenby, Hrsg. Applications of Geometric Algebra in Computer Science and Engineering, chapter 2. Birkhäuser, Boston, 2002. [DHS93] Chris Doran, David Hestenes und Frank Sommen. Lie groups as spin groups. J. Math. Phys., 34(8):3642–3669, 1993. [DL03] Chris Doran und Anthony Lasenby. Geometric Algebra for Physicists. Cambridge University Press, Cambridge, 2003. 146 Literaturverzeichnis [DLG+ 96] Chris Doran, Anthony Lasenby, Stephen Gull, Shyamal Somaroo und Anthony Challinor. Spacetime Algebra and Electron Physics. In P. W. Hawkes, Hrsg., Advances in Imaging and Electron Physics, 95, Seiten 271–386, London, 1996. Academic Press. [Ein05] Albert Einstein. Zur Elektrodynamik bewegter Körper. Annalen der Physik, 17:891–921, 1905. [EPR35] Albert Einstein, Boris Podolsky und Nathan Rosen. Can QuantumMechanical Description of Physical Reality Be Considered Complete? Phys. Rev., 47:777–780, 1935. [FA00] Bertfried Fauser und Rafał Abłamowicz. On the decomposition of Clifford algebras of arbitrary bilinear form. In Rafał Abłamowicz und Bertfried Fauser, Hrsg., Clifford Algebras and their Applications in Mathematical Physics, Seiten 341–366, Boston, 2000. Birkhäuser. arXiv:math.QA/9911180 v2. [Fau96] Bertfried Fauser. Clifford-algebraische Formulierung und Regularität der Quantenfeldtheorie. PhD thesis, Universität Tübingen, Januar 1996. (http://clifford.physik.uni-konstanz.de/~fauser/). [Fau02] Bertfried Fauser. A Treatise on Quantum Clifford Algebras. Konstanz, 2002. Habilitationsschrift, arXiv:math.QA/0202059. (http://clifford.physik.uni-konstanz.de/~fauser/). [Fis03] Gerd Fischer. Lineare Algebra. Grundkurs Mathematik. Vieweg & Sohn Verlag, Wiesbaden, 14. Auflage, 2003. [Ful95] William Fulton. Algebraic Topology – A First Course. Graduate Texts in Mathematics. Springer-Verlag, New York, 1995. [Gal04] Jean Gallier. Clifford Algebras, Clifford Groups, and a Generalization of the Quaternions: The Pin and Spin Groups. Philadelphia, June 2004. (http://www.cis.upenn.edu/~jean/). [Gra69] Hermann Grassmann. Die lineale Ausdehnungslehre, „A1 “ (1844), Band I,1 der gesammelten Math. und Phys. Werke. Reprint Chelsea Publishing Company, New York, 1969. [Gra72] Hermann Grassmann. Die lineale Ausdehnungslehre, „A2 “ (1862, überarbeitete Neuauflage), Band I,2 der gesammelten Math. und Phys. Werke. Johnson Reprint Corporation, New York, 1972. [Hes66] David Hestenes. Space-Time Algebra. Documents on Modern Physics. Gordon and Breach, New York, 1966. [Hes74] David Hestenes. Proper Particle Mechanics. 15(10):1768–1777, 1974. [Hes79] David Hestenes. Spin and uncertainty in the interpretation of quantum mechanics. Am. J. Phys., 47(5):399–415, 1979. J. Math. Phys., Literaturverzeichnis 147 [Hes93a] David Hestenes. Differential Forms in Geometric Calculus. In F. Brackx, Hrsg., Clifford Algebras and their Applications in Mathematical Physics, Seiten 269–285, Dordrecht, 1993. Kluwer Academic Publishers. [Hes93b] David Hestenes. Hamiltonian Mechanics with Geometric Calculus. In Andrzej Borowiec, Bernard Jancewicz und Zbigniew Oziewicz, Hrsg., Spinors, Twistors, Clifford Algebras and Quantum Deformations, Seiten 203–214, Dordrecht, 1993. Kluwer Academic Publishers. [Hes98] David Hestenes. Spinor Particle Mechanics. In V. Dietrich, K. Habetha und G. Jank, Hrsg., Clifford Algebras and their Applications in Mathematical Physics, Dordrecht, 1998. Kluwer Academic Publishers. Fourth International Conference on Clifford Algebras, Aachen 1996. [Hes99] David Hestenes. New Foundations for Classical Mechanics. Band 99 von Fundamental Theories of Physics. Kluwer Academic Publishers, Dordrecht, 2. Auflage, 1999. [Hes03a] David Hestenes. Reforming the Mathematical Language of Physics. Am. J. Phys, 71(2):104–121, 2003. [Hes03b] David Hestenes. Spacetime Physics with Geometric Algebra. Am. J. Phys., 71(6):1–24, 2003. [Hes05] David Hestenes. Gauge Theory Gravity with Geometric Calculus. Found. Phys., 35(6):903–970, 2005. [HG71] David Hestenes und Richard Gurtler. Local Observables in Quantum Theory. Am. J. Phys., 39(9):1028–1038, 1971. (http://modelingnts.la.asu.edu/html/GAinQM.html). [HS92] David Hestenes und Garret Sobczyk. Clifford Algebra to Geometric Calculus. Fundamental Theories of Physics. Kluwer Academic Publishers, Dordrecht, 1992. [Hun74] Thomas W. Hungerford. Algebra. Band 73 von Graduate Texts in Mathematics. Springer-Verlag, New York, 1974. [Jun05] Florian Jung. Clifford-Algebra und Spin-Gruppen. Universität Mainz, 2005. (http://wwwthep.physik.uni-mainz.de/~fjung/). [Jän01a] Klaus Jänich. Topologie. Springer-Verlag, Berlin, 7. Auflage, 2001. [Jän01b] Klaus Jänich. Vektoranalysis. Springer-Verlag, Berlin, 3. Auflage, 2001. [LDG93] Anthony Lasenby, Chris Doran und Stephen Gull. A Multivector Derivative Approach to Lagrangian Field Theory. Found. Phys., 23(10):1295– 1327, 1993. [Lou01] Pertti Lounesto. Clifford Algebra and Spinors. Band 286 von London Mathematical Society Lecture Note Series. Cambridge University Press, Cambridge, 2. Auflage, 2001. 148 Literaturverzeichnis [Mac98] Saunders Mac Lane. Categories for the Working Mathematician. Band 5 von Graduate Texts in Mathematics. Springer-Verlag, New York, 2. Auflage, 1998. [Rie93] Marcel Riesz. Clifford Numbers and Spinors – with Riesz’s Private Lectures to E. Folke Bolinder and a Historical Review by Pertti Lounesto. Band 54 von Fundamental Theories of Physics. Kluwer Academic Publishers, Dordrecht, 1993. edited by E. Folke Bolinder and Pertti Lounesto. [Rot97] Gian-Carlo Rota. Indiscrete Thoughts. Birkhäuser, Boston, 1997. [Rot02] Joseph J. Rotman. Advanced Modern Algebra. Pearson Education, Inc., New Jersey, 2002. [Sch99] Florian Scheck. Theoretische Physik 1: Mechanik – Von den Newtonschen Gesetzen zum deterministischen Chaos. Springer-Verlag, Berlin, 6. Auflage, 1999. [SS88] Günter Scheja und Uwe Storch. Lehrbuch der Algebra, Teil 2. Teubner, 1988. [SS94] Günter Scheja und Uwe Storch. Lehrbuch der Algebra, Teil 1. Teubner, 2. Auflage, 1994. [SU92] Roman U. Sexl und Helmuth K. Urbantke. Relativität, Gruppen, Teilchen. Springer-Verlag, Wien, 3. Auflage, 1992. Danksagung Ich möchte mich bei allen Leuten herzlichst bedanken, die – direkt oder indirekt, bewusst oder unbewusst – an der Entstehung dieser Arbeit beteiligt waren, und die mich während dieser Zeit unterstützt haben. An erster Stelle bedanke ich mich ganz besonders bei Herrn Prof. Dr. Nikolaos Papadopoulos und Herrn Dr. habil. Rainer Häußling für die hervorragende Betreuung der Arbeit. Die wöchentlichen Diskussionen mit fundierter Kritik, die interessanten Anregungen, sowie das Korrekturlesen der einzelnen Kapitel waren mir während der ganzen Entstehungsgeschichte dieser Arbeit eine große Hilfe. Mein Dank gilt auch der gesamten Arbeitsgruppe der Theoretischen Elementarteilchenphysik für die freundliche Atmosphäre hier in Mainz. Gesondert möchte ich mich bei Christian Bogner, Martin Fischer, Kai Keller, Andrés Reyes, Roxana Şchiopu, Ulrich Seul und Marko Ternick bedanken, unter anderem auch für die netten Gespräche während der Aufnahme von Kohlenstoffverbindungen im Nachbargebäude, sowie verschiedene sportliche Aktivitäten. Weiter danke ich Herrn Hubert Spiesberger für die unkomplizierte Lösung verschiedener Computerfragen. Ein Dank geht außerdem an Niko Markus und an Ulrich Schneider, für verschiedene mathematische, physikalische, und andersgeartete Diskussionen, speziell während der Konsumation diverser Heißgetränke. Last, but not least, möchte ich mich besonders bei meinen Eltern für die langjährige, sowohl persönliche als auch finanzielle Unterstützung während des gesamten Studiums bedanken, ohne die diese Arbeit nicht möglich gewesen wäre.