Bachelorarbeit_Chris..
Transcrição
Bachelorarbeit_Chris..
Fachhochschule Köln University of Applied Sciences Cologne Campus Gummersbach Fachbereich Informatik Studiengang Medieninformatik Bachelorarbeit Interaktive Steuerung und Visualisierung von Charakteren mit Hilfe von Maya innerhalb des virtuellen Lichtsimulationstools von Christina Wildhirt Matr.-Nr.: 11034318 Erstprüfer: Prof. Dr. Horst Stenzel Zweitprüfer: Prof. Dr. Lutz Köhler Abgabedatum: 09.02.2006 -1- Inhaltsverzeichnis Kurzfassung.................................................................................... - 3 Abstract........................................................................................... - 4 1 Einleitung..................................................................................... - 5 2 Beschreibung des Projektes ....................................................... - 7 2.1 Themenstellung ........................................................................................ - 7 2.2 Anforderungen an das menschliche Modell und die Menüsteuerung ...... - 8 2.3 Aufbau der Arbeit................................................................................... - 10 - 3 Beschreibung des Lichtsimulationstools und eines Charakteranimationsprogramms............................................... - 11 3.1 Einführung in das Lichtsimulationstool ................................................. - 11 3.2 Das Programm Poser der Firma e-frontier ............................................. - 12 - 4 Grundlagen der Ausleuchtung in einem Lichtstudio und der technischen Umsetzung von Bewegung im 3D-Raum .............. - 15 4.1 Der Aufbau eines Fotostudios in der Praxis ........................................... - 15 4.1.1 Equipment zur Ausleuchtung eines Fotostudios.............................. - 16 4.1.2 Ausleuchtungsbeispiele in einem realen Fotostudio ....................... - 19 4.2 Technische Grundlagen zur Umsetzung von Bewegungen im dreidimensionalen Raum .............................................................................. - 21 - 5 Modellierung eines dreidimensionalen Charakters............... - 23 5.1 Vorgehensweise bei der Modellierung in Maya..................................... - 23 5.1.1 Grundlagen beim Gestalten von Objekten in Maya ........................ - 23 5.1.2 Beschreibung verschiedener Modi zur Objektmodellierung ........... - 26 5.1.3 Editoren für die Modellierung von Objekten in Maya .................... - 29 5.2 Modellierung des Charakters.................................................................. - 32 5.2.1 Die Modellierung des Kopfes .......................................................... - 32 5.2.2 Gestalten von Augen und Ohren für den Kopf ................................ - 35 5.2.3 Die Modellierung des menschlichen Oberkörpers .......................... - 38 5.2.4 Gestalten der Arme und Beine anhand des Oberkörpers ................ - 39 5.2.5 Zusammenfügen der Körperteile ..................................................... - 44 5.2.6 Umwandeln des zusammengefügten Modells in ein Polygon .......... - 46 - -25.3 Aufbau des Skeletts für den Charakter ................................................... - 48 5.3.1 Vorgehensweise beim Erstellen eines Skeletts................................. - 48 5.3.2 Modellierung des Skeletts................................................................ - 50 5.3.3 Kontrollsymbole zur Steuerung des Skeletts.................................... - 53 5.3.4 Anpassen der Haut an das Skelett ................................................... - 56 5.4 Erstellen der Texturen für den Menschen............................................... - 58 5.4.1. Modellieren eines T-Shirts und einer Hose .................................... - 58 5.4.2 Anpassen der Kleidung an den modellierten Körper ...................... - 60 5.4.3 Erstellen der Texturen ..................................................................... - 60 - 6 Aufbau der Charaktersteuerung............................................. - 63 6.1 Beschreibung und Verwendung der Charaktersteuerung ....................... - 63 6.1.1 Grundlegende Entscheidungen für das Menüdesign ....................... - 63 6.1.2 Einsatz von Buttons in der Menüsteuerung ..................................... - 64 6.1.3 Einsatz von Slidern in der Menüsteuerung...................................... - 66 6.2 Beispiele der MEL-Programmierung der Menüsteuerung ..................... - 68 6.3 Einsatzgebiete für die Charaktersteuerung ............................................. - 73 - 7 Installation und Benutzung der Charaktersteuerung........... - 74 7.1 Systemvoraussetzungen.......................................................................... - 74 7.2 Installation des modellierten Charakters und der Menüsteuerung ......... - 74 7.3 Installation des Lichtsimulationstools .................................................... - 75 7.4 Anwendung der Menüs der Charaktersteuerung und des LST............... - 75 - 8 Schlussfolgerung ....................................................................... - 79 8.1 Fazit ........................................................................................................ - 79 8.2 Ausblick.................................................................................................. - 81 - Literaturverzeichnis .................................................................... - 84 Anhang .......................................................................................... - 87 - -3- Kurzfassung Die vorliegende Arbeit richtet sich an alle, die sich für 3D-Modellierung im Allgemeinen und für die Gestaltung von Charakteren im dreidimensionalen Raum im Speziellen, interessieren. In dieser Arbeit wird der Prozess der Erstellung eines virtuellen Menschen, auch Avatar genannt, mit einem dazugehörigen, beweglichen Skelett erläutert. Das erzeugte Skelett kann durch die Benutzung einer interaktiven Menüsteuerung vereinfachte, menschliche Bewegungen ausüben. Außerdem werden an den modellierten Menschen Kleidungsstücke angepasst, die unterschiedliche Texturen und Farben annehmen können. Die Auswahl der Texturen und von vier vorgegebenen Positionen, die der Mensch einnehmen kann, sind ebenfalls in diesem Menü eingearbeitet. Der Benutzer kann die Steuerung individuell verwenden oder sich an den gegeben Vorgaben orientieren. Die vorliegende Arbeit stellt eine Erweiterung des bereits entwickelten dreidimensionalen Lichtsimulationstools von Peter Knauer dar. Der modellierte Mensch aus dieser Arbeit kann in das virtuelle Lichtstudio eingefügt und mit den bereits gegebenen Funktionen und Lichtquellen des Studios ausgeleuchtet werden. Zudem ist es möglich, Reflexionen und Schattenwurf der erstellten Kleidung, welche von den unterschiedlichen Texturen hervorgerufen werden, zu betrachten und zu untersuchen. Die anschauliche Darstellung dient einem besseren Verständnis der Ausleuchtung von Menschen in verschiedenen Körperposen innerhalb eines Lichtstudios. -4- Abstract The present assignment is addressed to those who are interested in 3D-Modelling in general and in designing characters in the three-dimensional space in particular. In this assignment the process of creating a virtual human and appropriate movable skeleton is elucidated. Furthermore, a menu control is presented which will allow moving the human being and the skeleton. In addition, there are clothes designed to fit the human body which are able to adopt different textures and colours. The choice of textures as well as determined default positions for the human being is introduced in this menu. The user can either individually control the body or orientate its actions on the given default positions. Additionally, the present assignment is an extension of the developed threedimensional ‘light-simulation-tool’ by Peter Knauer. The designed human being in this assignment will be pasted in the light-studio and is then able to being illuminated by the given features and light sources of the studio. Thus it is possible to observe and analyse reflections and shadows of the cloth which relate to the different textures. The vivid presentation serves a better understanding of illumination of people in different body poses inside a light-studio. -5- 1 Einleitung Die technische Fortentwicklung der heutigen Zeit ermöglicht immer aufwändigere und detailliertere Simulationen realer Abläufen und Zustände in der virtuellen Realität. Viele dieser Simulationen kommen der Wirklichkeit schon außerordentlich nahe. Sie dienen einer möglichst realitätsnahen Abbildung von Vorgängen der realen Welt, um Prozesse zu veranschaulichen und analysierbar zu machen. Hierbei gibt es eine Vielzahl von Anwendungsgebieten, wie beispielsweise Bewegungsanalysen, bei welchen diese Simulationen und Darstellungen von großem Nutzen sind. Die Simulation der menschlichen Bewegungsabläufe verwendet Erkenntnisse aus den Gebieten der Computeranimation und der Robotertechnik. Das in dieser Arbeit erstellte menschliche Modell kann über eine interaktive Steuerung bewegt werden. Der Benutzer ist somit in der Lage, das Modell in verschiedene Positionen zu bringen. Dies ermöglicht das Betrachten und Analysieren der Bewegung. Je verständlicher diese Darstellungen sind, desto bessere Ergebnisse können im Hinblick auf einen Verständnis- und Lerneffekt erzielt werden. Dies ist auch der Grund für die Wahl eines menschlichen Körpers; der Benutzer ist mit der Anatomie und mit den Bewegungsabläufen vertraut, was von vornherein ein Basisverständnis der Darstellung bewirkt. Die zweite Simulation in dieser Arbeit befasst sich mit der Beleuchtung eines Raumes, in welchem ein modellierter Mensch platziert wird. In diesem virtuellen Raum existieren bis zu zehn virtuelle Lichtquellen, wodurch unterschiedliche Effekte aufgezeigt werden können. Die Abbildung von Licht im dreidimensionalen Raum ist ein komplexer und vielschichtiger Prozess, der von vielen Aspekten beeinflusst wird. Hier sind unter anderem die Intensität des Lichts, die Anzahl der Lichtquellen und mögliche Objekte, die Einfluss auf das Licht haben können, zu beachten. Alle Aspekte des Mediums werden in diesem Zusammenhang so realitätsnah wie möglich in dem dreidimensionalen Lichtstudio nachgebildet. Für die Umsetzung einer optimalen und zufrieden stellenden Simulation von virtuellem Licht kann eine Reihe von Lichtquellen, in ihren Eigenschaften verschieden, gestaltet werden. Diese beiden Simulationen sollen jedoch nicht für ein professionelles Verständnis im Bereich der Licht- und Filmtechnik entwickelt und erläutert werden. Dies wür- -6de den Rahmen dieser Arbeit überschreiten. Die Darstellung des virtuellen Modells und des Lichts wird primär für Studenten der Informatik und der Medienwissenschaften entwickelt. Das bewegliche menschliche Modell sowie das virtuelle Lichtstudio sollen den Studenten während den Vorbereitungen zu einem Fotoshooting oder Filmdreh helfen. Sie sollen die geplanten Lichteinstellungen in Bezug auf die Gestaltung der Lichtquellen und der Positionierung von Personen im Vorhinein im virtuellen Raum simulieren und betrachten können. Hierdurch sollen der Zeitaufwand bei der Planung vermindert und die Qualität der Ausleuchtung bei der Durchführung dieser Art von Projekten erhöht werden. Diese anschaulichen Simulationen stellen durch die genannten Eigenschaften ein Hilfsmittel für den praktischen Gebrauch im universitären Projektalltag dar. Zudem ergibt sich aus der Verwendung ein nicht zu unterschätzender Lerneffekt, der bei der Durchführung von Projekten hilfreich sein kann. Des Weiteren sind diese Simulationen sehr anschaulich und flexibel, da die Szenen innerhalb des virtuellen Lichtstudios schnell dargestellt werden können. Die Lichteinstellungen und beleuchteten Objekte können mit einem Verfahren namens Rendering sichtbar gemacht werden und sind in einem Fenster zeitnah zu betrachten [BR94, S. 101]. Das Rendering ist ein Verfahren, welches sich mit einer „möglichst detailgetreuen Nachbildung der Wirklichkeit“ [CGK] beschäftigt. In dieser Arbeit wird mit dem Begriff Rendern die Bildsynthese gemeint, da die selbst gestaltete Szene in ein reales Bild umgewandelt wird. Falls der gewünschte Lichteffekt nicht hervorgerufen wurde, kann er zeit- und aufwandsarm geändert werden. Bei einer realen Fotografie muss das Bild zunächst entwickelt werden, um die Lichteffekte betrachten und auswerten zu können. Allerdings ermöglicht die digitale Fotografie inzwischen, dass auch Fotos ohne Entwicklung betrachtet werden können. Die Einstellungen und Aufbauten im Fotostudio müssen aber dennoch durchgeführt werden. Mit Hilfe der virtuellen Lichtstudiosimulation können die Auswirkungen des Lichts auf die dreidimensionalen Objekte betrachtet und verändert werden, bis die optimale Beleuchtung gefunden ist, ohne dass Vorarbeiten im Studio durchgeführt werden müssen. Ein weiterer Vorteil des Lichtsimulationstools ist, dass alle drei Faktoren Lichtquelle, Fotograf (Blickwinkel) und Modell - beweglich und positionierbar sind. In einem realen Studio können nur zwei Faktoren flexibel eingesetzt werden, und zwar der Fotograf und das zu fotografierende Objekt. Die Lichtquellen wer- -7den aufgestellt und kaum mehr bewegt, da das Umstellen der Lichtquellen einen zu hohen Aufwand bedeuten würde. Daher ist die flexible Gestaltung der Lichtquellen ein großer Gewinn für den Bereich der Fotografie, da alle Objekte interaktiv positioniert werden können. Die beschriebenen Simulationen werden in den folgenden Kapiteln in ihrer Modellierung und Umsetzung detailliert beschrieben. 2 Beschreibung des Projektes Dieses Kapitel beschreibt zunächst die genaue Themenstellung der vorliegenden Arbeit und legt somit den Grundstein für die Struktur und ihren Inhalt. Darauf folgend werden die Anforderungen an die Arbeit und der Aufbau der Arbeit im Detail erläutert. Die folgenden Kapitel sollen den Leser in das Thema einführen und ihn auf die kommenden Beschreibungen und Erläuterungen vorbereiten. 2.1 Themenstellung Die vorliegende Arbeit baut auf dem von Peter Knauer entwickelten Lichtsimulationstool (LST) auf [KP05]. Die Aufgabe dieser Arbeit ist es, einen interaktiv steuerbaren virtuellen Menschen zu entwickeln, diesen im LST zu platzieren und ihn anschließend über ein einfaches und intuitiv nutzbares Menü zu bewegen. Zusammen mit dieser Erweiterung soll das LST als virtueller Ersatz für ein reales Lichtstudio fungieren und dem Benutzer weit reichende Gestaltungsmöglichkeiten eröffnen. Zur Erfüllung dieser Aufgabe wird ein dreidimensionaler Charakter1 modelliert. Dieses menschliche Modell wird mit dem Programm „Maya“ [MAY] der Firma Alias Autodesk gestaltet. Dieses Programm wird eingesetzt, weil es bereits für die Erstellung des LST verwendet wurde und eine Kompatibilität Vorraussetzung für die Durchführung der Aufgabe ist. Nachdem die Modellierung des Charakters abgeschlossen ist, wird Kleidung, mit verschiedenen Texturen versehen, kreiert. Diese Texturen werden ebenfalls in Maya erstellt und sollen auftreffendes Licht unterschiedlich reflektieren, so dass verschiedene Effekte sichtbar werden. Au1 Unter einem Charakter ist in dieser Arbeit ein dreidimensionales menschliches Modell zu verstehen. -8ßerdem wird die Bekleidung an die Körperformen angepasst, um den Bewegungen des Modells folgen zu können. Da der Körper menschenähnliche, motorische Bewegungen ausführen soll, muss ein anatomisch korrektes Skelett erstellt werden, welches sich realitätsnah und verständlich bewegt. Das Skelett wird entsprechend der Größe des Körpers gestaltet, damit Körper und Skelett perfekt zusammenpassen. Zum Abschluss werden Körper, Kleidung und Skelett miteinander verbunden, um die motorischen Bewegungen ausführen zu können. Nach Abschluss der Modellierung der Elemente soll ein Menü für die Bewegungssteuerung des Menschen programmiert werden. Über das Menü sollen die Bewegungen der einzelnen Gliedmaßen, die Auswahl der Textur sowie verschieden vordefinierte Positionen für den Menschen auswählbar sein. Diese Steuerung wird ebenfalls in Maya in der eigenen Programmiersprache MEL (Maya Embedded Language) umgesetzt. Dabei ist der Aufbau des Menüs benutzerfreundlich und intuitiv nutzbar zu gestalten, da es auch für Anwender entwickelt wird, welche mit dem Programm Maya keine Erfahrung haben. Anschließend müssen der modellierte Mensch sowie das Lichtsimulationstool in einer Arbeitsoberfläche zusammengefügt werden und die Menüsteuerung installiert. Hiermit wären alle erforderlichen Objekte und Menüs in einer Mayabühne2 vereint, so dass der Benutzer mit dem Bewegen des Menschen und seiner Ausleuchtung beginnen könnte. 2.2 Anforderungen an das menschliche Modell und die Menüsteuerung Das Ziel dieser Arbeit ist zum einen die detaillierte Darstellung eines dreidimensionalen Charakters und zum anderen die Umsetzung einer interaktiven Menüsteuerung für die Bewegungen des Menschen. Hierfür ist die realistische Modellierung eines menschenähnlichen Modells sehr wichtig, damit sowohl Anschaulichkeit als auch Praxistauglichkeit gegeben sind. Der Benutzer soll in der Lage sein, realitätsnahe Simulationen von Bewegungen anhand des modellierten Menschen durchführen zu können. Hierzu muss das Skelett anatomisch korrekt konstruiert sein, damit die Körperproportionen mit der 2 Als Mayabühne wird die Arbeitsoberfläche im Programm Maya bezeichnet. Eine genauere Definition findet im Kapitel 5.1 statt. -9Realität übereinstimmen und die Motorik, der eines Menschen gleicht. Für die korrekte Funktionsweise des Skeletts ist das richtige Platzieren der Gelenke an den jeweiligen Stellen notwendig. Für die realitätsnahe Darstellung des Skeletts und des Modells ist ausschlaggebend, dass die Bewegungen der einzelnen Gliedmaßen und deren Auswirkungen auf weitere Körperteile der Realität entsprechend umgesetzt werden. Das Hinknien beispielsweise hat mittelbar Einfluss auf den Oberkörper, der sich in diesem Fall mit absenkt. Bei den Bewegungen dürfen ebenfalls nur anatomisch korrekte Simulationen möglich sein, so dass die virtuellen Gelenke die gleichen Bewegungsspielräume wie die realen Gelenke haben und somit unrealistische Verdrehungen verbieten. Zusätzlich soll die Ausleuchtung von Texturen und Farben innerhalb des virtuellen Lichtsimulationstools beobachtet werden können. Es ist ausschlaggebend für eine anschauliche Darstellung von Kleidung und ihrer Erscheinung bei bestimmtem Licht, dass je nach Farbe und Material ein anderer Reflexionseffekt zu sehen ist. Die Umsetzung des modellierten Menschen und des Skeletts soll ein schnelles Rendering ermöglichen. Die Einstellungen des Lichtstudios müssen innerhalb von Sekunden mittels Rendern abgebildet werden können, um eine Betrachtung und Auswertung der erzeugten Lichteffekte zu ermöglichen. Hierfür muss die Umsetzung des Menschen, des Skeletts und der Kleidung möglichst rechenzeitarm erfolgen, ohne jedoch auf die nötige Detailtiefe zu verzichten. Da sich in der Zielgruppe der Steuerung auch Maya-Laien befinden, ist eine konsistente Beschreibung der verschiedenen Menüpunkte der Charaktersteuerung wichtig. Daneben müssen alle Menüpunkte eine eindeutige Bedeutung haben, so dass die Bezeichnung der Buttons selbsterklärend ist. Die möglichen Funktionen des Menüs sollen dem Benutzer helfen sich ein besseres Bild von Licht und dessen Reflexionen zu machen. Der Anwender soll anhand der eigenen Einstellungen und Simulationen eine bessere Vorstellung der späteren realen Umsetzung erhalten. Das Tool soll die Kreativität unterstützen, da auf Grund der interaktiven Umsetzung viele verschiedene Positionen und Lichteinstellungen einstellbar sind. Hierbei soll der Benutzer über die vordefinierten Positionen hinaus eigene Ideen entwickeln und die vielfältigen Möglichkeiten innerhalb des Lichtsimulationstools und der Charaktersteuerung benutzen können. - 10 - 2.3 Aufbau der Arbeit Der Aufbau dieser Arbeit beginnt mit der Einführung in die Simulationen, welche in dieser Arbeit anschaulich dargestellt werden. In Kapitel 2.1 wird die genaue Themenstellung erläutert, welche die Vorgehensweise der Modellierung des gesamten Menschen und der Erstellung des Menüs beinhaltet. In Kapitel 2.2 werden die Anforderungen für eine erfolgreiche Erfüllung der Aufgabe festgelegt. Das Kapitel 2.3 erläutert den Aufbau und die Strukturierung der Arbeit. In den Kapiteln 3.1 und 3.2 wird zuerst das Lichtsimulationstool mit seinen Funktionen beschrieben und anschließend ein Charakteranimationsprogramm vorgestellt, mit welchem die entwickelte Menüsteuerung des Charakters verglichen wird. Das folgende Kapitel 4.1 erläutert den Aufbau eines realen Fotostudios in der Praxis und der dort verwendeten Lichtquellen sowie der zur Verfügung stehenden Ausstattung. Außerdem werden einige Ausleuchtungsbeispiele von Menschen im Detail beschrieben. In Kapitel 4.2 folgen die technischen Grundlagen, welche der Bewegung von Gelenken in Maya zugrunde liegen. In Kapitel 5.1 werden zunächst einige Grundlagen für die Modellierung von Objekten in dem Programm Maya beschrieben. Das Kapitel 5.2 beschreibt anschließend die Gestaltung des Menschen. Hierbei wird die Entstehung aller Körperteile erläutert und anhand von Bildern anschaulich dargestellt. In 5.3 werden das Formen und der Aufbau des menschenähnlichen Skeletts geschildert. Des Weiteren werden die Steuerelemente, anhand welcher das Skelett bewegt wird, genannt. Zuletzt wird das Anpassen von Haut und Skelett aneinander beschrieben. Das Kapitel 5.4 beschreibt das Modellieren von Kleidung und die Erstellung verschiedener Materialien. In Kapitel 6.1 wird die Gestaltung des Menüs und seiner Funktionen detailliert erläutert. Zudem wird die benutzerfreundliche Umsetzung der Menüsteuerung im Detail beschrieben, sowie die Entscheidungen für das gewählte Design dargelegt. In Kapitel 6.2 werden einige Programmierbeispiele für die Umsetzung des Menüs besprochen. Anschließend werden die Einsatzmöglichkeiten der Charaktersteuerung aufgezeigt (6.3). Im anschließenden Kapitel 7.1 werden die technischen Vorraussetzungen zur Verwendung der Menüsteuerung definiert. In den folgenden Kapiteln werden die Installation des Menschen und der Charaktersteuerung (7.2) sowie des Lichtsimulationstools (7.3) beschrieben. Abschließend wird in Kapitel 7.4 eine Einführung in die Benutzung der Menüsteuerung des Menschen gegeben. - 11 Im letzen Kapitel 8.1 werden ein Fazit der gesamten Arbeit, sowie ein Ausblick (8.2) auf Weiterentwicklungen im Bereich der virtuellen Realität gegeben. 3 Beschreibung des Lichtsimulationstools und eines Charakteranimationsprogramms In diesem Kapitel wird das Lichtsimulationstool (LST), in welchem der Benutzer den modellierten Menschen navigieren soll, beschrieben. Das LST ist Grundlage der vorliegenden Arbeit und wird mit der entwickelten Charaktersteuerung zusammen eingesetzt. Für ein allgemeines Verständnis dieses Tools wird es im Folgenden mit seinen Funktionen dargestellt. Zudem wird ein Charakterdesign- und Animationsprogramm vorgestellt und mit den Funktionen der Charaktersteuerung verglichen. Dieser Vergleich soll andere Möglichkeiten der Charaktermodellierung- und Animation vorstellen, um die Vorzüge der hier entwickelten Menüsteuerung darzulegen und das allgemeine Verständnis der Thematik zu verbessern. 3.1 Einführung in das Lichtsimulationstool Das Lichtsimulationstool wurde von Peter Knauer in seiner Bachelorarbeit „Visualisierung und fotorealistisches Rendering der Beleuchtung in interaktiv gestaltbaren virtuellen Studioräumen mittels Maya“ [KP05] entwickelt. Das Tool bietet eine Alternative zu weiteren Beleuchtungsprogrammen, wie beispielsweise dem „Lichtassistenten“ und „Mirolux“. Der Lichtassistent ist ein dokumentarisches Programm, welches unter anderem die benötigte Anzahl an Lichtquellen für eine Innenraumbeleuchtung berechnet. Mirolux hingegen ist ein Lichtplanungsprogramm, welches auch die Anforderungen im professionellen Unterhaltungsbereich erfüllt. Das Programm verfügt über viele Funktionen für eine detaillierte Raumund Lichtgestaltung [KP05]. Das entwickelte LST wurde mit dem Programm Maya der Firma Alias Autodesk erstellt und simuliert ein dreidimensionales Lichtstudio. Innerhalb des Studios können verschiedene Lichtquellen erzeugt, bearbeitet und positioniert sowie verschiedene Farben für das Licht eingestellt werden. Im LST sind ein statischer - 12 Menschenkörper und drei geometrische Figuren (Kugel, Zylinder, Würfel) enthalten. Diese können im Studio bewegt und ausgeleuchtet werden. Je nach Lichtintensität und Lichteinfall werden diese Objekte unterschiedlich beleuchtet, werfen folglich verschiedene Schatten und beeinflussen die Lichtverteilung im Raum. Nachdem der Anwender die Lichtquellen und Objekte in der gewünschten Art und Weise angeordnet hat, kann die erstellte Szene gerendert und anschließend als Bild in einem Fenster betrachtet werden. Das Lichtsimulationstool verfügt zur Ausführung dieser Funktionen über zwei Menüs. Das erste Menü steuert die drei geometrischen Figuren und den starren Menschenkörper innerhalb des Lichtstudios entlang der drei räumlichen Achsen. Zusätzlich ermöglicht dieses Menü verschiedene Betrachtungsweisen auf die Mayabühne. Das Rendern der aktuellen Szene wird ebenfalls über diese Steuerung ausgeführt. Das zweite Menü verändert die Lichtintensitäten der erzeugten Lichtquellen, um dieselben Positionen der Figuren unter unterschiedlich starken Lichteinflüssen betrachten zu können. Zusätzlich können die Lichtquellen im Studio neu positioniert und die Farben des Lichtes und des Schattens verändert werden. Das LST „ist die Entwicklung und Implementierung eines Tools, das die 3D Visualisierung von Lichtsituationen in einem realen Raum ermöglicht“ [KP05]. Der unbewegliche Körper im ursprünglichen LST schränkt die Nutzungs- und Einsatzmöglichkeiten ein, wodurch eine Erweiterung um einen beweglichen Menschen eine große Bereicherung und Verbesserung der Anwendbarkeit des LST ist. Damit das LST und die interaktive Menüsteuerung zusammen arbeiten können, mussten allerdings ein paar Veränderungen innerhalb des LST vorgenommen werden. Zunächst wurde der statische Menschenkörper aus dem Quellcode des LST gelöscht und durch den modellierten Charakter aus dieser Arbeit ersetzt. Außerdem wurde ein Rechtschreibfehler im Lichtmenü verbessert. Alle anderen Funktionen sind beibehalten worden. 3.2 Das Programm Poser der Firma e-frontier Nachdem die Einführung in das Lichtsimulationstool gegeben ist, wird ein Beispiel für ein Charakterdesign- und Animationsprogramm angeführt. Hiermit soll dem Leser die allgemeine Funktionsweise und die Einsatzgebiete solcher Pro- - 13 gramme vermittelt werden. Das Programm „Poser“ der Firma e-frontier [POS] verfügt über vergleichbare Funktionen und Möglichkeiten wie die Charaktersteuerung und ist daher ein adäquates Vergleichsprogramm. Mit dem Programm Poser können menschliche Formen wie Gesichter, Körperteile oder komplette menschliche Modelle für Illustrationen, Animationen, medizinische Visualisierungen, Spiele und vieles mehr, entworfen werden. Innerhalb von Poser kann der Benutzer mit dem ‚drag&drop’-Verfahren3 seinen individuellen Charakter auf der Bühne des Programms zusammenstellen. Diese Benutzeroberfläche ist auf einer ‚room’-basierenden (Raum) Umgebung aufgebaut (Abbildung 1). Diese verschiedenen ‚rooms’ stellen das Menü für die jeweiligen Entwicklungsstufen bei der Gestaltung des Körpers dar. Hierbei gibt es unter anderem Posen-, Setups-, Materialien-, Haare- und Kleidungs-‚rooms’, welche bei jedem Schritt des Modellierens den Zugriff auf die einsetzbaren Features bieten [POR]. Abbildung 1: ‚rooms’-Oberfläche In den auswählbaren ‚rooms’ verwendet das Programm Poser Paletten und Fenster als Auswahlmenüs. Zusätzlich bietet es die Möglichkeit eigene Bildschirm-Konfigurationen für die Benutzeroberfläche festzulegen. Diese können vom Benutzer abgespeichert und je nach Bedarf aufgerufen und aktiviert werden [POR]. Eine weitere Funktion von Poser ist, dass Menschen mit verschiedenen Hautfarben oder Körperformen erzeugt werden können. Diese können aus 3 „Unter Drag & Drop versteht man das Verschieben von Objekten zu beliebigen Positionen auf dem Bildschirm.“ [DAD] - 14 einer Datei mit unterschiedlichen menschlichen Formen und ethnischen Merkmalen ausgewählt werden. In Poser wird zum Umformen von Körperteilen oder Gesichtszügen das ‚3DToolset’ verwendet. Dieses Tool führt außerdem alle Funktionen und Aktionen innerhalb der ‚rooms’, der Menüs und der Paletten aus. Nach Erstellung eines Charakters kann dieser neu skaliert, in ausgewählte Positionen überführt und als Drahtgittermodell, Skelett, Silhouette oder menschenähnliche Figur dargestellt werden. Zu den aufgezählten Darstellungsformen kommen noch Abbildungsmöglichkeiten im Photorealismus, als Zeichentrick oder als Skizzen hinzu. Für eine realitätsnähere Darstellung der Modelle können in Poser Lichtquellen und Kameras eingesetzt werden, wobei es unterschiedliche Einstellungen für Kamera, Schatten und Lichteffekte gibt. Die Kameras können im Programm auch als Blickwinkel für den Benutzer eingesetzt werden. Zur Umsetzung von beweglichen Figuren verfügt Poser über dynamische Requisiten wie Kleidung, welche sich an die Person anpassen lassen. Das Programm kann außerdem eine Kollisionsbehandlung durchführen [POR], damit bei Animationen verhindert wird, dass verschiedene Körperteile sich durchdringen. Eine weitere Funktion ist das Importieren von eigenen Bildern, mit welchen neue Modelle und Texturen erstellt werden können. Diese neuen Modelle und Texturen können ebenfalls mit den vorhandenen Werkzeugen bearbeitet und verändert werden [POS]. Durch eine stetige Weiterentwicklung der Funktionen verfügt das Programm mittlerweile über eine photorealistische Darstellung von Charakteren, welche eine gute Grundlage zur Modellierung von dreidimensionalen Modellen ist [POS]. Die zu entwickelnde Charaktersteuerung hat einige Gemeinsamkeiten mit dem vorgestellten Charakterdesign- und Animationsprogramm Poser. Zunächst einmal können beide einen dreidimensionalen Menschen über ein Menü bewegen und eine Auswahl an Texturen auf die Modelle legen. Eine Betrachtung dieser Modelle mit verschiedenen Lichteinflüssen ist ebenfalls möglich und die Einstellungen des Lichts, wie z.B. Intensität und Farbe, können verändert werden. Eine weitere Gemeinsamkeit ist der Einsatz von Kameras, welche einen individuellen Blickwinkel auf das Modell und die gesamte Szene gestatten. Die entwickelte Charaktersteuerung kann allerdings keine Veränderungen an der Form des eigentlichen Modells vornehmen, wohingegen bei Poser diese Umges- - 15 taltung mit dem ‚3D-Toolset’ durchführbar ist. Die Funktion der Modellierung von Objekten bietet jedoch das Programm Maya, in welchem die Charaktersteuerung entwickelt wurde. Ebenfalls können vom Benutzer importierte Bilder nur in Maya auf die Kleidung oder die Objekte gelegt werden. Die Funktionen von Poser übersteigen die entwickelten Methoden, welche in dieser Arbeit für die Charaktersteuerung erzeugt wurden. Allerdings bedürfen die Funktionen von Poser einiger Einarbeitungszeit, da sie sehr komplex und umfangreich sind. Die entwickelte Charaktersteuerung hingegen soll für den Benutzer leicht bedienbar sein, weswegen einfache und selbsterklärende Funktionen verwendet wurden. Eine intuitive Nutzung bietet einen großen Vorteil in der Anwendung gegenüber umfangreichen und komplexen Programmen, da diese ohne aufwendige Erklärungen auskommen und verstanden werden. Zudem bietet das Programm Maya die weitergehenden und komplexeren Methoden, so dass bei Bedarf auf diese zurückgegriffen werden kann. 4 Grundlagen der Ausleuchtung in einem Lichtstudio und der technischen Umsetzung von Bewegung im 3D-Raum In diesem Kapitel werden die Grundlagen der Ausleuchtung von Menschen in einem Raum und für die Umsetzung der Bewegungen des Charakters erläutert. Hierzu wird zunächst ein Praxisbeispiel für ein reales Fotostudio im Detail beschrieben sowie einige Ausleuchtungsmöglichkeiten von Menschen in einem Studio geschildert. Anschließend wird die technische Umsetzung von Bewegungen innerhalb des dreidimensionalen Raums, die in dem Programm Maya verwendet wird, erläutert. Diese beiden Erläuterungen bilden unter anderem die Grundlage für die praktische Umsetzung der Aufgaben in den Kapiteln 5 und 6. 4.1 Der Aufbau eines Fotostudios in der Praxis In diesem Kapitel werden Methoden der Ausleuchtung eines realen Fotostudios beschrieben, die dem Leser den Einsatz von Licht und Ausleuchtung in einem realen Studio erläutern sollen. Zudem soll der Horizont um die erwähnten Licht- - 16 beeinflussenden Gegenstände erweitert werden, damit auch die entstehenden Effekte im virtuellen Studio besser nachvollzogen werden können. Zunächst werden die notwendigen Lampen und Lichtmanipulationswerkzeuge beschrieben, die zum Ausleuchten in einem Studio eingesetzt werden. Anschließend werden die genannten Gegenstände benutzt und in einigen Beispielen anhand der Ausleuchtung eines Menschen in einem Raum erläutert. Hierfür wurde ein Interview mit einem Fotografen geführt, das einen Einblick in seine Arbeit ermöglichte. Die im Folgenden beschriebene Ausstattung und die erläuterten Szenarien sollen dem Benutzer anhand von anschaulichen und realistischen Beispielen bei der eigenen Gestaltung des Menschen im Lichtstudio helfen. 4.1.1 Equipment zur Ausleuchtung eines Fotostudios Im Folgenden soll dem Leser ein Eindruck des Einsatzes und der Möglichkeiten von Licht innerhalb eines Fotostudios vermittelt und somit ein Bezug zur Praxis geschaffen werden. Eine Beschreibung von realen Elementen kann leichter nachvollzogen werden und bringt ein besseres Verständnis der Funktionen und Möglichkeiten eines solchen Studios hervor. Zur Erzeugung von Licht wird in einem Fotostudio meist ein Studioblitzgerät4 mit Einstelllicht verwendet. Der Blitz funktioniert trotz des individuell einstellbaren Lichtes und erzeugt bei allen Fotografien das gleiche Licht. Es gibt die Möglichkeit mit mehreren Blitzen zu arbeiten, welche jedoch bei der Menschfotografie selten zum Einsatz kommt, weil die hierbei entstehende hohe Lichtintensität nicht benötigt wird. Das Einstelllicht hingegen hat nur auf die Ausleuchtung Einfluss und nicht auf das erzeugte Foto. Die Studioblitzgeräte sind flexible Lichtquellen und können mit unterschiedlich starken Lampen bestückt werden. Zudem kann das Studioblitzgerät mit verschiedenen Aufsätzen versehen werden. Hierfür gibt es beispielsweise Reflexschirme (Abbildung 2), welche auf Abbildung 2: Reflexschirm der Innenseite eine weiße Beschichtung haben, die 4 „Das Studioblitzgerät besteht in der Regel aus einer Blitzröhre und einer sogenannten Pilotlampe, die für die Beleuchtung eine Kontrollfunktion übernimmt. Studioblitzgeräte sind eigenständige Blitzgeräte, die per Ergebnisse des Handbelichtungsmesser voreingestllt werden müssen.“ [STB] - 17 das Licht des Einstelllichtes reflektiert und ein weiches, diffuses Licht erzeugt. Es existieren noch weitere Licht beeinflussende Aufsätze für das Studioblitzgerät. Hierzu gehören die Reflektoren, welche auf das Studioblitzgerät gesetzt werden. Bei diesen Gegenständen kann ebenfalls eine weiße Beschichtung verwendet werden, wodurch ein angenehmes Licht erzeugt wird. Eine silberne Beschichtung des Reflektors (Abbildung 3) hingegen erzeugt ein hartes und gezieltes Licht. Ebenso Einfluss auf das Licht hat die Form des Reflektors. Diese existieren beispielsweise in einer trichterähnlichen Form, wodurch das Licht geAbbildung 3: silbern beschichte- streut wird und dadurch einen großen räumlichen ter Reflektor Bereich mit Licht versorgt. Diese Form wird jedoch vorwiegend bei weiß beschichteten Reflektoren zum Ausleuchten eines großen Bereichs verwendet. Die silbernfarbenen Reflektoren sind meist in einer eng zusammen laufenden Form gebaut. Diese erzeugen einen gerichteten Lichtstrahl, der einen harten Schatten des auszuleuchtenden Objektes bewirkt. Der silbernfarbene Reflektor wird außerdem zum Ausleuchten selektierter Körperteile verwendet, wohingegen bei weißen Reflektoren der gesamte Körper betont wird. Ein weiterer Aufsatz für die Studioblitzgeräte ist das Wabengitter (Abbildung 4), welches vor die Reflektoren gestülpt werden kann. Mit diesem Gitter wird eine Begrenzung des Lichtes erzeugt, um die Randstrahlen auszugrenzen. Eine andere Form des Reflektors charakterisiert sich durch eine abgeschrägte Seite, wodurch ein schräger Abstrahlwinkel erzeugt wird. Dieser Reflektor wird Abbildung 4: Wabengitter häufig beim Ausleuchten von Hintergründen eingesetzt. Der Vorteil dieses Aufsatzes ist, dass nur eine Licht- quelle für ein ausgeglichenes und gleichmäßiges Licht benötigt wird, da durch diesen Aufsatz das Licht über den gesamten Hintergrund verteilt werden kann. Der schräge Schnitt des Aufsatzes ermöglicht die Abdeckung eines weiten Bereiches mit gleichmäßigem Licht. - 18 Ein weiterer Aufsatz für ein Studioblitzgerät ist der Tubus, der ein besonderes Rohr für ein optisches Gerät darstellt [TUB]. Dieser erzeugt einen kreisrunden Lichtausschnitt und beeinflusst die Lichtstärke. Auf den Tubus kann ebenfalls das bereits erwähnte Wabengitter platziert werden, um das Lichtes zu verändern. Der Tubus wird für sehr kleine Detailaufnahmen, wie beispielsweise den Mund, verwendet. Zudem wird er häufig als Gegenlicht bei Portraitaufnahmen eingesetzt, um Haare besonders intensiv zu beleuchten. Zudem gibt es noch Leuchtboxen, auch ‚Striplight’ (Abbildung 5) genannt, welche als Aufsatz für die Blitzlichtgeräte einsetzbar sind. Diese Leuchtboxen erzeugen ein weiches, volumiges Licht zum Ausleuchten von großen Flächen. Zudem gibt es den Projektionsvorsatz, welcher die Schärfeneinstellung beeinflussen kann. In diesen Projektionsvorsatz können Blenden eingesetzt werden, um das Licht zu verändern. Diese Blenden werden Gobos 5 genannt, können gedreht werden und sind in verschiedenen Formen Abbildung 5: ‚Striplight’ erhältlich. Mit Hilfe der Gobos kann zudem ein Muster, wie z.B. Sterne oder Wellen, auf das Licht gelegt werden. Das entstehende Licht wird meist zum Ausleuchten eines Hintergrundes benutzt. Natürlich können auch mehrere Blenden gemeinsam verwendet werden. Ein anderes Hilfsmittel für die Ausleuchtung sind Aufhellwände, die oftmals auf beiden Seiten unterschiedlich beschichtet sind. Die weiß beschichtete Seite dient dem Aufhellen einer Person oder eines Gegenstands. Die schwarze Seite hingegen dunkelt eine Person oder einen Gegenstand ab, da das Licht absorbiert wird. Diese Wände kommen zum Einsatz, wenn eine Lichtquelle nicht genügend Licht erzeugen kann. Die Wand reflektiert, verteilt das Licht der Lichtquelle und hellt somit die ganze Person auf. Eine transportable Version dieser Aufhellwände sind zusammenfaltbare Reflektoren (Abbildung 6), welche Abbildung 6: zusammen- ebenfalls mit Silber oder einer anderen Farbe beschichtet faltbarer Reflektor sein können. Die Anwendung erfolgt durch Anstrahlen des Reflektors mit dem Studioblitzgerät oder einer anderen Lichtquelle, woraufhin 5 „Gobos sind dünne Masken, die in den Strahlengang eines Scheinwerfers gebracht werden, um den Lichtstrahl zu formen oder mit einem Muster zu versehen.“ [GOB] - 19 das Licht vom Reflektor auf die Person oder den Gegenstand gestrahlt wird. Sie werden vor allem bei Beautyshootings eingesetzt, da sie ein sehr helles, gleichmäßiges Licht erzeugen und das angestrahlte Objekt in einem ausgewogenen, positiven Licht erstrahlen lassen. Zur Darstellung von farbigem Licht innerhalb eines Fotostudios sind Farbfolien (Abbildung 7) eine einfache und effektive Lösung. Diese werden vor den jeweiligen Lichtquellen befestigt und erzeugen das Licht in der Farbe der Folie. Dies ist eine kostengünstige und praktische Lösung, da die Folien mehrfach verwendbar sind und an vielen Reflektoren befestigt und wieder entfernt werden können. (siehe An- Abbildung 7: Farbfolien hang) 4.1.2 Ausleuchtungsbeispiele in einem realen Fotostudio Dieses Kapitel erläutert einige Beispiele für die Platzierung von Lichtquellen relativ zum Bildobjekt innerhalb eines Fotostudios. Diese Beschreibungen sollen dem Benutzer der Charaktersteuerung einige Ideen und Möglichkeiten bei der Platzierung von Mensch und Licht im virtuellen Lichtstudio vermitteln, um das Arbeiten mit der Menüsteuerung zu vereinfachen. Das erste Beispiel beschreibt die Ausleuchtung einer Standardposition, bei der die gesamte Person aufrecht steht und beleuchtet wird, ohne dass besondere Details hervorgehoben werden. Es werden zwei Lichtquellen eingesetzt, wovon die erste rechts vor der Person und die zweite links hinter der Person aufgestellt wird. Keine der beiden Leuchten scheint frontal auf das Fotoobjekt, das Licht trifft seitlich auf die Person. Die Lichtquelle vor dem Fotoobjekt ist ein Studioblitzgerät mit einem ‚Striplight’ als Aufsatz und leuchtet den gesamten Körper aus. Das Gerät hinter der Person hat einen Tubus mit einem Wabenaufsatz und beleuchtet primär die Haare der Person, da diese von der vorderen Lichtquelle zu wenig betont werden. Das zweite Beispiel beschreibt die Lichteinstellung für ein Halbportrait, d.h. nur der Oberkörper wird ausgeleuchtet. Hierbei wird die erste Lampe mit einer weißen Blende links vor der Person positioniert. Die zweite Lichtquelle bleibt wie bei dem ersten Beispiel links hinter der Person. Auf Grund der weißen Blende wird - 20 nur der Oberkörper ausgeleuchtet. Die Beine befinden sich im Schatten und sind daher nicht auf dem Foto zu sehen. Das dritte Beispiel erläutert den Einsatz von Licht bei dem lediglich die Silhouette eines Menschen zu erkennen sein soll. Hierfür wird die Person ausschließlich von rechts hinten angestrahlt. Aus dieser Platzierung der Lichtquellen resultiert, dass nur die Umrisse des Körpers zu erkennen sind. Der sichtbare Bereich der Person hängt dabei von der Positionierung der Person innerhalb des beleuchteten Bereiches ab. Je nachdem wie weit der Körper gedreht wird, ist er mehr oder weniger detailliert zu sehen. Ist der Rücken der Person der Lichtquelle zugedreht, wird am meisten von der Person zu erkennen sein, wohingegen bei einer seitlichen Stellung am wenigsten, nämlich nur das Profil, zu sehen sein wird. Allerdings entstehen erst durch eine Drehung der Person, z. B. in das Profil, ansprechende Effekte und Schatten, da diese eine gewisse Dynamik in der Haltung erkennen lassen. Im letzten Beispiel für die Ausleuchtung einer Person wird indirektes Licht verwendet. Das Blitzlichtgerät strahlt die Decke an und das Licht wird von dort auf die Person reflektiert. Diese Art der Ausleuchtung wird vor allem bei Gruppenaufnahmen eingesetzt, damit alle Personen optimal beleuchtet werden. Das Licht von der Decke oder der Wand wird gestreut und verteilt sich gleichmäßig auf alle Personen. Hierzu gibt es noch eine Alternative, das ‚fill in light’, auch Aufhelllicht genannt. Bei diesem Licht wird eine Lampe, ohne Reflektor, in der Nähe der Kamera positioniert. Die Lichtintensität hat die höchste Stufe und leuchtet ebenfalls in Richtung Decke, so dass es über der zu fotografierenden Gruppe leuchtet. Durch diese Lichteinstellung entsteht ein den Raum ausfüllendes indirektes Licht, womit mögliche Schatten ausgefüllt werden [FIL]. Dies sind nur einige mögliche Varianten zur Ausleuchtung von Personen in einem Raum. Diese Beispiele sollen dem Anwender der Charaktersteuerung einige Ideen und Eindrücke, sowie Verständnis für Licht und Schatten vermitteln, so dass eine effektive Nutzung möglich ist. (siehe Anhang) - 21 - 4.2 Technische Grundlagen zur Umsetzung von Bewegungen im dreidimensionalen Raum In diesem Kapitel wird die Funktionsweise des Verfahrens für die Umsetzung von Bewegungen im Programm Maya erläutert. Diese Beschreibung soll dem Leser die Hintergründe der Bewegungsumsetzung aufzeigen, um ein gutes Verständnis der Bewegungen zu ermöglichen. Die Computeranimation und Robotertechnik sind zwei der wichtigsten Untersuchungsgebiete bei der Umsetzung von künstlich erzeugten Bewegungen. In den letzten Jahren sind viele neue Funktionen zur Steuerung von Bewegungen innerhalb der Computergrafik entwickelt worden. Eine Funktion hierfür ist die inverse Kinematik (IK), welche innerhalb von Maya für einzelne Gelenkbewegungen oder detaillierte Animationen verwendet wird. Diese Technik „bewirkt, dass nur die erforderliche Endposition der Struktur festgelegt wird.“ [WA02, S.546] Die Idee der IK kommt aus der Robotertechnik, wo das Verfahren der Endpositionsangabe ebenfalls eingesetzt wird. Dieser Vorgang ermöglicht es nur dem letzten Glied einer Gliederkette eine festgelegte Position oder Bewegung zuzuweisen. Alle weiteren Gelenke werden automatisch mitbewegt ohne eine definierte Endposition zu erhalten. Die Aufgabe der inversen Kinematik für eine erfolgreiche Ausführung ist die Berechnung aller Positionspunkte der anderen Gelenke, damit der Endeffektor (letztes Glied in der Kette) die gewünschte Position einnehmen kann [WA02, S.546]. Dieser Ablauf ist der menschlichen Bewegung sehr ähnlich, da der Mensch nicht über alle Gelenkbewegungen, wie Schulter drehen und dann Ellbogen eindrücken, nachdenkt, bevor er die Hand z.B. zum Glas bewegt. Es ist lediglich die Zielvorstellung der Endposition die Voraussetzung der Bewegung. Die IK „bezeichnet also nicht die umgedrehte Bewegung im Sinne einer Rückwärtsbewegung, sondern die ‚umgedrehte’ Berechnung der Bewegung“ [BMSC] wie im Beispiel, die Hand ans Ziel führen und die abgängigen Gelenke folgen automatisch, beschrieben wurde. Durch die notwendigen Berechnungen entstehen jedoch die Probleme des Verfahrens, da bei komplexen Gelenkstrukturen eine eindeutige Berechnung auf Grund des Bestehens mehrerer Lösungen unmöglich ist. Zudem ist eine individuelle und genaue Gestaltung schwierig, da die Zwischenpositionen von der inversen Kinematikfunktion und nicht vom Animator berechnet werden. Hierbei entstehen - 22 Schwierigkeiten, da die Positionen der einzelnen Gelenke in der Kette nicht eindeutig sein müssen. „Es kann immer mehrere“ Möglichkeiten „geben, die zur gewünschten Lage des letzten Gliedes führen“ [IKW], was bedeutet, dass es viele Möglichkeiten der Gelenkplatzierung von der Ausgangs- zur Endposition gibt. Hierdurch entsteht die Notwendigkeit, eine der Möglichkeiten, wie beispielsweise den Pfad mit dem kürzesten oder dem energiesparsamsten Weg, auszuwählen, um eine sinnvolle Bewegung zu bestimmen [IKW]. „Die inverse Kinematik fungiert als Black Box6, bei der die gewünschte Bewegung der Strukturenden die Eingabe darstellt und die detaillierte Bewegung der gesamten Struktur durch die Methode gesteuert wird.“ [WA02] Außerdem muss darauf geachtet werden, dass die Gelenke nur realistische Positionen einnehmen können. Mathematisch sind mehrere Einstellungen umsetzbar, so dass eine der Realität möglichst weitgehend entsprechende Auswahl aus den theoretisch möglichen Positionen getroffen werden muss. Hierfür gibt es drei mathematische Lösungsansätze, und zwar die algebraische, geometrische und numerische Methode7. Ein flexibleres Verfahren gegenüber der inversen Kinematik ist die Vorwärtskinematik, welches die Position der Glieder durch die Gelenkstellung festlegt [VWK]. Bei dieser Methode wird das erste Gelenk eines Körperteils bewegt und alle weiteren Gelenke folgen, wobei sie lediglich gedreht und nicht verschoben werden. Diese Funktion ermöglicht, dass eine individuelle Bewegungsstruktur der einzelnen Elemente festgelegt werden kann. Durch diese Strukturierung können jedoch hohe Kosten entstehen, da der Rechenaufwand von Änderungen innerhalb der Hierarchie enorm ist. Die gesamte Struktur von Gelenken und den dazugehörigen Bewegungen muss durchlaufen werden, um die zu verändernde Stelle zu finden. Erst dann kann eine Veränderung durchgeführt werden. Ein weiterer Nachteil dieser Methode ist, dass das letzte Gelenk in der Hierarchie in keine vom Benutzer definierbare Position gebracht werden kann [WA02, S. 546]. Diese Einführung in den Bereich der Bewegungsumsetzung in der Computergrafik soll dem Leser das Verständnis der Bewegungen des Skeletts erleichtern. 6 „ein Objekt, dessen innerer Aufbau und innere Funktionsweise unbekannt oder als nicht weiter von Bedeutung erachtet wird. Von Interesse ist nur das äußere Verhalten der Black Box.“ [BLB] 7 Für eine genauere Erläuterung dieser Methoden wird auf Grund des geringen Mehrwerts für diese Arbeit auf die Literatur [IKW, WA02] verwiesen. - 23 - 5 Modellierung eines dreidimensionalen Charakters Nachdem in den letzten Kapiteln einige grundlegende Erläuterungen in Bezug auf Ausleuchtung von Objekten und Bewegungsumsetzung im 3D-Raum beschrieben wurden, wird in diesem Kapitel detailliert die Modellierung des menschlichen Modells erklärt. Dabei werden die Gestaltung aller Körperteile und das anschließende Zusammenfügen der Einzelteile in Wort und Bild erläutert. Zusätzlich werden die Formung des Skelettes sowie das Verbinden mit dem Körper geschildert. Abschließend wird das Kreieren der Kleidung für den modellierten Menschen beschrieben. 5.1 Vorgehensweise bei der Modellierung in Maya Zur Erstellung eines dreidimensionalen Menschen bedarf es viel Zeit und einer guten Planung. In den folgenden Unterkapiteln wird zuerst ein kurzer Überblick über die Arbeitsoberfläche und die Funktionsweise von Maya gegeben. Anschließend wird die Modellierung aller Gliedmaßen und Körperteile im Detail beschrieben, damit der Leser alle Schritte nachvollziehen kann und ein genaues Bild von der Vorgehensweise bei der Charaktermodellierung erhält. 5.1.1 Grundlagen beim Gestalten von Objekten in Maya Nun folgt eine Einführung in die Methoden zur Gestaltung von Objekten in dem Programm Maya. Zunächst einmal findet die Modellierung aus verschiedenen Sichtwinkeln und mit Hilfe einer großen Anzahl von Hilfsmitteln statt. Die Arbeitsoberfläche in Maya wird Bühne oder Szene genannt und kann in vier Sichtwinkel eingeteilt werden. Diese Sichten heißen ‚Perspective View’, ‘Side View’, ‘Front View’ und ‘Top View’ (Abbildung 8). Je nachdem welcher Teil des Objektes bearbeitet wird, kann die anschaulichste Sichtweise eingestellt werden [SM00, S. 16]. - 24 - Abbildungen 8: Mayabühne Als nächstes werden die wichtigsten Hilfsmittel und Funktionen, welche bei der Modellierung eingesetzt werden, beschrieben. Die Modellierung ist ein Vorgang des Formens und Gestaltens, vergleichbar mit der Töpferei. Hier werden aus einem Tonklumpen Vasen oder andere Gegenstände geformt. Ein ähnlicher Vorgang findet bei dem Modellieren eines dreidimensionalen Objektes statt. Allerdings ist in der 3D-Welt kein Tonklumpen, sondern ein geometrischer Gegenstand (‚primitive’) das Bearbeitungsmaterial. Diese Objekte, in dieser Arbeit primär Kugeln und Würfel, werden in Maya erstellt und bilden die Grundlage für die anschließende Modellierung. Innerhalb des Programms sind diese Objekte mit verschiedenen Oberflächenstrukturen auswählbar. Im Einzelnen sind dies Nurbs8, Polygone9 oder Subdivision Surfaces10 (Abbildung 9). 8 Flächen, die „schön homogen zusammenhängend von kontinuierlichen Linien aufgespannt sind. Solche Fläche heißen Nurbs, denn sie werden von mathematisch sehr eleganten Kurven beschrieben, den Non Uniform Relational B-Splines,...“ [SM00, S. 296] 9 „.eine Fläche aus lauter kleinen, flachen Vielecken - Polygonen - “ [SM00, S.296] 10 „Unterteilungsflächen, die dem Wunsch entgegenkommen, die angenehm handhabbare NurbsGeometrie lokal...zu unterteilen.“ [SM00 S. 317] - 25 - Abbildung 9: Eine ‚Sphere’ als ‚Nurbs’, ‚Polygon’ und ‚Subdivision Surface’ Ein ‚Nurbs’-Objekt besteht aus Kurven und Flächen mit einer runden Oberfläche. Bei einem ‚Polygon’ handelt es sich um ein Objekt, dessen Oberfläche aus vielen Vielecken besteht und somit kantig ist. Eine ‚Subdivision Surface’ ist „eine iterative Methode zur Erzeugung runder Oberflächen aus groben vorgegebenen Kontroll-Meshes“11 [SRS]. Alle drei Oberflächenstrukturen besitzen bereits vordefinierte Formen zur Modellierung. Dies sind beispielsweise ein Würfel (‚Cube’) oder eine Kugel (‚Sphere’). Nachdem das 3D-Objekt in der gewünschten Form für die zu modellierende Figur ausgewählt wurde, kann das Objekt mit den Modellierungswerkzeugen bearbeitet werden. Diese Werkzeuge werden mit dem so genannten Pivot, einem Kreuz, welches der Benutzer in alle drei Richtungen des dreidimensionalen Raums bewegen kann (‚scale’), gesteuert. Das Pivot kann jedoch nicht nur Objekte bewegen. Es gibt noch zwei weitere Modi, den des Vergrößerns bzw. Verkleinerns (‚size’) und den des Rotierens (‚rotate’) (Abbildung 10). Abbildung 10: Pivot im ‚Scale’-, ‚Size’- , ‚Rotate’-Modus 11 „Meshing bezeichnet eine Gruppe von Verfahren in der Computergrafik. Hierbei wird eine z. B. mathematisch gegebene Oberfläche durch eine Menge kleinerer, meist ebener Elemente angenähert (approximiert). Am häufigsten kommen hier Dreiecks- oder Viereckselemente zur Anwendung.“ [MES] - 26 Wie bereits in den Abbildungen dargestellt, werden die Objekte von Linien umrandet, die CVs (‚Control Vertex’) genannt werden. Über diese Linien kann das Objekt in seiner Struktur und Positionierung in der Mayabühne verändert werden [SM00, S. 313]. 5.1.2 Beschreibung verschiedener Modi zur Objektmodellierung Im Folgenden werden die notwendigen Modi zur Gestaltung von Objekten näher erläutert, um die spätere Modellierung des Menschen besser nachvollziehen zu können. Zum individuellen Gestalten muss das Objekt in verschiedenen Modi bearbeitet werden. Innerhalb derer hat der Benutzer die Möglichkeit, das Objekt im Detail zu gestalten. Zunächst gibt es den Modus ‚Control Vertex’ (Abbildung 11), nicht zu verwechseln mit den CVs, in welchem einzelne Punkte des Objektes verändert werden können. Hierbei werden vor allem Details geändert und Feinheiten bearbeitet. Der Benutzer kann einzelne oder mehrere Punkte markieren und anschließend verändern (Abbildung 12). Abbildung 11: ‚Control Vertex’-Modus Abbildung 12: Bewegen von Punkten im ‚Control Vertex’- Modus - 27 Der nächste Modus nennt sich ‚Isoparm’ (Abbildung 13). In diesem Zustand kann das Objekt in eine feinere bzw. gröbere Struktur gebracht werden (Abbildung 14). Es können neue Einteilungen an dem Objekt vorgenommen werden indem neue CVs erzeugt werden. Dies ist notwendig um eine feinere Bearbeitung zu ermöglich. Außerdem können in diesem Modus durch Markierung einer Linie Schnitte im Objekt erzeugt werden. Hierdurch entstehen Löcher in der Figur, was im späteren Verlauf der Arbeit genauer erläutert wird [SM00, S. 372]. Abbildung 13: ‚Isoparm’-Modus Abbildung 14: Einfügen einer neuen CV im ‚Isoparm’-Modus Ein weiterer Modus ist der ‚Hull’-Modus (Abbildung 15). In diesem „werden die CVs mit Linien verbunden“ was dem Benutzer die Auswahl „mehrere CVs auf einmal“ erleichtert [HUL]. Ein Vorteil dieses Modus ist, dass die Linien bei einer Veränderung voneinander abhängig sind (Abbildung 16). Dies bedeutet, dass bei der Veränderung einer Linie sich die angrenzenden Linien ebenfalls verändern. Durch diese Bearbeitungsmethode entsteht ein fließender Übergang zwischen den unveränderten und den bearbeiteten CVs. - 28 - Abbildung 15: ‚Hull’-Modus Abbildung 16: Verschieben einer CV im ‚Hull’-Modus Es gibt jedoch nicht nur verschieden Zustände der Objekte, in welchen sie bearbeitet werden können. Eine andere Methode zur Modellierung eines Objektes ist das Arbeiten im ‚Live’-Modus. Hierfür wird zunächst das zu verändernde Objekt markiert und mit ‚Hotbox > Modify > Make Alive’ in den ‚Live’-Modus versetzt. Die ‚Hotbox’ wird aufgerufen, indem innerhalb der Mayabühne die Maus platziert und dann die Leertaste gedrückt wird. Automatisch erscheint das gesamte Menü von Maya und die gewünschten Funktionen können ausgewählt werden. Abbildung 17: Objekt normal, Objekt im ‚Live’-Modus - 29 Das Objekt wird im ‚Live’-Modus als ein grünes Gitter (Abbildung 17) abgebildet, welches die Umrandungslinien des vorherigen Objektes darstellt. Mit Hilfe des Werkzeuges ‚EP Curve Tool’ können Punkte auf diesem Gitter erzeugt werden, die sich anschließend zu einer Linie zusammenfügen lassen. Durch Aktivieren des Buttons ‚snap to grid’ in der oberen Menüleiste schmiegen sich die erzeugten Punkte an das grüne Gitter an. Die Punkte, welche mit dem Werkzeug erstellt werden, passen sich somit der Oberflächenstruktur des Objektes an und bilden seinen genauen Verlauf nach. Mit Hilfe dieses Verfahrens können Objekte, die aus mehreren Einzelteilen bestehen, zu einer einheitlichen Fläche zusammengefügt werden. Die erzeugten Linien können zu einer Fläche mit ‚Hotbox > Surfaces > Loft’ verbunden werden. Hierbei wird mit dem Kommando ‚loft’ eine Fläche zwischen den markierten Linien erzeugt [SM00, S 360]. Diese Darstellung der Modi ist keinesfalls vollständig. Jedoch werden die anderen von Maya angebotenen Modi in dieser Arbeit nicht verwendet, so dass sie in der Beschreibung vernachlässigt werden können. 5.1.3 Editoren für die Modellierung von Objekten in Maya Es gibt noch weitere Möglichkeiten der Modellierung in Maya. Eine dieser Möglichkeiten beim Gestalten findet nicht in der Mayabühne statt, sondern wird in einem Fenster, auch Editor genannt, durchgeführt. Die wichtigsten Editoren, die für das weitere Vorgehen der Modellierung des Menschen, der Kleidung und des Skeletts benötigt werden, sind im Folgenden erläutert. Zunächst gibt es das ‚Outliner’-Fenster12 (Abbildung 18), in welchem alle erzeugten Objekte, Kurven, Gelenke und Flächen, die sich auf der Mayabühne befinden, aufgelistet sind. 12 „Der Outliner listet alle Objekte der Szene untereinander. Objekte, die man aus den Augen verloren hat, findet man am besten im Outliner.“ [SM00, S. 91] - 30 - Abbildung 18: ‚Outliner’-Fenster In diesem Fenster können auch unsichtbare oder schlecht auswählbare Objekte markiert (Abbildung 19) und dann in der Bühne bearbeitet werden. Zusätzlich können die Objekte umbenannt werden. Abbildung 19: Markiertes Objekt im ‚Outliner’-Fenster - 31 Ein weiterer Editor ist der ‚Hypershade’-Editor (Abbildung 20), der das Erstellen von Materialien und Texturen ermöglicht. Hier können verschiedene Materialien, wie ‚Phong’ und ‚Blinn’13 für glänzende Texturen oder ‚Lambert’14 für eine matte Oberfläche erstellt werden. Zudem gibt es die Möglichkeit, bereits vordefinierte Texturen oder selbst erstellte Bilder auf das jeweilige Material zu legen und beides miteinander zu verbinden. [SM00, S.24-25]. Abbildung 20: ‚Hypershade’-Fenster Ein weiteres Fenster, der ‚Hypergraph’-Editor 15 (Abbildung 21), ermöglicht in Maya das Gestalten einer Hierarchie. Dieser Vorgang wird im späteren Verlauf der Arbeit für die Strukturierung und Bestimmung von Abhängigkeiten im Skelett benötigt. Eine Hierarchie ist besonders wichtig, wenn Teile eines Objektes nur zu bestimmten Abläufen aktiviert sein sollen. Beispielweise soll sich beim Hinknien auch der Oberkörper mit nach unten bewegen. Allerdings sollen die Beine still stehen, wenn sich der Oberkörper um die eigene Achse dreht [BR94, S.148]. Diese Verbindungen werden mit einer gut strukturierten Hierarchie innerhalb dieses Editors umgesetzt. Zusätzlich gibt es innerhalb dieses Fensters die Möglichkeit verschiedene Abhängigkeiten unter den Objekten zu erstellen, um die Ausgangstruktur zu verändern. Darüber hinaus können geknüpfte Verbindungen getrennt werden. 13 Ein Phong erzeugt ein Glanzlicht und es lassen sich Reflexionen im Material darstellen. [BCLT] „Das Lambert Material eignet sich gut für matte Oberflächen. Es simuliert eine Art rauhe Oberfläche, welche die meisten Lichtstrahlen absorbiert“ [LAM], [BCLT] 15 „Der Hypergraph ist die ideale Stelle, um einen Überblick über Verknüpfungen zu bekommen und neue Verknüpfungen auszulöschen.“ [SM00, S. 240] 14 - 32 - Abbildung 21: ‚Hypergraph’-Fenster mit Gelenken des Skeletts Dies sind lediglich die Editoren, die zur Modellierung im dreidimensionalen Raum in dieser Arbeit verwendet wurden und zum Verständnis der folgenden Kapitel notwendig sind. Maya bietet noch eine Vielzahl weiterer Werkzeuge, die jedoch in der vorliegenden Arbeit nicht benutzt und somit nicht aufgezählt werden. 5.2 Modellierung des Charakters Nach der Erklärung einiger Hilfsmittel und Funktionen von Maya wird im folgenden Kapitel die Modellierung des menschlichen Modells beschrieben. Die hierbei verwendeten Techniken sowie die gewählte Reihenfolge bei der Gestaltung der Körperteile sind lediglich eine von vielen Möglichkeiten, um eine solche Aufgabe zu lösen. 5.2.1 Die Modellierung des Kopfes Bei der Gestaltung eines Menschen wird zunächst der Kopf modelliert, weil dessen Erstellung zum einen sehr zeitaufwendig ist und zum anderen eine Struktur für die Gestaltung des gesamten Charakters vorgibt. Das Gesicht ist für die Wahrnehmung eines Menschen ein wichtiges Körperteil, welches zudem meist als erstes wahrgenommen wird. - 33 Zum Erstellen eines menschlichen Kopfes wird zuerst eine ‚nurbsSphere’ (Abbildung 22) erzeugt. Es wird die ‚Nurbs’-Form gewählt, da die Bearbeitung eines ‚Polygon’-Objektes zu grob und kantig wäre und somit das Formen filigraner Strukturen nicht möglich. Die Achse der ‚Sphere’ wird um 90° gedreht, so dass die Z-Achse als Ursprungsachse der ‚Sphere’ dient (Abbildung 23). Das Verändern der Achse ist sinnvoll, da hierdurch das Gestalten des Mundes leichter ist, da die CVs bereits eine runde Form an der Abbildung 22: Ausgangs- gewünschten Stelle vorgeben. form des Kopfs Abbildung 23: ‚nurbsSphere’ mit Z und Y als Ursprungsachse Abbildung 24: Eindellen der beiden inneren CVs Der Mund ist in diesem Fall das erste Gesichtsmerkmal, das geformt wird. Hierfür werden die beiden inneren CVs der ‚nurbsSphere’ im ‚Control Vertex’-Modus des Objektes markiert und mit dem ‚Scale’-Pivot in die negative Z-Richtung gezogen, so dass ein Hohlraum entsteht (Abbildung 24). Aus den daneben liegenden CVs werden anschließend die Lippen geformt. Hierbei gibt es die Möglichkeit, neue - 34 ‚Isoparms’ für Details in der Struktur hinzuzufügen, um eine möglichst realistische Lippenform zu gestalten. Als nächstes werden die Nase und das Kinn (Abbildung 25) in der bereits beschriebenen Weise geformt [MC04, S. 33-34]. Der Hals wird mit einer anderen Methode erstellt. Hierfür werden zunächst auf der Rückseite des Kopfes die ersten beiden ‚Isoparms’ entfernt, damit ein Loch für die Halsöffnung entsteht. Das Abtrennen der Hinterkopffläche geschieht durch Markieren dieser ‚Isoparms’ und Ausführen der Aktion ‚Hotbox > Edit NURBS > Abbildung 25: Mund und Nase Detach Surfaces’ (Abbil- dung 26). Zum Modellieren des Halses wird anschlie- ßend in den ‚Hull’-Modus gewechselt. Mit Hilfe dieser Verformungsmethode wird das Loch an die spätere Position der Halsöffnung bewegt (Abbildung 27) und in eine angemessene Größe überführt. Beim Verschieben der beiden äußeren Kreise verzerren und rotieren Abbildung 26: Surface mit die angrenzenden Linien mit, so dass ein fließender Loch Übergang erhalten bleibt. Anschließend werden der Hinterkopf und das Kinn an die erzeugte Öffnung angepasst [MC04, S. 34-35]. Der nächste Schritt beim Gestalten des Kopfes ist Abbildung 27: Halsloch verschieben das Verfeinern der bereits geformten Elemente und die Anpassung der einzelnen Gesichtsteile aneinander. Die Nase benötigt noch Nasenflügel, die im ‚Control Vertex’Modus geformt werden. Anschließend werden die Augenhöhlen mit derselben Variante gestaltet (Abbildung 28). Abbildung 28: Gesicht - 35 Damit beide Gesichthälften identisch sind, wird zunächst nur an einer Gesichtshälfte gearbeitet. Nach Abschluss der Modellierung wird die nicht bearbeitete Gesichtshälfte abgetrennt (Abbildung 29) und gelöscht. Zur Vollendung des gesamten Gesichtes wird die fertige Gesichtshälfte an der XAchse gespiegelt und anschließend mit der anderen Gesichtshälfte mit ‚Hotbox > Edit NURBS > Attach Surfaces’ verbunden (Abbildung 30). Dabei ist darauf zu achten, dass Abbildung 30: Gesicht gespiegelt alle Änderungen am Gesicht Abbildung 29: Kopf vor dem Spiegeln durchgeführt gespalten werden, da sonst zwei unterschiedliche Hälften entstehen [SM00, S. 35-41]. 5.2.2 Gestalten von Augen und Ohren für den Kopf Nachdem die Grundform des Kopfes modelliert ist, werden die dazugehörigen Augen, Augenlider und Ohren erstellt. Anfangs werden die Augen geformt. Hierbei wird aus zwei ‚Spheres’ der gleichen Form und Größe ein Augapfel gestaltet. Hierzu wird eine ‚Sphere’ in die andere geschoben, so dass sich beide in einer kleinen Fläche überschneiden (Abbildung 31). Als nächstes wird die erste ‚Sphere’ markiert und mit dem Werkzeug ‚Hotbox > Edit NURBS > Booleans > Subtract Tool’ ausgewählt. Durch Auswählen der zweiten ‚Sphere’ mit diesem Werkzeug wird eine Kuhle in der ersten ‚Sphere’ erzeugt, welche der Iris entsprechen wird. Abbildung 31: Überschneidung der ‚ Spheres’ Abbildung 32: Nach benutzen des ‚Subtract Tools’ - 36 Diese Aktion lässt die zweite ‚Sphere’ verschwinden und in der ersten ‚Sphere’ eine Kuhle zurück (Abbildung 32). Die zweite ‚Sphere’ ist jedoch nicht gelöscht worden sondern nur unsichtbar und kann immer noch im ‚Outliner’-Fenster ausgewählt werden, um die Größe der Iris zu verändern. Als nächstes wird das Auge eingefärbt. Der Augapfel wird weiß und die Iris blau koloriert. Die Farben entstehen im ‚Hypershade’-Editors. Es werden zwei ‚Phongs’ erzeugt, da mit diesem Material die Farben einen gewissen Glanz erhalten, welcher für eine realitätsnahe Darstellung des Auges wichtig ist. Als nächstes wird eine neue ‚Sphere’ für die Pupille erzeugt. Diese wird vor dem Augapfel platziert und an die Größe einer Pupille angepasst. Ist die ‚Sphere’ an der gewünschten Stelle platziert, wird sie ebenfalls eingefärbt (Abbildung 33). Die Pupille erhält eine schwarze ‚Lambert’-Textur. Abschließend werden die drei modellierten Au- Abbildung 33: Pupille vor genteile mit einer vierten ‚Sphere’ Auge umrandet, um das Auge zusammenzuhalten. Diese ‚Sphere’ erhält ebenfalls ein ‚Phong’Material, welches jedoch fast durchsichtig ist. Abbildung 34: Augen in Kopf Der dadurch erzeugte Effekt gibt dem Auge eine milchige Erscheinung, die das Auge realistisch glänzen lässt. Zum Abschluss wird das Auge dupliziert und in die beiden Augenhöhlen des Kopfes eingepasst (Abbildung 34). Der nächste Schritt ist das Erstellen von Augenlidern, welche an die erzeugten Augen anzupassen sind. Hierzu wird der Kopf in den ‚Live’-Modus versetzt (Abbildung 35). Mit dem ‚EP Curve Tools’ werden anschließend einige Punkte, entsprechend Abbildung 35: Kopf der Form eines Lids, auf der Gitterstruktur im ‚Live’-Modus des Kopfes platziert. Anschließend wird Abbildung 36: Kopf mit Lidlinien der Kopf wieder in den ursprünglichen Objektmodus zurückgeführt (Abbildung 36). - 37 Zum anschließenden Arbeiten mit der erzeugten kreisförmigen Linie muss diese dupliziert werden, da die erstellte ein Teil des Kopfes ist und nicht bearbeitet werden kann. Die neue Linie wird siebenfach kopiert, um die Form eines Augenlids zu gestalten. Zur Überprüfung ob sie die gewünschte Lidform darstellen, werden die kreisförmigen Linien von der Ursprungslinie bis zur Letzten markiert und mit ‚Hotbox > Surfaces > Loft’ zu einer Fläche verbunden (Abbildung 37). Die abschließende Anpassung des Lids an das Auge erfolgt mit den bereits vorgestellten Skalierungs- und Verformungstools. Ist das Augenlid in die Augenhöhle und an das eine Auge angepasst, wird das Lid gespiegelt und in Abbildung 37: Augenlid die zweite Augenhöhle und an das andere Auge angepasst geloftet [MC04, S. 41-45]. Als letztes werden die Ohren des Kopfes modelliert. Die Ohren werden ebenfalls mit dem Kopf im ‚Live’-Modus und dem ‚EP Curve Tool’ erstellt. Hierzu werden die erzeugten Punkte der Form eines Ohres entsprechend am Kopf platziert. Anschließend wird die entstandene Linie, welche im Kopf eingepasst ist, dupliziert und neunmal kopiert. Damit aus den Linien eine entsprechende detaillierte Ohrenform entstehen kann, werden neun Linien benötigt. Diese Linien werden an die gewünschte Größe angepasst und an der gewünschten Stelle platziert (Abbildung 38). Zum Abschluss wird das Ohr zu einer Fläche verbunden, an den Kopf angepasst und gespiegelt. Abbildung 38: Ohr aus Linien und als Fläche Die Modellierung des Kopfes ist somit abgeschlossen [MC04, S. 45] - 38 5.2.3 Die Modellierung des menschlichen Oberkörpers Die Gestaltung des Oberkörpers beginnt ebenfalls mit der Erstellung einer ‚nurbsSphere’. Diese Fläche wird der Form eines Oberkörpers entsprechend angepasst, so dass eine Taille sowie Schultern zu erkennen sind. Die Modellierung des Oberkörpers erfolgt mit den bereits erläuterten Werkzeugen, Funktionen und Modi (Abbildung 39). Zur Darstellung von Brust- und Bauchmuskeln sowie den Rippen und der Schlüsselbeine werden weitere ‚Spheres’ erzeugt und der Struktur entsprechend gestaltet. Die erzeugten Flächen werden auf dem Oberkörper an den anatomisch korrekten Stellen platziert und in den Körper eingelassen. Die erzeugten Muskeln und Knochen werden im nächsten Schritt der Modellierung mit der geformten O- Abbildung 39: Körper ohne Muskeln berkörperfläche verbunden. Dies ist nur möglich, wenn sie einander berühren. Die CVs der verschiedenen ‚Spheres’ sollen sich lediglich überschneiden, damit die muskelähnlichen Objekte auf dem Körper zu sehen sind (Abbildung 40). Nach dem Erstellen des Oberkörpermodells werden alle Objekte markiert und in Polygone umgewandelt und miteinander verbunden. Die Umwandlung in ein Polygon ist notwenig, da die einzelnen ‚Nurbs’-Flächen nicht zu einer einzigen Fläche bzw. Schablone, verbunden werden können. Auf Grund von Überschneidungen der zusammengefügten Objekte Abbildung 40: Oberkörper mit Muskelflächen kreuzen sich einige Flächen im Inneren des Körpers, die jedoch keinen Einfluss auf die Modellierung haben. Anschlie- ßend wird das zusammengefügte Polygonobjekt in den ‚Live’-Modus überführt (Abbildung 41). Erneut wird das ‚EP Curve Tool’ aufgerufen, um Linien vom Hals bis zum Rumpf des Körpers zu zeichnen. Es ist sehr wichtig, sich die Anzahl der erzeugten Punkte einer Linie zu merken, da die erzeugten Linien am Ende zu einer Abbildung 41: Ober- Fläche zusammengeschlossen werden. Falls die Anzahl körper als ‚Polygon’ unterschiedlich gewählt ist, entstehen sich kreuzende CVs - 39 und somit Fehler in der Darstellung. Zusätzlich muss bei der Positionierung der Linienpunkte auf die Oberflächenbeschaffenheit geachtet werden, da Muskel- und Rippenerhebungen erkennbar sein sollen. Für eine optimale Platzierung der Linienpunkte entlang der Muskeln wird jede Linie entlang des Körpers einzeln gezeichnet (Abbildung 42). Abbildung 42: Körper im ‚Live’-Modus und als Objekt mit Linien Bei diesem Verfahren wird ebenfalls nur eine Hälfte des Oberkörpers mit Linien überzogen. Nachdem alle Linien platziert sind, werden diese zu einer Fläche verbunden (Abbildung 43). Die entstandene Fläche ist kein Polygon, sondern eine ‚Nurbs’-Fläche. Anschließend können Veränderungen an der Oberflächenstruktur mit den bereits benannten Werkzeugen und Modi vollzogen werden. Sind alle Änderungen eingearbeitet, wird die Oberfläche gespiegelt und zu einem Oberkörper verbunden [MC04, S. 58-59]. Abbildung 43: gelofteter Oberkörper 5.2.4 Gestalten der Arme und Beine anhand des Oberkörpers Der nächste Schritt beim Gestalten des Menschen ist die Modellierung der Arme und Beine, die anhand des bereits modellierten Oberkörpers geformt werden. Bei der Gestaltung von Armen und Beine wird erneut das ‚EP Curve Tool’ eingesetzt. Zunächst wird der Einsatz dieses Hilfsmittels an den Armen erläutert. Die Gestaltung der Arme orientiert sich am Oberkörper, wobei dieser in den ‚Live’-Modus versetzt wird. An der anatomisch richtigen Position der Arme wird - 40 eine kreisförmige Linie mit dem ‚EP Curve Tool’ erstellt. Da diese Linie dem Körper zugehörig ist, wird sie dupliziert, um verändert werden zu können. Durch erneutes Kopieren und anschließendes Verschieben und Verformen der erzeugten Linien, wird die Form eines Armes modelliert (Abbildung 44). Die verformten Linien des Arms stellen Schulter, Trizeps, Ellbogengelenk, Unterarm und Handgelenk dar. Die Hand wird hierbei noch nicht modelliert, Abbildung 44: Körper mit kreisförmigen Armlinien dies erfolgt später unabhängig vom Arm. Diese Armlinien werden nach der ersten Anordnung ebenfalls von der Schulter bis zum Handgelenk hin zu einer Fläche mit ‚Hotbox > Surfaces > Loft’ verbunden (Abbildung 45). Der entstandene Arm wird anschließend an seine anatomische Form angepasst, was mit den bereits erwähnten Werkzeugen geschieht. Ist die Gestaltung des Arms vollendet, wird dieser zwecks Erstellung des zweiten Arms gespiegelt und auf der anderen Körperhälfte platziert [MC04, S. Abbildung 45: Arm geloftet 59-60]. Als nächstes werden die Hände modelliert. Hierfür wird zunächst ein ‚polygonCube’ erzeugt und der Form einer Handfläche angepasst. Nachdem die Grundform erstellt ist, wird das Polygonobjekt in eine ‚Subdivision Surface’ umgewandelt (Abbildung 46). Anschließend wird der ‚Cube’ in den Polygonmodus mit ‚rechte Maustaste > polygon’ überführt und das Abbildung 46: ‚polygonCube’ und als Subdivision ‚Split Polygon Tool’ mit ‚Hotbox > Edit Polygons > Split Polygon Tool’ aufgerufen. Es werden sechs Linien auf der Vorderseite der Polygonfläche gezogen, um eine Einteilung für die vier Fingeröffnungen zu erstellen. Anschließend wird eine weitere Linie sowohl auf der oberen und als auch auf der unteren Seite des ‚Cube’ gezogen, welche - 41 circa 1/3 der Fläche begrenzen. Die restlichen 2/3 der Fläche werden im späteren Verlauf der Modellierung der Hand zur Handfläche geformt. Als nächstes werden die Linien auf der Vorderseite mit der oberen und der unteren Linie in einer Dreiecksform miteinander verbunden (Abbildung 47). Nachdem alle Linien gezogen sind, wird das Abbildung 47: Polygonmodus mit gezo- Objekt im ‚Face’-Modus mit ‚rechte Maus- genen Linien taste > face’ abgebildet. In diesem Modus wird die Fläche, an welcher der Zeigefinger platziert werden soll, markiert, das Werkzeug ‚Hotbox > Edit Polygon > Extrude Face’ aufgerufen und der erste Finger erstellt. Dieser entsteht durch Herausziehen des ‚Faces’ mit diesem Werkzeug. Hierdurch werden neue Einteilungen für den Finger erzeuget, wie in der Abbildung 48 zu sehen ist. Anschließend werden die erzeugten Flächen mit den bereits erwähnten Pivot-Werkzeugen, an die Form eines Fingers angepasst. Als nächstes wird der Daumen modelliert. Hierfür wird die Fläche, an welcher Abbildung 48: ‚Face’-Modus und erster der Daumen positioniert werden soll, Finger markiert. Mit demselben Werkzeug, wie bei der Gestaltung des Fingers, werden zwei neue Abteilungen herausgezogen. Die erste neue Fläche bleibt unverändert. Allerdings wird die zweite verkleinert, gedreht und unterhalb des ersten Finger platziert (Abbildung 49). Abbildung 49: Beginn Daumen - 42 Dieser Schritt der Modellierung bedarf einiger Zeit, da der Daumen der schwierigste Teil beim Gestalten der Hand ist. Er besitzt eine andere Form und Position als die anderen Finger. Der Daumen liegt außerdem leicht unterhalb der anderen Finger und ist nach innen gedreht, worauf natürlich geachtet werden muss. Nachdem die Positionierung des Daumengelenks zufrieden stellend abgeschlossen ist, werden alle ‚Faces’, an denen die Finger angesetzt werden sollen, sowie die Öffnung am Handgelenk markiert und gelöscht, so dass dort Löcher entstehen. Als nächstes wird das Objekt in den Modus ‚Vertex’ überführt. Innerhalb dieses Modus wird ein Handgelenk geformt (Abbildung 50). Ebenfalls im ‚Vertex’-Modus werden nun mit Hilfe des Pivots die Feinheiten des bereits erstellten Fingers bearbeitet. Im Anschluss werden die Gelenkeinkerbungen des Fingers geformt, wofür in den Abbildung 50: Öffnung des Handgelenks ‚Edge’-Modus gewechselt wird, da in diesem einzelne Linien markiert und bearbeitet werden können (Abbildung 51). In dem Modus können vor allem die Fingerabschnitte gut und detailliert gestaltet werden. Abbildung 51: Finger im ‚Edge’-Modus Mit demselben Verfahren wird auch die Oberseite des Fingers gestaltet, um die Gelenke auf ihnen zu formen. Nachdem der erste Finger modelliert ist, wird erneut in den ‚Face’-Modus gewechselt. Damit die anderen Finger nicht erneut gestaltet werden müssen, wird der erste Finger markiert, kopiert und in die erzeugten - 43 Löcher eingepasst. Vom Prinzip sind alle Finger gleich, es müssen lediglich die Größe und Breite angepasst werden. Beim Gestalten des Daumes muss weiterhin beachtet werden, dass dieser ein Fingergelenk weniger besitzt. Für die Gestaltung des Daumens wird ein Gelenk des ersten Fingers gelöscht und lediglich der restliche Teil des Fingers angepasst. Zusätzlich muss beim Daumen auch die Platzierung verändert werden, da dieser seitlich und leicht gedreht positioniert Abbildung 52: fertige Hand ist (Abbildung 52). Nachdem mit den erläuterten Werkzeugen die ‚Subdivision’ an die Form einer Hand angepasst ist, wird diese in ein Polygon umgewandelt [HAN]. Diese Überführung ist notwendig, da der gesamte Körper im späteren Verlauf der Modellierung ebenfalls in ein Polygon umgewandelt wird. Damit sich Hand und Körper zusammenfügen lassen, müssen alle Objekte aus demselben Objekttyp, einem Polygon, bestehen. Da der restliche menschliche Körper jedoch zunächst aus ‚Nurbs’ geformt ist, werden die Hände erst nach der Umwandlung aller Körperteile in ein Polygon an den Körper angefügt. Als nächstes wird die Modellierung der Beine und Schuhe erläutert. Die Gestaltung der Beine erfolgt in gleicher Art und Weise wie die der Arme. Die kreisförmigen Linien sind hierbei am Oberschenkel, dem Knie, der Wade und zuletzt an der Ferse platziert (Abbildung 53). Die weitere Modellierung erfolgt analog zur Gestaltung des Armes [MC04, S. 60]. Zum Abschluss des Körpers wird noch die Modellierung der Schuhe beschrieben. Hierbei wird ein anderes Verfahren angewendet. Die Gestaltung der Schuhe beginnt mit einer ‚nurbsSphere’, welche ihren Ursprung in Abbildung 53: Beinlinien der Z-Achse hat. Anschließend wird die zweite CV einer Seite markiert und abgeschnitten, um eine Öffnung für das Bein zu erzeugen. Als nächstes folgt die Gestaltung des Fußgelenks. Dies geschieht mit demselben Verfahren wie bei der Modellierung des Halses. - 44 Zum Abschluss wird die ‚Sphere’ der Form eines Schuhes angepasst (Abbildung 53), dupliziert und am Ende des Beins platziert [SM00, S. 358]. Abbildung 53: Schuh 5.2.5 Zusammenfügen der Körperteile Nachdem alle Körperteile für den Menschen erstellte wurden, müssen sie noch zu einer Einheit zusammengefügt werden. Hierzu werden alle modellierten Objekte in eine Mayabühne kopiert und an ihren zugehörigen und anatomisch richtigen Positionen platziert (Abbildung 54). Damit die einzelnen Körperteile perfekt aneinander passen, müssen Löcher in den Oberkörper geschnitten werden (Abbildung 55). Abbildung 54: Menschen zusammengesetzt Abbildung 55: Menschen anpassen Dies ist notwendig, damit die CVs der Arme und Beine, mit denen des Oberkörpers übereinstimmen. Es sollen keine überschüssigen Flächen entstehen, wie es bei der ersten Gestaltung des Oberkörpers, bei der die Flächen in den Innenraum der Figur ragten, der Fall war. Die einzelnen Körpersteile müssen eine einzige, sich zusammen fügende Oberfläche ergeben. Hierfür werden zunächst Schnitte mit ‚Hotbox > Edit Surfaces > Detach Surface’ an den Einpassungsstellen der Arme und Beine gesetzt. Die Schnitte erzeugen sowohl an der Arm- als auch an der Beineinpassung ein Rechteck. - 45 Mit diesem Verfahren gelingt eine korrekte Anpassung der verschiedenen Körperteile [MC04, S. 70-73]. Nachdem der Oberkörper für die Anpassung der Gliedmaßen vorbereitet ist, wird zunächst ein Arm an der Schulter angefügt (Abbildung 56). Abbildung 56: Loch im Körper und anzupassender Arm Hierbei ist darauf zu achten, dass die Anzahl der CVs um das entstandene Loch mit denen des Armes übereinstimmen, da sonst bei der Anbindung der beiden Körperteile unschlüssige Verbindungen der CVs entstehen. Falls die Anzahl der CVs von Oberkörper und Armen nicht übereinstimmen, können neue CVs im ‚Isoparm’-Modus erzeugt oder entfernt werden. Diese Anpassung bedarf viel Zeit und hoher Genauigkeit, da die CVs in allen drei Raumdimensionen integriert werden müssen. Falls das Zusammenfügen ungenau erfolgt, können im späteren Modell Löcher entstehen. Die Anpassung erfolgt mit den bereits beschriebenen Modellierungswerkzeugen. Nachdem der Arm in den Körper integriert ist, wird der bearbeitete Arm gespiegelt und an der anderen Körperseite eingesetzt. Der andere Arm, welcher noch nicht an den Oberkörper angepasst war, wurde vorher gelöscht. Da beide Körperhälften gleich sind, müsste sich der Arm in das Loch auf der anderen Seite einfügen. Trotzdem sollte die andere Seite kontrolliert werden, da beim auseinander schneiden eine Verformung der Oberflächenstruktur entstanden sein könnte. In derselben Art und Weise muss die Anpassung der Beine vollzogen werden (Abbildung 57). Diese werden mit dem gleichen Verfahren und denselben Werkzeugen wie die Arme an die erstellten Löcher angepasst und somit an den Oberkörper angefügt. Abbildung 57: Beine an Becken anpassen - 46 Nachdem der Körper seine endgültige Form erhalten hat, muss noch der Kopf an den Hals des Oberkörpers angepasst werden. Dies erfolgt ebenfalls mit den bereits genannten Methoden und Werkzeugen. Zuletzt wird eine weitere ‚nurbsSphere’ erzeugt und anschließend halbiert. Diese wird der Form eines Pos entsprechend geformt und am unteren Rücken sowie dem Oberschenkel platziert. Zum Abschluss wird die ‚Sphere’ dupliziert und in derselben Art und Weise an die andere Körperhälfte angebracht. Das Zusammenfügen der einzelnen Teile ist notwendig, um eine einzige Hautfläche zu erstellen. Die Haut wird im späteren Verlauf der Arbeit benötigt, damit eine realitätsnahe Simulation der menschlichen Bewegungen erzeugt werden kann. Wären die Körperteile nicht aneinander angepasst, könnten bei den Bewegungen die überstehenden Flächen zum Vorschein kommen und eine falsche Darstellung hervorrufen. Für eine anschauliche und korrekte Simulation ist dieser aufwendige Vorgang notwendig (Abbildung 58). Abbildung 58: Körper zusammengefügt 5.2.6 Umwandeln des zusammengefügten Modells in ein Polygon Nachdem die Modellierung und Anpassung der Körperteile vollendet ist, wird das gesamte Modell in ein anderes Format überführt. Es wird in ein Polygon umgewandelt. Diese Umwandlung ist notwendig, da die einzelnen Körperteile miteinander verbunden werden müssen, um eine einzige Hautfläche zu erhalten. Aus den - 47 modellierten ‚Nurbs’-Flächen kann keine einheitliche Oberfläche erstellt werden, da ‚Nurbs’ beim Zusammenfügen keine einheitliche Struktur hervorbringen. Für die Überführung werden alle Körperteile ausgewählt und mit ‚Hotbox > Modify > Convert > NURBS to Polygon’ umgewandelt. Der Körper behält auf Grund der festgelegten Einstellungen die vorherige Form. Anschließend werden die Hände in die aktuelle Mayabühne kopiert und an den Handgelenken platziert. Die Hände werden mit der offenen Seite an die Handgelenköffnung des Armes angepasst. Anschließend werden die Polygone mit Ausnahme der Augen erneut ausgewählt und mit ‚Hotbox > Polygon > Combine’ zu einem Element zusammen gefügt [MC04, S. 86-87]. Die Augen werden nicht in den Körper mit eingebunden, da diese eine andere Farbe als der Körper erhalten. Es gibt in den Materialien für die Farbgestaltung von Maya keine Textur, welche einem modellierten Objekt die gewünschte Farbgebung ermöglichen könnte. Die Augen und die Haut müssen zwei unterschiedliche Materialien erhalten. Allerdings gehören die Augen trotzdem zum gesamten Körper, jedoch nicht zum Körperobjekt. Die Farben für die Augen wurden bereits erstellt und zu den jeweiligen Flächen hinzugefügt. Die Haut erhält ein ‚Phong’ Material mit einer hautfarbenen Farbe. Zum Abschluss wird diese Textur auf den Körper gelegt, so dass dieser nun auch farblich einem Menschen ähnelt (Abbildung 59). Abbildung 59: fertiger Mensch mit Farbe - 48 Die Modellierung des Menschen ist somit abgeschlossen. Der Körper dient nun als Vorlage für die Erstellung des Skeletts. Die in dieser Arbeit für die Modellierung der Körperteile gewählte Reihenfolge ist sinnvoll, da jeder Schritt auf den vorherigen aufbaut und somit Grundlage für die weitere Gestaltung ist. Zudem kann die Entstehung eines Menschen in dieser Reihenfolge gut nachvollzogen werden. Dies schließt allerdings in keiner Weise eine andere Vorgehensweise aus. Wie dem aufmerksamen Leser bereits aufgefallen sein wird, hat der dargestellte Mensch keine Haare. Wie in den Anforderungen des Menüs definiert, ist eine notwendige Bedingung das schnelle Rendern der Szene. Da Haare in der Darstellung sehr rechenintensiv sind, wurde auf sie verzichtet. Der generelle Aufbau des Menschen hat sich ebenfalls an dieser Bedingung orientiert, weshalb keine übermäßig rechenaufwendigen Attribute in der Szene enthalten sind. 5.3 Aufbau des Skeletts für den Charakter Im folgenden Kapitel wird die Anfertigung eines Skelettes für den bereits modellierten Körper beschrieben. Für die Simulation von menschlichen Bewegungen im dreidimensionalen Raum sind Knochen und Gelenke notwendig, so dass die Erzeugung eines Skeletts für die gewünschten Bewegungen des Modells notwendig ist. Die Gestaltung dieser benötigten Elemente und deren Abhängigkeiten voneinander werden im Folgenden erläutert. Außerdem wird die Anpassung des erzeugten Skeletts an das bereits geformte Modell beschrieben. 5.3.1 Vorgehensweise beim Erstellen eines Skeletts Nachdem der Körper modelliert ist, wird dieser zunächst in eine Ebene in der Mayabühne eingebunden. Der Einsatz von Ebenen ermöglicht, dass die dazugehörigen Objekte beispielsweise unsichtbar gemacht oder in andere Zustände überführt werden können. Hierzu gehört auch der ‚Template’-Zustand, der das Ebenenabhängige Objekt in eine Schablone umwandelt, die zwar zu sehen ist, aber nicht verändert werden kann, solange das Objekt in diesem Zustand ist. Die verschiedenen Zustände werden durch Drücken des entsprechenden Feldes, wie in der Abbildung 60 zu sehen ist, eingestellt. - 49 Der Name der Ebene steht hinter den drei Kästchen. Die erste Box bestimmt, ob das Objekt zu sehen ist (V) oder nicht (kein V). In der zweiten Box werden die annehmbaren Zustände eingestellt. Ist diese Box leer, ist das Objekt veränderbar. Ist dort allerdings ein T zu sehen, ist der ‚Template’-Zustand eingestellt und das ebenenabhängige Objekt kann als Schablone verwendet werden. Im dritten Kästchen kann eine Farbe für die Ebene eingestellt werden, was jedoch keine Auswirkung auf das Objekt oder seine Abbildung 60: Ebenenfenster Bearbeitung hat [MS00, S. 412]. Für die Skelettbildung wird der menschliche Kör- per an eine neue Ebene mit Namen „Mensch“ gebunden. Nach dem Anbinden des Körpers an diese Ebene kann dieser alle Zustände, welche diese Verbindung ermöglicht, einnehmen (Abbildung 61). Abbildung 61: Ebenen-Fenster mit Mensch im ‚Template’-Zustand Die wichtigsten Werkzeuge beim Erzeugen eines menschlichen Skelett sind das ‚Joint’ und das ‚Mirror Joint’ Tool. Das ‚Joint’ Tool hat jedoch noch eine Erweiterung, das ‚IK Handle’, welches zum Erstellen von Abhängigkeiten innerhalb des Gelenkgerüsts zuständig ist. Ein Beispiel hierfür ist das Kniegelenk, welches ge- - 50 beugt werden soll, wenn der Fuß angehoben wird. Hierbei wird ein ‚IK Handle’ eingesetzt, um die Bedingung, dass das Knie eingebeugt wird, wenn sich der Fuß hebt, festzulegen. Dies sind die Funktionen, die bei der Erstellung des Skeletts eingesetzt werden. Allerdings sind dies nicht alle möglichen Methoden, welche Maya in diesem Bereich zur Verfügung stellt. Da sie jedoch nicht bei der Erstellung des Skeletts verwendet werden, ist es nicht notwendig sie an dieser Stelle zu erwähnen. 5.3.2 Modellierung des Skeletts Für die Gestaltung des Skeletts wird der Körper zuerst in den ‚Template’-Zustand versetzt. Mittels dieser Schablone können Gelenke an den entsprechenden Positionen platziert werden. Eine genaue Anpassung des Skeletts an den Körper ist notwendig, damit beim Verbinden der Beiden die Gelenke an den richtigen Körperstellen platziert sind und die Bewegungen korrekt ausgeführt werden können. Die Gestaltung des Skeletts beginnt mit dem Erzeugen der Beingelenke. Da das Knie gebeugt werden soll, wird ein ‚IK Handle’ beim Erstellen der Beingelenke hinzugefügt. Als nächstes werden vier Joints in der ‚Side’-Ansicht platziert, und zwar am Oberschenkel, am Kniegelenk, am Knie und an der Ferse (Abbildung 62). Wenn nun das Fersengelenk nach oben bewegt wird, beugt sich automatisch das Knie. Anschließend wird der ‚Hypergraph’-Editor geöffnet und die erzeugten Joints werden benannt, um sie einfacher auswählen und auseinander halten zu können (Abbildung 63). Dieser Vor- Abbildung 62: Beingelenke gang ist wie bereits in der Einführung des ‚Hypershade’Editors beschrieben für die Übersicht und das spätere Bilden einer Hierarchie sehr wichtig. Abbildung 63: benanntes Bein im ‚Hypergraph’-Editor - 51 Beide Beine haben dieselben Gelenke, weswegen die Gelenke mit dem Werkzeug ‚Mirror Joint’ gespiegelt und am anderen Bein des Körpers automatisch platziert werden können. Das Spiegeln der Joints erfolgt im Anschluss an das Erstellen einer Gelenkgruppe, damit die Platzierung auf der anderen Seite direkt vorgenommen und die Gelenke umbenannt werden können. Durch direktes Spiegeln bleibt eine übersichtliche Darstellung innerhalb des ‚Hypergraph’-Editors erhalten. Die Gelenke und Bewegungsmöglichkeiten werden an die gespiegelte Gelenkkette weitergegeben. Natürlich müssen die Joints für die andere Seite umbenannt werden, da links und rechts zur Übersicht und späteren Bearbeitung unterscheidbar sein müssen. Als nächstes entstehen die Fußgelenke. Hierfür werden drei Joints benötigt, und zwar an der Ferse, dem Fußballen und am Zehenende. Es wird kein ‚IK Handle’ benötigt. Nachdem die Beine vollendet sind, wird die Hüfte erstellt. Hierfür sind erneut drei Gelenke ohne ‚IK Handle’-Funktion notwendig. Die Gelenke werden in der Mitte des Körpers, am Beckenknochen und am Beingelenk platziert. Die neuen Gelenke werden selbstverständlich benannt und anschließend gespiegelt (Abbildung 64). Nachdem der Unterkörper alle notwendigen Gelenke besitzt, wird der Rücken erstellt. Der Rücken erhält fünf Gelenke, welche an der Hüfte, dem unteren Rückenbereich, am Beginn des Brustkorbs, in der Mitte des Brustkorbes und am Hals platziert werden. Die Wirbelsäule wird selbstverständlich nicht gespiegelt, da nur eine benötigt wird und es ist keine ‚IK Handle’-Funktion notwendig. Wie zu erkennen ist, besteht die Wirbelsäule in diesem Skelett lediglich aus fünf Wirbeln, wohingegen der Mensch in der Realität 24 Wirbel besitzt. Für die Steuerung dieses Menschen sind jedoch nur diese fünf Wirbel Abbildung 64: fertige Beingelenke notwendig. Weitere Wirbel würden keine Bereicherung der Bewegungsmöglichkeiten zur Folge haben, so dass die erstellten fünf Wirbel ausreichend sind [MC04, S.108-111]. - 52 Zum Abschluss des Rückens werden noch Gelenke für den Brustkorb erzeugt. Hierfür werden von der Mitte des Brustkorbes ausgehend vier Gelenke der Form einer Rippe entsprechend platziert. Am Anfang des Brustkorbes werden weitere drei Gelenke für die zweite Rippe positioniert. Anschließend werden die Rippengelenke gespiegelt und im ‚Hypergraph’-Editor benannt. Auch hier werden weniger Rippen eingesetzt als der Mensch in der Realität hat, da 12 Rippenpaare für die Bewegung des modellierten Menschen nicht notwendig sind. Im Anschluss entstehen das Schlüsselbein und das Schulterblatt. Diese werden an der Seite des letzten Wirbelsäulengelenks platziert und erhalten ein ‚IK Handle’, da sie in der späteren Bewegungssimulation Auswirkung auf die Arme haben werden. Anschließend entstehen die Hals- und Kopfgelenke, welche vom Ende der Wirbelsäule bis zur Kopfspitze reichen. Vom ersten Kopfgelenk ausgehend werden drei Gelenke für den Kiefer des Skeletts erzeugt. Das letzte Kiefergelenk wird am Kinn des Modells platziert. Zuletzt werden die Armgelenke platziert, die eine ‚IK Handle’-Funktion erhalten. Der Arm besteht aus vier Gelenken, welche sich an der Schulter, dem Ellbogengelenk, dem Unterarm und am Handgelenk befinden (Abbildung 65). Abbildung 65: Oberkörperknochen Das ‚IK Handle’ wird benötigt, um den Ellbogen beugen zu können, wenn der Arm bestimmte Bewegungen ausführt, wie beispielsweise den Arm anwinkeln. Am Ende des Armes werden noch zwei Gelenke für die Hand platziert, jedoch ohne ‚IK Handle’-Funktion. Nun sind alle notwendigen Gelenke des Skelettes erstellt (Abbildung 66) [MC04, S. 111-114]. - 53 - Abbildung 66: gesamtes Skelett Es existieren jedoch noch weitere Möglichkeiten, um Bedingungen auf einzelne Gelenke zu legen. Ein Beispiel hierfür ist, dass das Schultergelenk in seiner Bewegungsfreiheit eingeschränkt wird. Es erhält ‚driven keys’, die verursachen, dass die Schultern nur bis zu einer gewissen Höhe angehoben und gesenkt werden können [MC04, S.143-145]. Zudem bekommt das Skelett einen Gleichgewichtssinn, damit sich der Körper beim Bewegen der Gliedmaßen, wie beispielsweise beim Anheben des Beins, dem Verhalten eines realen Menschen annähert [MC04, S.151-154]. Da dies jedoch zu sehr ins Detail führen würde, werden diese Einschränkungen nicht genau beschrieben. Die Umsetzung dieser Bedingungen wird im abgeschlossenen Skelett zu sehen sein. Die Reihenfolge der Erstellung der einzelnen Gelenke wurde in dieser Art und Weise gewählt, da der Aufbau übersichtlich und praktisch ist. Die verschiedenen Gelenke bauen in der Reihenfolge ihrer Erstellung aufeinander auf. Natürlich kann auch eine andere Reihenfolge verwendet werden. 5.3.3 Kontrollsymbole zur Steuerung des Skeletts In diesem Unterkapitel wird der Einsatz von Kontrollsymbolen, die in Maya erzeugt werden können, beschrieben. Diese Symbole werden die möglichen Bewe- - 54 gungen des Skeletts ausführen, da die Auswahl eines einzelnen Joints zum Bewegen des Körpers nicht praktikabel ist. Diese Kontrollsymbole können in Maya unterschiedliche Formen haben, die je nach Einsatz des Symbols leicht zu verstehen und auszuwählen sein sollen. Diese Symbole können Buchstaben oder geometrische Objekte sein, wobei die Buchstaben mit ‚Hotbox > Create > Text’ erzeugt werden und die Boxen durch Erstellen eines ‚polygonCubes’ entstehen. Das erstellte Skelett erhält zunächst Boxen für die Steuerung der Hüfte, des Oberkörper, der Arme und der Beine. Zum Bewegen der Schultern wird der Buchstabe ‚S’ (‚Shoulder’), für den Oberkörper das ‚U’ (‚Upperbody’) und für den gesamten Körper das ‚B’ (‚Body’) gewählt. Die Buchstaben sollen dem Benutzer die Verbindung zwischen Buchstabe und Funktion erleichtern und das Verständnis verbessern. Außerdem sind zu viele Boxen unübersichtlich. Für die Steuerung des Rückens werden drei Kreise erstellt, welche in die entsprechende Richtung der Bewegung gesteuert werden können. Die Kreise bilden die jeweilige Bewegung des Rückens nach, was ebenfalls anschaulich und leicht zu verstehen ist (Abbildung 67). Abbildung 67: Kontrollsymbole Um die Kontrollsymbole mit den jeweiligen Gelenken zu verbinden, werden die Gelenke den Kontrollsymbolen untergeordnet und werden dadurch von Ihnen ab- - 55 hängig. Anschließend ist der Anwender theoretisch in der Lage, den Menschen über die Steuerungssymbole zu bewegen. Allerdings ist noch keine Hierarchie unter den Gelenken erzeugt worden, so dass noch keine zusammenhängenden Bewegungen möglich sind. Der nächste Schritt bei der Formung eines menschlichen Skeletts ist folglich die Gestaltung einer Hierarchie innerhalb des Skeletts. Hierfür muss eine Art Stufenleiter in der Reihenfolge der Abhängigkeiten der Gelenke erstellt werden. Dieser Vorgang wird innerhalb des ‚Hypergraph’-Fensters durchgeführt. Die einzelnen Körperteile werden in ihrer anatomischen Anordnung miteinander verbunden, d.h. Füße werden an die Beine angehängt und diese anschließend an die Hüfte gebunden. Die Hierarchiewurzel aller Gelenke ist das Kontrollsymbol für den gesamten Körper, dargestellt durch den Buchstaben ‚B’. Die Schultern, Hände und Arme werden mit dem Steuerungssymbol ‚S’ verbunden, wobei durch Betätigen dieses Buchstabens die Arme und Schultern bewegt werden. Die Füße werden mit der jeweiligen Fußsteuerungsbox verbunden und einem ‚Locator’ namens ‚Feet’ untergeordnet. Dieser ermöglicht, dass beide Füße gleichzeitig angehoben werden können und wird mit dem Buchstaben ‚B’ untergeordnet. Der Hüfte und den Beinen wird zur Steuerung die Hüftkontrollbox zugeordnet und der Kopf wird an die Kopfkontrollbox gebunden. Die Kontrollsteuerungsbox der Arme wird den Armen zugewiesen. Als nächstes werden der Kopf, die Arme und die Schultern mit dem obersten Wirbel der Wirbelsäule zusammengeschlossen. An den untersten Wirbel wird die Hüfte gebunden, somit sind Unter- und Oberkörper miteinander verbunden. Als letztes werden die Hüftbox, die drei Kontrollkreise des Rückens und der oberste Wirbel an den Kontrollbuchstaben ‚U’ gekoppelt und anschließend alles unter dem Kontrollbuchstaben ‚B’ eingeordnet (Abbildung 68) [MC04, S. 120-124]. Zur Bewegung der verschiedenen Gelenke des Skeletts kann nun das jeweilige Kontrollsymbole vom Anwender ausgewählt und über das Pivot gesteuert werden. - 56 - Abbildung 68: Ausschnitt der Kontrollsymbol- und Gelenkverbindungen 5.3.4 Anpassen der Haut an das Skelett In den vorherigen Kapiteln ist die Modellierung eines menschlichen Körpers und eines dazugehörigen Skeletts erläutert worden. In diesem Kapitel wird nun die Zusammenführung Beider beschrieben, um die Bewegungsmöglichkeiten des Skeletts auch am modellierten Körper sichtbar zu machen. Damit sich der Körper mit dem erstellten Skelett bewegen kann, müssen sie miteinander verbunden werden. Hierbei gilt es zu beachten, dass der Nacken, die Wirbelsäule und die letzten Gelenke eines Körperteils des Skeletts nicht mit eingebunden werden dürfen, damit die erstellte Haut nicht zu viele Verformungspunkte besitzt und sich realitätsnah mit dem Skelett bewegt. Außerdem dürfen keine Steuerungssymbole mit eingebunden werden, da diese den Menschen steuern, und nicht selbst gesteuert werden, sollen. Nachdem die benötigten Gelenke und der gesamte polygone Körper im ‚Hypergraph’-Editor markiert sind, werden sie mit dem Befehl ‚Hotbox > Skin > Bind Skin > Smooth Skin’ miteinander verbunden [MC04, S. 189-191]. Zum testen, ob die Haut die gewünschten Bewegungen ausführt, kann der Benutzer den Menschen über die erstellten Kontrollsymbole bewegen (Abbildung 69). - 57 - Abbildung 69: Mensch am Armkontrollsymbol bewegt Anschließend können unerwünschte Verformungen an der Haut (Abbildung 70), die unter Umständen bei Bewegungen entstehen, mit dem Werkzeug ‚Hotbox > Skin > Edit Smooth Skin > Paint Skin Weights Tool’ ausgebessert werden. Hierfür wird der Körper an den Kontrollsymbolen bewegt und sobald eine unerwünschte Verformung entsteht, wird sie mit diesem Werkzeug ausgebessert [MC04, S. 191]. Abbildung 70: Hautverformung - 58 Nachdem die Haut die gewünschten Bewegungen ansehnlich durchführt und alle unerwünschten Verformungen entfernt sind, ist die Gestaltung des steuerbaren Menschen abgeschlossen. 5.4 Erstellen der Texturen für den Menschen Im folgenden Kapitel wird die Gestaltung von Kleidung für den modellierten Charakter erläutert. Im Einzelnen sind dies ein T-Shirt und eine Hose. Zudem werden verschiedene Stoffe für diese Kleidung erstellt. Den unterschiedlichen Texturen werden verschiedene Reflexionsattribute zugeordnet, die wiederum verschiedenen Materialien entsprechen, was im Lichtstudio zu unterschiedlichen Lichteffekten führen wird. 5.4.1. Modellieren eines T-Shirts und einer Hose Als erstes wird der Mensch in den ‚Template’-Zustand überführt, damit sein Umriss zu erkennen ist, um die Größe des T-Shirts an ihn anzupassen. Als nächstes werden mit dem ‚EP Curve Tool’ Linien erzeugt, welche in ihrer Anordnung der Form eines T-Shirts entsprechen. Die Linien werden alle einzeln gezeichnet und durch Aktivieren des Buttons ‚Snap to curves’ miteinander verbunden. Nachdem eine Hälfte des T-Shirts erstellt ist, kann diese gespiegelt werden. Die letzten Linien werden in der Mitte des T-Shirts gezogen, so dass das T-Shirt aus zwei Hälften besteht. Anschließend werden die Linien vor dem Körper platziert und dupliziert. Die neuen Linien werden als Rückseite des T-Shirts verwendet und hinter den Körper verschoben (Abbildung 71). Nun werden Panels (Stoffbahn) erzeugt. Hierfür müssen die Linien, welche eine Fläche des T-Shirts umranden, markiert werden und mit ‚Hotbox > Cloth > Create Panel’ wird ein ‚Panel’ erzeugt. Dies wird mit allen Flächen der Vorder- und Rückseite des T-Shirts durchgeführt. Darauf folgend wird aus den erstellten ‚Panels’ Abbildung 71: T-Shirt als ‚Panel’ ein ‚Garment’ (Bekleidungsstück) gestaltet. Hierfür wird eines der Panels, beispielsweise der linke vordere Ärmel ausgewählt - 59 und mit ‚Hotbox > Cloth > Create Garment’ in ein Stück Stoff umgewandelt, das durch eine grau schattierte Fläche dargestellt wird. Anschließend müssen die anderen ‚Panels’ mit dem erzeugten Stoff verbunden werden. Hierfür werden die jeweiligen Nähte bzw. Linien zwischen zwei ‚Panels’ markiert und mit ‚Hotbox > Cloth > Create Seam’ miteinander verbunden. Dies wird mit allen Nähten, auch mit denen auf der Rückseite, durchgeführt (Abbildung 72). Nachdem alle ‚Panels’ zu einem Stoff zusammen gefügt sind, wird der Abbildung 72: ‚Garment’ Menschen wieder sichtbar gemacht. Als nächstes wird er mit ‚Hotbox > Cloth > Create Collision Object’ zu einem Kollisionsobjekt, damit das entwickelte T-Shirt an den Körper angepasst werden kann und Körper und T-Shirt sich nicht durchdringen. Hierfür werden zunächst die Einstellungen für die Anpassung des TShirts an den Körper festgelegt. Nachdem alle Eingaben getätigt wurden, wird mit ‚Hotbox > Simulation > Start Simulation’ die Wandlung des unförmigen T-Shirt zu einem angepassten T-Shirt vollzogen (Abbildung 73). Falls diese Umformung nicht den eigenen Wünschen Abbildung 73: T-Shirt entspricht, können Änderungen in den Einstellungen durchgeführt werden und die Simulation kann erneut durchlaufen werden [SHI]. Zum Modellieren einer Hose wird demselben Ablauf wie beim Modellieren des T-Shirts gefolgt. Dies wird jedoch auf Grund der Gemeinsamkeiten der Vorgänge hier nicht ausführlich erläutert (Abbildung 74 und 75) [PAN]. Abbildung 74: Abbildung 75: Hose Seitenansicht - 60 - 5.4.2 Anpassen der Kleidung an den modellierten Körper Nachdem der Mensch und die Kleidung modelliert sind, müssen Beide um fließende Bewegungen zu ermöglichen, zusammengefügt werden. Hierfür müssen jedoch bestimmte Abschnitte des Körpers gelöscht werden, da Kleidung und Körper überflüssig sind. Zudem könnte der Körper bei Bewegungen durch die Kleidung hervorschauen, was nicht erstrebenswert ist. Aus diesem Grund werden die Körperteile, die von der Kleidung verdeckt werden, gelöscht. Hierfür wird die Kleidung an eine Ebene gebunden und in den ‚Template’-Modus überführt wird. Nun kann betrachtet werden, wo sich die Beiden Objekte überschneiden. Der polygone Körper wird in den ‚Face’-Modus versetzt, weil in diesem die überflüssigen Körperteile einfach markiert und gelöscht werden können. Anschließend wird die Kleidung wieder sichtbar gemacht. Nun müssen die Kleidung und der Körper an das Skelett gebunden werden, damit die Bewegungen ausgeführt werden können. Dies geschieht in derselben Art und Weise, wie in Kapitel 5.3.4 beschrieben wurde. Der bekleidete Mensch soll vor allem Lichteffekte im Lichtstudio hervorrufen. Die Modellierung zweier Modelle überlässt dem Benutzer die Wahl zwischen einem nackten und einem bekleideten Körper, um ihm eine gewisse Flexibilität zu ermöglichen. 5.4.3 Erstellen der Texturen In diesem Kapitel wird das Entwerfen von Materialien für die bereits gestaltete Kleidung des Menschen beschrieben. Wie bereits in der Modellierungseinführung genannt, gibt es verschiedene Materialien und Texturen, welche auf ein Objekt in Maya gelegt werden können. Die erste Textur für die erzeugte Kleidung soll den Stoff Samt mit einer schwarzen Farbe simulieren. Im realen Leben hat Samt mit einer schwarzen Farbe einen starken Absorptionsgrad, d.h. der Stoff reflektiert fast kein Licht [BR94, S. 63]. Da dieser Stoff eine auffällige Reaktion hervorruft, ist er für die Kleidung ausgewählt worden. Für die Umsetzung wird das Material ‚Lambert’ gewählt. Dieses Material ist matt und erzeugt keine Reflexionen, was den gewünschten Eigenschaften entspricht. Zusätzlich wird das Material mit der unbunten Farbe schwarz eingefärbt (Abbildung 76). - 61 Die Samtkleidung (‚Velvet’) dient der Darstellung einer Textur, welche alles Licht absorbiert [BC02, S. 49]. Abbildung 76: Kleidung ‚Velvet’ Als zweite Textur soll das Material Leder simuliert werden. In der Realität reflektiert dieses Material Licht nur zum Teil. Das Ledermaterial besteht aus einer glatten, glänzenden Oberfläche und hat Reflexions- und Absorptionseigenschaften wie echtes Leder. Hierfür wird ein ‚Phong’ Material gewählt, das zusätzlich mit der 3D-Textur ‚Leather’ verbunden wird (Abbildung 77). Diese 3D-Textur verbindet das ‚Phong’ Material mit der vorgegebenen Musterung von Leder. Außerdem erhält die LederbeAbbildung 77: 3D-‚Leather’-Textur kleidung (‚Leather’) eine braune Farbe (Abbil- mit ‚Phong’ verbunden dung 78). Die Reflexionseinstellung des Ledermaterials wird auf eine mittelstarke Reflexion von Licht eingestellt, damit das Licht in dem gewünschten Maß reflektiert wird [BC02, S.50]. - 62 - Abbildung 78: Einstellungen bei ‚Leather’ Zuletzt wird noch Kleidung aus weißer Wolle (‚Wool’) erstellt (Abbildung 79). Diese Kleidung soll jegliches Licht reflektieren und ist der Gegensatz zum Samtstoff. Zur Umsetzung wird hierbei ein ‚Blinn’ Material verwendet, welches ebenfalls eine glänzende Oberflächenstruktur besitzt. Dieses Material wird weiß eingefärbt, da es eine hohe Reflexion des auftreffenden Licht hervorrufen soll [BR94, S. 64]. Zudem wird bei dem ‚Blinn’ die maximale Reflexion eingestellt [BC02, S. 51]. Abbildung 79: Kleidung ‚Wool’ - 63 - 6 Aufbau der Charaktersteuerung In diesem Kapitel werden die Entwicklung der interaktiven Steuerung für den modellierten Menschen, der Aufbau und das gewählte Design des Menüs beschrieben. Zusätzlich wird ein Einblick in die Umsetzung und Programmierung des Menüs gegeben, sowie Einsatzgebiete der Charaktersteuerung beschrieben. Diese Erläuterungen sollen dem Leser das Hintergrundwissen zur Menüsteuerung vermitteln. 6.1 Beschreibung und Verwendung der Charaktersteuerung In diesem Kapitel wird der Aufbau der Charaktersteuerung sowohl in Bezug auf die Benutzeroberfläche als auch in Bezug auf die technischen Details erläutert. Zudem werden Gründe für die Auswahl der jeweiligen Steuerung der Bewegungen und der Textilauswahl gegeben. Zum Abschluss dieses Kapitels werden die Einsatzmöglichkeiten der Menüsteuerung beschrieben. 6.1.1 Grundlegende Entscheidungen für das Menüdesign Die ersten Überlegungen beim Gestalten eines Menüs ist die Wahl der Strukturierung der Menüpunkte sowie der Sprache. Als Sprache wird Englisch gewählt, da dies die allgemeingültige Sprache in der Computergrafik ist. Anschließend muss ein Design aus verschiedenen Strukturmöglichkeiten ausgewählt werden. Für die Charaktersteuerung wird eine ‚TopDown’ Menüstruktur verwendet. Dies stellt ein sehr übersichtliches Menü dar, da es bei Bedarf nicht relevante Funktionen ausblenden kann. Zudem ist dieser Aufbau sehr übersichtlich, da alle Bewegungssteuerungen auf einen Blick zu sehen sind. Die Anordnung der Menüpunkte untereinander ermöglicht dem Benutzer alle Steuerungen für den Körper gleichzeitig betrachten zu können. Es gäbe auch die Möglichkeit einer ‚Tab’-Struktur. Hierbei müsste der Benutzer allerdings zwischen den verschiedenen ‚Tabs’ wechseln, um andere Körperteile zu bewegen. Auf Grund der unübersichtlichen Strukturierung wurde gegen eine solche ‚Tabs’-Struktur entschieden. - 64 6.1.2 Einsatz von Buttons in der Menüsteuerung Nachdem das Design und die Struktur der Menüsteuerung festgelegt sind, müssen Steuerungen für den Körper entwickelt werden, damit eine interaktive Bewegung der Körperteile möglich wird. Für die Umsetzung von Kontroll- und Bewegungselementen stehen in Maya gewöhnliche Buttons, Radiobuttons16, Slider (Schieber) oder Eingabefelder zur Verfügung. Je nachdem, welche Funktion die Steuerung ausführen soll, wird eines dieser Elemente eingesetzt. Zunächst wird das Auswahlmenü für die Änderung der Texturen der Kleidung bestimmt, wofür drei Radiobuttons eingesetzt werden. Die Radiobuttons erhalten den Namen der auswählbaren Textur, so dass der Anwender erkennt, Abbildung 80: Radiobuttons welche Textur auf der Kleidung erscheint, wenn der jeweilige Ra- diobutton markiert wird. Für die Texturauswahl werden Radiobuttons verwendet, weil hierzu lediglich eine Datei aufgerufen werden muss. Außerdem soll immer zu erkennen sein, welche Textur zum gegebenen Zeitpunkt ausgewählt ist. Beim Betätigen des Radiobuttons erscheint ein schwarzer Punkt in seiner Mitte, wodurch der Benutzer sehen kann, welche Textur aktuell auf der Kleidung liegt. In der Abbildung 80 wäre die ‚Wool’ Textur ausgewählt. Als nächstes wird die Auswahl für die vordefinierten Stellungen gestaltet, wofür Buttons verwendet werden (Abbildung 81). Durch Drücken eines Buttons kann der Benutzer den Mensch beispielsweise hinsetzen oder in die Schrittstellung überführen. Für diesen Menüpunkt werden normale Buttons eingesetzt, weil die Positionen Gliedmaßen, mehrere und somit mehrere Attribute, benötiAbbildung 81: Buttons gen. Zudem sind Buttons durch ihr übersichtliches Design sehr intuitiv zu benutzen. Die Buttons erhalten zum noch besseren Verständnis den Namen der Position, welche beim Betätigen eingenommen wird. Zusätzlich soll dieser Menüpunkt dem Benutzer bei der Ideenfindung von Stellungen helfen, indem gezeigt wird, welche Bewegungen und Positionen unter an16 „Radio-Buttons sind eine Gruppe von beschrifteten Knöpfen, von denen der Anwender einen auswählen kann. Es kann immer nur einer der Radio-Buttons ausgewählt sein. Der Wert des ausgewählten Radio-Buttons wird beim Absenden des Formulars mit übertragen.“ [RAD] - 65 derem mit der Person möglich sind. Natürlich können alle Stellungen rückgängig gemacht werden und der Benutzer kann erneut von der Ausgangsposition (‚Basic Position’) ausgehend weiterarbeiten (Abbildung 82). Die vordefinierten Positionen beinhalten unter anderem auch eine Sitzstellung (Abbildung 83), Diese Stellung wurde ausgewählt, weil es eine alltägliche Position ist. Außerdem wird eine andere Lichtreaktion hervorgerufen, da durch das Verkleinern des Körperumfangs weniger Körperfläche auszuleuchten ist. Zudem gibt es viele Situationen in denen Menschen im Sitzen fotografiert oder gefilmt werden. Abbildung 82: Mensch mit Menü in der Ausgangsposition - 66 - Abbildung 83: Mensch in der sitzenden Position Zusätzlich sind noch zwei weitere vordefinierte Positionen festgelegt worden, die durch Betätigen der jeweiligen Buttons vom Benutzer eingestellt werden können. Diese sind zum einen das Ausstrecken der Arme des Menschen und zum anderen ein bequemer Stand. Diese werden jedoch nicht weiter erläutert, da ein Beispiel für die anschauliche Beschreibung ausreicht. 6.1.3 Einsatz von Slidern in der Menüsteuerung Nachdem die Positionen und Texturen mit Buttons eingestellt werden können, wird als nächstes eine andere Variante für die Bewegungssteuerung erläutert. Die Menüpunkte, welche die einzelnen Körperteile und Gelenke bewegen, werden mit Slidern umgesetzt. Hierbei können die einzelnen Gliedmaßen getrennt voneinander gesteuert werden. Natürlich sind die vordefinierten Stellungen mit den individuellen Steuerungen vereinbar, so dass der Benutzer zunächst eine festge- - 67 legte Stellung auswählen und anschließend eigene Veränderungen durchführen kann. Die erste Steuerung für den menschlichen Körper bewegt lediglich den gesamten Körper in die drei Richtungen des dreidimensionalen Raumes. Der Körper selbst verändert seine Haltung nicht. Abbildung 84: Steuerung des Körpers Die Einteilung der Körperteile für die Steuerung erfolgt in den jeweiligen anatomischen Bereichen (Abbildung 84). Der Körper wird in ‚Torso’ (Oberkörper), ‚Back’ (Rücken), ‚Hips’ (Hüfte), ‚Legs’ (Beine), ‚Shoulder’ (Schulter), ‚Arms’ (Arme), ‚Elbow’ (Ellbogen) und ‚Head’ (Kopf) eingeteilt. Diese Strukturierung dient der Übersichtlichkeit, so dass alle Gliedmaßen gut zu finden und zu steuern sind. Die Reihenfolge der einzelnen Körperteile erfolgt nach der anatomischen Anordnung von Kopf bis Fuß. Für das Bewegen des Körpers sind Slider als Steuerelement ausgewählt worden, weil die Bewegung innerhalb eines festgelegten Rahmens stattfinden muss. Mit Hilfe dieser Art der Steuerung wird festgelegt, wie weit sich die Körperteile bewegen dürfen, was eine realistische Bewegung garantiert. Außerdem ist die Benutzung von Slidern leicht nachvollziehbar, da die Bewegung des Sliders auch eine entsprechende Bewegung der ausgewählten Körperteile hervorruft. Eine andere Variante für die Steuerung der Bewegung wäre die manuelle Eingabe von Zahlenwerten. Da die Werte jedoch innerhalb gewisser Grenzen liegen müssen, hätten lange Beschreibungen dem Menü beigefügt werden müssen. Dies wür- - 68 de die intuitive Benutzung der Steuerung erschweren, weshalb gegen diese Methode entschieden wurde. Damit sich der Charakter bewegt, wenn die Slider betätigt werden, müssen die Slider mit dem jeweiligen Kontrollsymbol verbunden werden. Dieser Vorgang wird allerdings erst in der Programmierung umgesetzt und erst im nächsten Kapitel 6.2 genauer beschrieben. Bei der Gestaltung des Menüs wird eine Trennung der rechten und linken Körperhälfte vorgenommen. Dem Benutzer soll die Freiheit in der Gestaltung von verschiedenen Positionen auf beiden Körperseiten gegeben sein. Außerdem bewegen sich beispielsweise Arme selten synchron, so dass eine stets simultane Bewegung beider Körperhälften unrealistisch wäre. Das interaktive und übersichtliche Design dient der Entfaltung der Kreativität des Benutzers und soll lediglich durch die anatomischen Gesetze eingeschränkt werden, was selbstverständlich in der Steuerung umgesetzt wird. Die hierzu notwendigen Verbindungen der einzelnen Gliedmaßen sind bereits bei der Gestaltung des Skeletts erstellt worden, so dass die gewünschten Bewegungsabläufe theoretisch ausgeführt werden können. Hierfür fehlt jedoch die programmiertechnische Umsetzung des Menüs, die im folgenden Kapitel erläutert wird, damit das Menü einsatzbereit ist. 6.2 Beispiele der MEL-Programmierung der Menüsteuerung In diesem Kapitel werden einige Programmcodeausschnitte für die Umsetzung des Menüs, das in den vorherigen Kapiteln im Design und mit seinen Funktionen festgelegt wurde, dargestellt und erläutert. Die Modellierung des Charakters erfolgte bisher lediglich über Methoden und Funktionen, welche direkt am Objekt ausgeführt wurden. Das Steuern des Charakters ist zunächst nur über die entwickelten Kontrollsymbole in der Mayabühne möglich. Mit Hilfe der Mayaeigenen Programmiersprache MEL existiert die Möglichkeit ein eigenes Menü zu programmieren, das mit Hilfe der Kontrollsymbole den Menschen interaktiv bewegen kann. Für eine übersichtliche Struktur des Programmcodes ist es wichtig, Kommentare zu verwenden. Diese sind außerdem hilfreich, wenn eine Erweiterung des erstellten Codes vorgenommen werden soll. Änderungen können leichter eingearbeitet - 69 werden, wenn die verschiedenen Abschnitte des Menüs kommentiert sind [MF03, S.63]. Die Programmierung der Menüsteuerung beginnt zunächst mit dem Erstellen des Grundgerüstes der Charaktersteuerung, einem Fenster, in dem die Slider und Buttons platziert werden. Die Initialisierung des Fensters erfolgt mit dem folgenden Code: if (`window -exists TopWin`) deleteUI TopWin; window -t "Top Down Character Window" TopWin; … window -e -wh 435 960 -topLeftCorner 100 100 TopWin; showWindow TopWin; Hierbei wird zunächst überprüft, ob bereits ein Fenster mit dem Namen ‚TopWin’ existiert, da zwei gleiche Fenster nicht erzeugt werden können. Ist dies der Fall, wird das vorhandene Fenster gelöscht, damit das neue geöffnet werden kann. In der zweiten Zeile wird dem Fensters ein Titel (‚-t’) und eine Variablen mit Namen ‚TopWin’ zugewiesen, die bereits für die durchgeführte Überprüfung der Fensterexistenz benötigt wurde. In den letzten Zeilen des Codeausschnitts wird die Größe, sowie die Position des Fensters innerhalb der Mayabühne bestimmt. Zuletzt wird das Fenster mit dem Kommando ‚showWindow’ innerhalb der Mayabühne geöffnet [WM05, S. 237]. Als nächstes muss das gewählte Design des Menüs, das in den vorherigen Kapiteln festgelegt wurde, mit MEL umgesetzt werden. Wie bereits definiert, ist der Aufbau des Menüfensters eine ‚TopDown’-Struktur. Für die Umsetzung bedeutet dies, dass alle Körperteile und Auswahlmenüs ein eigenes Untermenü erhalten, welches nach Bedarf auf- oder zugeklappt werden kann. Zur Umsetzung dieser Struktur werden alle zusammengehörigen Bewegungsfunktionen in den folgenden Codeabschnitt eingefügt. //First collapsable section for moving the whole Body frameLayout -width 400 -label "Move Body" -collapsable true -collapse true -borderStyle "etchedOut"; columnLayout; text -l " "; … setParent..; setParent..; - 70 Die Struktur des Menüs wird mit dem Kommando ‚frameLayout’ bestimmt. Dahinter stehen die jeweiligen Einstellungen für das gewünschte Untermenü. Zunächst wird die Breite des Untermenüs (‚width’) angegeben und darauf folgend der Name (‚label’). Das Flag ‚collapsable’ ermöglicht, dass innerhalb des Menüfensters die jeweiligen Untergruppen ein- und ausgeblendet werden können. Die Variable ‚collapse’ gibt an, ob das Untermenü beim Aufruf des Fensters ein- oder ausgeblendet ist. Im oberen Beispiel hat die Variable den Wert ‚true’, was bedeutet, dass dieses Untermenü ausgeblendet ist, wenn sich das Fenster öffnet. Auf Grund der Auswahl der ‚collapsable’-Struktur muss innerhalb des ‚frameLayout’-Kommandos noch ein weiteres Layout für die ‚collapsable’-Ebene bestimmt werden. Diese Forderung wird mit dem Befehl ‚columnLayout’ erfüllt und ordnet verschiedene Slider untereinander in einer Spaltenstruktur an. Sind innerhalb einer ‚collapsable’-Sektion zwei oder mehrere ‚Layout’-Kommandos vorhanden, müssen auch zwei oder mehrere ‚setParent..’-Flags diese Sektion abschließen [WM05, S. 235]. Nun wird die Umsetzung der Slider, welche die Steuerung der einzelnen Körperteile ermöglichen, erläutert. Hierbei ist darauf zu achten, dass das richtige Kontrollsymbol angegeben ist, damit die richtige Bewegung ausgeführt werden kann. Für jede Richtung oder Rotation innerhalb des 3D-Raums muss ein eigener Slider programmiert werden, um das Menü flexibel zu gestalten. Die Implementierung eines Sliders wird anhand der Oberkörpersteuerung erläutert. //Third collapsable section for the torso text -l "Torso Control:" -align left -w 400 -font "boldLabelFont"; … attrFieldSliderGrp -l "Torso Crouch" -min -2 -max 0 -cal 1 left -adj true -at UpperBody.ty; attrFieldSliderGrp -l "Torso Rotate Side" -min -10 -max 10 cal 1 left -adj true -at UpperBody.rz; Hier wird in der zweiten Zeile ein Text, der den Titel dieses Untermenüs benennt, im Fenster ausgegeben. Das Kommando, um einen Slider in MEL zu programmieren, lautet ‚attrFieldSliderGrp’. Dieser Befehl ermöglicht eine individuelle Struktur in Spaltenform, wobei nur ein einziges Attribut mit dem Slider verbunden werden kann. - 71 Als nächstes erhält der Slider einen Titel (‚-label’) sowie einen Minimum (‚-min’) und Maximum (‚-max’) Wert. In diesem Wertebereich kann das dem Slider zugewiesene Attribut bewegt werden. Das Flag ‚–columnAlign 1 left’ platziert den ersten Slider des Untermenüs am linken Rand des Fensters. Alle weiteren werden in den nächsten Reihen in der gleichen Art und Weise positioniert. Zuletzt wird das jeweilige Kontrollsymbol mit dem Slider verbunden, damit die wünschte Bewegung ausgeführt werden kann. Im oberen Beispiel wird zunächst das Oberkörper-Kontrollsymbol in ‚.ty’Richtung mit dem Slider verbunden. Das ‚t’ steht für ‚translate’ (versetzen) und führt eine Oberkörperbewegung in die Y-Richtung des dreidimensionalen Raums aus. Der Oberkörper wird nach oben oder unten bewegt. Im zweiten Beispiel ist ‚.rz’ die Endung. Dies ermöglicht eine Rotation um die Z-Achse, wodurch sich der Oberkörper nach links oder rechts beugt, wenn der Slider betätigt wird [MF03, S. 76+82-85]. Die Programmierung der Texturauswahl wird mit einer anderen Steuerungsmethode durchgeführt, da ein Slider hier nicht funktionieren würde. Die Texturen sollen durch Drücken eines Buttons direkt auf der Kleidung zu sehen sein. Zudem soll die aktuelle ausgewählte Textur für den Benutzer erkennbar sein, weshalb hierfür Radiobuttons verwendet werden. Im Folgenden Codeausschnitt wird die Programmierung eines Radiobuttons erläutert. radioButtonGrp -numberOfRadioButtons 3 -labelArray3 "Velvet" "Leather" "Wool" -on1 "defaultNavigation -source Velvet -destination |SkinKleidung|MenschKleidung|MenschKleidungShape.instObjGrou ps[0] -connectToExisting" ... -on3 "defaultNavigation -source Wool -destination |SkinKleidung|MenschKleidung|MenschKleidungShape.instObjGrou ps[0] -connectToExisting"; Um Radiobuttons zu erzeugen, wird eine Gruppe (‚radioButtonGrp’) angelegt, in welcher die Anzahl der Radiobuttons (‚-numberOfRadioButtons’) festgelegt ist. Für die Texturen werden drei Buttons benötigt, welche die Namen ‚Velvet’, ‚Leather’ und ‚Wool’ erhalten. Anschließend wird der Befehl, welcher bei Aktivieren des jeweiligen Radiobuttons ausgeführt werden soll, angegeben. - 72 Hierfür wird das Flag ‚-on’ verwendet, wobei die angehängte Zahl für den jeweiligen Button steht. Das Kommando für die gewünschte Textur wird im Anschluss innerhalb der Anführungszeichen angegeben. Im oberen Beispiel ist zu sehen, dass der Zielpfad der Textur die auszuführende Aktion ist [WM05, S.248]. Zum Abschluss dieses Kapitels wird die MEL-Programmierung der Buttons für die vorgegebenen Positionen des Menschen erläutert. Hierbei wird eine andere Button-Struktur verwendet, da diese für den Aufruf der vordefinierten Stellungen besser geeignet ist. Der Benutzer kann mit den regulären Buttons die gewünschte Aktion ausführen. Die Umsetzung dieser Buttons lautet wie folgt: rowColumnLayout -numberOfColumns 2 -columnWidth 1 150 columnWidth 2 150; button -backgroundColor 1.0 0.8 0.1 -l "Sit Down" -align "center" -c {"setAttr UpperBody.translateY -2; setAttr RtLeg.translateZ 2.5; setAttr LtLeg.translateZ 2.5;"}; In diesem Codeausschnitt wird zunächst eine Struktur für das Untermenü festgelegt. Das ausgewählte Kommando ‚rowColumnLayout’ ordnet die folgenden Funktionen entweder in einer Reihen- oder Spaltenstruktur an. Bei der Anordnung der Buttons ist eine Spaltenstruktur (‚-numberOfColumns’) gewählt worden, was bedeutet, dass die Buttons in Spalten angeordnet werden. Wie im Code zu sehen ist, gibt es zwei Spalten, die beide eine Breite von 150 Pixeln (‚columnWidth 1 150 -columnWidth 2 150’) haben. Sind beispielsweise mehr als zwei Menüelemente innerhalb einer Spalte angeordnet, werden sie in die nächste Reihe verschoben. Die Eigenschaften der Spalten bleiben dabei in der nächsten Reihe erhalten. Nachdem die Grundstruktur der Buttonanordnung festgelegt ist, werden die weiteren Attribute definiert. Im oberen Beispiel ist zu sehen, dass zunächst eine Hintergrundfarbe (‚backgroundColor’) für die Buttons festgelegt wird. Darauf folgt der Name des Buttons und die Positionierung des Namens ("Sit Down" -align "center"’) auf dem Button. Mit dem ‚-c’-Flag wird die Aktion deklariert, welche bei Betätigen des Buttons ausgeführt werden soll. Die verschiedenen Aktionen werden mit einer geschweiften Klammer eingerahmt und durch ein Semikolon voneinander getrennt. Natürlich ist dies nicht der gesamte Quellcode der Menüsteuerung. Mit Hilfe dieser Ausschnitte soll der Leser die Programmierung besser nachvollziehen können, und zudem ist Hintergrundwissen immer eine Bereicherung. - 73 - 6.3 Einsatzgebiete für die Charaktersteuerung Die erzeugte Charaktersteuerung wurde als eine Erweiterung des bereits bestehenden Lichtsimulationstool entwickelt. Die Steuerung kann selbstverständlich ohne das LST verwendet werden. Es gehen jedoch einige Funktionen, wie beispielsweise die Reflexionen der Kleidung, verloren, weil diese nur durch Ausleuchten innerhalb des LST entstehen. Die Charaktersteuerung dient der anschaulichen Darstellung von menschlichen Bewegungen innerhalb des LST. Zudem soll ein besseres Verständnis von Licht, Schatten und Lichtreflexionen auf Kleidung und Bewegungen hervorgerufen werden. Das Menü soll vor allem Studenten die Möglichkeit geben, sich die Auswirkung von Licht auf verschiedene menschliche Posen anzuschauen. Zudem soll die Wirkung von Licht auf Kleidung und verschiedene Farben dargestellt werden. Ein wichtiger Zweck des Charaktermenüs ist das Sammeln von Erfahrung in Bezug auf Licht, Ausleuchtung und Platzierung von Menschen in einem Raum. Außerdem ist das Lichtstudio eine gute Möglichkeit um das Wissen, das im Unterricht erlernt wurde, praktisch einzusetzen. Je mehr mit dem Licht, der Farbe und den Stellungen experimentiert wird, desto besser wird das Verständnis von Licht und seiner Wirkung. Zusätzlich könnte die Charaktersteuerung in der Fotografie eingesetzt werden, um mit einem Kunden die gewünschten Fotos zu besprechen. Der Fotograf kann kostengünstig, schnell und anschaulich die eigenen Ideen dem Kunden näher bringen. Natürlich ist die gerenderte Szene kein Vergleich zu einem realen Foto, aber die Gedanken des Fotografen sollten in Bildern besser verstanden werden als in Worten. Außerdem könnte der Fotograf die Wirkung, welche Licht auf gewisse Farben hat, anschaulich darstellen. Natürlich hat auch der Kunde die Möglichkeit, seine Gedanken und Vorstellungen mit Hilfe der Menüsteuerung zu verdeutlichen und hierdurch mit dem Fotografen ein optimales Ergebnis zu erarbeiten. Die Charaktersteuerung innerhalb des LST könnte der besseren Kommunikation zwischen Fotograf und Kunden dienen, da eine bildliche Darstellung der Einstellungen möglich ist. Zudem könnte die Menüsteuerung von Laien, die Interesse an Licht und Ausleuchtung haben, benutzt werden, da das Menü intuitiv benutzbar ist. - 74 - 7 Installation und Benutzung der Charaktersteuerung In diesem Kapitel werden die Installation des modellierten Menschen und seiner Charaktersteuerung, sowie die Anforderungen an das Computersystem und die notwendigen Hardwarekomponenten zur Nutzung der Steuerung beschrieben. Zusätzlich wird eine Einführung in die Benutzung der Menüs des LST und der Charaktersteuerung für den Menschen gegeben, um mit dem Anwenden der Menüs schnell beginnen zu können. 7.1 Systemvoraussetzungen Die in dieser Arbeit entwickelte Menüsteuerung ist funktionsfähig unter Windows XP auf einem PC mit einem Pentium 4 und einer Prozessortaktung von mindestens 2 GHz. Des Weiteren sind mindestens 1024 MB RAM Arbeitspeicher vonnöten. Die erforderliche Software ist Maya 6.0 (oder einer höheren Version) der Firma Alias Autodesk. Zusätzlich sollte noch ein Textverarbeitungsprogramm, wie beispielsweise „Notepad“, vorhanden sein, um den Quellcode der Dateien öffnen und lesen zu können. 7.2 Installation des modellierten Charakters und der Menüsteuerung Eine Grundvorrausetzung für die Benutzung des Menschen und der Steuerung ist, dass das Programm Maya auf dem Computer installiert ist. Anschließend kann der Benutzer zwischen zwei Dateien im Ordner „Wildhirt“ wählen. Mit der ersten Datei „Human.mb“ wird eine Mayabühne, die den modellierten Mensch ohne Kleidung enthält, geöffnet. Die zweite Datei heißt „HumanCloth.mb“ und öffnet eine Mayabühne, in welcher sich der erstellte Mensch mit Kleidung befindet. Nachdem eine der beiden Dateien geöffnet ist, kann die Charaktersteuerung installiert werden. Hierzu wird der Quellcode, welcher sich ebenfalls im Ordner „Wildhirt“ in der Textdatei „CharacterControl“ oder „CharacterControlCloth“ befindet, geladen. An dieser Stelle muss der Benutzer die entsprechende Datei für den Menschen mit oder ohne Kleidung auswählen. - 75 Anschließend wird der Text, welcher sich in der jeweiligen Textdatei befindet, in den ‚Script Editor’ von Maya kopiert. Der ‚Script Editor’ wird mit ‚Hotbox > Window > General Editors > Script Editor’ aufgerufen. Das Skript wird über ‚Script > execute’ ausgeführt. Nach dem Ausführen des Quellcodes öffnet sich automatisch ein Fenster, in welchem sich die Charaktersteuerung mit allen Slidern und Buttons befindet. 7.3 Installation des Lichtsimulationstools Bevor die interaktive Charaktersteuerung alle gewünschten Aufgaben ausführen kann, muss das Lichtsimulationstool installiert werden. Hierfür muss die Textdatei mit Namen „LSTHuman“ aus dem Ordner „Wildhirt“ aufgerufen werden. Innerhalb dieser Datei befindet sich der Quellcode zum Erstellen des LST. Der enthaltene Text wird ebenfalls in den ‚Script Editor’ von Maya kopiert. Anschließend wird das Skript in derselben Art und Weise wie bei der Charaktersteuerung ausgeführt. Hier müssen nun einige Angaben eingetragen werden, wie die Größe des Raums oder die Anzahl der Lichtquellen. Nachdem alle geforderten Eingaben eingetragen sind, kann das Lichtsimulationstool benutzt werden. Möchte der Benutzer ein neues Lichtstudio mit anderen Lichtquellen erzeugen muss zunächst eine neue Szene mit dem jeweiligen Menschen geladen werden. Anschließend wird der Quellcode erneut geladen und die neuen Einstellungen können eingetragen werden. 7.4 Anwendung der Menüs der Charaktersteuerung und des LST In diesem Kapitel wird die Anleitung zur Nutzung der installierten Charaktersteuerung und des LST gegeben. Nachdem der Mensch, das Lichtsimulationstool und die Charaktersteuerung installiert sind, kann der Anwender mit der Benutzung aller Menüs beginnen. Für die Steuerung der Funktionen des LST stehen dem Nutzer zwei Menüs zur Verfügung. Das erste Menü heißt ‚Object Control Tool’ und ist für das Steuern der erstellten geometrischen Objekte beim Aufruf des LST verantwortlich (Abbildung 85). Zudem kann die Kamera, die bei der Installation des LST automatisch generiert wurde, mit diesem Menü bewegt werden. Des Weiteren wird die Wahl - 76 des jeweiligen Betrachtungswinkels in diesem Fenster getroffen. Die Bewegungen der geometrischen Objekte und die Auswahl der Farben, welche auf die Objekte gelegt werden können, werden mit Slidern gesteuert. Die Wahl der Perspektive wird durch Drücken des jeweiligen Buttons ausgeführt. Der Benutzer hat die Möglichkeit sich die Bühne von Oben oder Vorne, der Seite oder durch die Kamera anzuschauen. Zusätzlich kann noch die perspektivische Sicht ausgewählt werden. Die gewählte Einstellung der Szene kann durch Betätigen des ‚Render’Buttons in ein Bild, welches alle Lichteffekte darstellt, verwandelt werden. Abbildung 85: ‚Object Control Tool’ Über das zweite Menü des LST, das ‚Lights Control Tool’. werden die erzeugten Lichtquellen gesteuert (Abbildung 86). Außerdem hat der Benutzer die Möglichkeit, die Intensität und Farbe der Lichtquellen, sowie die Farbe der Schatten zu verändern. Zudem kann ein Modus, wie beispielsweise der ‚Wireframe Mode’, in welchem die Bühne dargestellt wird, ausgewählt werden. Die Steuerung der Lichtquellen erfolgt erneut über Slider und die Auswahl der Modi wird durch Buttons getätigt. - 77 - Abbildung 86: ‚Lights Control Tool’ Als nächstes werden die Funktionen der Charaktersteuerung erläutert. Die Auswahl der entwickelten Texturen erfolgt über Radiobuttons, welche im ersten Untermenü platziert sind. Durch Betätigen des jeweiligen Radiobuttons wird die ausgewählte Textur auf die Kleidung gelegt. Durch Drücken der farbigen Buttons wird der Körper in eine bereits vorgegebene Stellung überführt. Die Buttons sind nach der einzunehmenden Position benannt. Natürlich können von diesen Positionen ausgehend weitere Veränderungen an der Haltung des Körpers vorgenommen werden. Durch Betätigen des Buttons ‚Basic Position’ können jegliche Veränderung rückgängig gemacht werden und der Mensch befindet sich in der Ausgangsposition. Die Bewegungen der verschiedenen Gliedmaßen und des gesamten Körpers erfolgen über die jeweiligen Slider, welche mit Hilfe der Maus nach rechts oder links bewegt werden können. Je nachdem in welche Richtung der Balken gesteuert - 78 wird, bewegt sich die ausgewählte Gliedmaße. Natürlich können beliebig viele Slider bewegt werden, so dass zuerst der Arm und anschließend die Beine bewegt werden können. Hierbei gibt es keinerlei Einschränkung in Bezug auf die Kombinierbarkeit der Bewegungen und Positionen (Abbildung 87). Abbildung 87: ‚Character Controls’ - 79 Hiermit ist die Installation der Charaktersteuerung und der Menüs des LST abgeschlossen. Der Benutzer hat nun die Möglichkeit die Menüs, nach Ausführen aller aufgeführten Anweisungen, zu testen. 8 Schlussfolgerung Im letzten Kapitel werden die erreichten Ziele beschrieben und mit der ursprünglichen Themenstellung verglichen. Zudem werden Gründe für das Auslassen bestimmter Elemente und Funktionen bei der Modellierung und der Charaktersteuerung gegeben. Zum Abschluss wird ein Vorschlag zur Weiterführung und Vertiefung der Arbeit gemacht. 8.1 Fazit Um diese Arbeit abzuschließen werden die erledigten Aufgaben, die in der Themenstellung festgelegt wurden, beschrieben und die Ergebnisse und eventuelle Probleme bei der Erfüllung der Aufgaben erklärt. Die erste Aufgabe war die Modellierung eines menschlichen Modells. Die Gestaltung im dreidimensionalen Raum ist ein umfangreicher und aufwendiger Prozess, der mit wachsender Erfahrung attraktivere und bessere Ergebnisse hervorbringt. So wurden die Formen des Menschen im Laufe der Entwicklungszeit immer realistischer und ästhetischer. Allerdings erhielt der Mensch keine Haare, da diese auf Grund eines zu zeitaufwendigen Rendering weggelassen wurden. Das Fortlassen der Haare beeinflusst jedoch keinesfalls die Anschaulichkeit oder die Bewegungen des Menschen, so dass diese bei der Modellierung bedenkenlos weggelassen werden konnten. Des Weiteren wurde die Erstellung eines menschenähnlichen Skeletts erfolgreich ausgeführt. Hierbei ist sicherlich aufgefallen, dass die Anzahl der Gelenke und Knochen geringer ist als bei einem realen Menschen. Diese Reduzierung der Gelenke schränkt allerdings nur in vernachlässigbarer Art die Beweglichkeit und die einnehmbaren Position des Modells ein. Alle geplanten Bewegungsabläufe können mit den erzeugten Gelenken ausgeführt werden, so dass die reduzierte Anzahl in diesem Zusammenhang völlig ausreichend ist. - 80 Die Modellierung der Kleidung hat ebenfalls die Anforderungen erfüllt. Sie passt sich gut dem Körper an und kann zudem noch mit drei verschiedenen Texturen belegt werden, um dem Benutzer mehr Gestaltungsspielraum zu ermöglichen. Die gewünschten Lichteffekte können im LST betrachtet werden. Als nächstes war eine Steuerung für die Objekte zu erstellen. Diese Aufgabe wurde mit Hilfe der Programmiersprache MEL umgesetzt. Hierbei entstand eine benutzerfreundliche Menüsteuerung, mit welcher sich die Bewegungen des Menschen steuern und die Texturen auswählen lassen. Mit der Programmiersprache konnten alle Anforderungen, die an die Steuerung gestellt wurden, erfüllt werden. Diese Sprache hat eine benutzerfreundliche Struktur und kommt ohne Objektorientierung aus, was die Umsetzung des Programmcode vereinfacht hat. Die letzte Aufgabe der Themenstellung betraf die Vereinigung des modellierten Menschen, des Skeletts und des Menüs mit dem LST. Jedoch wurde nicht der Mensch in das LST gesetzt, sondern das LST wurde um den Menschen herum aufgebaut. Diese Reihenfolge ruht daher, da der modellierte Mensch bereits in einer Mayabühne enthalten ist. Das benötigte Programm ist somit bereits aufgerufen und das Studio kann in dieser Bühne, um den Menschen herum, aufgebaut werden. Nachdem das LST und der Mensch samt Menüsteuerung zusammen in einer Mayabühne vereint sind, können alle Funktionen vom Anwender benutzt werden. Leider ist die Neuinstallation des LST in Verbindung mit dem Menschen etwas komplizierter als alleine. Möchte der Benutzer die Größe oder die Anzahl der Lichtquellen im aktuellen LST verändern, muss er zunächst eine neue Mayabühne mit Mensch und Menü erzeugen. Dies ergibt sich aus der Tatsache, dass die alten Elemente und Attribute des LST bereits vorhanden sind und nicht erneut in dieser Mayabühne erstellt werden können. Im Programmcode des LST wird keine Löschung der Elemente vorgenommen, wenn der Code in derselben Mayabühne erneut aufgerufen wird. Dieser Aufwand muss bei einer Neugestaltung des LST leider in Kauf genommen werden, wobei dieser zusätzliche Aufwand allerdings gering ist und die Funktionen des LST und der Menüsteuerung in keiner Weise beeinflusst werden. Auf Grund der geringen Literatur im Bereich von Texturen, Standardpositionen in einem Lichtstudio und der Ausleuchtung von Menschen wurde ein ausführliches Interviews mit einem professionellen Fotografen geführt. In diesem Interview - 81 wurden einige Ausleuchtungsbeispiele und Lichteinflüsse von Texturen beschrieben, was eine Beschreibung und Erläuterung solcher Lichteffekte bei der Gestaltung der Objekte und des Menüs ermöglichte. Dieses Gespräch war mir sehr hilfreich und gestattete eine realitätsnahe Modellierung der Texturen. Außerdem können die beschriebenen Lichteinstellungen Anregungen für den Benutzer sein, da es in diesem Bereich ebenfalls wenig Literatur gibt. Diese Arbeit kann hoffentlich vielen Studenten und anderen Interessierten die Nutzung des LST und der Charaktersteuerung vereinfachen. Zudem soll die Erweiterung durch den beweglichen Menschen den bisherigen Nutzen und die Anwendbarkeit des Lichtstudios vergrößern. 8.2 Ausblick Die Arbeit abschließend wird nun eine mögliche Erweiterung der Charaktersteuerung beschrieben. Diese Steuerung kann den Menschen derzeit nur in festgelegte Positionen und Stellungen überführen, die von einem Benutzer interaktiv eingestellt werden. Dynamische Bewegungen wie Laufen oder Winken sind jedoch noch nicht möglich. Diese Erweiterung wäre sinnvoll, da sich das Licht gerade bei Bewegungen verändert. Je nachdem in welchem Lichtkegel sich der Mensch bewegt, wird ein anderer Schatten geworfen und es entstehen unterschiedliche Lichteindrücke. Die Umsetzung der Dynamik könnte selbstverständlich in Maya erfolgen, da auch Animationen erzeugt werden können. Eine mögliche Erweiterung könnte mit einer festgelegten Bewegungspfadanimation (‚Motion-Path-Animation’) umgesetzt werden. Bei dieser Animationstechnik läuft das Objekt oder die Lichtquelle an einem festgelegten Pfad entlang. Die einzelnen Bilder, die während dieses Pfades entstehen, werden automatisch vom Rechner und dem Programm erstellt [BR94, S. 147-148]. Zum anderem könnte eine interaktive Animationsgestaltung in der Menüsteuerung umgesetzt werden. Hierfür könnte die Technik des Keyframing (SchlüsselbildAnimation) verwendet werden. Bei dieser Technik „werden die Hauptphasen einer geplanten Bewegungssequenz als Ausgangsbasis für weitere Zwischenstufen verwendet.“ [BR94, S. 147] Die Zwischenpositionen werden automatisch vom Programm berechnet, so dass der Anwender lediglich die Schlüsselpositionen - 82 festlegen muss, um kleine Bewegungsanimationen für den Menschen zu erstellen [BR94, S.147]. Eine andere Entwicklung könnten verschiedene Menschen innerhalb des Studios sein, so dass auch Verdeckungen mit in die Betrachtung einfließen könnten. Zusätzlich könnten Dialogszenen ausgeleuchtet werden. Natürlich wäre auch die Umsetzung von verschiedenen menschlichen Formen eine gute Idee, da Frauen, Männer und Kinder verschieden groß sind und somit verschiedene Lichteffekte hervorrufen. Zudem könnten verschiedene äußerliche Eigenschaften mit in die Gestaltung des Menschen fließen, um auch die Gestaltung fülliger, kleiner und großer Menschen und nicht nur der Standardtypen zu ermöglichen. Diese unterschiedlichen Eigenschaften bieten viele Entwicklungsmöglichkeiten, so dass immer realistischere Szenen erstellt werden könnten. Einige dieser Ideen sind schon in Programmen wie z.B. dem Programm Poser umgesetzt worden, jedoch setzen diese Programme oft Fachkenntnisse bei der Nutzung voraus. Außerdem gibt es viele Funktionen, die den Laien eher verwirren als unterstützen. Zusätzlich sind solche Programme teuer in ihrer Anschaffung und haben selten eine einfache Benutzeroberfläche. Es muss viel Zeit zum Erlernen der Funktionen investiert werden bevor eine professionelle Gestaltung und Animation möglich ist. Hier ist noch viel Entwicklungspotential in Richtung eines flexiblen und gleichzeitig anwenderfreundlichen Programms. Ein Ausblick in die zukünftige Entwicklung im Bereich der Computergrafik und dreidimensionalen Animation ist zum Beispiel das Forschungsprojekt des Fraunhofer-Instituts für Medienkommunikation IMK [IMK] namens „Virtual Human“. In diesem Projekt soll die Idee eines virtuellen Dialogpartners als Lehrer oder Kontaktperson einer Firma umgesetzt werden. Die programmtechnische Umsetzung des menschlichen Dialogverhaltens mit den dazu notwendigen Bewegungen erfordert eine detailgetreue Gesichtsmimik, die in Echtzeit simuliert und wiedergegeben werden muss. Bisherige Bewegungssimulationen können lediglich durch Menschen als manuelle Steuerungsperson oder aufwendige Berechnungsprozesse erstellt werden. Bei diesem Projekt soll der dreidimensionale Mensch allerdings interaktiv und der Situation entsprechend reagieren [VHN]. Das entwickelte Charaktermenü kann eine solche intuitive Reaktion natürlich nicht durchführen. Die Erwähnung des „Virtual Human“-Projektes soll dem Leser - 83 eine Idee der bei weitem noch nicht ausgeschöpften Möglichkeiten in der Computergrafik und der virtuellen Welt vermitteln. Die nächsten Jahre werden immer realistischere Simulationen hervorbringen, da die Programme und Algorithmen einer Abbildung der Realität immer näher kommen und zudem immer größere Rechenleistungen möglich sein werden. - 84 - Literaturverzeichnis Bücher [BC02] Berndt, Christoph und Loeder, Thomas (2002): Rendering mit Maya 4.5 und mental ray for Maya, Bonn. [BR94] Brugger, Ralf (1994): 3D-Computergrafik und -animation, Bonn. [MC04] Maraffi, Chris (2004): Maya Character Creation - Modeling and Animation Controls, Indianapolis. [MF03] Alias | Wavefront (2003): Learning Maya 5 | MEL Fundamentals, Toronto. [SM00] Schönherr, Maximilian (2000): Maya 3 - Technik und Ästhetik von HighEnd-Animation, München. [WA02] Watt, Alan (2002): 3D-Computergrafik, München. [WM05]Wilkins, Mark R. und Kazmier, Chris (2005): MEL Scripting for MAYA Animators, San Francisco. Artikel [BMSC] Berger, Michael und Sinniger, Christian: Von der Imitation zur Intention – In 4 Schritten zum intentionalen Agenten, Zürich. Bachelorarbeit [KP05] Knauer, Peter (2005): Visualisierung und fotorealistisches Rendering der Beleuchtung in interaktiv gestaltbaren virtuellen Studioräumen mittels Maya , Gummersbach. Internetseiten [BLB]http://de.wikipedia.org/wiki/Blackbox (26.01.06) [CGK]http://de.wikipedia.org/wiki/3D-Computergrafik (24.01.06) [DAD]http://www.phil.unisb.de/FR/Medienzentrum/verweise/psych/aufgaben/dragdrop/ (17.01.06) - 85 [FIL]http://photography.about.com/library/glossary/bldef_fillin.htm (26.01.06) [FRL]http://www.science-days.de/ontour/fresnel.htm (26.01.06) [GOB]http://www.martin-professional.de/gobo/gobosubgrouppage.asp (10.01.2006) [HAN]http://www.simplymaya.com/movie_pages/tutorial.mhtml?tut_id=27 (17.01.06) [HUL]http://digital-log.hfgkarlsruhe.de/3d/archives/2004/11/maya_complete_k_1.html (17.1.06) [IKW]http://de.wikipedia.org/wiki/Inverse_Kinematik (27.01.06) [IMK]http://www.imk.fraunhofer.de/de/index.html (07.02.2006) [LAM]http://digital-log.hfgkarlsruhe.de/3d/archives/2005/06/maya_complete_c_10.html (11.01.2006) [MAY]http://www.alias.com (06.01.06) [MES]http://de.wikipedia.org/wiki/Meshing (17.01.06) [PAN]http://caad.arch.ethz.ch/info/maya/manual/MayaCloth/UserGuide/Pants.fm. html#179004 (17.01.06) [POR]http://www.egisys.de/onlinestore/poser6_index_whatsnew.html (11.01.2006) [POS]http://www.e-frontier.com/go/poser6/figuredesign (11.01.2006) [RAD]http://de.selfhtml.org/html/formulare/auswahl.htm (17.01.06) [SHI]http://caad.arch.ethz.ch/info/maya/manual/MayaCloth/UserGuide/Shirt.fm.h tml#178662 (17.01.06) [SRS]http://de.wikipedia.org/wiki/Subdivision_Surfaces (17.01.06) - 86 - [STB]http://www.foto-freeware.de/studioblitzgeraet.php (10.01.2006) [TUB]http://www.wissen.de/wde/generator/wissen/ressorts/natur/naturwissenscha ften/index,page=1261150.html (11.01.2006) [VHN]http://www.virtual-human.org/main_pro_de.pl?infotext_de.html (20.01.06) [VWK]http://coli.lili.uni-bielefeld.de/~milde/vrml+java/kinematik/Termin7.html (2.2.06) - 87 - Anhang Interview: Joachim Badura (Fotograf) Name Joachim Badura Anschrift Pfarrer-Hillmann-Weg 51069 Köln-Dellbrück Berufsbezeichnung Fotograf Datum des Interviews 02.12.2005 Art der Auskunft Vor Ort im Fotostudio 6 1) Bitte stellen Sie sich und Ihre Tätigkeit kurz vor? Zunächst begann ich meine Ausbildung zum Fotografen, in dem ich einen Gesellenbrief absolvierte. Anschließend absolvierte ich ein Studium zum Fotoingenieur an der FH Köln und schloss noch ein BWL-Studium ab. Ich besitze ein eigenes Fotostudio und habe mich auf das Fotografieren von Menschen, Veranstaltungen und Hochzeiten spezialisiert. 2) Wie gefällt Ihnen die Idee eines virtuellen Lichtstudios, in dem auch Menschen beleuchtet werden können? Die Idee finde ich gut, allerdings kann ich mir keine genaue Vorstellung von einem solchen Studio machen. 3) Benutzen Sie gewisse Lichtquellen zur Ausleuchtung von Menschen? Ja, und zwar ein Studioblitzgeräte mit Einstelllicht. Das Licht ist individuell einstellbar und gleichzeitig funktioniert auch der Blitz. Hierbei können mehrere Lampen und Blitze verwendet werden. Das Einstelllicht hat übrigens keinen Einfluss auf das fertige Foto. 4) Gibt es unterschiedliche Lichtquellen zur Erzeugung einer bestimmten Stimmung? Nein. Allerdings gibt es eine große Anzahl von unterschiedliche Aufsätzen für das Studioblitzgerät, die unterschiedliche Lichteformen hervorbringen. 5) Was sind das für Aufsätze? Es gibt zum einen Reflektoren, welche eine weiße oder silberne Beschichtung haben können. Bei weißen erscheint das Licht diffus und wird gestreut. Bei silbernen Reflektoren wird ein härteres Licht erzeugt. Der Einsatz einer der beiden Beschichtungen ist von der Situation abhängig. Dann gibt es noch Reflexschirme, welche ebenfalls unterschiedlich beschichtet sein können. Zudem sind Reflektoren in unterschiedlichen Größen erhältlich. Je nach Bauform wird ein harter Schatten oder ein gerichteter Lichtstrahl hervorgerufen. Bei silbernen Reflektoren werden besonders einzelne Körperteile betont. Auf Reflektoren kann zusätzlich ein Wabengitter gesetzt werden, wodurch der Leuchtwinkel begrenzt und Randstrahlen ausgegrenzt werden. Es gibt weitere Reflektoren, die durch ihre Form das Licht beeinflussen können. Ein Beispiel hierfür ist eine abgeschrägter Reflektor, welche einen schrägen Abstrahlwinkel des Lichts hervorruft. Diese Bauform wird zum Ausleuchtung von Hintergründen eingesetzt, da durch den schrägen Schnitt eine große Fläche mit Licht versorgt werden kann. Ein Vorteil ist, dass nur eine Lampe zum Ausleuchten verwendet werden muss. Es gibt noch einen anderen Aufsatz, einen Tubus, der auf dem Stu- - 88 dioblitzgerät platziert wird und einen kreisrunden Lichtausschnitt erzeugt. Ebenfalls mit Wabengitter einsetzbar. Dieser wird für kleine Detailaufnahmen und bei Portraits als Gegenlicht verwendet. Es gibt außerdem noch Leuchtboxen als Aufsatz, welche ein weiches, volumiges Licht zum Ausleuchten erzeugen. Dann gibt es noch die Fresnel-Linse, die den Durchmesser des Lichts verändern kann und einen weichen Übergang erzeugt. Zudem setzte ich noch Projektionsvorsätze ein. Dies ist eine kreisrunde Linse, welche die Schärfeneinstellung beeinflusst. Diese Blenden heißen Gobos und können unterschiedlich eingesetzt werden. Sie können ein Muster auf das Licht legen, sind drehbar und kombinierbar. Die Muster sind beispielsweise Sterne oder Steifen, die als Hintergrundlicht eingesetzt werden. 6) Wie wird farbiges Licht erzeugt? Für farbiges Licht verwende ich Filterfolien in der gewünschten Farbe des Lichtes, weil diese günstig sind. 7) Kommen noch andere Lichtbeeinflussende Geräte bei einer Ausleuchtung zum Einsatz? Ja, und zwar Aufhellwände. Diese sind unterschiedlich beschichtet, die weiße Seite hellt auf und die schwarze Seite saugt das Licht auf. Sie werden eingesetzt, wenn nicht genug Licht einer Lampe vorhanden ist und um Licht zu reflektieren und Gegenstände auszuhellen. 8) Wie bereiten Sie sich auf eine Ausleuchtung vor? Gar nicht. Die Shootings sind Situations- und Stimmungsabhängig. 9) Worauf muss bei der Ausleuchtung besonders geachtet werden? Das Licht darf nicht frontal auf die Person treffen. Lichtquellen sollen immer seitlich von der Person platziert sein. Das ist besonders bei Brillenträgern wichtig, da die Gläser sonst das Licht reflektieren. 10) Gibt es Standardpositionen von Menschen bei der Ausleuchtung innerhalb eines Lichtstudios? Nur bei Bewerbungsfotos und Passbilder. Alle anderen Positionen sind stil- und situationsabhängig und werden individuell festgelegt. 11) Könnten Sie mir trotzdem ein paar Ausleuchtungsbeispiele beschreiben und zeigen? Für die folgenden Beispiele wurde ich in die Mitte des Fotostudios gestellt und ausgeleuchtet: 1. Beispiel: Ganzkörperausleuchtung - Es werden zwei Lampen eingesetzt, eine hat ein Streiflicht als Aufsatz und wird links vor mir aufgestellt und strahlt meine ganze Person an. Die zweite Lampe wird rechts hinter meinem Körper platziert und erhält einen Tubus als Aufsatz, der meine dunklen Haare ausleuchtet. 2. Beispiel: Halbportrait – Für diese Ausleuchtung bleibt die erste Lampe an ihrer Position stehen, erhält aber eine weiße Blende als Aufsatz. Diese grenzt den belichteten Bereich ein, so dass nur der Oberkörper erleuchtet ist. Die zweite Lampe bleibt an ihrer Position. 3. Beispiel: Silhouette – Hier wird nur eine Lampe eingesetzt, welche rechts hinter mit aufgestellt wird. Diese Einstellung soll lediglich die Umrandungen des Körpers abbilden. Wird in der Profilfotografie verwendet, wobei je nach Körperdre- - 89 hung mehr oder weniger vom Körper zu sehen ist. Bei einer Drehung des Körpers entstehen aber erst schöne Effekte in der Abbildung des Fotos. 4. Beispiel: Indirektes Licht – Hierfür wird Licht von der Decke reflektiert. Das indirekte Licht setzt man vor allem bei Gruppenaufnahmen ein, damit alle Personen ausgeleuchtet sind. Hierbei können Probleme auftauchen, wenn Irritationen in der Farbe der Wand vorhanden sind. Oft ist die unscheinbare Farbe auf der Wand erst im späteren Bild sichtbar, was die Fotografie verfälscht. Es gibt noch eine andere Möglichkeit zur Gruppenausleuchtung, das fill in light. Hierfür wird direkt bei der Kamera eine Lampe ohne Reflektor mit voller Lichtleistung aufgestellt. Das Licht wird nach oben gestellt, erzeugt ein gestreutes Licht und füllt die Schatten mit Licht aus. 12) Gibt es auch Reflektoren, die Menschen in einem schöneren Licht darstellen? Ja natürlich. Dies sind Trieflektoren und transportable Reflektoren, welche bei Beautyshootings eingesetzt werden. Hier strahlt das Licht von oben auf den Reflektor und erzeugt ein ganz helles, gleichmäßiges Licht für die Ausleuchtung der Person. 13) Ist die Anzahl der Lichtquellen von Bedeutung? Ja, bei einer Lichtquelle entsteht eine harte Ausleuchtung, da man arbeitet mit Gegenlicht. Bei mehreren Lichtquellen versucht man den Hintergrund weiß zu halten. 14) Wie flexible sind Lampen bei einer Ausleuchtung in einem Fotostudio? Gar nicht. Die Lampen bleiben immer stehen an der aufgestellten Position stehen. Der Fotograf und das Modell verändern lediglich ihre Position. Es wäre ein zu hoher Aufwand aus welchem Grund die Menschen bewegt werden. 15) Gibt es zur Vermittlung einer bestimmten Stimmung auch solche Standardpositionen? Ja, und zwar für eine gruselige Stimmung. Hierfür wird nur ein Licht, und zwar wird eine Person von unten anleuchtet. Dies gibt einen unschönen Lichteffekt und wird zum Erzeugen einer gruseligen, düsteren Stimmung eingesetzt. Bei Hochzeiten hingegen benutze ich ein weißes Licht und bei einer Abendveranstaltung reicht das Licht der Kamera aus. Zudem ist das an der Kamera positionierte Licht leicht zu transportieren. 16) Hat die Kleidung ebenfalls eine Auswirkung auf die Szene? Ja, jeder Stoff absorbiert und reflektiert das Licht unterschiedlich. Dunkle Stoffe nehmen mehr Licht auf und helle Stoffe reflektieren stark. Zudem ist die feine Spitze eines Kleidungsstücks auf Fotos schlecht zu erkennen. Ein anderer Effekt tritt bei optischen Aufhellern in Kleidung auf. Diese Stoffe lassen Kleidung regelrecht strahlen und verfälschen das spätere Bild weshalb sie nicht verwendet werden sollten. 17) Muss man bei bestimmten Materialien, wie z.B. Leder, Synthetik oder Wolle etwas beachten? Generell nicht. Allerdings gibt es ein paar Stoffe, die eine besondere Wirkung auf Licht haben. Dies ist zum einen Schwarzer Samt der viel Licht absorbiert und zum anderen ist das ein weißer Stoff, welcher Licht stark reflektiert. Bei Leder ist darauf zu achten, dass die glatte Oberfläche Licht reflektiert. - 90 Eine schwere Aufgabe ist es dadurch bei einer Hochzeit den Bräutigam in einem guten Licht neben seiner Braut im weißen Kleid darzustellen. 18) Wie viel Erfahrung ist für eine richtige Ausleuchtung notwendig? Zeitraum der Lehre, Autodidaktisch, ca. ½ -1 Jahr Erfahrung 19) Welche Auswirkung hätte eine falsche Ausleuchtung auf die Wirkung der Szene? Starke Auswirkung, da das Bild keinen Widererkennungswert beinhalten könnte. - 91 - Erklärung Ich versichere, die von mir vorgelegte Arbeit selbständig verfasst zu haben. Alle Stellen, die wörtlich oder sinngemäß aus veröffentlichten oder nicht veröffentlichten Arbeiten anderer entnommen sind, habe ich als entnommen kenntlich gemacht. Sämtliche Quellen und Hilfsmittel, die ich für die Arbeit benutzt habe, sind angegeben. Die Arbeit hat mit gleichem Inhalt bzw. in wesentlichen Teilen noch keiner anderen Prüfungsbehörde vorgelegen. Köln, den ……………… Unterschrift:…………………