Bachelorarbeit_Chris..

Transcrição

Bachelorarbeit_Chris..
Fachhochschule Köln
University of Applied Sciences Cologne
Campus Gummersbach
Fachbereich Informatik
Studiengang Medieninformatik
Bachelorarbeit
Interaktive Steuerung und Visualisierung von Charakteren mit Hilfe von Maya innerhalb des virtuellen Lichtsimulationstools
von Christina Wildhirt
Matr.-Nr.: 11034318
Erstprüfer:
Prof. Dr. Horst Stenzel
Zweitprüfer:
Prof. Dr. Lutz Köhler
Abgabedatum: 09.02.2006
-1-
Inhaltsverzeichnis
Kurzfassung.................................................................................... - 3 Abstract........................................................................................... - 4 1 Einleitung..................................................................................... - 5 2 Beschreibung des Projektes ....................................................... - 7 2.1 Themenstellung ........................................................................................ - 7 2.2 Anforderungen an das menschliche Modell und die Menüsteuerung ...... - 8 2.3 Aufbau der Arbeit................................................................................... - 10 -
3 Beschreibung des Lichtsimulationstools und eines
Charakteranimationsprogramms............................................... - 11 3.1 Einführung in das Lichtsimulationstool ................................................. - 11 3.2 Das Programm Poser der Firma e-frontier ............................................. - 12 -
4 Grundlagen der Ausleuchtung in einem Lichtstudio und der
technischen Umsetzung von Bewegung im 3D-Raum .............. - 15 4.1 Der Aufbau eines Fotostudios in der Praxis ........................................... - 15 4.1.1 Equipment zur Ausleuchtung eines Fotostudios.............................. - 16 4.1.2 Ausleuchtungsbeispiele in einem realen Fotostudio ....................... - 19 4.2 Technische Grundlagen zur Umsetzung von Bewegungen im
dreidimensionalen Raum .............................................................................. - 21 -
5 Modellierung eines dreidimensionalen Charakters............... - 23 5.1 Vorgehensweise bei der Modellierung in Maya..................................... - 23 5.1.1 Grundlagen beim Gestalten von Objekten in Maya ........................ - 23 5.1.2 Beschreibung verschiedener Modi zur Objektmodellierung ........... - 26 5.1.3 Editoren für die Modellierung von Objekten in Maya .................... - 29 5.2 Modellierung des Charakters.................................................................. - 32 5.2.1 Die Modellierung des Kopfes .......................................................... - 32 5.2.2 Gestalten von Augen und Ohren für den Kopf ................................ - 35 5.2.3 Die Modellierung des menschlichen Oberkörpers .......................... - 38 5.2.4 Gestalten der Arme und Beine anhand des Oberkörpers ................ - 39 5.2.5 Zusammenfügen der Körperteile ..................................................... - 44 5.2.6 Umwandeln des zusammengefügten Modells in ein Polygon .......... - 46 -
-25.3 Aufbau des Skeletts für den Charakter ................................................... - 48 5.3.1 Vorgehensweise beim Erstellen eines Skeletts................................. - 48 5.3.2 Modellierung des Skeletts................................................................ - 50 5.3.3 Kontrollsymbole zur Steuerung des Skeletts.................................... - 53 5.3.4 Anpassen der Haut an das Skelett ................................................... - 56 5.4 Erstellen der Texturen für den Menschen............................................... - 58 5.4.1. Modellieren eines T-Shirts und einer Hose .................................... - 58 5.4.2 Anpassen der Kleidung an den modellierten Körper ...................... - 60 5.4.3 Erstellen der Texturen ..................................................................... - 60 -
6 Aufbau der Charaktersteuerung............................................. - 63 6.1 Beschreibung und Verwendung der Charaktersteuerung ....................... - 63 6.1.1 Grundlegende Entscheidungen für das Menüdesign ....................... - 63 6.1.2 Einsatz von Buttons in der Menüsteuerung ..................................... - 64 6.1.3 Einsatz von Slidern in der Menüsteuerung...................................... - 66 6.2 Beispiele der MEL-Programmierung der Menüsteuerung ..................... - 68 6.3 Einsatzgebiete für die Charaktersteuerung ............................................. - 73 -
7 Installation und Benutzung der Charaktersteuerung........... - 74 7.1 Systemvoraussetzungen.......................................................................... - 74 7.2 Installation des modellierten Charakters und der Menüsteuerung ......... - 74 7.3 Installation des Lichtsimulationstools .................................................... - 75 7.4 Anwendung der Menüs der Charaktersteuerung und des LST............... - 75 -
8 Schlussfolgerung ....................................................................... - 79 8.1 Fazit ........................................................................................................ - 79 8.2 Ausblick.................................................................................................. - 81 -
Literaturverzeichnis .................................................................... - 84 Anhang .......................................................................................... - 87 -
-3-
Kurzfassung
Die vorliegende Arbeit richtet sich an alle, die sich für 3D-Modellierung im Allgemeinen und für die Gestaltung von Charakteren im dreidimensionalen Raum im
Speziellen, interessieren.
In dieser Arbeit wird der Prozess der Erstellung eines virtuellen Menschen, auch
Avatar genannt, mit einem dazugehörigen, beweglichen Skelett erläutert. Das erzeugte Skelett kann durch die Benutzung einer interaktiven Menüsteuerung vereinfachte, menschliche Bewegungen ausüben. Außerdem werden an den modellierten Menschen Kleidungsstücke angepasst, die unterschiedliche Texturen und
Farben annehmen können. Die Auswahl der Texturen und von vier vorgegebenen
Positionen, die der Mensch einnehmen kann, sind ebenfalls in diesem Menü eingearbeitet. Der Benutzer kann die Steuerung individuell verwenden oder sich an
den gegeben Vorgaben orientieren.
Die vorliegende Arbeit stellt eine Erweiterung des bereits entwickelten dreidimensionalen Lichtsimulationstools von Peter Knauer dar. Der modellierte Mensch
aus dieser Arbeit kann in das virtuelle Lichtstudio eingefügt und mit den bereits
gegebenen Funktionen und Lichtquellen des Studios ausgeleuchtet werden. Zudem ist es möglich, Reflexionen und Schattenwurf der erstellten Kleidung, welche
von den unterschiedlichen Texturen hervorgerufen werden, zu betrachten und zu
untersuchen.
Die anschauliche Darstellung dient einem besseren Verständnis der Ausleuchtung
von Menschen in verschiedenen Körperposen innerhalb eines Lichtstudios.
-4-
Abstract
The present assignment is addressed to those who are interested in 3D-Modelling
in general and in designing characters in the three-dimensional space in particular.
In this assignment the process of creating a virtual human and appropriate movable skeleton is elucidated. Furthermore, a menu control is presented which will
allow moving the human being and the skeleton. In addition, there are clothes
designed to fit the human body which are able to adopt different textures and colours. The choice of textures as well as determined default positions for the human
being is introduced in this menu. The user can either individually control the body
or orientate its actions on the given default positions.
Additionally, the present assignment is an extension of the developed threedimensional ‘light-simulation-tool’ by Peter Knauer. The designed human being
in this assignment will be pasted in the light-studio and is then able to being illuminated by the given features and light sources of the studio. Thus it is possible to
observe and analyse reflections and shadows of the cloth which relate to the different textures.
The vivid presentation serves a better understanding of illumination of people in
different body poses inside a light-studio.
-5-
1 Einleitung
Die technische Fortentwicklung der heutigen Zeit ermöglicht immer aufwändigere
und detailliertere Simulationen realer Abläufen und Zustände in der virtuellen
Realität.
Viele
dieser
Simulationen
kommen
der
Wirklichkeit
schon
außerordentlich nahe. Sie dienen einer möglichst realitätsnahen Abbildung von
Vorgängen der realen Welt, um Prozesse zu veranschaulichen und analysierbar zu
machen. Hierbei gibt es eine Vielzahl von Anwendungsgebieten, wie beispielsweise Bewegungsanalysen, bei welchen diese Simulationen und Darstellungen
von großem Nutzen sind.
Die Simulation der menschlichen Bewegungsabläufe verwendet Erkenntnisse aus
den Gebieten der Computeranimation und der Robotertechnik. Das in dieser Arbeit erstellte menschliche Modell kann über eine interaktive Steuerung bewegt
werden. Der Benutzer ist somit in der Lage, das Modell in verschiedene Positionen zu bringen. Dies ermöglicht das Betrachten und Analysieren der Bewegung.
Je verständlicher diese Darstellungen sind, desto bessere Ergebnisse können im
Hinblick auf einen Verständnis- und Lerneffekt erzielt werden. Dies ist auch der
Grund für die Wahl eines menschlichen Körpers; der Benutzer ist mit der Anatomie und mit den Bewegungsabläufen vertraut, was von vornherein ein Basisverständnis der Darstellung bewirkt.
Die zweite Simulation in dieser Arbeit befasst sich mit der Beleuchtung eines
Raumes, in welchem ein modellierter Mensch platziert wird. In diesem virtuellen
Raum existieren bis zu zehn virtuelle Lichtquellen, wodurch unterschiedliche Effekte aufgezeigt werden können. Die Abbildung von Licht im dreidimensionalen
Raum ist ein komplexer und vielschichtiger Prozess, der von vielen Aspekten beeinflusst wird. Hier sind unter anderem die Intensität des Lichts, die Anzahl der
Lichtquellen und mögliche Objekte, die Einfluss auf das Licht haben können, zu
beachten. Alle Aspekte des Mediums werden in diesem Zusammenhang so
realitätsnah wie möglich in dem dreidimensionalen Lichtstudio nachgebildet. Für
die Umsetzung einer optimalen und zufrieden stellenden Simulation von
virtuellem Licht kann eine Reihe von Lichtquellen, in ihren Eigenschaften verschieden, gestaltet werden.
Diese beiden Simulationen sollen jedoch nicht für ein professionelles Verständnis
im Bereich der Licht- und Filmtechnik entwickelt und erläutert werden. Dies wür-
-6de den Rahmen dieser Arbeit überschreiten. Die Darstellung des virtuellen Modells und des Lichts wird primär für Studenten der Informatik und der Medienwissenschaften entwickelt. Das bewegliche menschliche Modell sowie das virtuelle
Lichtstudio sollen den Studenten während den Vorbereitungen zu einem Fotoshooting oder Filmdreh helfen. Sie sollen die geplanten Lichteinstellungen in Bezug auf die Gestaltung der Lichtquellen und der Positionierung von Personen im
Vorhinein im virtuellen Raum simulieren und betrachten können. Hierdurch sollen der Zeitaufwand bei der Planung vermindert und die Qualität der Ausleuchtung bei der Durchführung dieser Art von Projekten erhöht werden. Diese anschaulichen Simulationen stellen durch die genannten Eigenschaften ein Hilfsmittel für den praktischen Gebrauch im universitären Projektalltag dar. Zudem ergibt
sich aus der Verwendung ein nicht zu unterschätzender Lerneffekt, der bei der
Durchführung von Projekten hilfreich sein kann.
Des Weiteren sind diese Simulationen sehr anschaulich und flexibel, da die Szenen innerhalb des virtuellen Lichtstudios schnell dargestellt werden können. Die
Lichteinstellungen und beleuchteten Objekte können mit einem Verfahren namens
Rendering sichtbar gemacht werden und sind in einem Fenster zeitnah zu betrachten [BR94, S. 101]. Das Rendering ist ein Verfahren, welches sich mit einer
„möglichst detailgetreuen Nachbildung der Wirklichkeit“ [CGK] beschäftigt. In
dieser Arbeit wird mit dem Begriff Rendern die Bildsynthese gemeint, da die
selbst gestaltete Szene in ein reales Bild umgewandelt wird. Falls der gewünschte
Lichteffekt nicht hervorgerufen wurde, kann er zeit- und aufwandsarm geändert
werden. Bei einer realen Fotografie muss das Bild zunächst entwickelt werden,
um die Lichteffekte betrachten und auswerten zu können. Allerdings ermöglicht
die digitale Fotografie inzwischen, dass auch Fotos ohne Entwicklung betrachtet
werden können. Die Einstellungen und Aufbauten im Fotostudio müssen aber
dennoch durchgeführt werden. Mit Hilfe der virtuellen Lichtstudiosimulation
können die Auswirkungen des Lichts auf die dreidimensionalen Objekte betrachtet und verändert werden, bis die optimale Beleuchtung gefunden ist, ohne dass
Vorarbeiten im Studio durchgeführt werden müssen.
Ein weiterer Vorteil des Lichtsimulationstools ist, dass alle drei Faktoren Lichtquelle, Fotograf (Blickwinkel) und Modell - beweglich und positionierbar
sind. In einem realen Studio können nur zwei Faktoren flexibel eingesetzt werden,
und zwar der Fotograf und das zu fotografierende Objekt. Die Lichtquellen wer-
-7den aufgestellt und kaum mehr bewegt, da das Umstellen der Lichtquellen einen
zu hohen Aufwand bedeuten würde. Daher ist die flexible Gestaltung der Lichtquellen ein großer Gewinn für den Bereich der Fotografie, da alle Objekte interaktiv positioniert werden können.
Die beschriebenen Simulationen werden in den folgenden Kapiteln in ihrer Modellierung und Umsetzung detailliert beschrieben.
2 Beschreibung des Projektes
Dieses Kapitel beschreibt zunächst die genaue Themenstellung der vorliegenden
Arbeit und legt somit den Grundstein für die Struktur und ihren Inhalt. Darauf
folgend werden die Anforderungen an die Arbeit und der Aufbau der Arbeit im
Detail erläutert. Die folgenden Kapitel sollen den Leser in das Thema einführen
und ihn auf die kommenden Beschreibungen und Erläuterungen vorbereiten.
2.1 Themenstellung
Die vorliegende Arbeit baut auf dem von Peter Knauer entwickelten Lichtsimulationstool (LST) auf [KP05]. Die Aufgabe dieser Arbeit ist es, einen interaktiv
steuerbaren virtuellen Menschen zu entwickeln, diesen im LST zu platzieren und
ihn anschließend über ein einfaches und intuitiv nutzbares Menü zu bewegen.
Zusammen mit dieser Erweiterung soll das LST als virtueller Ersatz für ein reales
Lichtstudio fungieren und dem Benutzer weit reichende Gestaltungsmöglichkeiten
eröffnen.
Zur Erfüllung dieser Aufgabe wird ein dreidimensionaler Charakter1 modelliert.
Dieses menschliche Modell wird mit dem Programm „Maya“ [MAY] der Firma
Alias Autodesk gestaltet. Dieses Programm wird eingesetzt, weil es bereits für die
Erstellung des LST verwendet wurde und eine Kompatibilität Vorraussetzung für
die Durchführung der Aufgabe ist. Nachdem die Modellierung des Charakters
abgeschlossen ist, wird Kleidung, mit verschiedenen Texturen versehen, kreiert.
Diese Texturen werden ebenfalls in Maya erstellt und sollen auftreffendes Licht
unterschiedlich reflektieren, so dass verschiedene Effekte sichtbar werden. Au1
Unter einem Charakter ist in dieser Arbeit ein dreidimensionales menschliches Modell zu verstehen.
-8ßerdem wird die Bekleidung an die Körperformen angepasst, um den Bewegungen des Modells folgen zu können.
Da der Körper menschenähnliche, motorische Bewegungen ausführen soll, muss
ein anatomisch korrektes Skelett erstellt werden, welches sich realitätsnah und
verständlich bewegt. Das Skelett wird entsprechend der Größe des Körpers gestaltet, damit Körper und Skelett perfekt zusammenpassen. Zum Abschluss werden
Körper, Kleidung und Skelett miteinander verbunden, um die motorischen Bewegungen ausführen zu können.
Nach Abschluss der Modellierung der Elemente soll ein Menü für die Bewegungssteuerung des Menschen programmiert werden. Über das Menü sollen die
Bewegungen der einzelnen Gliedmaßen, die Auswahl der Textur sowie verschieden vordefinierte Positionen für den Menschen auswählbar sein. Diese Steuerung
wird ebenfalls in Maya in der eigenen Programmiersprache MEL (Maya Embedded Language) umgesetzt. Dabei ist der Aufbau des Menüs benutzerfreundlich
und intuitiv nutzbar zu gestalten, da es auch für Anwender entwickelt wird, welche mit dem Programm Maya keine Erfahrung haben.
Anschließend müssen der modellierte Mensch sowie das Lichtsimulationstool in
einer Arbeitsoberfläche zusammengefügt werden und die Menüsteuerung installiert. Hiermit wären alle erforderlichen Objekte und Menüs in einer Mayabühne2
vereint, so dass der Benutzer mit dem Bewegen des Menschen und seiner Ausleuchtung beginnen könnte.
2.2 Anforderungen an das menschliche Modell und die Menüsteuerung
Das Ziel dieser Arbeit ist zum einen die detaillierte Darstellung eines dreidimensionalen Charakters und zum anderen die Umsetzung einer interaktiven Menüsteuerung für die Bewegungen des Menschen. Hierfür ist die realistische Modellierung eines menschenähnlichen Modells sehr wichtig, damit sowohl Anschaulichkeit als auch Praxistauglichkeit gegeben sind.
Der Benutzer soll in der Lage sein, realitätsnahe Simulationen von Bewegungen
anhand des modellierten Menschen durchführen zu können. Hierzu muss das Skelett anatomisch korrekt konstruiert sein, damit die Körperproportionen mit der
2
Als Mayabühne wird die Arbeitsoberfläche im Programm Maya bezeichnet. Eine genauere Definition findet im Kapitel 5.1 statt.
-9Realität übereinstimmen und die Motorik, der eines Menschen gleicht. Für die
korrekte Funktionsweise des Skeletts ist das richtige Platzieren der Gelenke an
den jeweiligen Stellen notwendig. Für die realitätsnahe Darstellung des Skeletts
und des Modells ist ausschlaggebend, dass die Bewegungen der einzelnen Gliedmaßen und deren Auswirkungen auf weitere Körperteile der Realität entsprechend
umgesetzt werden. Das Hinknien beispielsweise hat mittelbar Einfluss auf den
Oberkörper, der sich in diesem Fall mit absenkt. Bei den Bewegungen dürfen ebenfalls nur anatomisch korrekte Simulationen möglich sein, so dass die virtuellen
Gelenke die gleichen Bewegungsspielräume wie die realen Gelenke haben und
somit unrealistische Verdrehungen verbieten.
Zusätzlich soll die Ausleuchtung von Texturen und Farben innerhalb des virtuellen Lichtsimulationstools beobachtet werden können. Es ist ausschlaggebend
für eine anschauliche Darstellung von Kleidung und ihrer Erscheinung bei
bestimmtem Licht, dass je nach Farbe und Material ein anderer Reflexionseffekt
zu sehen ist.
Die Umsetzung des modellierten Menschen und des Skeletts soll ein schnelles
Rendering ermöglichen. Die Einstellungen des Lichtstudios müssen innerhalb von
Sekunden mittels Rendern abgebildet werden können, um eine Betrachtung und
Auswertung der erzeugten Lichteffekte zu ermöglichen. Hierfür muss die Umsetzung des Menschen, des Skeletts und der Kleidung möglichst rechenzeitarm erfolgen, ohne jedoch auf die nötige Detailtiefe zu verzichten.
Da sich in der Zielgruppe der Steuerung auch Maya-Laien befinden, ist eine konsistente Beschreibung der verschiedenen Menüpunkte der Charaktersteuerung
wichtig. Daneben müssen alle Menüpunkte eine eindeutige Bedeutung haben, so
dass die Bezeichnung der Buttons selbsterklärend ist. Die möglichen Funktionen
des Menüs sollen dem Benutzer helfen sich ein besseres Bild von Licht und dessen Reflexionen zu machen. Der Anwender soll anhand der eigenen Einstellungen
und Simulationen eine bessere Vorstellung der späteren realen Umsetzung erhalten. Das Tool soll die Kreativität unterstützen, da auf Grund der interaktiven Umsetzung viele verschiedene Positionen und Lichteinstellungen einstellbar sind.
Hierbei soll der Benutzer über die vordefinierten Positionen hinaus eigene Ideen
entwickeln und die vielfältigen Möglichkeiten innerhalb des Lichtsimulationstools
und der Charaktersteuerung benutzen können.
- 10 -
2.3 Aufbau der Arbeit
Der Aufbau dieser Arbeit beginnt mit der Einführung in die Simulationen, welche
in dieser Arbeit anschaulich dargestellt werden. In Kapitel 2.1 wird die genaue
Themenstellung erläutert, welche die Vorgehensweise der Modellierung des gesamten Menschen und der Erstellung des Menüs beinhaltet. In Kapitel 2.2 werden
die Anforderungen für eine erfolgreiche Erfüllung der Aufgabe festgelegt. Das
Kapitel 2.3 erläutert den Aufbau und die Strukturierung der Arbeit.
In den Kapiteln 3.1 und 3.2 wird zuerst das Lichtsimulationstool mit seinen Funktionen beschrieben und anschließend ein Charakteranimationsprogramm vorgestellt, mit welchem die entwickelte Menüsteuerung des Charakters verglichen
wird. Das folgende Kapitel 4.1 erläutert den Aufbau eines realen Fotostudios in
der Praxis und der dort verwendeten Lichtquellen sowie der zur Verfügung stehenden Ausstattung. Außerdem werden einige Ausleuchtungsbeispiele von Menschen im Detail beschrieben. In Kapitel 4.2 folgen die technischen Grundlagen,
welche der Bewegung von Gelenken in Maya zugrunde liegen.
In Kapitel 5.1 werden zunächst einige Grundlagen für die Modellierung von Objekten in dem Programm Maya beschrieben. Das Kapitel 5.2 beschreibt anschließend die Gestaltung des Menschen. Hierbei wird die Entstehung aller Körperteile
erläutert und anhand von Bildern anschaulich dargestellt. In 5.3 werden das Formen und der Aufbau des menschenähnlichen Skeletts geschildert. Des Weiteren
werden die Steuerelemente, anhand welcher das Skelett bewegt wird, genannt.
Zuletzt wird das Anpassen von Haut und Skelett aneinander beschrieben. Das
Kapitel 5.4 beschreibt das Modellieren von Kleidung und die Erstellung verschiedener Materialien.
In Kapitel 6.1 wird die Gestaltung des Menüs und seiner Funktionen detailliert
erläutert. Zudem wird die benutzerfreundliche Umsetzung der Menüsteuerung im
Detail beschrieben, sowie die Entscheidungen für das gewählte Design dargelegt.
In Kapitel 6.2 werden einige Programmierbeispiele für die Umsetzung des Menüs
besprochen. Anschließend werden die Einsatzmöglichkeiten der Charaktersteuerung aufgezeigt (6.3). Im anschließenden Kapitel 7.1 werden die technischen Vorraussetzungen zur Verwendung der Menüsteuerung definiert. In den folgenden
Kapiteln werden die Installation des Menschen und der Charaktersteuerung (7.2)
sowie des Lichtsimulationstools (7.3) beschrieben. Abschließend wird in Kapitel
7.4 eine Einführung in die Benutzung der Menüsteuerung des Menschen gegeben.
- 11 Im letzen Kapitel 8.1 werden ein Fazit der gesamten Arbeit, sowie ein Ausblick
(8.2) auf Weiterentwicklungen im Bereich der virtuellen Realität gegeben.
3 Beschreibung des Lichtsimulationstools und eines Charakteranimationsprogramms
In diesem Kapitel wird das Lichtsimulationstool (LST), in welchem der Benutzer
den modellierten Menschen navigieren soll, beschrieben. Das LST ist Grundlage
der vorliegenden Arbeit und wird mit der entwickelten Charaktersteuerung zusammen eingesetzt. Für ein allgemeines Verständnis dieses Tools wird es im Folgenden mit seinen Funktionen dargestellt.
Zudem wird ein Charakterdesign- und Animationsprogramm vorgestellt und mit
den Funktionen der Charaktersteuerung verglichen. Dieser Vergleich soll andere
Möglichkeiten der Charaktermodellierung- und Animation vorstellen, um die
Vorzüge der hier entwickelten Menüsteuerung darzulegen und das allgemeine
Verständnis der Thematik zu verbessern.
3.1 Einführung in das Lichtsimulationstool
Das Lichtsimulationstool wurde von Peter Knauer in seiner Bachelorarbeit „Visualisierung und fotorealistisches Rendering der Beleuchtung in interaktiv gestaltbaren virtuellen Studioräumen mittels Maya“ [KP05] entwickelt. Das Tool bietet
eine Alternative zu weiteren Beleuchtungsprogrammen, wie beispielsweise dem
„Lichtassistenten“ und „Mirolux“. Der Lichtassistent ist ein dokumentarisches
Programm, welches unter anderem die benötigte Anzahl an Lichtquellen für eine
Innenraumbeleuchtung berechnet. Mirolux hingegen ist ein Lichtplanungsprogramm, welches auch die Anforderungen im professionellen Unterhaltungsbereich
erfüllt. Das Programm verfügt über viele Funktionen für eine detaillierte Raumund Lichtgestaltung [KP05].
Das entwickelte LST wurde mit dem Programm Maya der Firma Alias Autodesk
erstellt und simuliert ein dreidimensionales Lichtstudio. Innerhalb des Studios
können verschiedene Lichtquellen erzeugt, bearbeitet und positioniert sowie verschiedene Farben für das Licht eingestellt werden. Im LST sind ein statischer
- 12 Menschenkörper und drei geometrische Figuren (Kugel, Zylinder, Würfel) enthalten. Diese können im Studio bewegt und ausgeleuchtet werden. Je nach Lichtintensität und Lichteinfall werden diese Objekte unterschiedlich beleuchtet, werfen
folglich verschiedene Schatten und beeinflussen die Lichtverteilung im Raum.
Nachdem der Anwender die Lichtquellen und Objekte in der gewünschten Art
und Weise angeordnet hat, kann die erstellte Szene gerendert und anschließend als
Bild in einem Fenster betrachtet werden.
Das Lichtsimulationstool verfügt zur Ausführung dieser Funktionen über zwei
Menüs. Das erste Menü steuert die drei geometrischen Figuren und den starren
Menschenkörper innerhalb des Lichtstudios entlang der drei räumlichen Achsen.
Zusätzlich ermöglicht dieses Menü verschiedene Betrachtungsweisen auf die
Mayabühne. Das Rendern der aktuellen Szene wird ebenfalls über diese Steuerung ausgeführt. Das zweite Menü verändert die Lichtintensitäten der erzeugten
Lichtquellen, um dieselben Positionen der Figuren unter unterschiedlich starken
Lichteinflüssen betrachten zu können. Zusätzlich können die Lichtquellen im Studio neu positioniert und die Farben des Lichtes und des Schattens verändert werden.
Das LST „ist die Entwicklung und Implementierung eines Tools, das die 3D Visualisierung von Lichtsituationen in einem realen Raum ermöglicht“ [KP05]. Der
unbewegliche Körper im ursprünglichen LST schränkt die Nutzungs- und
Einsatzmöglichkeiten ein, wodurch eine Erweiterung um einen beweglichen Menschen eine große Bereicherung und Verbesserung der Anwendbarkeit des LST ist.
Damit das LST und die interaktive Menüsteuerung zusammen arbeiten können,
mussten allerdings ein paar Veränderungen innerhalb des LST vorgenommen
werden. Zunächst wurde der statische Menschenkörper aus dem Quellcode des
LST gelöscht und durch den modellierten Charakter aus dieser Arbeit ersetzt. Außerdem wurde ein Rechtschreibfehler im Lichtmenü verbessert. Alle anderen
Funktionen sind beibehalten worden.
3.2 Das Programm Poser der Firma e-frontier
Nachdem die Einführung in das Lichtsimulationstool gegeben ist, wird ein Beispiel für ein Charakterdesign- und Animationsprogramm angeführt. Hiermit soll
dem Leser die allgemeine Funktionsweise und die Einsatzgebiete solcher Pro-
- 13 gramme vermittelt werden. Das Programm „Poser“ der Firma e-frontier [POS]
verfügt über vergleichbare Funktionen und Möglichkeiten wie die Charaktersteuerung und ist daher ein adäquates Vergleichsprogramm.
Mit dem Programm Poser können menschliche Formen wie Gesichter, Körperteile
oder komplette menschliche Modelle für Illustrationen, Animationen, medizinische Visualisierungen, Spiele und vieles mehr, entworfen werden. Innerhalb von
Poser kann der Benutzer mit dem ‚drag&drop’-Verfahren3 seinen individuellen
Charakter auf der Bühne des Programms zusammenstellen. Diese Benutzeroberfläche ist auf einer ‚room’-basierenden (Raum) Umgebung aufgebaut (Abbildung
1). Diese verschiedenen ‚rooms’ stellen das Menü für die jeweiligen Entwicklungsstufen bei der Gestaltung des Körpers dar. Hierbei gibt es unter anderem
Posen-, Setups-, Materialien-, Haare- und Kleidungs-‚rooms’, welche bei jedem
Schritt des Modellierens den Zugriff auf die einsetzbaren Features bieten [POR].
Abbildung 1: ‚rooms’-Oberfläche
In den auswählbaren ‚rooms’ verwendet das Programm Poser Paletten und Fenster
als
Auswahlmenüs.
Zusätzlich
bietet
es
die
Möglichkeit
eigene
Bildschirm-Konfigurationen für die Benutzeroberfläche festzulegen. Diese können vom Benutzer abgespeichert und je nach Bedarf aufgerufen und aktiviert werden [POR]. Eine weitere Funktion von Poser ist, dass Menschen mit verschiedenen Hautfarben oder Körperformen erzeugt werden können. Diese können aus
3
„Unter Drag & Drop versteht man das Verschieben von Objekten zu beliebigen Positionen auf
dem Bildschirm.“ [DAD]
- 14 einer Datei mit unterschiedlichen menschlichen Formen und ethnischen Merkmalen ausgewählt werden.
In Poser wird zum Umformen von Körperteilen oder Gesichtszügen das ‚3DToolset’ verwendet. Dieses Tool führt außerdem alle Funktionen und Aktionen
innerhalb der ‚rooms’, der Menüs und der Paletten aus. Nach Erstellung eines
Charakters kann dieser neu skaliert, in ausgewählte Positionen überführt und als
Drahtgittermodell, Skelett, Silhouette oder menschenähnliche Figur dargestellt
werden. Zu den aufgezählten Darstellungsformen kommen noch Abbildungsmöglichkeiten im Photorealismus, als Zeichentrick oder als Skizzen hinzu.
Für eine realitätsnähere Darstellung der Modelle können in Poser Lichtquellen
und Kameras eingesetzt werden, wobei es unterschiedliche Einstellungen für Kamera, Schatten und Lichteffekte gibt. Die Kameras können im Programm auch als
Blickwinkel für den Benutzer eingesetzt werden.
Zur Umsetzung von beweglichen Figuren verfügt Poser über dynamische Requisiten wie Kleidung, welche sich an die Person anpassen lassen. Das Programm kann
außerdem eine Kollisionsbehandlung durchführen [POR], damit bei Animationen
verhindert wird, dass verschiedene Körperteile sich durchdringen. Eine weitere
Funktion ist das Importieren von eigenen Bildern, mit welchen neue Modelle und
Texturen erstellt werden können. Diese neuen Modelle und Texturen können ebenfalls mit den vorhandenen Werkzeugen bearbeitet und verändert werden
[POS]. Durch eine stetige Weiterentwicklung der Funktionen verfügt das Programm mittlerweile über eine photorealistische Darstellung von Charakteren,
welche eine gute Grundlage zur Modellierung von dreidimensionalen Modellen
ist [POS].
Die zu entwickelnde Charaktersteuerung hat einige Gemeinsamkeiten mit dem
vorgestellten Charakterdesign- und Animationsprogramm Poser. Zunächst einmal
können beide einen dreidimensionalen Menschen über ein Menü bewegen und
eine Auswahl an Texturen auf die Modelle legen. Eine Betrachtung dieser Modelle mit verschiedenen Lichteinflüssen ist ebenfalls möglich und die Einstellungen
des Lichts, wie z.B. Intensität und Farbe, können verändert werden. Eine weitere
Gemeinsamkeit ist der Einsatz von Kameras, welche einen individuellen Blickwinkel auf das Modell und die gesamte Szene gestatten.
Die entwickelte Charaktersteuerung kann allerdings keine Veränderungen an der
Form des eigentlichen Modells vornehmen, wohingegen bei Poser diese Umges-
- 15 taltung mit dem ‚3D-Toolset’ durchführbar ist. Die Funktion der Modellierung
von Objekten bietet jedoch das Programm Maya, in welchem die Charaktersteuerung entwickelt wurde. Ebenfalls können vom Benutzer importierte Bilder nur in
Maya auf die Kleidung oder die Objekte gelegt werden.
Die Funktionen von Poser übersteigen die entwickelten Methoden, welche in
dieser Arbeit für die Charaktersteuerung erzeugt wurden. Allerdings bedürfen
die Funktionen von Poser einiger Einarbeitungszeit, da sie sehr komplex und
umfangreich sind.
Die entwickelte Charaktersteuerung hingegen soll für den Benutzer leicht bedienbar sein, weswegen einfache und selbsterklärende Funktionen verwendet wurden.
Eine intuitive Nutzung bietet einen großen Vorteil in der Anwendung gegenüber
umfangreichen und komplexen Programmen, da diese ohne aufwendige Erklärungen auskommen und verstanden werden. Zudem bietet das Programm Maya die
weitergehenden und komplexeren Methoden, so dass bei Bedarf auf diese zurückgegriffen werden kann.
4 Grundlagen der Ausleuchtung in einem Lichtstudio und
der technischen Umsetzung von Bewegung im 3D-Raum
In diesem Kapitel werden die Grundlagen der Ausleuchtung von Menschen in
einem Raum und für die Umsetzung der Bewegungen des Charakters erläutert.
Hierzu wird zunächst ein Praxisbeispiel für ein reales Fotostudio im Detail beschrieben sowie einige Ausleuchtungsmöglichkeiten von Menschen in einem Studio geschildert. Anschließend wird die technische Umsetzung von Bewegungen
innerhalb des dreidimensionalen Raums, die in dem Programm Maya verwendet
wird, erläutert. Diese beiden Erläuterungen bilden unter anderem die Grundlage
für die praktische Umsetzung der Aufgaben in den Kapiteln 5 und 6.
4.1 Der Aufbau eines Fotostudios in der Praxis
In diesem Kapitel werden Methoden der Ausleuchtung eines realen Fotostudios
beschrieben, die dem Leser den Einsatz von Licht und Ausleuchtung in einem
realen Studio erläutern sollen. Zudem soll der Horizont um die erwähnten Licht-
- 16 beeinflussenden Gegenstände erweitert werden, damit auch die entstehenden Effekte im virtuellen Studio besser nachvollzogen werden können. Zunächst werden
die notwendigen Lampen und Lichtmanipulationswerkzeuge beschrieben, die zum
Ausleuchten in einem Studio eingesetzt werden. Anschließend werden die genannten Gegenstände benutzt und in einigen Beispielen anhand der Ausleuchtung
eines Menschen in einem Raum erläutert.
Hierfür wurde ein Interview mit einem Fotografen geführt, das einen Einblick in
seine Arbeit ermöglichte. Die im Folgenden beschriebene Ausstattung und die
erläuterten Szenarien sollen dem Benutzer anhand von anschaulichen und realistischen Beispielen bei der eigenen Gestaltung des Menschen im Lichtstudio helfen.
4.1.1 Equipment zur Ausleuchtung eines Fotostudios
Im Folgenden soll dem Leser ein Eindruck des Einsatzes und der Möglichkeiten
von Licht innerhalb eines Fotostudios vermittelt und somit ein Bezug zur Praxis
geschaffen werden. Eine Beschreibung von realen Elementen kann leichter nachvollzogen werden und bringt ein besseres Verständnis der Funktionen und Möglichkeiten eines solchen Studios hervor.
Zur Erzeugung von Licht wird in einem Fotostudio meist ein Studioblitzgerät4
mit Einstelllicht verwendet. Der Blitz funktioniert trotz des individuell einstellbaren Lichtes und erzeugt bei allen Fotografien das gleiche Licht. Es gibt die Möglichkeit mit mehreren Blitzen zu arbeiten, welche jedoch bei der Menschfotografie
selten zum Einsatz kommt, weil die hierbei entstehende hohe Lichtintensität nicht
benötigt wird. Das Einstelllicht hingegen hat nur auf
die Ausleuchtung Einfluss und nicht auf das erzeugte
Foto. Die Studioblitzgeräte sind flexible Lichtquellen
und können mit unterschiedlich starken Lampen bestückt werden.
Zudem kann das Studioblitzgerät mit verschiedenen
Aufsätzen versehen werden. Hierfür gibt es beispielsweise Reflexschirme (Abbildung 2), welche auf
Abbildung 2: Reflexschirm
der Innenseite eine weiße Beschichtung haben, die
4
„Das Studioblitzgerät besteht in der Regel aus einer Blitzröhre und einer sogenannten Pilotlampe,
die für die Beleuchtung eine Kontrollfunktion übernimmt. Studioblitzgeräte sind eigenständige
Blitzgeräte, die per Ergebnisse des Handbelichtungsmesser voreingestllt werden müssen.“ [STB]
- 17 das Licht des Einstelllichtes reflektiert und ein weiches, diffuses Licht erzeugt.
Es existieren noch weitere Licht beeinflussende Aufsätze für das Studioblitzgerät.
Hierzu gehören die Reflektoren, welche auf das Studioblitzgerät gesetzt werden.
Bei diesen Gegenständen kann ebenfalls eine weiße Beschichtung verwendet werden, wodurch ein
angenehmes Licht erzeugt wird. Eine silberne Beschichtung des Reflektors (Abbildung 3) hingegen
erzeugt ein hartes und gezieltes Licht.
Ebenso Einfluss auf das Licht hat die Form des
Reflektors. Diese existieren beispielsweise in einer
trichterähnlichen Form, wodurch das Licht geAbbildung 3: silbern beschichte-
streut wird und dadurch einen großen räumlichen
ter Reflektor
Bereich mit Licht versorgt. Diese Form wird jedoch vorwiegend bei weiß beschichteten Reflektoren zum Ausleuchten eines großen Bereichs verwendet. Die silbernfarbenen Reflektoren sind meist in einer eng zusammen laufenden Form gebaut. Diese erzeugen einen gerichteten Lichtstrahl, der einen harten Schatten des auszuleuchtenden
Objektes bewirkt. Der silbernfarbene Reflektor wird außerdem zum Ausleuchten
selektierter Körperteile verwendet, wohingegen bei weißen Reflektoren der gesamte Körper betont wird.
Ein weiterer Aufsatz für die Studioblitzgeräte ist das Wabengitter (Abbildung 4),
welches vor die Reflektoren gestülpt werden kann. Mit
diesem Gitter wird eine Begrenzung des Lichtes erzeugt, um die Randstrahlen auszugrenzen.
Eine andere Form des Reflektors charakterisiert sich
durch eine abgeschrägte Seite, wodurch ein schräger
Abstrahlwinkel erzeugt wird. Dieser Reflektor wird
Abbildung 4: Wabengitter
häufig beim Ausleuchten von Hintergründen eingesetzt.
Der Vorteil dieses Aufsatzes ist, dass nur eine Licht-
quelle für ein ausgeglichenes und gleichmäßiges Licht benötigt wird, da durch
diesen Aufsatz das Licht über den gesamten Hintergrund verteilt werden kann.
Der schräge Schnitt des Aufsatzes ermöglicht die Abdeckung eines weiten Bereiches mit gleichmäßigem Licht.
- 18 Ein weiterer Aufsatz für ein Studioblitzgerät ist der Tubus, der ein besonderes
Rohr für ein optisches Gerät darstellt [TUB]. Dieser erzeugt einen kreisrunden
Lichtausschnitt und beeinflusst die Lichtstärke. Auf den Tubus kann ebenfalls das
bereits erwähnte Wabengitter platziert werden, um das Lichtes zu verändern. Der
Tubus wird für sehr kleine Detailaufnahmen, wie beispielsweise den Mund, verwendet. Zudem wird er häufig als Gegenlicht bei Portraitaufnahmen eingesetzt,
um Haare besonders intensiv zu beleuchten.
Zudem gibt es noch Leuchtboxen, auch ‚Striplight’ (Abbildung 5) genannt, welche als Aufsatz für die Blitzlichtgeräte einsetzbar sind.
Diese Leuchtboxen erzeugen ein weiches, volumiges
Licht zum Ausleuchten von großen Flächen.
Zudem gibt es den Projektionsvorsatz, welcher die Schärfeneinstellung beeinflussen kann. In diesen Projektionsvorsatz können Blenden eingesetzt werden, um das Licht
zu verändern. Diese Blenden werden Gobos 5 genannt,
können gedreht werden und sind in verschiedenen Formen
Abbildung 5: ‚Striplight’
erhältlich. Mit Hilfe der Gobos kann zudem ein Muster,
wie z.B. Sterne oder Wellen, auf das Licht gelegt werden.
Das entstehende Licht wird meist zum Ausleuchten eines Hintergrundes benutzt.
Natürlich können auch mehrere Blenden gemeinsam verwendet werden.
Ein anderes Hilfsmittel für die Ausleuchtung sind Aufhellwände, die oftmals auf
beiden Seiten unterschiedlich beschichtet sind. Die weiß beschichtete Seite dient
dem Aufhellen einer Person oder eines Gegenstands. Die schwarze Seite hingegen
dunkelt eine Person oder einen Gegenstand ab, da das Licht absorbiert wird. Diese
Wände kommen zum Einsatz, wenn eine Lichtquelle
nicht genügend Licht erzeugen kann. Die Wand reflektiert, verteilt das Licht der Lichtquelle und hellt somit die
ganze Person auf.
Eine transportable Version dieser Aufhellwände sind
zusammenfaltbare Reflektoren (Abbildung 6), welche
Abbildung 6: zusammen-
ebenfalls mit Silber oder einer anderen Farbe beschichtet
faltbarer Reflektor
sein können. Die Anwendung erfolgt durch Anstrahlen
des Reflektors mit dem Studioblitzgerät oder einer anderen Lichtquelle, woraufhin
5
„Gobos sind dünne Masken, die in den Strahlengang eines Scheinwerfers gebracht werden, um
den Lichtstrahl zu formen oder mit einem Muster zu versehen.“ [GOB]
- 19 das Licht vom Reflektor auf die Person oder den Gegenstand gestrahlt wird. Sie
werden vor allem bei Beautyshootings eingesetzt, da sie ein sehr helles, gleichmäßiges Licht erzeugen und das angestrahlte Objekt in einem ausgewogenen, positiven Licht erstrahlen lassen.
Zur Darstellung von farbigem Licht innerhalb eines Fotostudios sind Farbfolien
(Abbildung 7) eine einfache und effektive Lösung. Diese
werden vor den jeweiligen Lichtquellen befestigt und
erzeugen das Licht in der Farbe der Folie. Dies ist eine
kostengünstige und praktische Lösung, da die Folien
mehrfach verwendbar sind und an vielen Reflektoren befestigt und wieder entfernt werden können. (siehe An-
Abbildung 7: Farbfolien
hang)
4.1.2 Ausleuchtungsbeispiele in einem realen Fotostudio
Dieses Kapitel erläutert einige Beispiele für die Platzierung von Lichtquellen relativ zum Bildobjekt innerhalb eines Fotostudios. Diese Beschreibungen sollen dem
Benutzer der Charaktersteuerung einige Ideen und Möglichkeiten bei der Platzierung von Mensch und Licht im virtuellen Lichtstudio vermitteln, um das Arbeiten
mit der Menüsteuerung zu vereinfachen.
Das erste Beispiel beschreibt die Ausleuchtung einer Standardposition, bei der die
gesamte Person aufrecht steht und beleuchtet wird, ohne dass besondere Details
hervorgehoben werden. Es werden zwei Lichtquellen eingesetzt, wovon die erste
rechts vor der Person und die zweite links hinter der Person aufgestellt wird. Keine der beiden Leuchten scheint frontal auf das Fotoobjekt, das Licht trifft seitlich
auf die Person. Die Lichtquelle vor dem Fotoobjekt ist ein Studioblitzgerät mit
einem ‚Striplight’ als Aufsatz und leuchtet den gesamten Körper aus. Das Gerät
hinter der Person hat einen Tubus mit einem Wabenaufsatz und beleuchtet primär
die Haare der Person, da diese von der vorderen Lichtquelle zu wenig betont werden.
Das zweite Beispiel beschreibt die Lichteinstellung für ein Halbportrait, d.h. nur
der Oberkörper wird ausgeleuchtet. Hierbei wird die erste Lampe mit einer weißen Blende links vor der Person positioniert. Die zweite Lichtquelle bleibt wie bei
dem ersten Beispiel links hinter der Person. Auf Grund der weißen Blende wird
- 20 nur der Oberkörper ausgeleuchtet. Die Beine befinden sich im Schatten und sind
daher nicht auf dem Foto zu sehen.
Das dritte Beispiel erläutert den Einsatz von Licht bei dem lediglich die Silhouette
eines Menschen zu erkennen sein soll. Hierfür wird die Person ausschließlich von
rechts hinten angestrahlt. Aus dieser Platzierung der Lichtquellen resultiert, dass
nur die Umrisse des Körpers zu erkennen sind. Der sichtbare Bereich der Person
hängt dabei von der Positionierung der Person innerhalb des beleuchteten Bereiches ab. Je nachdem wie weit der Körper gedreht wird, ist er mehr oder weniger
detailliert zu sehen. Ist der Rücken der Person der Lichtquelle zugedreht, wird am
meisten von der Person zu erkennen sein, wohingegen bei einer seitlichen Stellung am wenigsten, nämlich nur das Profil, zu sehen sein wird. Allerdings entstehen erst durch eine Drehung der Person, z. B. in das Profil, ansprechende Effekte
und Schatten, da diese eine gewisse Dynamik in der Haltung erkennen lassen.
Im letzten Beispiel für die Ausleuchtung einer Person wird indirektes Licht verwendet. Das Blitzlichtgerät strahlt die Decke an und das Licht wird von dort auf
die Person reflektiert. Diese Art der Ausleuchtung wird vor allem bei
Gruppenaufnahmen eingesetzt, damit alle Personen optimal beleuchtet werden.
Das Licht von der Decke oder der Wand wird gestreut und verteilt sich gleichmäßig auf alle Personen.
Hierzu gibt es noch eine Alternative, das ‚fill in light’, auch Aufhelllicht genannt.
Bei diesem Licht wird eine Lampe, ohne Reflektor, in der Nähe der Kamera positioniert. Die Lichtintensität hat die höchste Stufe und leuchtet ebenfalls in Richtung Decke, so dass es über der zu fotografierenden Gruppe leuchtet. Durch diese
Lichteinstellung entsteht ein den Raum ausfüllendes indirektes Licht, womit mögliche Schatten ausgefüllt werden [FIL].
Dies sind nur einige mögliche Varianten zur Ausleuchtung von Personen in einem
Raum. Diese Beispiele sollen dem Anwender der Charaktersteuerung einige Ideen
und Eindrücke, sowie Verständnis für Licht und Schatten vermitteln, so dass eine
effektive Nutzung möglich ist. (siehe Anhang)
- 21 -
4.2 Technische Grundlagen zur Umsetzung von Bewegungen im
dreidimensionalen Raum
In diesem Kapitel wird die Funktionsweise des Verfahrens für die Umsetzung von
Bewegungen im Programm Maya erläutert. Diese Beschreibung soll dem Leser
die Hintergründe der Bewegungsumsetzung aufzeigen, um ein gutes Verständnis
der Bewegungen zu ermöglichen.
Die Computeranimation und Robotertechnik sind zwei der wichtigsten Untersuchungsgebiete bei der Umsetzung von künstlich erzeugten Bewegungen. In den
letzten Jahren sind viele neue Funktionen zur Steuerung von Bewegungen innerhalb der Computergrafik entwickelt worden. Eine Funktion hierfür ist die inverse
Kinematik (IK), welche innerhalb von Maya für einzelne Gelenkbewegungen oder
detaillierte Animationen verwendet wird. Diese Technik „bewirkt, dass nur die
erforderliche Endposition der Struktur festgelegt wird.“ [WA02, S.546]
Die Idee der IK kommt aus der Robotertechnik, wo das Verfahren der Endpositionsangabe ebenfalls eingesetzt wird. Dieser Vorgang ermöglicht es nur dem letzten Glied einer Gliederkette eine festgelegte Position oder Bewegung zuzuweisen.
Alle weiteren Gelenke werden automatisch mitbewegt ohne eine definierte Endposition zu erhalten. Die Aufgabe der inversen Kinematik für eine erfolgreiche
Ausführung ist die Berechnung aller Positionspunkte der anderen Gelenke,
damit der Endeffektor (letztes Glied in der Kette) die gewünschte Position einnehmen kann [WA02, S.546].
Dieser Ablauf ist der menschlichen Bewegung sehr ähnlich, da der Mensch nicht
über alle Gelenkbewegungen, wie Schulter drehen und dann Ellbogen eindrücken,
nachdenkt, bevor er die Hand z.B. zum Glas bewegt. Es ist lediglich die Zielvorstellung der Endposition die Voraussetzung der Bewegung. Die IK „bezeichnet
also nicht die umgedrehte Bewegung im Sinne einer Rückwärtsbewegung,
sondern die ‚umgedrehte’ Berechnung der Bewegung“ [BMSC] wie im
Beispiel, die Hand ans Ziel führen und die abgängigen Gelenke folgen
automatisch, beschrieben wurde.
Durch die notwendigen Berechnungen entstehen jedoch die Probleme des Verfahrens, da bei komplexen Gelenkstrukturen eine eindeutige Berechnung auf Grund
des Bestehens mehrerer Lösungen unmöglich ist. Zudem ist eine individuelle und
genaue Gestaltung schwierig, da die Zwischenpositionen von der inversen Kinematikfunktion und nicht vom Animator berechnet werden. Hierbei entstehen
- 22 Schwierigkeiten, da die Positionen der einzelnen Gelenke in der Kette nicht eindeutig sein müssen. „Es kann immer mehrere“ Möglichkeiten „geben, die zur gewünschten Lage des letzten Gliedes führen“ [IKW], was bedeutet, dass es viele
Möglichkeiten der Gelenkplatzierung von der Ausgangs- zur Endposition gibt.
Hierdurch entsteht die Notwendigkeit, eine der Möglichkeiten, wie beispielsweise
den Pfad mit dem kürzesten oder dem energiesparsamsten Weg, auszuwählen, um
eine sinnvolle Bewegung zu bestimmen [IKW]. „Die inverse Kinematik fungiert
als Black Box6, bei der die gewünschte Bewegung der Strukturenden die Eingabe
darstellt und die detaillierte Bewegung der gesamten Struktur durch die Methode
gesteuert wird.“ [WA02]
Außerdem muss darauf geachtet werden, dass die Gelenke nur realistische Positionen einnehmen können. Mathematisch sind mehrere Einstellungen umsetzbar, so
dass eine der Realität möglichst weitgehend entsprechende Auswahl aus den theoretisch möglichen Positionen getroffen werden muss. Hierfür gibt es drei mathematische Lösungsansätze, und zwar die algebraische, geometrische und
numerische Methode7.
Ein flexibleres Verfahren gegenüber der inversen Kinematik ist die Vorwärtskinematik, welches die Position der Glieder durch die Gelenkstellung festlegt
[VWK]. Bei dieser Methode wird das erste Gelenk eines Körperteils bewegt und
alle weiteren Gelenke folgen, wobei sie lediglich gedreht und nicht verschoben
werden. Diese Funktion ermöglicht, dass eine individuelle Bewegungsstruktur der
einzelnen Elemente festgelegt werden kann. Durch diese Strukturierung können
jedoch hohe Kosten entstehen, da der Rechenaufwand von Änderungen innerhalb
der Hierarchie enorm ist. Die gesamte Struktur von Gelenken und den dazugehörigen Bewegungen muss durchlaufen werden, um die zu verändernde Stelle zu
finden. Erst dann kann eine Veränderung durchgeführt werden. Ein weiterer
Nachteil dieser Methode ist, dass das letzte Gelenk in der Hierarchie in keine vom
Benutzer definierbare Position gebracht werden kann [WA02, S. 546].
Diese Einführung in den Bereich der Bewegungsumsetzung in der Computergrafik soll dem Leser das Verständnis der Bewegungen des Skeletts erleichtern.
6
„ein Objekt, dessen innerer Aufbau und innere Funktionsweise unbekannt oder als nicht weiter
von Bedeutung erachtet wird. Von Interesse ist nur das äußere Verhalten der Black Box.“ [BLB]
7
Für eine genauere Erläuterung dieser Methoden wird auf Grund des geringen Mehrwerts für
diese Arbeit auf die Literatur [IKW, WA02] verwiesen.
- 23 -
5 Modellierung eines dreidimensionalen Charakters
Nachdem in den letzten Kapiteln einige grundlegende Erläuterungen in Bezug auf
Ausleuchtung von Objekten und Bewegungsumsetzung im 3D-Raum beschrieben
wurden, wird in diesem Kapitel detailliert die Modellierung des menschlichen
Modells erklärt. Dabei werden die Gestaltung aller Körperteile und das anschließende Zusammenfügen der Einzelteile in Wort und Bild erläutert. Zusätzlich werden die Formung des Skelettes sowie das Verbinden mit dem Körper geschildert.
Abschließend wird das Kreieren der Kleidung für den modellierten Menschen
beschrieben.
5.1 Vorgehensweise bei der Modellierung in Maya
Zur Erstellung eines dreidimensionalen Menschen bedarf es viel Zeit und einer
guten Planung. In den folgenden Unterkapiteln wird zuerst ein kurzer Überblick
über die Arbeitsoberfläche und die Funktionsweise von Maya gegeben. Anschließend wird die Modellierung aller Gliedmaßen und Körperteile im Detail beschrieben, damit der Leser alle Schritte nachvollziehen kann und ein genaues Bild von
der Vorgehensweise bei der Charaktermodellierung erhält.
5.1.1 Grundlagen beim Gestalten von Objekten in Maya
Nun folgt eine Einführung in die Methoden zur Gestaltung von Objekten in dem
Programm Maya. Zunächst einmal findet die Modellierung aus verschiedenen
Sichtwinkeln und mit Hilfe einer großen Anzahl von Hilfsmitteln statt. Die Arbeitsoberfläche in Maya wird Bühne oder Szene genannt und kann in vier Sichtwinkel eingeteilt werden. Diese Sichten heißen ‚Perspective View’, ‘Side View’,
‘Front View’ und ‘Top View’ (Abbildung 8). Je nachdem welcher Teil des Objektes bearbeitet wird, kann die anschaulichste Sichtweise eingestellt werden [SM00,
S. 16].
- 24 -
Abbildungen 8: Mayabühne
Als nächstes werden die wichtigsten Hilfsmittel und Funktionen, welche bei der
Modellierung eingesetzt werden, beschrieben. Die Modellierung ist ein Vorgang
des Formens und Gestaltens, vergleichbar mit der Töpferei. Hier werden aus einem Tonklumpen Vasen oder andere Gegenstände geformt. Ein ähnlicher Vorgang findet bei dem Modellieren eines dreidimensionalen Objektes statt. Allerdings ist in der 3D-Welt kein Tonklumpen, sondern ein geometrischer Gegenstand
(‚primitive’) das Bearbeitungsmaterial. Diese Objekte, in dieser Arbeit primär
Kugeln und Würfel, werden in Maya erstellt und bilden die Grundlage für die
anschließende Modellierung. Innerhalb des Programms sind diese Objekte mit
verschiedenen Oberflächenstrukturen auswählbar. Im Einzelnen sind dies Nurbs8,
Polygone9 oder Subdivision Surfaces10 (Abbildung 9).
8
Flächen, die „schön homogen zusammenhängend von kontinuierlichen Linien aufgespannt sind.
Solche Fläche heißen Nurbs, denn sie werden von mathematisch sehr eleganten Kurven beschrieben, den Non Uniform Relational B-Splines,...“ [SM00, S. 296]
9
„.eine Fläche aus lauter kleinen, flachen Vielecken - Polygonen - “ [SM00, S.296]
10
„Unterteilungsflächen, die dem Wunsch entgegenkommen, die angenehm handhabbare NurbsGeometrie lokal...zu unterteilen.“ [SM00 S. 317]
- 25 -
Abbildung 9: Eine ‚Sphere’ als ‚Nurbs’, ‚Polygon’ und ‚Subdivision Surface’
Ein ‚Nurbs’-Objekt besteht aus Kurven und Flächen mit einer runden Oberfläche.
Bei einem ‚Polygon’ handelt es sich um ein Objekt, dessen Oberfläche aus vielen
Vielecken besteht und somit kantig ist. Eine ‚Subdivision Surface’ ist „eine iterative Methode zur Erzeugung runder Oberflächen aus groben vorgegebenen Kontroll-Meshes“11 [SRS].
Alle drei Oberflächenstrukturen besitzen bereits vordefinierte Formen zur Modellierung. Dies sind beispielsweise ein Würfel (‚Cube’) oder eine Kugel (‚Sphere’).
Nachdem das 3D-Objekt in der gewünschten Form für die zu modellierende Figur
ausgewählt wurde, kann das Objekt mit den Modellierungswerkzeugen bearbeitet
werden. Diese Werkzeuge werden mit dem so genannten Pivot, einem Kreuz,
welches der Benutzer in alle drei Richtungen des dreidimensionalen Raums bewegen kann (‚scale’), gesteuert. Das Pivot kann jedoch nicht nur Objekte bewegen. Es gibt noch zwei weitere Modi, den des Vergrößerns bzw. Verkleinerns
(‚size’) und den des Rotierens (‚rotate’) (Abbildung 10).
Abbildung 10: Pivot im ‚Scale’-, ‚Size’- , ‚Rotate’-Modus
11
„Meshing bezeichnet eine Gruppe von Verfahren in der Computergrafik. Hierbei wird eine z. B.
mathematisch gegebene Oberfläche durch eine Menge kleinerer, meist ebener Elemente angenähert (approximiert). Am häufigsten kommen hier Dreiecks- oder Viereckselemente zur Anwendung.“ [MES]
- 26 Wie bereits in den Abbildungen dargestellt, werden die Objekte von Linien umrandet, die CVs (‚Control Vertex’) genannt werden. Über diese Linien kann das
Objekt in seiner Struktur und Positionierung in der Mayabühne verändert werden
[SM00, S. 313].
5.1.2 Beschreibung verschiedener Modi zur Objektmodellierung
Im Folgenden werden die notwendigen Modi zur Gestaltung von Objekten näher
erläutert, um die spätere Modellierung des Menschen besser nachvollziehen zu
können. Zum individuellen Gestalten muss das Objekt in verschiedenen Modi
bearbeitet werden. Innerhalb derer hat der Benutzer die Möglichkeit, das Objekt
im Detail zu gestalten.
Zunächst gibt es den Modus ‚Control Vertex’ (Abbildung 11), nicht zu verwechseln mit den CVs, in welchem einzelne Punkte des Objektes verändert werden
können. Hierbei werden vor allem Details geändert und Feinheiten bearbeitet. Der
Benutzer kann einzelne oder mehrere Punkte markieren und anschließend verändern (Abbildung 12).
Abbildung 11: ‚Control Vertex’-Modus
Abbildung 12: Bewegen von Punkten im ‚Control Vertex’- Modus
- 27 Der nächste Modus nennt sich ‚Isoparm’ (Abbildung 13). In diesem Zustand kann
das Objekt in eine feinere bzw. gröbere Struktur gebracht werden (Abbildung 14).
Es können neue Einteilungen an dem Objekt vorgenommen werden indem neue
CVs erzeugt werden. Dies ist notwendig um eine feinere Bearbeitung zu ermöglich. Außerdem können in diesem Modus durch Markierung einer Linie Schnitte
im Objekt erzeugt werden. Hierdurch entstehen Löcher in der Figur, was im späteren Verlauf der Arbeit genauer erläutert wird [SM00, S. 372].
Abbildung 13: ‚Isoparm’-Modus
Abbildung 14: Einfügen einer neuen CV im ‚Isoparm’-Modus
Ein weiterer Modus ist der ‚Hull’-Modus (Abbildung 15). In diesem „werden die
CVs mit Linien verbunden“ was dem Benutzer die Auswahl „mehrere CVs auf
einmal“ erleichtert [HUL]. Ein Vorteil dieses Modus ist, dass die Linien bei einer
Veränderung voneinander abhängig sind (Abbildung 16). Dies bedeutet, dass bei
der Veränderung einer Linie sich die angrenzenden Linien ebenfalls verändern.
Durch diese Bearbeitungsmethode entsteht ein fließender Übergang zwischen den
unveränderten und den bearbeiteten CVs.
- 28 -
Abbildung 15: ‚Hull’-Modus
Abbildung 16: Verschieben einer CV im ‚Hull’-Modus
Es gibt jedoch nicht nur verschieden Zustände der Objekte, in welchen sie bearbeitet werden können. Eine andere Methode zur Modellierung eines Objektes ist
das Arbeiten im ‚Live’-Modus. Hierfür wird zunächst das zu verändernde Objekt
markiert und mit ‚Hotbox > Modify > Make Alive’ in den ‚Live’-Modus versetzt.
Die ‚Hotbox’ wird aufgerufen, indem innerhalb der Mayabühne die Maus platziert
und dann die Leertaste gedrückt wird. Automatisch erscheint das gesamte Menü
von Maya und die gewünschten Funktionen können ausgewählt werden.
Abbildung 17: Objekt normal, Objekt im ‚Live’-Modus
- 29 Das Objekt wird im ‚Live’-Modus als ein grünes Gitter (Abbildung 17) abgebildet, welches die Umrandungslinien des vorherigen Objektes darstellt. Mit Hilfe
des Werkzeuges ‚EP Curve Tool’ können Punkte auf diesem Gitter erzeugt werden, die sich anschließend zu einer Linie zusammenfügen lassen. Durch Aktivieren des Buttons ‚snap to grid’ in der oberen Menüleiste schmiegen sich die erzeugten Punkte an das grüne Gitter an. Die Punkte, welche mit dem Werkzeug
erstellt werden, passen sich somit der Oberflächenstruktur des Objektes an und
bilden seinen genauen Verlauf nach. Mit Hilfe dieses Verfahrens können Objekte,
die aus mehreren Einzelteilen bestehen, zu einer einheitlichen Fläche zusammengefügt werden. Die erzeugten Linien können zu einer Fläche mit ‚Hotbox > Surfaces > Loft’ verbunden werden. Hierbei wird mit dem Kommando ‚loft’ eine
Fläche zwischen den markierten Linien erzeugt [SM00, S 360].
Diese Darstellung der Modi ist keinesfalls vollständig. Jedoch werden die anderen
von Maya angebotenen Modi in dieser Arbeit nicht verwendet, so dass sie in der
Beschreibung vernachlässigt werden können.
5.1.3 Editoren für die Modellierung von Objekten in Maya
Es gibt noch weitere Möglichkeiten der Modellierung in Maya. Eine dieser Möglichkeiten beim Gestalten findet nicht in der Mayabühne statt, sondern wird in
einem Fenster, auch Editor genannt, durchgeführt. Die wichtigsten Editoren, die
für das weitere Vorgehen der Modellierung des Menschen, der Kleidung und des
Skeletts benötigt werden, sind im Folgenden erläutert.
Zunächst gibt es das ‚Outliner’-Fenster12 (Abbildung 18), in welchem alle erzeugten Objekte, Kurven, Gelenke und Flächen, die sich auf der Mayabühne befinden,
aufgelistet sind.
12
„Der Outliner listet alle Objekte der Szene untereinander. Objekte, die man aus den Augen verloren hat, findet man am besten im Outliner.“ [SM00, S. 91]
- 30 -
Abbildung 18: ‚Outliner’-Fenster
In diesem Fenster können auch unsichtbare oder schlecht auswählbare Objekte
markiert (Abbildung 19) und dann in der Bühne bearbeitet werden. Zusätzlich
können die Objekte umbenannt werden.
Abbildung 19: Markiertes Objekt im ‚Outliner’-Fenster
- 31 Ein weiterer Editor ist der ‚Hypershade’-Editor (Abbildung 20), der das Erstellen
von Materialien und Texturen ermöglicht. Hier können verschiedene Materialien,
wie ‚Phong’ und ‚Blinn’13 für glänzende Texturen oder ‚Lambert’14 für eine matte
Oberfläche erstellt werden. Zudem gibt es die Möglichkeit, bereits vordefinierte
Texturen oder selbst erstellte Bilder auf das jeweilige Material zu legen und beides miteinander zu verbinden. [SM00, S.24-25].
Abbildung 20: ‚Hypershade’-Fenster
Ein weiteres Fenster, der ‚Hypergraph’-Editor 15 (Abbildung 21), ermöglicht in
Maya das Gestalten einer Hierarchie. Dieser Vorgang wird im späteren Verlauf
der Arbeit für die Strukturierung und Bestimmung von Abhängigkeiten im Skelett
benötigt. Eine Hierarchie ist besonders wichtig, wenn Teile eines Objektes nur zu
bestimmten Abläufen aktiviert sein sollen. Beispielweise soll sich beim Hinknien
auch der Oberkörper mit nach unten bewegen. Allerdings sollen die Beine still
stehen, wenn sich der Oberkörper um die eigene Achse dreht [BR94, S.148]. Diese Verbindungen werden mit einer gut strukturierten Hierarchie innerhalb dieses
Editors umgesetzt. Zusätzlich gibt es innerhalb dieses Fensters die Möglichkeit
verschiedene Abhängigkeiten unter den Objekten zu erstellen, um die Ausgangstruktur zu verändern. Darüber hinaus können geknüpfte Verbindungen getrennt
werden.
13
Ein Phong erzeugt ein Glanzlicht und es lassen sich Reflexionen im Material darstellen. [BCLT]
„Das Lambert Material eignet sich gut für matte Oberflächen. Es simuliert eine Art rauhe Oberfläche, welche die meisten Lichtstrahlen absorbiert“ [LAM], [BCLT]
15
„Der Hypergraph ist die ideale Stelle, um einen Überblick über Verknüpfungen zu bekommen
und neue Verknüpfungen auszulöschen.“ [SM00, S. 240]
14
- 32 -
Abbildung 21: ‚Hypergraph’-Fenster mit Gelenken des Skeletts
Dies sind lediglich die Editoren, die zur Modellierung im dreidimensionalen
Raum in dieser Arbeit verwendet wurden und zum Verständnis der folgenden Kapitel notwendig sind. Maya bietet noch eine Vielzahl weiterer Werkzeuge, die
jedoch in der vorliegenden Arbeit nicht benutzt und somit nicht aufgezählt werden.
5.2 Modellierung des Charakters
Nach der Erklärung einiger Hilfsmittel und Funktionen von Maya wird im folgenden Kapitel die Modellierung des menschlichen Modells beschrieben. Die hierbei
verwendeten Techniken sowie die gewählte Reihenfolge bei der Gestaltung der
Körperteile sind lediglich eine von vielen Möglichkeiten, um eine solche Aufgabe
zu lösen.
5.2.1 Die Modellierung des Kopfes
Bei der Gestaltung eines Menschen wird zunächst der Kopf modelliert, weil dessen Erstellung zum einen sehr zeitaufwendig ist und zum anderen eine Struktur
für die Gestaltung des gesamten Charakters vorgibt. Das Gesicht ist für die Wahrnehmung eines Menschen ein wichtiges Körperteil, welches zudem meist als erstes wahrgenommen wird.
- 33 Zum Erstellen eines menschlichen Kopfes wird zuerst eine ‚nurbsSphere’ (Abbildung 22) erzeugt. Es wird die ‚Nurbs’-Form gewählt, da
die Bearbeitung eines ‚Polygon’-Objektes zu grob und
kantig wäre und somit das Formen filigraner Strukturen
nicht möglich. Die Achse der ‚Sphere’ wird um 90°
gedreht, so dass die Z-Achse als Ursprungsachse der
‚Sphere’ dient (Abbildung 23). Das Verändern der Achse ist sinnvoll, da hierdurch das Gestalten des Mundes
leichter ist, da die CVs bereits eine runde Form an der
Abbildung 22: Ausgangs-
gewünschten Stelle vorgeben.
form des Kopfs
Abbildung 23: ‚nurbsSphere’ mit Z und Y als Ursprungsachse
Abbildung 24: Eindellen der beiden inneren CVs
Der Mund ist in diesem Fall das erste Gesichtsmerkmal, das geformt wird. Hierfür
werden die beiden inneren CVs der ‚nurbsSphere’ im ‚Control Vertex’-Modus des
Objektes markiert und mit dem ‚Scale’-Pivot in die negative Z-Richtung gezogen,
so dass ein Hohlraum entsteht (Abbildung 24). Aus den daneben liegenden CVs
werden anschließend die Lippen geformt. Hierbei gibt es die Möglichkeit, neue
- 34 ‚Isoparms’ für Details in der Struktur hinzuzufügen, um eine möglichst realistische Lippenform zu gestalten. Als nächstes werden die Nase und das Kinn (Abbildung 25) in der bereits beschriebenen Weise geformt [MC04, S. 33-34].
Der Hals wird mit einer anderen Methode erstellt. Hierfür werden zunächst auf der Rückseite des Kopfes die
ersten beiden ‚Isoparms’ entfernt, damit ein Loch für
die Halsöffnung entsteht. Das Abtrennen der Hinterkopffläche geschieht durch Markieren dieser ‚Isoparms’
und Ausführen der Aktion ‚Hotbox > Edit NURBS >
Abbildung 25: Mund und
Nase
Detach
Surfaces’
(Abbil-
dung 26). Zum Modellieren
des Halses wird anschlie-
ßend in den ‚Hull’-Modus gewechselt. Mit Hilfe dieser Verformungsmethode wird das Loch an die spätere
Position der Halsöffnung bewegt (Abbildung 27) und
in eine angemessene Größe überführt. Beim Verschieben der beiden äußeren Kreise verzerren und rotieren
Abbildung 26: Surface mit
die angrenzenden Linien mit, so dass ein fließender
Loch
Übergang erhalten bleibt.
Anschließend werden der Hinterkopf und das
Kinn an die erzeugte Öffnung angepasst [MC04,
S. 34-35].
Der nächste Schritt beim
Gestalten des Kopfes ist
Abbildung 27: Halsloch verschieben
das Verfeinern der bereits
geformten Elemente und
die Anpassung der einzelnen Gesichtsteile aneinander. Die
Nase benötigt noch Nasenflügel, die im ‚Control Vertex’Modus geformt werden. Anschließend werden die Augenhöhlen mit derselben Variante gestaltet (Abbildung 28).
Abbildung 28: Gesicht
- 35 Damit beide Gesichthälften identisch sind, wird zunächst nur an einer Gesichtshälfte gearbeitet. Nach Abschluss der Modellierung wird die nicht bearbeitete
Gesichtshälfte abgetrennt (Abbildung 29) und gelöscht.
Zur Vollendung des gesamten Gesichtes wird die fertige Gesichtshälfte an der XAchse gespiegelt und anschließend mit der anderen Gesichtshälfte mit ‚Hotbox > Edit
NURBS > Attach Surfaces’
verbunden (Abbildung 30). Dabei ist darauf zu achten, dass
Abbildung 30: Gesicht
gespiegelt
alle Änderungen am Gesicht
Abbildung 29: Kopf
vor dem Spiegeln durchgeführt
gespalten
werden, da sonst zwei unterschiedliche Hälften entstehen [SM00, S. 35-41].
5.2.2 Gestalten von Augen und Ohren für den Kopf
Nachdem die Grundform des Kopfes modelliert ist, werden die dazugehörigen
Augen, Augenlider und Ohren erstellt.
Anfangs werden die Augen geformt. Hierbei wird aus zwei ‚Spheres’ der gleichen
Form und Größe ein Augapfel gestaltet. Hierzu wird eine ‚Sphere’ in die andere
geschoben, so dass sich beide in einer kleinen Fläche überschneiden (Abbildung
31). Als nächstes wird die erste ‚Sphere’ markiert und mit dem Werkzeug ‚Hotbox > Edit NURBS > Booleans > Subtract Tool’ ausgewählt. Durch Auswählen
der zweiten ‚Sphere’ mit diesem Werkzeug wird eine Kuhle in der ersten ‚Sphere’
erzeugt, welche der Iris entsprechen wird.
Abbildung 31: Überschneidung der ‚ Spheres’
Abbildung 32: Nach benutzen des
‚Subtract Tools’
- 36 Diese Aktion lässt die zweite ‚Sphere’ verschwinden und in der ersten ‚Sphere’
eine Kuhle zurück (Abbildung 32). Die zweite ‚Sphere’ ist jedoch nicht gelöscht
worden sondern nur unsichtbar und kann immer noch im ‚Outliner’-Fenster ausgewählt werden, um die Größe der Iris zu verändern. Als nächstes wird das Auge
eingefärbt. Der Augapfel wird weiß und die Iris blau koloriert. Die Farben entstehen im ‚Hypershade’-Editors. Es werden zwei ‚Phongs’ erzeugt, da mit diesem
Material die Farben einen gewissen Glanz erhalten, welcher für eine realitätsnahe
Darstellung des Auges wichtig ist.
Als nächstes wird eine neue ‚Sphere’ für die Pupille erzeugt. Diese wird vor dem
Augapfel platziert und an die Größe einer Pupille angepasst. Ist die ‚Sphere’ an der gewünschten Stelle
platziert, wird sie ebenfalls eingefärbt (Abbildung 33).
Die Pupille erhält eine schwarze
‚Lambert’-Textur.
Abschließend
werden die drei modellierten Au-
Abbildung 33: Pupille vor
genteile mit einer vierten ‚Sphere’
Auge
umrandet, um das Auge zusammenzuhalten. Diese ‚Sphere’ erhält ebenfalls ein ‚Phong’Material, welches jedoch fast durchsichtig ist.
Abbildung 34:
Augen in Kopf
Der dadurch erzeugte Effekt gibt dem Auge eine milchige Erscheinung, die das Auge realistisch glänzen lässt. Zum Abschluss wird das Auge
dupliziert und in die beiden Augenhöhlen des Kopfes eingepasst (Abbildung 34). Der nächste Schritt ist das Erstellen von
Augenlidern, welche an die erzeugten Augen anzupassen sind. Hierzu wird der Kopf
in den ‚Live’-Modus versetzt (Abbildung
35). Mit dem ‚EP Curve Tools’ werden
anschließend einige Punkte, entsprechend
Abbildung 35: Kopf
der Form eines Lids, auf der Gitterstruktur
im ‚Live’-Modus
des Kopfes platziert. Anschließend wird
Abbildung 36:
Kopf mit Lidlinien
der Kopf wieder in den ursprünglichen Objektmodus zurückgeführt (Abbildung 36).
- 37 Zum anschließenden Arbeiten mit der erzeugten kreisförmigen Linie muss diese
dupliziert werden, da die erstellte ein Teil des Kopfes ist und nicht bearbeitet werden kann. Die neue Linie wird siebenfach kopiert, um die Form eines Augenlids
zu gestalten. Zur Überprüfung ob sie die gewünschte Lidform darstellen, werden die kreisförmigen Linien von der
Ursprungslinie bis zur Letzten markiert und mit ‚Hotbox
> Surfaces > Loft’ zu einer Fläche verbunden (Abbildung
37).
Die abschließende Anpassung des Lids an das Auge erfolgt mit den bereits vorgestellten Skalierungs- und Verformungstools. Ist das Augenlid in die Augenhöhle und an
das eine Auge angepasst, wird das Lid gespiegelt und in
Abbildung 37: Augenlid
die zweite Augenhöhle und an das andere Auge angepasst
geloftet
[MC04, S. 41-45].
Als letztes werden die Ohren des Kopfes modelliert. Die Ohren werden ebenfalls
mit dem Kopf im ‚Live’-Modus und dem ‚EP Curve Tool’ erstellt. Hierzu werden
die erzeugten Punkte der Form eines Ohres entsprechend am Kopf platziert. Anschließend wird die entstandene Linie, welche im Kopf eingepasst ist, dupliziert
und neunmal kopiert. Damit aus den Linien eine entsprechende detaillierte Ohrenform entstehen kann, werden neun Linien benötigt. Diese Linien werden an die
gewünschte Größe angepasst und an der gewünschten Stelle platziert (Abbildung
38). Zum Abschluss wird das Ohr zu einer Fläche verbunden, an den Kopf angepasst und gespiegelt.
Abbildung 38: Ohr aus Linien und als Fläche
Die Modellierung des Kopfes ist somit abgeschlossen [MC04, S. 45]
- 38 5.2.3 Die Modellierung des menschlichen Oberkörpers
Die Gestaltung des Oberkörpers beginnt ebenfalls mit der Erstellung einer
‚nurbsSphere’. Diese Fläche wird der Form eines Oberkörpers entsprechend angepasst, so dass eine Taille sowie Schultern zu erkennen sind. Die Modellierung
des Oberkörpers erfolgt mit den bereits erläuterten Werkzeugen, Funktionen und
Modi (Abbildung 39).
Zur Darstellung von Brust- und Bauchmuskeln sowie den
Rippen und der Schlüsselbeine werden weitere ‚Spheres’
erzeugt und der Struktur entsprechend gestaltet. Die erzeugten Flächen werden auf dem Oberkörper an den anatomisch korrekten Stellen platziert und in den Körper eingelassen. Die erzeugten Muskeln und Knochen werden im
nächsten Schritt der Modellierung mit der geformten O-
Abbildung 39: Körper
ohne Muskeln
berkörperfläche verbunden. Dies ist nur möglich, wenn sie
einander berühren. Die CVs der verschiedenen ‚Spheres’
sollen sich lediglich überschneiden, damit die muskelähnlichen Objekte auf dem
Körper zu sehen sind (Abbildung 40). Nach dem Erstellen
des Oberkörpermodells werden alle Objekte markiert und
in Polygone umgewandelt und miteinander verbunden.
Die Umwandlung in ein Polygon ist notwenig, da die einzelnen ‚Nurbs’-Flächen nicht zu einer einzigen Fläche
bzw. Schablone, verbunden werden können. Auf Grund
von Überschneidungen der zusammengefügten Objekte
Abbildung 40: Oberkörper mit Muskelflächen
kreuzen sich einige Flächen im Inneren des Körpers, die
jedoch keinen Einfluss auf die
Modellierung
haben.
Anschlie-
ßend wird das zusammengefügte Polygonobjekt in den
‚Live’-Modus überführt (Abbildung 41).
Erneut wird das ‚EP Curve Tool’ aufgerufen, um Linien
vom Hals bis zum Rumpf des Körpers zu zeichnen. Es ist
sehr wichtig, sich die Anzahl der erzeugten Punkte einer
Linie zu merken, da die erzeugten Linien am Ende zu einer
Abbildung 41: Ober-
Fläche zusammengeschlossen werden. Falls die Anzahl
körper als ‚Polygon’
unterschiedlich gewählt ist, entstehen sich kreuzende CVs
- 39 und somit Fehler in der Darstellung. Zusätzlich muss bei der Positionierung der
Linienpunkte auf die Oberflächenbeschaffenheit geachtet werden, da Muskel- und
Rippenerhebungen erkennbar sein sollen. Für eine optimale Platzierung der Linienpunkte entlang der Muskeln wird jede Linie entlang des Körpers einzeln gezeichnet (Abbildung 42).
Abbildung 42: Körper im ‚Live’-Modus und als Objekt mit Linien
Bei diesem Verfahren wird ebenfalls nur eine Hälfte des Oberkörpers mit Linien
überzogen. Nachdem alle Linien platziert sind, werden diese zu einer Fläche verbunden (Abbildung 43). Die entstandene Fläche ist kein Polygon, sondern eine
‚Nurbs’-Fläche.
Anschließend
können
Veränderungen an der Oberflächenstruktur mit den bereits benannten Werkzeugen und Modi vollzogen werden. Sind
alle Änderungen eingearbeitet, wird die
Oberfläche gespiegelt und zu einem Oberkörper verbunden [MC04, S. 58-59].
Abbildung 43: gelofteter Oberkörper
5.2.4 Gestalten der Arme und Beine anhand des Oberkörpers
Der nächste Schritt beim Gestalten des Menschen ist die Modellierung der Arme
und Beine, die anhand des bereits modellierten Oberkörpers geformt werden. Bei
der Gestaltung von Armen und Beine wird erneut das ‚EP Curve Tool’ eingesetzt.
Zunächst wird der Einsatz dieses Hilfsmittels an den Armen erläutert.
Die Gestaltung der Arme orientiert sich am Oberkörper, wobei dieser in den ‚Live’-Modus versetzt wird. An der anatomisch richtigen Position der Arme wird
- 40 eine kreisförmige Linie mit dem ‚EP Curve Tool’ erstellt. Da diese Linie dem
Körper zugehörig ist, wird sie dupliziert, um verändert werden zu können. Durch
erneutes Kopieren und anschließendes Verschieben und Verformen der erzeugten
Linien, wird die Form eines Armes modelliert (Abbildung 44). Die verformten Linien
des Arms stellen Schulter, Trizeps, Ellbogengelenk, Unterarm und Handgelenk dar.
Die Hand wird hierbei noch nicht modelliert,
Abbildung 44: Körper mit kreisförmigen
Armlinien
dies erfolgt später unabhängig vom Arm.
Diese Armlinien werden nach der ersten
Anordnung ebenfalls von der Schulter bis
zum Handgelenk hin zu einer Fläche mit ‚Hotbox > Surfaces > Loft’ verbunden
(Abbildung 45). Der entstandene Arm wird anschließend an seine anatomische
Form angepasst, was mit den bereits
erwähnten Werkzeugen geschieht. Ist
die Gestaltung des Arms vollendet,
wird dieser zwecks Erstellung des zweiten Arms gespiegelt und auf der anderen Körperhälfte platziert [MC04, S.
Abbildung 45: Arm geloftet
59-60].
Als nächstes werden die Hände modelliert. Hierfür wird zunächst ein ‚polygonCube’ erzeugt und der Form einer Handfläche angepasst. Nachdem die Grundform erstellt ist, wird das Polygonobjekt in
eine ‚Subdivision Surface’ umgewandelt
(Abbildung 46). Anschließend wird der
‚Cube’ in den Polygonmodus mit ‚rechte
Maustaste > polygon’ überführt und das
Abbildung 46: ‚polygonCube’ und als
Subdivision
‚Split Polygon Tool’
mit ‚Hotbox > Edit Polygons > Split Polygon Tool’ aufgerufen. Es werden sechs
Linien auf der Vorderseite der Polygonfläche gezogen, um eine Einteilung für die
vier Fingeröffnungen zu erstellen. Anschließend wird eine weitere Linie sowohl
auf der oberen und als auch auf der unteren Seite des ‚Cube’ gezogen, welche
- 41 circa 1/3 der Fläche begrenzen. Die restlichen 2/3 der Fläche werden im späteren
Verlauf der Modellierung der Hand
zur Handfläche geformt.
Als nächstes werden die Linien auf der Vorderseite mit der oberen und der unteren Linie
in einer Dreiecksform miteinander verbunden (Abbildung 47).
Nachdem alle Linien gezogen sind, wird das
Abbildung 47: Polygonmodus mit gezo-
Objekt im ‚Face’-Modus mit ‚rechte Maus-
genen Linien
taste > face’ abgebildet. In diesem Modus
wird die Fläche, an welcher der Zeigefinger platziert werden soll, markiert, das
Werkzeug ‚Hotbox > Edit Polygon > Extrude Face’ aufgerufen und der erste Finger erstellt. Dieser entsteht durch Herausziehen des ‚Faces’ mit diesem Werkzeug.
Hierdurch werden neue Einteilungen für
den Finger erzeuget, wie in der Abbildung 48 zu sehen ist. Anschließend werden die erzeugten Flächen mit den bereits
erwähnten Pivot-Werkzeugen, an die
Form eines Fingers angepasst.
Als nächstes wird der Daumen modelliert. Hierfür wird die Fläche, an welcher
Abbildung 48: ‚Face’-Modus und erster
der Daumen positioniert werden soll,
Finger
markiert. Mit demselben Werkzeug, wie
bei der Gestaltung des Fingers, werden zwei neue Abteilungen herausgezogen.
Die erste neue Fläche bleibt unverändert. Allerdings wird die zweite verkleinert,
gedreht und unterhalb des ersten Finger platziert (Abbildung 49).
Abbildung 49: Beginn Daumen
- 42 Dieser Schritt der Modellierung bedarf einiger Zeit, da der Daumen der schwierigste Teil beim Gestalten der Hand ist. Er besitzt eine andere Form und Position
als die anderen Finger. Der Daumen liegt außerdem leicht unterhalb der anderen
Finger und ist nach innen gedreht, worauf natürlich geachtet werden muss. Nachdem die Positionierung des Daumengelenks zufrieden stellend abgeschlossen ist,
werden alle ‚Faces’, an denen die Finger angesetzt werden sollen, sowie die Öffnung am Handgelenk markiert und gelöscht, so dass dort Löcher entstehen.
Als nächstes wird das Objekt in den Modus
‚Vertex’ überführt. Innerhalb dieses Modus
wird ein Handgelenk geformt (Abbildung
50). Ebenfalls im ‚Vertex’-Modus werden
nun mit Hilfe des Pivots die Feinheiten des
bereits erstellten Fingers bearbeitet.
Im Anschluss werden die Gelenkeinkerbungen des Fingers geformt, wofür in den
Abbildung 50: Öffnung des Handgelenks
‚Edge’-Modus gewechselt wird, da in diesem einzelne Linien markiert und bearbeitet werden können (Abbildung 51). In
dem Modus können vor allem die Fingerabschnitte gut und detailliert gestaltet
werden.
Abbildung 51: Finger im ‚Edge’-Modus
Mit demselben Verfahren wird auch die Oberseite des Fingers gestaltet, um die
Gelenke auf ihnen zu formen. Nachdem der erste Finger modelliert ist, wird erneut in den ‚Face’-Modus gewechselt. Damit die anderen Finger nicht erneut gestaltet werden müssen, wird der erste Finger markiert, kopiert und in die erzeugten
- 43 Löcher eingepasst. Vom Prinzip sind alle Finger gleich, es müssen lediglich die
Größe und Breite angepasst werden.
Beim Gestalten des Daumes muss weiterhin
beachtet werden, dass dieser ein Fingergelenk
weniger besitzt. Für die Gestaltung des Daumens wird ein Gelenk des ersten Fingers gelöscht und lediglich der restliche Teil des Fingers angepasst. Zusätzlich muss beim Daumen
auch die Platzierung verändert werden, da
dieser seitlich und leicht gedreht positioniert
Abbildung 52: fertige Hand
ist (Abbildung 52).
Nachdem mit den erläuterten Werkzeugen die ‚Subdivision’ an die Form einer
Hand angepasst ist, wird diese in ein Polygon umgewandelt [HAN].
Diese Überführung ist notwendig, da der gesamte Körper im späteren Verlauf der
Modellierung ebenfalls in ein Polygon umgewandelt wird. Damit sich Hand und
Körper zusammenfügen lassen, müssen alle Objekte aus demselben Objekttyp,
einem Polygon, bestehen. Da der restliche menschliche Körper jedoch zunächst
aus ‚Nurbs’ geformt ist, werden die Hände erst nach der Umwandlung aller Körperteile in ein Polygon an den Körper angefügt.
Als nächstes wird die Modellierung der Beine und Schuhe erläutert. Die Gestaltung der Beine erfolgt in gleicher Art und Weise wie die
der Arme. Die kreisförmigen Linien sind hierbei am
Oberschenkel, dem Knie, der Wade und zuletzt an der
Ferse platziert (Abbildung 53). Die weitere Modellierung erfolgt analog zur Gestaltung des Armes [MC04,
S. 60].
Zum Abschluss des Körpers wird noch die Modellierung der Schuhe beschrieben. Hierbei wird ein anderes
Verfahren angewendet. Die Gestaltung der Schuhe beginnt mit einer ‚nurbsSphere’, welche ihren Ursprung in
Abbildung 53: Beinlinien
der Z-Achse hat. Anschließend wird die zweite CV einer Seite markiert und abgeschnitten, um eine Öffnung für das Bein zu erzeugen.
Als nächstes folgt die Gestaltung des Fußgelenks. Dies geschieht mit demselben
Verfahren wie bei der Modellierung des Halses.
- 44 Zum Abschluss wird die ‚Sphere’ der Form eines Schuhes angepasst (Abbildung 53), dupliziert und am Ende des Beins platziert [SM00, S.
358].
Abbildung 53: Schuh
5.2.5 Zusammenfügen der Körperteile
Nachdem alle Körperteile für den Menschen erstellte wurden, müssen sie noch zu
einer Einheit zusammengefügt werden. Hierzu werden alle modellierten Objekte
in eine Mayabühne kopiert und an ihren zugehörigen und anatomisch richtigen
Positionen platziert (Abbildung 54). Damit die einzelnen Körperteile perfekt aneinander passen, müssen Löcher in den Oberkörper geschnitten werden (Abbildung 55).
Abbildung 54: Menschen zusammengesetzt
Abbildung 55: Menschen anpassen
Dies ist notwendig, damit die CVs der Arme und Beine, mit denen des Oberkörpers übereinstimmen. Es sollen keine überschüssigen Flächen entstehen, wie es
bei der ersten Gestaltung des Oberkörpers, bei der die Flächen in den Innenraum
der Figur ragten, der Fall war. Die einzelnen Körpersteile müssen eine einzige,
sich zusammen fügende Oberfläche ergeben.
Hierfür werden zunächst Schnitte mit ‚Hotbox > Edit Surfaces > Detach Surface’
an den Einpassungsstellen der Arme und Beine gesetzt. Die Schnitte erzeugen
sowohl an der Arm- als auch an der Beineinpassung ein Rechteck.
- 45 Mit diesem Verfahren gelingt eine korrekte Anpassung der verschiedenen Körperteile [MC04, S. 70-73].
Nachdem der Oberkörper für die Anpassung der Gliedmaßen vorbereitet ist, wird
zunächst ein Arm an der Schulter angefügt (Abbildung 56).
Abbildung 56: Loch im Körper und anzupassender Arm
Hierbei ist darauf zu achten, dass die Anzahl der CVs um das entstandene Loch
mit denen des Armes übereinstimmen, da sonst bei der Anbindung der beiden
Körperteile unschlüssige Verbindungen der CVs entstehen. Falls die Anzahl der
CVs von Oberkörper und Armen nicht übereinstimmen, können neue CVs im ‚Isoparm’-Modus erzeugt oder entfernt werden. Diese Anpassung bedarf viel Zeit
und hoher Genauigkeit, da die CVs in allen drei Raumdimensionen integriert werden müssen. Falls das Zusammenfügen ungenau erfolgt, können im späteren Modell Löcher entstehen. Die Anpassung erfolgt mit den bereits beschriebenen Modellierungswerkzeugen.
Nachdem der Arm in den Körper integriert ist, wird der bearbeitete Arm gespiegelt und an der anderen Körperseite eingesetzt. Der andere Arm, welcher noch
nicht an den Oberkörper angepasst war, wurde vorher gelöscht. Da beide Körperhälften gleich sind, müsste sich der Arm in das Loch auf der anderen Seite einfügen. Trotzdem sollte die andere Seite kontrolliert
werden, da beim auseinander schneiden eine Verformung der Oberflächenstruktur entstanden sein
könnte.
In derselben Art und Weise muss die Anpassung der
Beine vollzogen werden (Abbildung 57). Diese werden mit dem gleichen Verfahren und denselben
Werkzeugen wie die Arme an die erstellten Löcher
angepasst und somit an den Oberkörper angefügt.
Abbildung 57: Beine an Becken
anpassen
- 46 Nachdem der Körper seine endgültige Form erhalten hat, muss noch der Kopf an
den Hals des Oberkörpers angepasst werden. Dies erfolgt ebenfalls mit den bereits
genannten Methoden und Werkzeugen.
Zuletzt wird eine weitere ‚nurbsSphere’ erzeugt und anschließend halbiert. Diese
wird der Form eines Pos entsprechend geformt und am unteren Rücken sowie dem
Oberschenkel platziert. Zum Abschluss wird die ‚Sphere’ dupliziert und in derselben Art und Weise an die andere Körperhälfte angebracht.
Das Zusammenfügen der einzelnen Teile ist notwendig, um eine einzige Hautfläche zu erstellen. Die Haut wird im späteren Verlauf der Arbeit benötigt, damit
eine realitätsnahe Simulation der menschlichen Bewegungen erzeugt werden
kann. Wären die Körperteile nicht aneinander angepasst, könnten bei den Bewegungen die überstehenden Flächen zum Vorschein kommen und eine falsche Darstellung hervorrufen. Für eine anschauliche und korrekte Simulation ist dieser
aufwendige Vorgang notwendig (Abbildung 58).
Abbildung 58: Körper zusammengefügt
5.2.6 Umwandeln des zusammengefügten Modells in ein Polygon
Nachdem die Modellierung und Anpassung der Körperteile vollendet ist, wird das
gesamte Modell in ein anderes Format überführt. Es wird in ein Polygon umgewandelt. Diese Umwandlung ist notwendig, da die einzelnen Körperteile miteinander verbunden werden müssen, um eine einzige Hautfläche zu erhalten. Aus den
- 47 modellierten ‚Nurbs’-Flächen kann keine einheitliche Oberfläche erstellt werden,
da ‚Nurbs’ beim Zusammenfügen keine einheitliche Struktur hervorbringen.
Für die Überführung werden alle Körperteile ausgewählt und mit ‚Hotbox > Modify > Convert > NURBS to Polygon’ umgewandelt. Der Körper behält auf Grund
der festgelegten Einstellungen die vorherige Form.
Anschließend werden die Hände in die aktuelle Mayabühne kopiert und an den
Handgelenken platziert. Die Hände werden mit der offenen Seite an die Handgelenköffnung des Armes angepasst. Anschließend werden die Polygone mit Ausnahme der Augen erneut ausgewählt und mit ‚Hotbox > Polygon > Combine’ zu
einem Element zusammen gefügt [MC04, S. 86-87].
Die Augen werden nicht in den Körper mit eingebunden, da diese eine andere
Farbe als der Körper erhalten. Es gibt in den Materialien für die Farbgestaltung
von Maya keine Textur, welche einem modellierten Objekt die gewünschte Farbgebung ermöglichen könnte. Die Augen und die Haut müssen zwei unterschiedliche Materialien erhalten. Allerdings gehören die Augen trotzdem zum gesamten
Körper, jedoch nicht zum Körperobjekt.
Die Farben für die Augen wurden bereits erstellt und zu den jeweiligen Flächen
hinzugefügt. Die Haut erhält ein ‚Phong’ Material mit einer hautfarbenen Farbe.
Zum Abschluss wird diese Textur auf den Körper gelegt, so dass dieser nun auch
farblich einem Menschen ähnelt (Abbildung 59).
Abbildung 59: fertiger Mensch mit Farbe
- 48 Die Modellierung des Menschen ist somit abgeschlossen. Der Körper dient nun
als Vorlage für die Erstellung des Skeletts.
Die in dieser Arbeit für die Modellierung der Körperteile gewählte Reihenfolge ist
sinnvoll, da jeder Schritt auf den vorherigen aufbaut und somit Grundlage für die
weitere Gestaltung ist. Zudem kann die Entstehung eines Menschen in dieser Reihenfolge gut nachvollzogen werden. Dies schließt allerdings in keiner Weise eine
andere Vorgehensweise aus.
Wie dem aufmerksamen Leser bereits aufgefallen sein wird, hat der dargestellte
Mensch keine Haare. Wie in den Anforderungen des Menüs definiert, ist eine
notwendige Bedingung das schnelle Rendern der Szene. Da Haare in der Darstellung sehr rechenintensiv sind, wurde auf sie verzichtet. Der generelle Aufbau des
Menschen hat sich ebenfalls an dieser Bedingung orientiert, weshalb keine übermäßig rechenaufwendigen Attribute in der Szene enthalten sind.
5.3 Aufbau des Skeletts für den Charakter
Im folgenden Kapitel wird die Anfertigung eines Skelettes für den bereits modellierten Körper beschrieben. Für die Simulation von menschlichen Bewegungen im
dreidimensionalen Raum sind Knochen und Gelenke notwendig, so dass die Erzeugung eines Skeletts für die gewünschten Bewegungen des Modells notwendig
ist. Die Gestaltung dieser benötigten Elemente und deren Abhängigkeiten voneinander werden im Folgenden erläutert. Außerdem wird die Anpassung des erzeugten Skeletts an das bereits geformte Modell beschrieben.
5.3.1 Vorgehensweise beim Erstellen eines Skeletts
Nachdem der Körper modelliert ist, wird dieser zunächst in eine Ebene in der
Mayabühne eingebunden. Der Einsatz von Ebenen ermöglicht, dass die dazugehörigen Objekte beispielsweise unsichtbar gemacht oder in andere Zustände überführt werden können. Hierzu gehört auch der ‚Template’-Zustand, der das Ebenenabhängige Objekt in eine Schablone umwandelt, die zwar zu sehen ist, aber
nicht verändert werden kann, solange das Objekt in diesem Zustand ist. Die verschiedenen Zustände werden durch Drücken des entsprechenden Feldes, wie in
der Abbildung 60 zu sehen ist, eingestellt.
- 49 Der Name der Ebene steht hinter den drei Kästchen. Die erste Box bestimmt, ob
das Objekt zu sehen ist (V) oder nicht (kein V). In
der zweiten Box werden die annehmbaren Zustände eingestellt. Ist diese Box leer, ist das Objekt veränderbar. Ist dort allerdings ein T zu sehen, ist der ‚Template’-Zustand eingestellt und
das ebenenabhängige Objekt kann als Schablone
verwendet werden. Im dritten Kästchen kann eine
Farbe für die Ebene eingestellt werden, was jedoch keine Auswirkung auf das Objekt oder seine
Abbildung 60: Ebenenfenster
Bearbeitung hat [MS00, S. 412].
Für die Skelettbildung wird der menschliche Kör-
per an eine neue Ebene mit Namen „Mensch“ gebunden. Nach dem Anbinden des
Körpers an diese Ebene kann dieser alle Zustände, welche diese Verbindung ermöglicht, einnehmen (Abbildung 61).
Abbildung 61: Ebenen-Fenster mit Mensch im ‚Template’-Zustand
Die wichtigsten Werkzeuge beim Erzeugen eines menschlichen Skelett sind das
‚Joint’ und das ‚Mirror Joint’ Tool. Das ‚Joint’ Tool hat jedoch noch eine Erweiterung, das ‚IK Handle’, welches zum Erstellen von Abhängigkeiten innerhalb des
Gelenkgerüsts zuständig ist. Ein Beispiel hierfür ist das Kniegelenk, welches ge-
- 50 beugt werden soll, wenn der Fuß angehoben wird. Hierbei wird ein ‚IK Handle’
eingesetzt, um die Bedingung, dass das Knie eingebeugt wird, wenn sich der Fuß
hebt, festzulegen.
Dies sind die Funktionen, die bei der Erstellung des Skeletts eingesetzt werden.
Allerdings sind dies nicht alle möglichen Methoden, welche Maya in diesem Bereich zur Verfügung stellt. Da sie jedoch nicht bei der Erstellung des Skeletts verwendet werden, ist es nicht notwendig sie an dieser Stelle zu erwähnen.
5.3.2 Modellierung des Skeletts
Für die Gestaltung des Skeletts wird der Körper zuerst in den ‚Template’-Zustand
versetzt. Mittels dieser Schablone können Gelenke an den entsprechenden Positionen platziert werden. Eine genaue Anpassung des Skeletts an den Körper ist
notwendig, damit beim Verbinden der Beiden die Gelenke an
den richtigen Körperstellen platziert sind und die Bewegungen
korrekt ausgeführt werden können.
Die Gestaltung des Skeletts beginnt mit dem Erzeugen der
Beingelenke. Da das Knie gebeugt werden soll, wird ein ‚IK
Handle’ beim Erstellen der Beingelenke hinzugefügt. Als
nächstes werden vier Joints in der ‚Side’-Ansicht platziert, und
zwar am Oberschenkel, am Kniegelenk, am Knie und an der
Ferse (Abbildung 62). Wenn nun das Fersengelenk nach oben
bewegt wird, beugt sich automatisch das Knie.
Anschließend wird der ‚Hypergraph’-Editor geöffnet und die
erzeugten Joints werden benannt, um sie einfacher auswählen
und auseinander halten zu können (Abbildung 63). Dieser Vor-
Abbildung 62:
Beingelenke
gang ist wie bereits in der Einführung des ‚Hypershade’Editors beschrieben für die Übersicht und das spätere Bilden einer Hierarchie sehr
wichtig.
Abbildung 63: benanntes Bein im ‚Hypergraph’-Editor
- 51 Beide Beine haben dieselben Gelenke, weswegen die Gelenke mit dem Werkzeug
‚Mirror Joint’ gespiegelt und am anderen Bein des Körpers automatisch platziert
werden können. Das Spiegeln der Joints erfolgt im Anschluss an das Erstellen
einer Gelenkgruppe, damit die Platzierung auf der anderen Seite direkt vorgenommen und die Gelenke umbenannt werden können. Durch direktes Spiegeln
bleibt eine übersichtliche Darstellung innerhalb des ‚Hypergraph’-Editors erhalten. Die Gelenke und Bewegungsmöglichkeiten werden an die gespiegelte Gelenkkette weitergegeben. Natürlich müssen die Joints für die andere Seite umbenannt werden, da links und rechts zur Übersicht und späteren Bearbeitung unterscheidbar sein müssen.
Als nächstes entstehen die Fußgelenke. Hierfür werden drei Joints benötigt, und
zwar an der Ferse, dem Fußballen und am Zehenende. Es wird kein ‚IK Handle’
benötigt. Nachdem die Beine vollendet sind, wird die
Hüfte erstellt. Hierfür sind erneut drei Gelenke ohne ‚IK Handle’-Funktion notwendig.
Die Gelenke werden in der Mitte des Körpers, am Beckenknochen und am Beingelenk platziert. Die neuen Gelenke werden selbstverständlich benannt und anschließend gespiegelt (Abbildung 64).
Nachdem der Unterkörper alle notwendigen Gelenke
besitzt, wird der Rücken erstellt. Der Rücken erhält fünf
Gelenke, welche an der Hüfte, dem unteren Rückenbereich, am Beginn des Brustkorbs, in der Mitte des Brustkorbes und am Hals platziert werden. Die Wirbelsäule
wird selbstverständlich nicht gespiegelt, da nur eine benötigt wird und es ist keine ‚IK Handle’-Funktion notwendig.
Wie zu erkennen ist, besteht die Wirbelsäule in diesem
Skelett lediglich aus fünf Wirbeln, wohingegen der
Mensch in der Realität 24 Wirbel besitzt. Für die Steuerung dieses Menschen sind jedoch nur diese fünf Wirbel
Abbildung 64: fertige
Beingelenke
notwendig. Weitere Wirbel würden keine Bereicherung
der Bewegungsmöglichkeiten zur Folge haben, so dass die erstellten fünf Wirbel
ausreichend sind [MC04, S.108-111].
- 52 Zum Abschluss des Rückens werden noch Gelenke für den Brustkorb erzeugt.
Hierfür werden von der Mitte des Brustkorbes ausgehend vier Gelenke der Form
einer Rippe entsprechend platziert. Am Anfang des Brustkorbes werden weitere
drei Gelenke für die zweite Rippe positioniert. Anschließend werden die Rippengelenke gespiegelt und im ‚Hypergraph’-Editor benannt. Auch hier werden weniger Rippen eingesetzt als der Mensch in der Realität hat, da 12 Rippenpaare für
die Bewegung des modellierten Menschen nicht notwendig sind.
Im Anschluss entstehen das Schlüsselbein und das Schulterblatt. Diese werden an
der Seite des letzten Wirbelsäulengelenks platziert und erhalten ein ‚IK Handle’,
da sie in der späteren Bewegungssimulation Auswirkung auf die Arme haben
werden. Anschließend entstehen die Hals- und Kopfgelenke, welche vom Ende
der Wirbelsäule bis zur Kopfspitze reichen. Vom ersten Kopfgelenk ausgehend
werden drei Gelenke für den Kiefer des Skeletts erzeugt. Das letzte Kiefergelenk
wird am Kinn des Modells platziert.
Zuletzt werden die Armgelenke platziert, die eine ‚IK Handle’-Funktion erhalten.
Der Arm besteht aus vier Gelenken, welche sich an der Schulter, dem Ellbogengelenk, dem Unterarm und am Handgelenk befinden (Abbildung 65).
Abbildung 65: Oberkörperknochen
Das ‚IK Handle’ wird benötigt, um den Ellbogen beugen zu können, wenn der
Arm bestimmte Bewegungen ausführt, wie beispielsweise den Arm anwinkeln.
Am Ende des Armes werden noch zwei Gelenke für die Hand platziert, jedoch
ohne ‚IK Handle’-Funktion. Nun sind alle notwendigen Gelenke des Skelettes
erstellt (Abbildung 66) [MC04, S. 111-114].
- 53 -
Abbildung 66: gesamtes Skelett
Es existieren jedoch noch weitere Möglichkeiten, um Bedingungen auf einzelne
Gelenke zu legen. Ein Beispiel hierfür ist, dass das Schultergelenk in seiner Bewegungsfreiheit eingeschränkt wird. Es erhält ‚driven keys’, die verursachen, dass
die Schultern nur bis zu einer gewissen Höhe angehoben und gesenkt werden
können [MC04, S.143-145]. Zudem bekommt das Skelett einen Gleichgewichtssinn, damit sich der Körper beim Bewegen der Gliedmaßen, wie beispielsweise
beim Anheben des Beins, dem Verhalten eines realen Menschen annähert [MC04,
S.151-154]. Da dies jedoch zu sehr ins Detail führen würde, werden diese Einschränkungen nicht genau beschrieben. Die Umsetzung dieser Bedingungen wird
im abgeschlossenen Skelett zu sehen sein.
Die Reihenfolge der Erstellung der einzelnen Gelenke wurde in dieser Art und
Weise gewählt, da der Aufbau übersichtlich und praktisch ist. Die verschiedenen
Gelenke bauen in der Reihenfolge ihrer Erstellung aufeinander auf. Natürlich
kann auch eine andere Reihenfolge verwendet werden.
5.3.3 Kontrollsymbole zur Steuerung des Skeletts
In diesem Unterkapitel wird der Einsatz von Kontrollsymbolen, die in Maya erzeugt werden können, beschrieben. Diese Symbole werden die möglichen Bewe-
- 54 gungen des Skeletts ausführen, da die Auswahl eines einzelnen Joints zum Bewegen des Körpers nicht praktikabel ist. Diese Kontrollsymbole können in Maya
unterschiedliche Formen haben, die je nach Einsatz des Symbols leicht zu verstehen und auszuwählen sein sollen.
Diese Symbole können Buchstaben oder geometrische Objekte sein, wobei die
Buchstaben mit ‚Hotbox > Create > Text’ erzeugt werden und die Boxen durch
Erstellen eines ‚polygonCubes’ entstehen.
Das erstellte Skelett erhält zunächst Boxen für die Steuerung der Hüfte, des Oberkörper, der Arme und der Beine. Zum Bewegen der Schultern wird der Buchstabe
‚S’ (‚Shoulder’), für den Oberkörper das ‚U’ (‚Upperbody’) und für den gesamten
Körper das ‚B’ (‚Body’) gewählt. Die Buchstaben sollen dem Benutzer die
Verbindung zwischen Buchstabe und Funktion erleichtern und das Verständnis
verbessern. Außerdem sind zu viele Boxen unübersichtlich. Für die Steuerung des
Rückens werden drei Kreise erstellt, welche in die entsprechende Richtung
der Bewegung gesteuert werden können. Die Kreise bilden die jeweilige Bewegung des Rückens nach, was ebenfalls anschaulich und leicht zu verstehen ist
(Abbildung 67).
Abbildung 67: Kontrollsymbole
Um die Kontrollsymbole mit den jeweiligen Gelenken zu verbinden, werden die
Gelenke den Kontrollsymbolen untergeordnet und werden dadurch von Ihnen ab-
- 55 hängig. Anschließend ist der Anwender theoretisch in der Lage, den Menschen
über die Steuerungssymbole zu bewegen. Allerdings ist noch keine Hierarchie
unter den Gelenken erzeugt worden, so dass noch keine zusammenhängenden
Bewegungen möglich sind.
Der nächste Schritt bei der Formung eines menschlichen Skeletts ist folglich die
Gestaltung einer Hierarchie innerhalb des Skeletts. Hierfür muss eine Art Stufenleiter in der Reihenfolge der Abhängigkeiten der Gelenke erstellt werden. Dieser
Vorgang wird innerhalb des ‚Hypergraph’-Fensters durchgeführt. Die einzelnen
Körperteile werden in ihrer anatomischen Anordnung miteinander verbunden, d.h.
Füße werden an die Beine angehängt und diese anschließend an die Hüfte gebunden.
Die Hierarchiewurzel aller Gelenke ist das Kontrollsymbol für den gesamten Körper, dargestellt durch den Buchstaben ‚B’. Die Schultern, Hände und Arme werden mit dem Steuerungssymbol ‚S’ verbunden, wobei durch Betätigen dieses
Buchstabens die Arme und Schultern bewegt werden. Die Füße werden mit der
jeweiligen Fußsteuerungsbox verbunden und einem ‚Locator’ namens ‚Feet’ untergeordnet. Dieser ermöglicht, dass beide Füße gleichzeitig angehoben werden
können und wird mit dem Buchstaben ‚B’ untergeordnet.
Der Hüfte und den Beinen wird zur Steuerung die Hüftkontrollbox zugeordnet
und der Kopf wird an die Kopfkontrollbox gebunden. Die Kontrollsteuerungsbox
der Arme wird den Armen zugewiesen.
Als nächstes werden der Kopf, die Arme und die Schultern mit dem obersten
Wirbel der Wirbelsäule zusammengeschlossen. An den untersten Wirbel wird die
Hüfte gebunden, somit sind Unter- und Oberkörper miteinander verbunden. Als
letztes werden die Hüftbox, die drei Kontrollkreise des Rückens und der oberste
Wirbel an den Kontrollbuchstaben ‚U’ gekoppelt und anschließend alles unter
dem Kontrollbuchstaben ‚B’ eingeordnet (Abbildung 68) [MC04, S. 120-124].
Zur Bewegung der verschiedenen Gelenke des Skeletts kann nun das jeweilige
Kontrollsymbole vom Anwender ausgewählt und über das Pivot gesteuert werden.
- 56 -
Abbildung 68: Ausschnitt der Kontrollsymbol- und Gelenkverbindungen
5.3.4 Anpassen der Haut an das Skelett
In den vorherigen Kapiteln ist die Modellierung eines menschlichen Körpers und
eines dazugehörigen Skeletts erläutert worden. In diesem Kapitel wird nun die
Zusammenführung Beider beschrieben, um die Bewegungsmöglichkeiten des
Skeletts auch am modellierten Körper sichtbar zu machen.
Damit sich der Körper mit dem erstellten Skelett bewegen kann, müssen sie miteinander verbunden werden. Hierbei gilt es zu beachten, dass der Nacken, die
Wirbelsäule und die letzten Gelenke eines Körperteils des Skeletts nicht mit eingebunden werden dürfen, damit die erstellte Haut nicht zu viele Verformungspunkte besitzt und sich realitätsnah mit dem Skelett bewegt.
Außerdem dürfen keine Steuerungssymbole mit eingebunden werden, da diese
den Menschen steuern, und nicht selbst gesteuert werden, sollen. Nachdem die
benötigten Gelenke und der gesamte polygone Körper im ‚Hypergraph’-Editor
markiert sind, werden sie mit dem Befehl ‚Hotbox > Skin > Bind Skin > Smooth
Skin’ miteinander verbunden [MC04, S. 189-191].
Zum testen, ob die Haut die gewünschten Bewegungen ausführt, kann der Benutzer den Menschen über die erstellten Kontrollsymbole bewegen (Abbildung 69).
- 57 -
Abbildung 69: Mensch am Armkontrollsymbol bewegt
Anschließend können unerwünschte Verformungen an der Haut (Abbildung 70),
die unter Umständen bei Bewegungen entstehen, mit dem Werkzeug ‚Hotbox >
Skin > Edit Smooth Skin > Paint Skin Weights Tool’ ausgebessert werden. Hierfür wird der Körper an den Kontrollsymbolen bewegt und sobald eine unerwünschte Verformung entsteht, wird sie mit diesem Werkzeug ausgebessert
[MC04, S. 191].
Abbildung 70: Hautverformung
- 58 Nachdem die Haut die gewünschten Bewegungen ansehnlich durchführt und alle
unerwünschten Verformungen entfernt sind, ist die Gestaltung des steuerbaren
Menschen abgeschlossen.
5.4 Erstellen der Texturen für den Menschen
Im folgenden Kapitel wird die Gestaltung von Kleidung für den modellierten Charakter erläutert. Im Einzelnen sind dies ein T-Shirt und eine Hose. Zudem werden
verschiedene Stoffe für diese Kleidung erstellt. Den unterschiedlichen Texturen
werden verschiedene Reflexionsattribute zugeordnet, die wiederum verschiedenen
Materialien entsprechen, was im Lichtstudio zu unterschiedlichen Lichteffekten
führen wird.
5.4.1. Modellieren eines T-Shirts und einer Hose
Als erstes wird der Mensch in den ‚Template’-Zustand überführt, damit sein Umriss zu erkennen ist, um die Größe des T-Shirts an ihn anzupassen. Als nächstes
werden mit dem ‚EP Curve Tool’ Linien erzeugt, welche in ihrer Anordnung der
Form eines T-Shirts entsprechen. Die Linien werden alle einzeln gezeichnet und
durch Aktivieren des Buttons ‚Snap to curves’ miteinander verbunden.
Nachdem eine Hälfte des T-Shirts erstellt ist, kann diese gespiegelt werden. Die
letzten Linien werden in der Mitte des T-Shirts gezogen, so dass das T-Shirt aus
zwei Hälften besteht. Anschließend werden die Linien vor dem Körper platziert
und dupliziert. Die neuen Linien werden als Rückseite des T-Shirts verwendet und
hinter den Körper verschoben (Abbildung 71).
Nun werden Panels (Stoffbahn) erzeugt. Hierfür müssen die Linien, welche eine Fläche des
T-Shirts umranden, markiert werden und mit
‚Hotbox > Cloth > Create Panel’ wird ein ‚Panel’ erzeugt. Dies wird mit allen Flächen der
Vorder- und Rückseite des T-Shirts durchgeführt.
Darauf folgend wird aus den erstellten ‚Panels’
Abbildung 71: T-Shirt als ‚Panel’
ein ‚Garment’ (Bekleidungsstück) gestaltet.
Hierfür wird eines der Panels, beispielsweise der linke vordere Ärmel ausgewählt
- 59 und mit ‚Hotbox > Cloth > Create Garment’ in ein Stück Stoff umgewandelt, das
durch eine grau schattierte Fläche dargestellt wird.
Anschließend müssen die anderen ‚Panels’ mit dem erzeugten Stoff verbunden
werden. Hierfür werden die jeweiligen Nähte
bzw. Linien zwischen zwei ‚Panels’ markiert
und mit ‚Hotbox > Cloth > Create Seam’ miteinander verbunden. Dies wird mit allen Nähten, auch mit denen auf der Rückseite, durchgeführt (Abbildung 72). Nachdem alle ‚Panels’ zu
einem Stoff zusammen gefügt sind, wird der
Abbildung 72: ‚Garment’
Menschen wieder sichtbar gemacht.
Als nächstes wird er mit ‚Hotbox > Cloth > Create Collision Object’ zu einem
Kollisionsobjekt, damit das entwickelte T-Shirt an den Körper angepasst werden
kann und Körper und T-Shirt sich nicht durchdringen. Hierfür werden zunächst
die Einstellungen für die Anpassung des TShirts an den Körper festgelegt. Nachdem alle
Eingaben getätigt wurden, wird mit ‚Hotbox >
Simulation > Start Simulation’ die Wandlung
des unförmigen T-Shirt zu einem angepassten
T-Shirt vollzogen (Abbildung 73). Falls diese
Umformung nicht den eigenen Wünschen
Abbildung 73: T-Shirt
entspricht, können Änderungen in den Einstellungen durchgeführt werden und die
Simulation kann erneut durchlaufen werden [SHI].
Zum Modellieren einer Hose wird demselben
Ablauf wie beim Modellieren des T-Shirts
gefolgt. Dies wird jedoch auf Grund der Gemeinsamkeiten der Vorgänge hier nicht ausführlich erläutert (Abbildung 74 und 75)
[PAN].
Abbildung 74:
Abbildung 75:
Hose
Seitenansicht
- 60 -
5.4.2 Anpassen der Kleidung an den modellierten Körper
Nachdem der Mensch und die Kleidung modelliert sind, müssen Beide um fließende Bewegungen zu ermöglichen, zusammengefügt werden.
Hierfür müssen jedoch bestimmte Abschnitte des Körpers gelöscht werden, da
Kleidung und Körper überflüssig sind. Zudem könnte der Körper bei Bewegungen
durch die Kleidung hervorschauen, was nicht erstrebenswert ist. Aus diesem
Grund werden die Körperteile, die von der Kleidung verdeckt werden, gelöscht.
Hierfür wird die Kleidung an eine Ebene gebunden und in den ‚Template’-Modus
überführt wird. Nun kann betrachtet werden, wo sich die Beiden Objekte überschneiden. Der polygone Körper wird in den ‚Face’-Modus versetzt, weil in diesem die überflüssigen Körperteile einfach markiert und gelöscht werden können.
Anschließend wird die Kleidung wieder sichtbar gemacht.
Nun müssen die Kleidung und der Körper an das Skelett gebunden werden, damit
die Bewegungen ausgeführt werden können. Dies geschieht in derselben Art und
Weise, wie in Kapitel 5.3.4 beschrieben wurde. Der bekleidete Mensch soll vor
allem Lichteffekte im Lichtstudio hervorrufen.
Die Modellierung zweier Modelle überlässt dem Benutzer die Wahl zwischen
einem nackten und einem bekleideten Körper, um ihm eine gewisse Flexibilität zu
ermöglichen.
5.4.3 Erstellen der Texturen
In diesem Kapitel wird das Entwerfen von Materialien für die bereits gestaltete
Kleidung des Menschen beschrieben. Wie bereits in der Modellierungseinführung
genannt, gibt es verschiedene Materialien und Texturen, welche auf ein Objekt in
Maya gelegt werden können.
Die erste Textur für die erzeugte Kleidung soll den Stoff Samt mit einer schwarzen Farbe simulieren. Im realen Leben hat Samt mit einer schwarzen Farbe einen
starken Absorptionsgrad, d.h. der Stoff reflektiert fast kein Licht [BR94, S. 63].
Da dieser Stoff eine auffällige Reaktion hervorruft, ist er für die Kleidung ausgewählt worden. Für die Umsetzung wird das Material ‚Lambert’ gewählt. Dieses
Material ist matt und erzeugt keine Reflexionen, was den gewünschten Eigenschaften entspricht. Zusätzlich wird das Material mit der unbunten Farbe schwarz
eingefärbt (Abbildung 76).
- 61 Die Samtkleidung (‚Velvet’) dient der Darstellung einer Textur, welche alles
Licht absorbiert [BC02, S. 49].
Abbildung 76: Kleidung ‚Velvet’
Als zweite Textur soll das Material Leder simuliert werden. In der Realität reflektiert dieses Material Licht nur zum Teil. Das Ledermaterial besteht aus einer glatten, glänzenden Oberfläche und hat Reflexions- und Absorptionseigenschaften
wie echtes Leder. Hierfür wird ein ‚Phong’ Material gewählt, das zusätzlich mit
der 3D-Textur ‚Leather’ verbunden wird (Abbildung 77). Diese 3D-Textur verbindet das
‚Phong’ Material mit der vorgegebenen Musterung von Leder. Außerdem erhält die LederbeAbbildung 77: 3D-‚Leather’-Textur
kleidung (‚Leather’) eine braune Farbe (Abbil-
mit ‚Phong’ verbunden
dung 78). Die Reflexionseinstellung des Ledermaterials wird auf eine mittelstarke Reflexion
von Licht eingestellt, damit das Licht in dem gewünschten Maß reflektiert wird
[BC02, S.50].
- 62 -
Abbildung 78: Einstellungen bei ‚Leather’
Zuletzt wird noch Kleidung aus weißer Wolle (‚Wool’) erstellt (Abbildung 79).
Diese Kleidung soll jegliches Licht reflektieren und ist der Gegensatz zum
Samtstoff. Zur Umsetzung wird hierbei ein ‚Blinn’ Material verwendet, welches
ebenfalls eine glänzende Oberflächenstruktur besitzt. Dieses Material wird weiß
eingefärbt, da es eine hohe Reflexion des auftreffenden Licht hervorrufen soll
[BR94, S. 64]. Zudem wird bei dem ‚Blinn’ die maximale Reflexion eingestellt
[BC02, S. 51].
Abbildung 79: Kleidung ‚Wool’
- 63 -
6 Aufbau der Charaktersteuerung
In diesem Kapitel werden die Entwicklung der interaktiven Steuerung für den
modellierten Menschen, der Aufbau und das gewählte Design des Menüs beschrieben. Zusätzlich wird ein Einblick in die Umsetzung und Programmierung
des Menüs gegeben, sowie Einsatzgebiete der Charaktersteuerung beschrieben.
Diese Erläuterungen sollen dem Leser das Hintergrundwissen zur Menüsteuerung
vermitteln.
6.1 Beschreibung und Verwendung der Charaktersteuerung
In diesem Kapitel wird der Aufbau der Charaktersteuerung sowohl in Bezug auf
die Benutzeroberfläche als auch in Bezug auf die technischen Details erläutert.
Zudem werden Gründe für die Auswahl der jeweiligen Steuerung der Bewegungen und der Textilauswahl gegeben. Zum Abschluss dieses Kapitels werden die
Einsatzmöglichkeiten der Menüsteuerung beschrieben.
6.1.1 Grundlegende Entscheidungen für das Menüdesign
Die ersten Überlegungen beim Gestalten eines Menüs ist die Wahl der Strukturierung der Menüpunkte sowie der Sprache. Als Sprache wird Englisch gewählt, da
dies die allgemeingültige Sprache in der Computergrafik ist.
Anschließend muss ein Design aus verschiedenen Strukturmöglichkeiten ausgewählt werden. Für die Charaktersteuerung wird eine ‚TopDown’ Menüstruktur
verwendet. Dies stellt ein sehr übersichtliches Menü dar, da es bei Bedarf nicht
relevante Funktionen ausblenden kann. Zudem ist dieser Aufbau sehr übersichtlich, da alle Bewegungssteuerungen auf einen Blick zu sehen sind. Die Anordnung der Menüpunkte untereinander ermöglicht dem Benutzer alle Steuerungen
für den Körper gleichzeitig betrachten zu können.
Es gäbe auch die Möglichkeit einer ‚Tab’-Struktur. Hierbei müsste der Benutzer
allerdings zwischen den verschiedenen ‚Tabs’ wechseln, um andere Körperteile
zu bewegen. Auf Grund der unübersichtlichen Strukturierung wurde gegen eine
solche ‚Tabs’-Struktur entschieden.
- 64 6.1.2 Einsatz von Buttons in der Menüsteuerung
Nachdem das Design und die Struktur der Menüsteuerung festgelegt sind, müssen
Steuerungen für den Körper entwickelt werden, damit eine interaktive Bewegung
der Körperteile möglich wird. Für die Umsetzung von Kontroll- und Bewegungselementen stehen in Maya gewöhnliche Buttons, Radiobuttons16, Slider (Schieber)
oder Eingabefelder zur Verfügung. Je nachdem, welche Funktion die Steuerung
ausführen soll, wird eines dieser Elemente eingesetzt.
Zunächst wird das Auswahlmenü für die Änderung der Texturen der Kleidung
bestimmt, wofür drei Radiobuttons eingesetzt werden. Die Radiobuttons erhalten
den Namen der auswählbaren Textur, so dass der Anwender erkennt,
Abbildung 80: Radiobuttons
welche Textur auf der Kleidung
erscheint, wenn der jeweilige Ra-
diobutton markiert wird. Für die Texturauswahl werden Radiobuttons verwendet,
weil hierzu lediglich eine Datei aufgerufen werden muss. Außerdem soll immer
zu erkennen sein, welche Textur zum gegebenen Zeitpunkt ausgewählt ist. Beim
Betätigen des Radiobuttons erscheint ein schwarzer Punkt in seiner Mitte, wodurch der Benutzer sehen kann, welche Textur aktuell auf der Kleidung liegt. In
der Abbildung 80 wäre die ‚Wool’ Textur ausgewählt.
Als nächstes wird die Auswahl für die vordefinierten Stellungen gestaltet, wofür
Buttons verwendet werden (Abbildung 81). Durch Drücken eines Buttons kann
der Benutzer den Mensch beispielsweise hinsetzen oder in die Schrittstellung überführen. Für diesen Menüpunkt werden normale Buttons eingesetzt, weil die
Positionen
Gliedmaßen,
mehrere
und
somit
mehrere Attribute, benötiAbbildung 81: Buttons
gen. Zudem sind Buttons
durch ihr übersichtliches
Design sehr intuitiv zu benutzen. Die Buttons erhalten zum noch besseren Verständnis den Namen der Position, welche beim Betätigen eingenommen wird.
Zusätzlich soll dieser Menüpunkt dem Benutzer bei der Ideenfindung von Stellungen helfen, indem gezeigt wird, welche Bewegungen und Positionen unter an16
„Radio-Buttons sind eine Gruppe von beschrifteten Knöpfen, von denen der Anwender einen
auswählen kann. Es kann immer nur einer der Radio-Buttons ausgewählt sein. Der Wert des ausgewählten Radio-Buttons wird beim Absenden des Formulars mit übertragen.“ [RAD]
- 65 derem mit der Person möglich sind. Natürlich können alle Stellungen rückgängig
gemacht werden und der Benutzer kann erneut von der Ausgangsposition (‚Basic
Position’) ausgehend weiterarbeiten (Abbildung 82).
Die vordefinierten Positionen beinhalten unter anderem auch eine Sitzstellung
(Abbildung 83), Diese Stellung wurde ausgewählt, weil es eine alltägliche Position ist. Außerdem wird eine andere Lichtreaktion hervorgerufen, da durch das Verkleinern des Körperumfangs weniger Körperfläche auszuleuchten ist. Zudem gibt
es viele Situationen in denen Menschen im Sitzen fotografiert oder gefilmt werden.
Abbildung 82: Mensch mit Menü in der Ausgangsposition
- 66 -
Abbildung 83: Mensch in der sitzenden Position
Zusätzlich sind noch zwei weitere vordefinierte Positionen festgelegt worden, die
durch Betätigen der jeweiligen Buttons vom Benutzer eingestellt werden können.
Diese sind zum einen das Ausstrecken der Arme des Menschen und zum anderen
ein bequemer Stand. Diese werden jedoch nicht weiter erläutert, da ein Beispiel
für die anschauliche Beschreibung ausreicht.
6.1.3 Einsatz von Slidern in der Menüsteuerung
Nachdem die Positionen und Texturen mit Buttons eingestellt werden können,
wird als nächstes eine andere Variante für die Bewegungssteuerung erläutert.
Die Menüpunkte, welche die einzelnen Körperteile und Gelenke bewegen, werden
mit Slidern umgesetzt. Hierbei können die einzelnen Gliedmaßen getrennt voneinander gesteuert werden. Natürlich sind die vordefinierten Stellungen mit den
individuellen Steuerungen vereinbar, so dass der Benutzer zunächst eine festge-
- 67 legte Stellung auswählen und anschließend eigene Veränderungen durchführen
kann.
Die erste Steuerung für den menschlichen Körper bewegt lediglich den gesamten
Körper in die drei Richtungen des dreidimensionalen Raumes. Der Körper selbst
verändert seine Haltung nicht.
Abbildung 84: Steuerung des Körpers
Die Einteilung der Körperteile für die Steuerung erfolgt in den jeweiligen anatomischen Bereichen (Abbildung 84). Der Körper wird in ‚Torso’ (Oberkörper),
‚Back’ (Rücken), ‚Hips’ (Hüfte), ‚Legs’ (Beine), ‚Shoulder’ (Schulter), ‚Arms’
(Arme), ‚Elbow’ (Ellbogen) und ‚Head’ (Kopf) eingeteilt.
Diese Strukturierung dient der Übersichtlichkeit, so dass alle Gliedmaßen gut zu
finden und zu steuern sind. Die Reihenfolge der einzelnen Körperteile erfolgt
nach der anatomischen Anordnung von Kopf bis Fuß. Für das Bewegen des Körpers sind Slider als Steuerelement ausgewählt worden, weil die Bewegung innerhalb eines festgelegten Rahmens stattfinden muss. Mit Hilfe dieser Art der Steuerung wird festgelegt, wie weit sich die Körperteile bewegen dürfen, was eine realistische Bewegung garantiert. Außerdem ist die Benutzung von Slidern leicht
nachvollziehbar, da die Bewegung des Sliders auch eine entsprechende Bewegung
der ausgewählten Körperteile hervorruft.
Eine andere Variante für die Steuerung der Bewegung wäre die manuelle Eingabe
von Zahlenwerten. Da die Werte jedoch innerhalb gewisser Grenzen liegen müssen, hätten lange Beschreibungen dem Menü beigefügt werden müssen. Dies wür-
- 68 de die intuitive Benutzung der Steuerung erschweren, weshalb gegen diese Methode entschieden wurde.
Damit sich der Charakter bewegt, wenn die Slider betätigt werden, müssen die
Slider mit dem jeweiligen Kontrollsymbol verbunden werden. Dieser Vorgang
wird allerdings erst in der Programmierung umgesetzt und erst im nächsten Kapitel 6.2 genauer beschrieben.
Bei der Gestaltung des Menüs wird eine Trennung der rechten und linken Körperhälfte vorgenommen. Dem Benutzer soll die Freiheit in der Gestaltung von verschiedenen Positionen auf beiden Körperseiten gegeben sein. Außerdem bewegen
sich beispielsweise Arme selten synchron, so dass eine stets simultane Bewegung
beider Körperhälften unrealistisch wäre.
Das interaktive und übersichtliche Design dient der Entfaltung der Kreativität des
Benutzers und soll lediglich durch die anatomischen Gesetze eingeschränkt werden, was selbstverständlich in der Steuerung umgesetzt wird. Die hierzu notwendigen Verbindungen der einzelnen Gliedmaßen sind bereits bei der Gestaltung des
Skeletts erstellt worden, so dass die gewünschten Bewegungsabläufe theoretisch
ausgeführt werden können.
Hierfür fehlt jedoch die programmiertechnische Umsetzung des Menüs, die im
folgenden Kapitel erläutert wird, damit das Menü einsatzbereit ist.
6.2 Beispiele der MEL-Programmierung der Menüsteuerung
In diesem Kapitel werden einige Programmcodeausschnitte für die Umsetzung
des Menüs, das in den vorherigen Kapiteln im Design und mit seinen Funktionen
festgelegt wurde, dargestellt und erläutert.
Die Modellierung des Charakters erfolgte bisher lediglich über Methoden und
Funktionen, welche direkt am Objekt ausgeführt wurden. Das Steuern des Charakters ist zunächst nur über die entwickelten Kontrollsymbole in der Mayabühne
möglich. Mit Hilfe der Mayaeigenen Programmiersprache MEL existiert die Möglichkeit ein eigenes Menü zu programmieren, das mit Hilfe der Kontrollsymbole
den Menschen interaktiv bewegen kann.
Für eine übersichtliche Struktur des Programmcodes ist es wichtig, Kommentare
zu verwenden. Diese sind außerdem hilfreich, wenn eine Erweiterung des erstellten Codes vorgenommen werden soll. Änderungen können leichter eingearbeitet
- 69 werden, wenn die verschiedenen Abschnitte des Menüs kommentiert sind [MF03,
S.63].
Die Programmierung der Menüsteuerung beginnt zunächst mit dem Erstellen des
Grundgerüstes der Charaktersteuerung, einem Fenster, in dem die Slider und Buttons platziert werden. Die Initialisierung des Fensters erfolgt mit dem folgenden
Code:
if (`window -exists TopWin`) deleteUI TopWin;
window -t "Top Down Character Window" TopWin;
…
window -e -wh 435 960 -topLeftCorner 100 100 TopWin;
showWindow TopWin;
Hierbei wird zunächst überprüft, ob bereits ein Fenster mit dem Namen ‚TopWin’
existiert, da zwei gleiche Fenster nicht erzeugt werden können. Ist dies der Fall,
wird das vorhandene Fenster gelöscht, damit das neue geöffnet werden kann. In
der zweiten Zeile wird dem Fensters ein Titel (‚-t’) und eine Variablen mit Namen
‚TopWin’ zugewiesen, die bereits für die durchgeführte Überprüfung der Fensterexistenz benötigt wurde. In den letzten Zeilen des Codeausschnitts wird die Größe, sowie die Position des Fensters innerhalb der Mayabühne bestimmt. Zuletzt
wird das Fenster mit dem Kommando ‚showWindow’ innerhalb der Mayabühne
geöffnet [WM05, S. 237].
Als nächstes muss das gewählte Design des Menüs, das in den vorherigen Kapiteln festgelegt wurde, mit MEL umgesetzt werden. Wie bereits definiert, ist der
Aufbau des Menüfensters eine ‚TopDown’-Struktur.
Für die Umsetzung bedeutet dies, dass alle Körperteile und Auswahlmenüs ein
eigenes Untermenü erhalten, welches nach Bedarf auf- oder zugeklappt werden
kann. Zur Umsetzung dieser Struktur werden alle zusammengehörigen Bewegungsfunktionen in den folgenden Codeabschnitt eingefügt.
//First collapsable section for moving the whole Body
frameLayout -width 400 -label "Move Body" -collapsable true
-collapse true -borderStyle "etchedOut";
columnLayout;
text -l " ";
…
setParent..;
setParent..;
- 70 Die Struktur des Menüs wird mit dem Kommando ‚frameLayout’ bestimmt. Dahinter stehen die jeweiligen Einstellungen für das gewünschte Untermenü.
Zunächst wird die Breite des Untermenüs (‚width’) angegeben und darauf folgend
der Name (‚label’). Das Flag ‚collapsable’ ermöglicht, dass innerhalb des Menüfensters die jeweiligen Untergruppen ein- und ausgeblendet werden können. Die
Variable ‚collapse’ gibt an, ob das Untermenü beim Aufruf des Fensters ein- oder
ausgeblendet ist. Im oberen Beispiel hat die Variable den Wert ‚true’, was bedeutet, dass dieses Untermenü ausgeblendet ist, wenn sich das Fenster öffnet.
Auf Grund der Auswahl der ‚collapsable’-Struktur muss innerhalb des ‚frameLayout’-Kommandos noch ein weiteres Layout für die ‚collapsable’-Ebene bestimmt werden. Diese Forderung wird mit dem Befehl ‚columnLayout’ erfüllt und
ordnet verschiedene Slider untereinander in einer Spaltenstruktur an. Sind innerhalb einer ‚collapsable’-Sektion zwei oder mehrere ‚Layout’-Kommandos vorhanden, müssen auch zwei oder mehrere ‚setParent..’-Flags diese Sektion abschließen [WM05, S. 235].
Nun wird die Umsetzung der Slider, welche die Steuerung der einzelnen Körperteile ermöglichen, erläutert. Hierbei ist darauf zu achten, dass das richtige Kontrollsymbol angegeben ist, damit die richtige Bewegung ausgeführt werden kann.
Für jede Richtung oder Rotation innerhalb des 3D-Raums muss ein eigener Slider
programmiert werden, um das Menü flexibel zu gestalten. Die Implementierung
eines Sliders wird anhand der Oberkörpersteuerung erläutert.
//Third collapsable section for the torso
text -l "Torso Control:" -align left -w 400 -font "boldLabelFont";
…
attrFieldSliderGrp -l "Torso Crouch" -min -2 -max 0 -cal 1
left -adj true -at UpperBody.ty;
attrFieldSliderGrp -l "Torso Rotate Side" -min -10 -max 10 cal 1 left -adj true -at UpperBody.rz;
Hier wird in der zweiten Zeile ein Text, der den Titel dieses Untermenüs benennt,
im Fenster ausgegeben. Das Kommando, um einen Slider in MEL zu programmieren, lautet ‚attrFieldSliderGrp’. Dieser Befehl ermöglicht eine individuelle
Struktur in Spaltenform, wobei nur ein einziges Attribut mit dem Slider verbunden werden kann.
- 71 Als nächstes erhält der Slider einen Titel (‚-label’) sowie einen Minimum (‚-min’)
und Maximum (‚-max’) Wert. In diesem Wertebereich kann das dem Slider zugewiesene Attribut bewegt werden.
Das Flag ‚–columnAlign 1 left’ platziert den ersten Slider des Untermenüs am
linken Rand des Fensters. Alle weiteren werden in den nächsten Reihen in der
gleichen Art und Weise positioniert. Zuletzt wird das jeweilige Kontrollsymbol
mit dem Slider verbunden, damit die wünschte Bewegung ausgeführt werden
kann.
Im oberen Beispiel wird zunächst das Oberkörper-Kontrollsymbol in ‚.ty’Richtung mit dem Slider verbunden. Das ‚t’ steht für ‚translate’ (versetzen) und
führt eine Oberkörperbewegung in die Y-Richtung des dreidimensionalen Raums
aus. Der Oberkörper wird nach oben oder unten bewegt. Im zweiten Beispiel ist
‚.rz’ die Endung. Dies ermöglicht eine Rotation um die Z-Achse, wodurch sich
der Oberkörper nach links oder rechts beugt, wenn der Slider betätigt wird [MF03,
S. 76+82-85].
Die Programmierung der Texturauswahl wird mit einer anderen Steuerungsmethode durchgeführt, da ein Slider hier nicht funktionieren würde. Die Texturen
sollen durch Drücken eines Buttons direkt auf der Kleidung zu sehen sein. Zudem
soll die aktuelle ausgewählte Textur für den Benutzer erkennbar sein, weshalb
hierfür Radiobuttons verwendet werden. Im Folgenden Codeausschnitt wird die
Programmierung eines Radiobuttons erläutert.
radioButtonGrp -numberOfRadioButtons 3 -labelArray3 "Velvet"
"Leather" "Wool"
-on1
"defaultNavigation
-source
Velvet
-destination
|SkinKleidung|MenschKleidung|MenschKleidungShape.instObjGrou
ps[0] -connectToExisting"
...
-on3
"defaultNavigation
-source
Wool
-destination
|SkinKleidung|MenschKleidung|MenschKleidungShape.instObjGrou
ps[0] -connectToExisting";
Um Radiobuttons zu erzeugen, wird eine Gruppe (‚radioButtonGrp’) angelegt, in
welcher die Anzahl der Radiobuttons (‚-numberOfRadioButtons’) festgelegt ist.
Für die Texturen werden drei Buttons benötigt, welche die Namen ‚Velvet’,
‚Leather’ und ‚Wool’ erhalten. Anschließend wird der Befehl, welcher bei Aktivieren des jeweiligen Radiobuttons ausgeführt werden soll, angegeben.
- 72 Hierfür wird das Flag ‚-on’ verwendet, wobei die angehängte Zahl für den jeweiligen Button steht. Das Kommando für die gewünschte Textur wird im Anschluss
innerhalb der Anführungszeichen angegeben. Im oberen Beispiel ist zu sehen,
dass der Zielpfad der Textur die auszuführende Aktion ist [WM05, S.248].
Zum Abschluss dieses Kapitels wird die MEL-Programmierung der Buttons für
die vorgegebenen Positionen des Menschen erläutert. Hierbei wird eine andere
Button-Struktur verwendet, da diese für den Aufruf der vordefinierten Stellungen
besser geeignet ist. Der Benutzer kann mit den regulären Buttons die gewünschte
Aktion ausführen. Die Umsetzung dieser Buttons lautet wie folgt:
rowColumnLayout -numberOfColumns 2 -columnWidth 1 150 columnWidth 2 150;
button -backgroundColor 1.0 0.8 0.1 -l "Sit Down" -align
"center" -c {"setAttr UpperBody.translateY -2; setAttr
RtLeg.translateZ 2.5; setAttr LtLeg.translateZ 2.5;"};
In diesem Codeausschnitt wird zunächst eine Struktur für das Untermenü festgelegt. Das ausgewählte Kommando ‚rowColumnLayout’ ordnet die folgenden
Funktionen entweder in einer Reihen- oder Spaltenstruktur an. Bei der Anordnung
der Buttons ist eine Spaltenstruktur (‚-numberOfColumns’) gewählt worden, was
bedeutet, dass die Buttons in Spalten angeordnet werden. Wie im Code zu sehen
ist, gibt es zwei Spalten, die beide eine Breite von 150 Pixeln (‚columnWidth 1
150 -columnWidth 2 150’) haben. Sind beispielsweise mehr als zwei Menüelemente innerhalb einer Spalte angeordnet, werden sie in die nächste Reihe verschoben. Die Eigenschaften der Spalten bleiben dabei in der nächsten Reihe
erhalten.
Nachdem die Grundstruktur der Buttonanordnung festgelegt ist, werden die weiteren Attribute definiert. Im oberen Beispiel ist zu sehen, dass zunächst eine Hintergrundfarbe (‚backgroundColor’) für die Buttons festgelegt wird. Darauf folgt der
Name des Buttons und die Positionierung des Namens ("Sit Down" -align "center"’) auf dem Button. Mit dem ‚-c’-Flag wird die Aktion deklariert, welche bei
Betätigen des Buttons ausgeführt werden soll. Die verschiedenen Aktionen werden mit einer geschweiften Klammer eingerahmt und durch ein Semikolon voneinander getrennt.
Natürlich ist dies nicht der gesamte Quellcode der Menüsteuerung. Mit Hilfe dieser Ausschnitte soll der Leser die Programmierung besser nachvollziehen können,
und zudem ist Hintergrundwissen immer eine Bereicherung.
- 73 -
6.3 Einsatzgebiete für die Charaktersteuerung
Die erzeugte Charaktersteuerung wurde als eine Erweiterung des bereits bestehenden Lichtsimulationstool entwickelt. Die Steuerung kann selbstverständlich
ohne das LST verwendet werden. Es gehen jedoch einige Funktionen, wie beispielsweise die Reflexionen der Kleidung, verloren, weil diese nur durch Ausleuchten innerhalb des LST entstehen.
Die Charaktersteuerung dient der anschaulichen Darstellung von menschlichen
Bewegungen innerhalb des LST. Zudem soll ein besseres Verständnis von Licht,
Schatten und Lichtreflexionen auf Kleidung und Bewegungen hervorgerufen werden. Das Menü soll vor allem Studenten die Möglichkeit geben, sich die Auswirkung von Licht auf verschiedene menschliche Posen anzuschauen. Zudem soll die
Wirkung von Licht auf Kleidung und verschiedene Farben dargestellt werden.
Ein wichtiger Zweck des Charaktermenüs ist das Sammeln von Erfahrung in Bezug auf Licht, Ausleuchtung und Platzierung von Menschen in einem Raum.
Außerdem ist das Lichtstudio eine gute Möglichkeit um das Wissen, das im Unterricht erlernt wurde, praktisch einzusetzen. Je mehr mit dem Licht, der Farbe
und den Stellungen experimentiert wird, desto besser wird das Verständnis von
Licht und seiner Wirkung.
Zusätzlich könnte die Charaktersteuerung in der Fotografie eingesetzt werden, um
mit einem Kunden die gewünschten Fotos zu besprechen. Der Fotograf kann kostengünstig, schnell und anschaulich die eigenen Ideen dem Kunden näher bringen.
Natürlich ist die gerenderte Szene kein Vergleich zu einem realen Foto, aber die
Gedanken des Fotografen sollten in Bildern besser verstanden werden als in Worten. Außerdem könnte der Fotograf die Wirkung, welche Licht auf gewisse Farben hat, anschaulich darstellen.
Natürlich hat auch der Kunde die Möglichkeit, seine Gedanken und Vorstellungen
mit Hilfe der Menüsteuerung zu verdeutlichen und hierdurch mit dem Fotografen
ein optimales Ergebnis zu erarbeiten. Die Charaktersteuerung innerhalb des LST
könnte der besseren Kommunikation zwischen Fotograf und Kunden dienen, da
eine bildliche Darstellung der Einstellungen möglich ist.
Zudem könnte die Menüsteuerung von Laien, die Interesse an Licht und Ausleuchtung haben, benutzt werden, da das Menü intuitiv benutzbar ist.
- 74 -
7 Installation und Benutzung der Charaktersteuerung
In diesem Kapitel werden die Installation des modellierten Menschen und seiner
Charaktersteuerung, sowie die Anforderungen an das Computersystem und die
notwendigen Hardwarekomponenten zur Nutzung der Steuerung beschrieben.
Zusätzlich wird eine Einführung in die Benutzung der Menüs des LST und der
Charaktersteuerung für den Menschen gegeben, um mit dem Anwenden der Menüs schnell beginnen zu können.
7.1 Systemvoraussetzungen
Die in dieser Arbeit entwickelte Menüsteuerung ist funktionsfähig unter Windows
XP auf einem PC mit einem Pentium 4 und einer Prozessortaktung von mindestens 2 GHz. Des Weiteren sind mindestens 1024 MB RAM Arbeitspeicher vonnöten. Die erforderliche Software ist Maya 6.0 (oder einer höheren Version) der
Firma Alias Autodesk. Zusätzlich sollte noch ein Textverarbeitungsprogramm,
wie beispielsweise „Notepad“, vorhanden sein, um den Quellcode der Dateien
öffnen und lesen zu können.
7.2 Installation des modellierten Charakters und der Menüsteuerung
Eine Grundvorrausetzung für die Benutzung des Menschen und der Steuerung ist,
dass das Programm Maya auf dem Computer installiert ist. Anschließend kann der
Benutzer zwischen zwei Dateien im Ordner „Wildhirt“ wählen.
Mit der ersten Datei „Human.mb“ wird eine Mayabühne, die den modellierten
Mensch
ohne
Kleidung
enthält,
geöffnet.
Die
zweite
Datei
heißt
„HumanCloth.mb“ und öffnet eine Mayabühne, in welcher sich der erstellte
Mensch mit Kleidung befindet.
Nachdem eine der beiden Dateien geöffnet ist, kann die Charaktersteuerung installiert werden. Hierzu wird der Quellcode, welcher sich ebenfalls im Ordner „Wildhirt“ in der Textdatei „CharacterControl“ oder „CharacterControlCloth“ befindet,
geladen. An dieser Stelle muss der Benutzer die entsprechende Datei für den
Menschen mit oder ohne Kleidung auswählen.
- 75 Anschließend wird der Text, welcher sich in der jeweiligen Textdatei befindet, in
den ‚Script Editor’ von Maya kopiert. Der ‚Script Editor’ wird mit ‚Hotbox >
Window > General Editors > Script Editor’ aufgerufen. Das Skript wird über
‚Script > execute’ ausgeführt.
Nach dem Ausführen des Quellcodes öffnet sich automatisch ein Fenster, in welchem sich die Charaktersteuerung mit allen Slidern und Buttons befindet.
7.3 Installation des Lichtsimulationstools
Bevor die interaktive Charaktersteuerung alle gewünschten Aufgaben ausführen
kann, muss das Lichtsimulationstool installiert werden.
Hierfür muss die Textdatei mit Namen „LSTHuman“ aus dem Ordner „Wildhirt“
aufgerufen werden. Innerhalb dieser Datei befindet sich der Quellcode zum Erstellen des LST. Der enthaltene Text wird ebenfalls in den ‚Script Editor’ von Maya
kopiert. Anschließend wird das Skript in derselben Art und Weise wie bei der
Charaktersteuerung ausgeführt. Hier müssen nun einige Angaben eingetragen
werden, wie die Größe des Raums oder die Anzahl der Lichtquellen. Nachdem
alle geforderten Eingaben eingetragen sind, kann das Lichtsimulationstool benutzt
werden.
Möchte der Benutzer ein neues Lichtstudio mit anderen Lichtquellen erzeugen
muss zunächst eine neue Szene mit dem jeweiligen Menschen geladen werden.
Anschließend wird der Quellcode erneut geladen und die neuen Einstellungen
können eingetragen werden.
7.4 Anwendung der Menüs der Charaktersteuerung und des LST
In diesem Kapitel wird die Anleitung zur Nutzung der installierten Charaktersteuerung und des LST gegeben. Nachdem der Mensch, das Lichtsimulationstool und
die Charaktersteuerung installiert sind, kann der Anwender mit der Benutzung
aller Menüs beginnen.
Für die Steuerung der Funktionen des LST stehen dem Nutzer zwei Menüs zur
Verfügung. Das erste Menü heißt ‚Object Control Tool’ und ist für das Steuern
der erstellten geometrischen Objekte beim Aufruf des LST verantwortlich (Abbildung 85). Zudem kann die Kamera, die bei der Installation des LST automatisch
generiert wurde, mit diesem Menü bewegt werden. Des Weiteren wird die Wahl
- 76 des jeweiligen Betrachtungswinkels in diesem Fenster getroffen. Die Bewegungen
der geometrischen Objekte und die Auswahl der Farben, welche auf die Objekte
gelegt werden können, werden mit Slidern gesteuert. Die Wahl der Perspektive
wird durch Drücken des jeweiligen Buttons ausgeführt. Der Benutzer hat die
Möglichkeit sich die Bühne von Oben oder Vorne, der Seite oder durch die Kamera anzuschauen. Zusätzlich kann noch die perspektivische Sicht ausgewählt werden. Die gewählte Einstellung der Szene kann durch Betätigen des ‚Render’Buttons in ein Bild, welches alle Lichteffekte darstellt, verwandelt werden.
Abbildung 85: ‚Object Control Tool’
Über das zweite Menü des LST, das ‚Lights Control Tool’. werden die erzeugten
Lichtquellen gesteuert (Abbildung 86). Außerdem hat der Benutzer die Möglichkeit, die Intensität und Farbe der Lichtquellen, sowie die Farbe der Schatten zu
verändern. Zudem kann ein Modus, wie beispielsweise der ‚Wireframe Mode’, in
welchem die Bühne dargestellt wird, ausgewählt werden. Die Steuerung der
Lichtquellen erfolgt erneut über Slider und die Auswahl der Modi wird durch Buttons getätigt.
- 77 -
Abbildung 86: ‚Lights Control Tool’
Als nächstes werden die Funktionen der Charaktersteuerung erläutert. Die Auswahl der entwickelten Texturen erfolgt über Radiobuttons, welche im ersten Untermenü platziert sind. Durch Betätigen des jeweiligen Radiobuttons wird die ausgewählte Textur auf die Kleidung gelegt.
Durch Drücken der farbigen Buttons wird der Körper in eine bereits vorgegebene
Stellung überführt. Die Buttons sind nach der einzunehmenden Position benannt.
Natürlich können von diesen Positionen ausgehend weitere Veränderungen an der
Haltung des Körpers vorgenommen werden. Durch Betätigen des Buttons ‚Basic
Position’ können jegliche Veränderung rückgängig gemacht werden und der
Mensch befindet sich in der Ausgangsposition.
Die Bewegungen der verschiedenen Gliedmaßen und des gesamten Körpers erfolgen über die jeweiligen Slider, welche mit Hilfe der Maus nach rechts oder links
bewegt werden können. Je nachdem in welche Richtung der Balken gesteuert
- 78 wird, bewegt sich die ausgewählte Gliedmaße. Natürlich können beliebig viele
Slider bewegt werden, so dass zuerst der Arm und anschließend die Beine bewegt
werden können. Hierbei gibt es keinerlei Einschränkung in Bezug auf die Kombinierbarkeit der Bewegungen und Positionen (Abbildung 87).
Abbildung 87: ‚Character Controls’
- 79 Hiermit ist die Installation der Charaktersteuerung und der Menüs des LST abgeschlossen. Der Benutzer hat nun die Möglichkeit die Menüs, nach Ausführen aller
aufgeführten Anweisungen, zu testen.
8 Schlussfolgerung
Im letzten Kapitel werden die erreichten Ziele beschrieben und mit der ursprünglichen Themenstellung verglichen. Zudem werden Gründe für das Auslassen bestimmter Elemente und Funktionen bei der Modellierung und der Charaktersteuerung gegeben. Zum Abschluss wird ein Vorschlag zur Weiterführung und Vertiefung der Arbeit gemacht.
8.1 Fazit
Um diese Arbeit abzuschließen werden die erledigten Aufgaben, die in der Themenstellung festgelegt wurden, beschrieben und die Ergebnisse und eventuelle
Probleme bei der Erfüllung der Aufgaben erklärt.
Die erste Aufgabe war die Modellierung eines menschlichen Modells. Die Gestaltung im dreidimensionalen Raum ist ein umfangreicher und aufwendiger Prozess,
der mit wachsender Erfahrung attraktivere und bessere Ergebnisse hervorbringt.
So wurden die Formen des Menschen im Laufe der Entwicklungszeit immer realistischer und ästhetischer.
Allerdings erhielt der Mensch keine Haare, da diese auf Grund eines zu zeitaufwendigen Rendering weggelassen wurden. Das Fortlassen der Haare beeinflusst
jedoch keinesfalls die Anschaulichkeit oder die Bewegungen des Menschen, so
dass diese bei der Modellierung bedenkenlos weggelassen werden konnten.
Des Weiteren wurde die Erstellung eines menschenähnlichen Skeletts erfolgreich
ausgeführt. Hierbei ist sicherlich aufgefallen, dass die Anzahl der Gelenke und
Knochen geringer ist als bei einem realen Menschen. Diese Reduzierung der Gelenke schränkt allerdings nur in vernachlässigbarer Art die Beweglichkeit und die
einnehmbaren Position des Modells ein. Alle geplanten Bewegungsabläufe können mit den erzeugten Gelenken ausgeführt werden, so dass die reduzierte Anzahl
in diesem Zusammenhang völlig ausreichend ist.
- 80 Die Modellierung der Kleidung hat ebenfalls die Anforderungen erfüllt. Sie passt
sich gut dem Körper an und kann zudem noch mit drei verschiedenen Texturen
belegt werden, um dem Benutzer mehr Gestaltungsspielraum zu ermöglichen. Die
gewünschten Lichteffekte können im LST betrachtet werden.
Als nächstes war eine Steuerung für die Objekte zu erstellen. Diese Aufgabe wurde mit Hilfe der Programmiersprache MEL umgesetzt. Hierbei entstand eine benutzerfreundliche Menüsteuerung, mit welcher sich die Bewegungen des Menschen steuern und die Texturen auswählen lassen. Mit der Programmiersprache
konnten alle Anforderungen, die an die Steuerung gestellt wurden, erfüllt werden.
Diese Sprache hat eine benutzerfreundliche Struktur und kommt ohne Objektorientierung aus, was die Umsetzung des Programmcode vereinfacht hat.
Die letzte Aufgabe der Themenstellung betraf die Vereinigung des modellierten
Menschen, des Skeletts und des Menüs mit dem LST. Jedoch wurde nicht der
Mensch in das LST gesetzt, sondern das LST wurde um den Menschen herum
aufgebaut. Diese Reihenfolge ruht daher, da der modellierte Mensch bereits in
einer Mayabühne enthalten ist. Das benötigte Programm ist somit bereits aufgerufen und das Studio kann in dieser Bühne, um den Menschen herum, aufgebaut
werden.
Nachdem das LST und der Mensch samt Menüsteuerung zusammen in einer
Mayabühne vereint sind, können alle Funktionen vom Anwender benutzt werden.
Leider ist die Neuinstallation des LST in Verbindung mit dem Menschen etwas
komplizierter als alleine. Möchte der Benutzer die Größe oder die Anzahl der
Lichtquellen im aktuellen LST verändern, muss er zunächst eine neue Mayabühne
mit Mensch und Menü erzeugen. Dies ergibt sich aus der Tatsache, dass die alten
Elemente und Attribute des LST bereits vorhanden sind und nicht erneut in dieser
Mayabühne erstellt werden können. Im Programmcode des LST wird keine Löschung der Elemente vorgenommen, wenn der Code in derselben Mayabühne erneut aufgerufen wird. Dieser Aufwand muss bei einer Neugestaltung des LST
leider in Kauf genommen werden, wobei dieser zusätzliche Aufwand allerdings
gering ist und die Funktionen des LST und der Menüsteuerung in keiner Weise
beeinflusst werden.
Auf Grund der geringen Literatur im Bereich von Texturen, Standardpositionen in
einem Lichtstudio und der Ausleuchtung von Menschen wurde ein ausführliches
Interviews mit einem professionellen Fotografen geführt. In diesem Interview
- 81 wurden einige Ausleuchtungsbeispiele und Lichteinflüsse von Texturen beschrieben, was eine Beschreibung und Erläuterung solcher Lichteffekte bei der Gestaltung der Objekte und des Menüs ermöglichte. Dieses Gespräch war mir sehr hilfreich und gestattete eine realitätsnahe Modellierung der Texturen. Außerdem können die beschriebenen Lichteinstellungen Anregungen für den Benutzer sein, da
es in diesem Bereich ebenfalls wenig Literatur gibt.
Diese Arbeit kann hoffentlich vielen Studenten und anderen Interessierten die
Nutzung des LST und der Charaktersteuerung vereinfachen. Zudem soll die Erweiterung durch den beweglichen Menschen den bisherigen Nutzen und die Anwendbarkeit des Lichtstudios vergrößern.
8.2 Ausblick
Die Arbeit abschließend wird nun eine mögliche Erweiterung der Charaktersteuerung beschrieben. Diese Steuerung kann den Menschen derzeit nur in festgelegte
Positionen und Stellungen überführen, die von einem Benutzer interaktiv eingestellt werden. Dynamische Bewegungen wie Laufen oder Winken sind jedoch
noch nicht möglich.
Diese Erweiterung wäre sinnvoll, da sich das Licht gerade bei Bewegungen verändert. Je nachdem in welchem Lichtkegel sich der Mensch bewegt, wird ein anderer Schatten geworfen und es entstehen unterschiedliche Lichteindrücke. Die
Umsetzung der Dynamik könnte selbstverständlich in Maya erfolgen, da auch
Animationen erzeugt werden können.
Eine mögliche Erweiterung könnte mit einer festgelegten Bewegungspfadanimation (‚Motion-Path-Animation’) umgesetzt werden. Bei dieser Animationstechnik
läuft das Objekt oder die Lichtquelle an einem festgelegten Pfad entlang. Die einzelnen Bilder, die während dieses Pfades entstehen, werden automatisch vom
Rechner und dem Programm erstellt [BR94, S. 147-148].
Zum anderem könnte eine interaktive Animationsgestaltung in der Menüsteuerung
umgesetzt werden. Hierfür könnte die Technik des Keyframing (SchlüsselbildAnimation) verwendet werden. Bei dieser Technik „werden die Hauptphasen einer geplanten Bewegungssequenz als Ausgangsbasis für weitere Zwischenstufen
verwendet.“ [BR94, S. 147] Die Zwischenpositionen werden automatisch vom
Programm berechnet, so dass der Anwender lediglich die Schlüsselpositionen
- 82 festlegen muss, um kleine Bewegungsanimationen für den Menschen zu erstellen
[BR94, S.147].
Eine andere Entwicklung könnten verschiedene Menschen innerhalb des Studios
sein, so dass auch Verdeckungen mit in die Betrachtung einfließen könnten. Zusätzlich könnten Dialogszenen ausgeleuchtet werden. Natürlich wäre auch die
Umsetzung von verschiedenen menschlichen Formen eine gute Idee, da Frauen,
Männer und Kinder verschieden groß sind und somit verschiedene Lichteffekte
hervorrufen. Zudem könnten verschiedene äußerliche Eigenschaften mit in die
Gestaltung des Menschen fließen, um auch die Gestaltung fülliger, kleiner und
großer Menschen und nicht nur der Standardtypen zu ermöglichen. Diese unterschiedlichen Eigenschaften bieten viele Entwicklungsmöglichkeiten, so dass immer realistischere Szenen erstellt werden könnten.
Einige dieser Ideen sind schon in Programmen wie z.B. dem Programm Poser
umgesetzt worden, jedoch setzen diese Programme oft Fachkenntnisse bei der
Nutzung voraus. Außerdem gibt es viele Funktionen, die den Laien eher verwirren
als unterstützen. Zusätzlich sind solche Programme teuer in ihrer Anschaffung
und haben selten eine einfache Benutzeroberfläche. Es muss viel Zeit zum Erlernen der Funktionen investiert werden bevor eine professionelle Gestaltung und
Animation möglich ist. Hier ist noch viel Entwicklungspotential in Richtung eines
flexiblen und gleichzeitig anwenderfreundlichen Programms.
Ein Ausblick in die zukünftige Entwicklung im Bereich der Computergrafik und
dreidimensionalen Animation ist zum Beispiel das Forschungsprojekt des Fraunhofer-Instituts für Medienkommunikation IMK [IMK] namens „Virtual Human“.
In diesem Projekt soll die Idee eines virtuellen Dialogpartners als Lehrer oder
Kontaktperson einer Firma umgesetzt werden. Die programmtechnische Umsetzung des menschlichen Dialogverhaltens mit den dazu notwendigen Bewegungen
erfordert eine detailgetreue Gesichtsmimik, die in Echtzeit simuliert und wiedergegeben werden muss. Bisherige Bewegungssimulationen können lediglich durch
Menschen als manuelle Steuerungsperson oder aufwendige Berechnungsprozesse
erstellt werden. Bei diesem Projekt soll der dreidimensionale Mensch allerdings
interaktiv und der Situation entsprechend reagieren [VHN].
Das entwickelte Charaktermenü kann eine solche intuitive Reaktion natürlich
nicht durchführen. Die Erwähnung des „Virtual Human“-Projektes soll dem Leser
- 83 eine Idee der bei weitem noch nicht ausgeschöpften Möglichkeiten in der Computergrafik und der virtuellen Welt vermitteln.
Die nächsten Jahre werden immer realistischere Simulationen hervorbringen, da
die Programme und Algorithmen einer Abbildung der Realität immer näher kommen und zudem immer größere Rechenleistungen möglich sein werden.
- 84 -
Literaturverzeichnis
Bücher
[BC02] Berndt, Christoph und Loeder, Thomas (2002): Rendering mit Maya 4.5
und mental ray for Maya, Bonn.
[BR94] Brugger, Ralf (1994): 3D-Computergrafik und -animation, Bonn.
[MC04] Maraffi, Chris (2004): Maya Character Creation - Modeling and Animation Controls, Indianapolis.
[MF03] Alias | Wavefront (2003): Learning Maya 5 | MEL Fundamentals, Toronto.
[SM00] Schönherr, Maximilian (2000): Maya 3 - Technik und Ästhetik von HighEnd-Animation, München.
[WA02] Watt, Alan (2002): 3D-Computergrafik, München.
[WM05]Wilkins, Mark R. und Kazmier, Chris (2005): MEL Scripting for MAYA
Animators, San Francisco.
Artikel
[BMSC] Berger, Michael und Sinniger, Christian: Von der Imitation zur Intention
– In 4 Schritten zum intentionalen Agenten, Zürich.
Bachelorarbeit
[KP05] Knauer, Peter (2005): Visualisierung und fotorealistisches Rendering der
Beleuchtung in interaktiv gestaltbaren virtuellen Studioräumen mittels Maya ,
Gummersbach.
Internetseiten
[BLB]http://de.wikipedia.org/wiki/Blackbox
(26.01.06)
[CGK]http://de.wikipedia.org/wiki/3D-Computergrafik
(24.01.06)
[DAD]http://www.phil.unisb.de/FR/Medienzentrum/verweise/psych/aufgaben/dragdrop/
(17.01.06)
- 85 [FIL]http://photography.about.com/library/glossary/bldef_fillin.htm
(26.01.06)
[FRL]http://www.science-days.de/ontour/fresnel.htm
(26.01.06)
[GOB]http://www.martin-professional.de/gobo/gobosubgrouppage.asp
(10.01.2006)
[HAN]http://www.simplymaya.com/movie_pages/tutorial.mhtml?tut_id=27
(17.01.06)
[HUL]http://digital-log.hfgkarlsruhe.de/3d/archives/2004/11/maya_complete_k_1.html
(17.1.06)
[IKW]http://de.wikipedia.org/wiki/Inverse_Kinematik
(27.01.06)
[IMK]http://www.imk.fraunhofer.de/de/index.html
(07.02.2006)
[LAM]http://digital-log.hfgkarlsruhe.de/3d/archives/2005/06/maya_complete_c_10.html
(11.01.2006)
[MAY]http://www.alias.com
(06.01.06)
[MES]http://de.wikipedia.org/wiki/Meshing
(17.01.06)
[PAN]http://caad.arch.ethz.ch/info/maya/manual/MayaCloth/UserGuide/Pants.fm.
html#179004
(17.01.06)
[POR]http://www.egisys.de/onlinestore/poser6_index_whatsnew.html
(11.01.2006)
[POS]http://www.e-frontier.com/go/poser6/figuredesign
(11.01.2006)
[RAD]http://de.selfhtml.org/html/formulare/auswahl.htm
(17.01.06)
[SHI]http://caad.arch.ethz.ch/info/maya/manual/MayaCloth/UserGuide/Shirt.fm.h
tml#178662
(17.01.06)
[SRS]http://de.wikipedia.org/wiki/Subdivision_Surfaces
(17.01.06)
- 86 -
[STB]http://www.foto-freeware.de/studioblitzgeraet.php
(10.01.2006)
[TUB]http://www.wissen.de/wde/generator/wissen/ressorts/natur/naturwissenscha
ften/index,page=1261150.html
(11.01.2006)
[VHN]http://www.virtual-human.org/main_pro_de.pl?infotext_de.html
(20.01.06)
[VWK]http://coli.lili.uni-bielefeld.de/~milde/vrml+java/kinematik/Termin7.html
(2.2.06)
- 87 -
Anhang
Interview: Joachim Badura (Fotograf)
Name
Joachim Badura
Anschrift
Pfarrer-Hillmann-Weg
51069 Köln-Dellbrück
Berufsbezeichnung
Fotograf
Datum des Interviews
02.12.2005
Art der Auskunft
Vor Ort im Fotostudio
6
1) Bitte stellen Sie sich und Ihre Tätigkeit kurz vor?
Zunächst begann ich meine Ausbildung zum Fotografen, in dem ich einen Gesellenbrief absolvierte. Anschließend absolvierte ich ein Studium zum Fotoingenieur
an der FH Köln und schloss noch ein BWL-Studium ab. Ich besitze ein eigenes
Fotostudio und habe mich auf das Fotografieren von Menschen, Veranstaltungen
und Hochzeiten spezialisiert.
2) Wie gefällt Ihnen die Idee eines virtuellen Lichtstudios, in dem auch Menschen
beleuchtet werden können?
Die Idee finde ich gut, allerdings kann ich mir keine genaue Vorstellung von einem solchen Studio machen.
3) Benutzen Sie gewisse Lichtquellen zur Ausleuchtung von Menschen?
Ja, und zwar ein Studioblitzgeräte mit Einstelllicht. Das Licht ist individuell einstellbar und gleichzeitig funktioniert auch der Blitz. Hierbei können mehrere
Lampen und Blitze verwendet werden. Das Einstelllicht hat übrigens keinen Einfluss auf das fertige Foto.
4) Gibt es unterschiedliche Lichtquellen zur Erzeugung einer bestimmten Stimmung?
Nein. Allerdings gibt es eine große Anzahl von unterschiedliche Aufsätzen für das
Studioblitzgerät, die unterschiedliche Lichteformen hervorbringen.
5) Was sind das für Aufsätze?
Es gibt zum einen Reflektoren, welche eine weiße oder silberne Beschichtung
haben können. Bei weißen erscheint das Licht diffus und wird gestreut. Bei silbernen Reflektoren wird ein härteres Licht erzeugt. Der Einsatz einer der beiden
Beschichtungen ist von der Situation abhängig. Dann gibt es noch Reflexschirme,
welche ebenfalls unterschiedlich beschichtet sein können. Zudem sind Reflektoren in unterschiedlichen Größen erhältlich. Je nach Bauform wird ein harter
Schatten oder ein gerichteter Lichtstrahl hervorgerufen. Bei silbernen Reflektoren
werden besonders einzelne Körperteile betont.
Auf Reflektoren kann zusätzlich ein Wabengitter gesetzt werden, wodurch der
Leuchtwinkel begrenzt und Randstrahlen ausgegrenzt werden. Es gibt weitere
Reflektoren, die durch ihre Form das Licht beeinflussen können. Ein Beispiel
hierfür ist eine abgeschrägter Reflektor, welche einen schrägen Abstrahlwinkel
des Lichts hervorruft. Diese Bauform wird zum Ausleuchtung von Hintergründen
eingesetzt, da durch den schrägen Schnitt eine große Fläche mit Licht versorgt
werden kann. Ein Vorteil ist, dass nur eine Lampe zum Ausleuchten verwendet
werden muss. Es gibt noch einen anderen Aufsatz, einen Tubus, der auf dem Stu-
- 88 dioblitzgerät platziert wird und einen kreisrunden Lichtausschnitt erzeugt. Ebenfalls mit Wabengitter einsetzbar. Dieser wird für kleine Detailaufnahmen und bei
Portraits als Gegenlicht verwendet. Es gibt außerdem noch Leuchtboxen als Aufsatz, welche ein weiches, volumiges Licht zum Ausleuchten erzeugen. Dann gibt
es noch die Fresnel-Linse, die den Durchmesser des Lichts verändern kann und
einen weichen Übergang erzeugt. Zudem setzte ich noch Projektionsvorsätze ein.
Dies ist eine kreisrunde Linse, welche die Schärfeneinstellung beeinflusst. Diese
Blenden heißen Gobos und können unterschiedlich eingesetzt werden. Sie können
ein Muster auf das Licht legen, sind drehbar und kombinierbar. Die Muster sind
beispielsweise Sterne oder Steifen, die als Hintergrundlicht eingesetzt werden.
6) Wie wird farbiges Licht erzeugt?
Für farbiges Licht verwende ich Filterfolien in der gewünschten Farbe des Lichtes, weil diese günstig sind.
7) Kommen noch andere Lichtbeeinflussende Geräte bei einer Ausleuchtung zum
Einsatz?
Ja, und zwar Aufhellwände. Diese sind unterschiedlich beschichtet, die weiße
Seite hellt auf und die schwarze Seite saugt das Licht auf. Sie werden eingesetzt,
wenn nicht genug Licht einer Lampe vorhanden ist und um Licht zu reflektieren
und Gegenstände auszuhellen.
8) Wie bereiten Sie sich auf eine Ausleuchtung vor?
Gar nicht. Die Shootings sind Situations- und Stimmungsabhängig.
9) Worauf muss bei der Ausleuchtung besonders geachtet werden?
Das Licht darf nicht frontal auf die Person treffen. Lichtquellen sollen immer seitlich von der Person platziert sein. Das ist besonders bei Brillenträgern wichtig, da
die Gläser sonst das Licht reflektieren.
10) Gibt es Standardpositionen von Menschen bei der Ausleuchtung innerhalb
eines Lichtstudios?
Nur bei Bewerbungsfotos und Passbilder. Alle anderen Positionen sind stil- und
situationsabhängig und werden individuell festgelegt.
11) Könnten Sie mir trotzdem ein paar Ausleuchtungsbeispiele beschreiben und
zeigen?
Für die folgenden Beispiele wurde ich in die Mitte des Fotostudios gestellt und
ausgeleuchtet:
1. Beispiel: Ganzkörperausleuchtung - Es werden zwei Lampen eingesetzt, eine
hat ein Streiflicht als Aufsatz und wird links vor mir aufgestellt und strahlt meine
ganze Person an. Die zweite Lampe wird rechts hinter meinem Körper platziert
und erhält einen Tubus als Aufsatz, der meine dunklen Haare ausleuchtet.
2. Beispiel: Halbportrait – Für diese Ausleuchtung bleibt die erste Lampe an ihrer
Position stehen, erhält aber eine weiße Blende als Aufsatz. Diese grenzt den belichteten Bereich ein, so dass nur der Oberkörper erleuchtet ist. Die zweite Lampe
bleibt an ihrer Position.
3. Beispiel: Silhouette – Hier wird nur eine Lampe eingesetzt, welche rechts hinter
mit aufgestellt wird. Diese Einstellung soll lediglich die Umrandungen des Körpers abbilden. Wird in der Profilfotografie verwendet, wobei je nach Körperdre-
- 89 hung mehr oder weniger vom Körper zu sehen ist. Bei einer Drehung des Körpers
entstehen aber erst schöne Effekte in der Abbildung des Fotos.
4. Beispiel: Indirektes Licht – Hierfür wird Licht von der Decke reflektiert. Das
indirekte Licht setzt man vor allem bei Gruppenaufnahmen ein, damit alle Personen ausgeleuchtet sind. Hierbei können Probleme auftauchen, wenn Irritationen in
der Farbe der Wand vorhanden sind. Oft ist die unscheinbare Farbe auf der Wand
erst im späteren Bild sichtbar, was die Fotografie verfälscht. Es gibt noch eine
andere Möglichkeit zur Gruppenausleuchtung, das fill in light. Hierfür wird direkt
bei der Kamera eine Lampe ohne Reflektor mit voller Lichtleistung aufgestellt.
Das Licht wird nach oben gestellt, erzeugt ein gestreutes Licht und füllt die Schatten mit Licht aus.
12) Gibt es auch Reflektoren, die Menschen in einem schöneren Licht darstellen?
Ja natürlich. Dies sind Trieflektoren und transportable Reflektoren, welche bei
Beautyshootings eingesetzt werden. Hier strahlt das Licht von oben auf den Reflektor und erzeugt ein ganz helles, gleichmäßiges Licht für die Ausleuchtung der
Person.
13) Ist die Anzahl der Lichtquellen von Bedeutung?
Ja, bei einer Lichtquelle entsteht eine harte Ausleuchtung, da man arbeitet mit
Gegenlicht. Bei mehreren Lichtquellen versucht man den Hintergrund weiß zu
halten.
14) Wie flexible sind Lampen bei einer Ausleuchtung in einem Fotostudio?
Gar nicht. Die Lampen bleiben immer stehen an der aufgestellten Position stehen.
Der Fotograf und das Modell verändern lediglich ihre Position. Es wäre ein zu
hoher Aufwand aus welchem Grund die Menschen bewegt werden.
15) Gibt es zur Vermittlung einer bestimmten Stimmung auch solche Standardpositionen?
Ja, und zwar für eine gruselige Stimmung. Hierfür wird nur ein Licht, und zwar
wird eine Person von unten anleuchtet. Dies gibt einen unschönen Lichteffekt und
wird zum Erzeugen einer gruseligen, düsteren Stimmung eingesetzt.
Bei Hochzeiten hingegen benutze ich ein weißes Licht und bei einer Abendveranstaltung reicht das Licht der Kamera aus. Zudem ist das an der Kamera positionierte Licht leicht zu transportieren.
16) Hat die Kleidung ebenfalls eine Auswirkung auf die Szene?
Ja, jeder Stoff absorbiert und reflektiert das Licht unterschiedlich. Dunkle Stoffe
nehmen mehr Licht auf und helle Stoffe reflektieren stark. Zudem ist die feine
Spitze eines Kleidungsstücks auf Fotos schlecht zu erkennen.
Ein anderer Effekt tritt bei optischen Aufhellern in Kleidung auf. Diese Stoffe
lassen Kleidung regelrecht strahlen und verfälschen das spätere Bild weshalb sie
nicht verwendet werden sollten.
17) Muss man bei bestimmten Materialien, wie z.B. Leder, Synthetik oder Wolle
etwas beachten?
Generell nicht. Allerdings gibt es ein paar Stoffe, die eine besondere Wirkung auf
Licht haben. Dies ist zum einen Schwarzer Samt der viel Licht absorbiert und zum
anderen ist das ein weißer Stoff, welcher Licht stark reflektiert. Bei Leder ist darauf zu achten, dass die glatte Oberfläche Licht reflektiert.
- 90 Eine schwere Aufgabe ist es dadurch bei einer Hochzeit den Bräutigam in einem
guten Licht neben seiner Braut im weißen Kleid darzustellen.
18) Wie viel Erfahrung ist für eine richtige Ausleuchtung notwendig?
Zeitraum der Lehre, Autodidaktisch, ca. ½ -1 Jahr Erfahrung
19) Welche Auswirkung hätte eine falsche Ausleuchtung auf die Wirkung der Szene?
Starke Auswirkung, da das Bild keinen Widererkennungswert beinhalten könnte.
- 91 -
Erklärung
Ich versichere, die von mir vorgelegte Arbeit selbständig verfasst zu haben.
Alle Stellen, die wörtlich oder sinngemäß aus veröffentlichten oder nicht
veröffentlichten Arbeiten anderer entnommen sind, habe ich als entnommen
kenntlich gemacht. Sämtliche Quellen und Hilfsmittel, die ich für die Arbeit
benutzt habe, sind angegeben. Die Arbeit hat mit gleichem Inhalt bzw. in
wesentlichen Teilen noch keiner anderen Prüfungsbehörde vorgelegen.
Köln, den ……………… Unterschrift:…………………

Documentos relacionados