Praktische Anwendung von HDRI in der Postproduktion

Transcrição

Praktische Anwendung von HDRI in der Postproduktion
Bibliografischer Nachweis
Bloch, Christian:
Praktischer Einsatz von High Dynamic Range Imaging
in der Postproduktion
Diplomarbeit, Hochschule für Technik, Wirtschaft und Kultur Leipzig (FH)
Fachbereich Polygrafische Technik, Studiengang Medientechnik, 2003
102 Seiten, 92 Bilder, 7 Tabellen, 58 Quellenangaben
Leipzig, den 04.08.2003
Autorreferat
High Dynamic Range Imaging (HDRI) ist eine neue Methode, um den gesamten
sichtbaren Kontrastumfang digital zu erfassen und zu bearbeiten. Damit wird
nicht nur die herkömmliche Bildbearbeitung erweitert, sondern es erschließen
sich vollkommen neue Anwendungen. So erlaubt HDRI meßtechnisch korrekte
Aussagen über die tatsächliche Helligkeit von abgebildeten Objekten oder Lichtquellen. Besondere Bedeutung kommt HDRI Panoramafotos zu, denn die darin
enthaltenen Lichtinformationen können zur Beleuchtung virtueller 3D-Objekte
benutzt werden.
Es kommt in dieser Arbeit nur Hard- und Software zur Anwendung, die auf
dem freien Markt erhältlich ist. Schwerpunkt liegt auf der vollständigen Nachvollziehbarkeit aller geschilderten Methoden. Daraus resultieren Anleitungen
und Empfehlungen, wie High Dynamic Range Imaging in eine vorhandene
Postproduktionskette effizient eingebunden werden kann.
Vorwort
Die HDRI Technologie hat sich in aufwendigen Filmproduktionen bewährt.
Große Postproduktionshäuser wie ILM [1] („Harry Potter“), Digital Domain [2]
(„X-Men“), und Rhythm&Hues [3] („Spiderman“) haben dabei eigene Arbeitsmethoden entwickelt, die auf proprietärer Software basieren. Diese Arbeitsweisen werden jedoch als Industriegeheimnisse streng behütet. In dieser Arbeit
werden Methoden aufzeigt, wie auch man auch ohne eigene Entwicklungsabteilung die Vorteile von HDRI voll nutzen kann.
HDRI rüttelt an den Grundpfeilern herkömmlicher digitaler Bildbearbeitung. Deshalb wird im Kapitel 1 die Grundidee hinter HDRI ausführlich erklärt.
In Kapitel 2 wird das benötigte Handwerkszeug vorgestellt. Herkömmliche Bildformate erweisen sich als unzulänglich, und herkömmliche Software wie Photoshop kann mit HDRI nicht umgehen. Neue Formate und Programme werden
vorgestellt, verglichen und nach Integrationsfähigkeit bewertet.
Wie man HDR Bilder aufnimmt, wird in Kapitel 3 untersucht. Alternative Verfahren werden diskutiert, und die optimale Vorgehensweise wird herausgestellt.
Zusätzlich wird ein Ausblick auf zukünftige Aufnahmeverfahren gegeben.
Kapitel 4 deckt die Vorteile von HDRIs in der Bildbearbeitung auf. An Beispielen
werden konkrete Arbeitsmethoden geschildert und mit herkömmlicher Bildbearbeitung verglichen.
Der Aufnahme von HDRI Panoramen ist das Kapitel 5 gewidmet. Es werden
optimierte Methoden eingeführt, verglichen und einer Aufwandsanalyse unterzogen.
In Kapitel 6 wird erklärt, wie HDRIs zur Beleuchtung von 3D Objekten verwendet werden können. In einer Testreihe wird bewiesen, daß die Grundidee in
den 5 marktführenden 3D Programmen funktioniert. Weiterführende Praktiken
werden aufgezeigt, unter anderem eine vom Verfasser selbst entwickelte.
Inhaltsverzeichnis
1.
Einführung in die Grundlagen von HDRI ....................................................1
1.1.
1.2.
1.3.
1.4.
1.5.
2.
Begriffsklärung.....................................................................................1
Wie wir die Welt sehen...........................................................................2
Digitale Bilder .....................................................................................3
Wiedergabemedien................................................................................5
Fotografie – Was ist dran am Fotorealismus? ...........................................7
Neue Werkzeuge..........................................................................................9
2.1.
Dateiformate ........................................................................................9
2.1.1.
Raw Binary Floating Point .RAW / .FLOAT................................................9
2.1.2.
Portable Float Map .PFM .................................................................10
2.1.3.
Floating Point TIFF .TIF ..................................................................10
2.1.4.
Radiance .HDR / .PIC .......................................................................10
2.1.5.
LogLuv Format .TIF .........................................................................11
2.1.6.
ILM OpenEXR .EXR........................................................................12
2.1.7.
Kodak ERI-JPEG .............................................................................13
2.1.8.
Vergleichstabelle .............................................................................14
2.2. Spezielle Software...............................................................................14
2.2.1.
HDRView ......................................................................................15
2.2.2.
HDRShop ......................................................................................15
2.2.3.
HDRIE .........................................................................................15
2.2.4.
HCR-Edit ......................................................................................16
2.2.5.
Photosphere ...................................................................................16
2.2.6.
Photogenics ...................................................................................17
2.2.7.
mkhdr ..........................................................................................17
2.2.8.
Vergleich .......................................................................................18
2.3.
HDRI-taugliche Compositing Programme .............................................19
2.4.
Panoramaformate ...............................................................................20
2.4.1.
Spherical Map ................................................................................20
2.4.2.
Cubic Map.....................................................................................21
2.4.3.
Angular Map ..................................................................................22
2.4.4.
Vergleichstabelle .............................................................................23
3.
Aufnahme von HDR Images ......................................................................23
3.1.
Digitale Sensoren ...............................................................................24
3.1.1.
Technische Problemdefinition...............................................................24
3.1.2.
„Time-to-Saturation“ ........................................................................24
3.1.3.
Logarithmische Sensoren....................................................................25
3.1.4.
Digital Pixel Sensor ..........................................................................25
3.1.5.
Rasterversetzte Belichtung ..................................................................26
3.1.6.
SuperCCD SR .................................................................................27
3.1.7.
Doppelblitzverfahren ........................................................................27
3.2. Realisierte Systeme .............................................................................28
3.2.1.
HDR Video ....................................................................................28
3.2.2.
Digitale Fotografie ...........................................................................29
3.3.
Handarbeit.........................................................................................30
3.3.1.
Aufnehmen der Belichtungsreihe ...........................................................31
3.3.2.
Welche Kamera? Analog oder Digital? ...................................................31
3.3.3.
Kalibrierung ..................................................................................33
3.3.4.
Rekonstrukion des HDRI ....................................................................35
4.
Anwendung in der Bildbearbeitung ............................................................42
4.1.
4.2.
4.3.
4.4.
5.
Belichtungskontrolle ...........................................................................42
Bewegungsunschärfe...........................................................................46
Glow- und Bloom- Effekte....................................................................49
simulierte Filmbelichtung ....................................................................50
HDR Environments...................................................................................52
5.1.
5.2.
5.3.
One Shot Technik ................................................................................52
Segment Technik .................................................................................53
Spiegel Technik ...................................................................................55
5.3.1.
Das Prinzip....................................................................................55
5.3.2.
Das Fotografieren ............................................................................57
5.3.3.
Übersicht des Nachbearbeitungsprozesses ...............................................58
5.3.4.
Umwandlung in HDR ........................................................................59
5.3.5.
Abwicklung in HDR-Shop ...................................................................59
5.3.6.
Retusche in Photogenics.....................................................................62
5.4.
Weitwinkel Technik..............................................................................64
5.4.1.
rechtliche Vorbemerkungen .................................................................64
5.4.2.
Fotografie ......................................................................................65
5.4.3.
Umwandlung in HDRI .......................................................................66
5.4.4.
Entzerrung mit HDRShop ...................................................................66
5.4.5.
Panoramageneration in Photogenics ......................................................69
5.4.6.
Bessere Qualität durch PTPicker ..........................................................70
5.5.
Sonderfall Skydome ............................................................................74
5.5.1.
Vorüberlegungen .............................................................................74
5.5.2.
Das Fotografieren ............................................................................75
5.5.3.
Umwandlung in HDR ........................................................................75
5.5.4.
Entzerrung in HDRShop ....................................................................75
5.6.
Vergleich............................................................................................77
5.7.
Welche Auflösung ist notwendig?..........................................................78
6.
Anwendung im CGI Bereich ......................................................................79
6.1.
CGI – Computer Generated Images......................................................79
Klassisches Fotorealistisches Rendering ..................................................80
Physikalisch Basiertes Rendering ..........................................................81
Über den Umgang mit der Simulation.....................................................82
Image Based Lighting .......................................................................83
6.2.
Fallstudie A: Reine Simulation, In-Camera ...........................................84
6.2.1.
Aufbau und Vorbereitung ....................................................................85
6.2.2.
HDRI Challenge ..............................................................................87
6.2.3.
Das Tischproblem ............................................................................89
6.3.
Fallstudie B: Extrahieren der Lichtinformation......................................90
6.4.
HDRI Projektion durch Spotlights ........................................................93
6.4.1.
Aufnahme des Lichtbildes ...................................................................93
6.4.2.
Lichtprojektion in 3D ........................................................................93
6.5.
Ausblick auf zukünftige Arbeiten ..........................................................96
7. Zusammenfassung ....................................................................................97
Quellenverzeichnis ........................................................................................... 98
6.1.1.
6.1.2.
6.1.3.
6.1.4.
1
1.
Einführung in die Grundlagen von HDRI
1.1.
Begriffsklärung
Der Dynamic Range bezeichnet das Verhältnis zwischen dem größten und
dem kleinsten unterscheidbaren Kontrast in einem Bild. Die eigentliche Maßangabe ist eine Verhältniszahl. In der fotografischen und filmerischen Praxis gibt
man den Dynamic Range jedoch mit der Anzahl der enthaltenen Belichtungsstufen an.
Eine Belichtungsstufe, auch Lichtwert (LW) oder Exposure Value (EV)
genannt, ist eine fotografische Maßangabe für die Lichtmenge, die auf den Film
fällt. Diese Lichtmenge wird Belichtung genannt. Die Belichtungsstufe 0 ist definiert als die Belichtung bei Blende F1 und einer Sekunde Belichtungszeit, sowie
jeder beliebigen Paarung die zur gleichen Belichtung führt. Eine Erhöhung der
Tabelle 1: Belichtungsstufen bei ISO 100
Blende
Belichtungszeit
ISO 100
F1
1.4
F2 F2.8 F4
F5.6 F8
F11 F16 F22 F32 F45 F64
1s
0
1
2
3
4
5
6
7
8
9
10
11
12
1/2 s
1
2
3
4
5
6
7
8
9
10
11
12
13
1/4 s
2
3
4
5
6
7
8
9
10
11
12
13
14
1/8 s
3
4
5
6
7
8
9
10
11
12
13
14
15
1/15 s
4
5
6
7
8
9
10
11
12
13
14
15
16
1/30 s
5
6
7
8
9
10
11
12
13
14
15
16
17
1/60 s
6
7
8
9
10
11
12
13
14
15
16
17
18
1/125 s
7
8
9
10
11
12
13
14
15
16
17
18
19
1/250 s
8
9
10
11
12
13
14
15
16
17
18
19
20
1/500 s
9
10
11
12
13
14
15
16
17
18
19
20
21
1/1000 s 10
11
12
13
14
15
16
17
18
19
20
21
22
1/2000 s 11
12
13
14
15
16
17
18
19
20
21
22
23
1/4000 s 12
13
14
15
16
17
18
19
20
21
22
23
24
Belichtungsstufe um 1 entspricht einer Verdopplung der Lichtmenge, eine Verminderung um 1 zu einer Halbierung. [4] Tabelle 1 zeigt eine Zusammenstellung
der Belichtungsstufen bei ISO 100.
In der CCD-Entwicklung wird der Dynamic Range als technische Gütegröße
angesehen. Er setzt sich zusammen aus dem logarithmischen Verhältnis zwischen dem größten auslesbaren Signal und dem Ausleserauschen. Es wird in
Dezibel angegeben. Aus diesem technischen Dynamic Range leitet sich die
zulässige Farbtiefe beim Auslesen der CCDs ab. [5] In der Praxis wird der
Dynamic Range daher auch gelegentlich mit der Farbtiefe verwechselt und in
Bit angegeben. Dies ist jedoch nicht ganz korrekt. Digitale Bilder mit hohem
2
Dynamic Range sind zwar meist mit mehr als den üblichen 8 Bit pro Farbkanal
verschlüsselt, doch nicht alle Bilder mit hoher Farbtiefe beinhalten auch einen
High Dynamic Range.
Das ganze Thema um High Dynamic Range Images ist noch sehr jung, und
geprägt von viel Verwirrung bei den Benutzern. Es bewegt sich an der Schnittstelle zwischen Fotografie und Computergrafik, und wird derzeit von beiden
Seiten her erforscht. Neue digitale Werkzeuge sind entstanden, die Lösungen für
sehr grundsätzliche Probleme der analogen Fotografie bieten. Neue Methoden
im Umgang mit Bilddaten sind entstanden, die eher einer Simulation analoger
Arbeitsschritte als digitaler Bildmanipulation entsprechen. Es zeichnet sich eine
Konvergenz ab, die zu neuen Formen für die Abbildung der Welt, so wie wir
Menschen sie sehen, führt [2][23].
1.2. Wie wir die Welt sehen
Das menschliche Auge besitzt die Fähigkeit, Kontraste von bis zu 1:10.000
zu unterscheiden. Die Sonne ist beispielsweise millionenmal heller als eine
Kerzenflamme. Trotzdem kann man sich sowohl in einem sonnigen Park, als
auch in einer nur von Kerzen beleuchteten Kirche sehr gut zurechtfinden, weil
sich das Auge an diese Helligkeitsunterschiede anpassen kann. Dieser Mechanismus wird Adaption genannt.
Auch wenn sich das Blickfeld nicht verändert, wie zum Beispiel bei einem
Blick aus dem Fenster an einem sonnigen Nachmittag, ist der wahrnehmbare
Bereich enorm. Der Himmel ist im Regelfall hundertfach heller als das Innere des
Zimmers. Trotzdem kann man den Himmel und die Wolken in allen Einzelheiten
wahrnehmen, und gleichzeitig noch sämtliche Schattierungen in dem vergleichsweise viel dunkleren Zimmer erkennen. Diese Fähigkeit nennt man „Lokale
Adaption“ [7]. Man spricht in diesem Zusammenhang auch von einem sehr
großen wahrnehmbaren Dynamic Range.
Wie diese gewaltige Leistung des Sehvermögens zustande kommt, ist nicht
hinreichend erforscht. Es sind zwar empirische Daten durch Messung der Reizzustände der lichtempfindlichen Rezeptoren gesammelt worden [6], doch deren
Interpretation kann sich nur auf Vergleichswerte zwischen gesundem und krankem Auge berufen, und hat damit vorrangig medizinischen Nutzen. Die eigentliche Wahrnehmung von Helligkeitsunterschieden geht stets mit einer Interpretation einher, und ist als solche ist schon ein intelligenter, wenn auch unterbewußter Prozeß. Der Eindruck einer Helligkeit hat mit der physikalisch meßbaren
Helligkeit nichts gemeinsam. Wie genau dieser Eindruck jedoch beschaffen ist,
3
läßt sich nur sehr schwer erforschen – immerhin handelt es sich dabei um
eine kognitive Erfahrung. Die Sinne sind hierbei nur das Bindeglied zwischen
äußerer und innerer Welt. Nicht die äußere Welt wird direkt erlebt, sondern nur
die aus Sinneseindrücken konstruierte Erlebniswelt im Inneren. Die Kognitionswissenschaft bewegt sich hier im Mischfeld aus Physiologie und Psychologie.
Der Kognitionswissenschaftler HOFFMANN [7] nennt zwei Aspekte, die er für die
Konstruktion von Grautönen entscheidend hält: „Erstens, um einen Grauton
in einem Punkt zu konstruieren, halten Sie sich nicht nur an die Helligkeit in
diesem Punkt. Außerdem verwenden Sie in der Regel nicht nur die Helligkeit
in unmittelbarer Nähe des Punktes. Vielmehr ziehen Sie große Teile des Bildes
und komplexe Gruppierungsregeln heran, die wir noch nicht entdeckt haben.
Zweitens, Sie konstruieren Ihre Grautöne als Teil eines koordinierten Konstruktionsprozesses, der Flächenformen, Flächenfarben, Lichtquellen und transparente Filter betrifft.“
1.3. Digitale Bilder
Digitale Bilder werden üblicherweise mit 24 Bits codiert; wobei jeweils 8 Bit für
die Intensität der einzelnen Farbkanäle Rot, Grün, und Blau stehen. Um die
Helligkeit eines Pixels farbecht zu verändern, muß man jedoch alle 3 Farbwerte
anheben oder absenken. Die dunkelste darstellbare Farbe ist schwarz mit den
Werten (0,0,0) und die hellste ist (255,255,255). Damit kann jeder Pixel effektiv
256 verschiedene Helligkeitsstufen annehmen.
Wie kann man nun den wahrnehmbaren Dynamic Range mit diesem engen
codierbaren Wertebereich darstellen?
Um wieder auf das Beispiel mit dem Fensterblick zurückzukommen, könnte
man der dunkelsten Stelle unter dem Tisch den Wert 0 zuweisen, und der
hellsten Wolke den Wert 256. Alle Zwischentöne werden entsprechend ihrer
Helligkeit auf diese Skala übertragen.
Wie im Bild 1 ersichtlich, ist der Himmel zwar sehr gut abgebildet, doch
im Inneren des Zimmers verschwinden die Details in den Schatten. Allein
die weiße Wolke beansprucht das obere Viertel unserer verfügbaren digitalen
Werte. Durch den großen Kontrastunterschied dieser Szene – sprich hohen
Dynamic Range – bleiben für die Abbildung des Innenraumes nicht viele Werte
übrig. Wie aus dem Histogramm ersichtlich, werden deshalb 75% der Bildfläche
in den unteren 47 Helligkeitswerten komprimiert.
4
Bild 1: linear skalierter Dynamic Range.
Eine andere Möglichkeit wäre, eine Obergrenze für die Motivhelligkeit festzulegen,
beispielsweise den Fensterrahmen. Das sähe dann etwa so aus wie in Bild 2.
Bild 2: abgeschnittener Dynamic Range
Zwar ist jetzt das Zimmer in allen Einzelheiten erkennbar, doch der Ausblick ist
komplett verschwunden. Im Histogramm ist zu erkennen, daß 25% der Bildfläche
in den obersten 9 Helligkeitswerte zusammengepreßt sind. Fast das gesamte
Fenster hat den Farbwert (255,255,255). Auch intensivste Nachbearbeitung wird
den Ausblick nicht wieder herbeiholen können, wenn das Bild einmal so gespeichert wurde.
5
High Dynamic Range Imaging dagegen macht es möglich, den gesamten Detailreichtum dieser Szene in einem einzigen Bild zu speichern. Probleme wie Überoder Unterbelichtung sind damit irrelevant, denn ein HDRI enthält genug Information, um die Belichtung in der Nachbearbeitung beliebig zu ändern.
Bild 3: HDRI, Helligkeitswerte komprimiert durch Logarithmisches Tonemapping
In Bild 3 wurden die Farbwerte durch ein logarithmisches Tonemapping-Verfahren
[20] in dem verfügbaren Wertebereich verteilt. Das ist eine grobe Vereinfachung
der menschlichen Sehweise. Komplexere Tonemapping-Operatoren [57][58]
beziehen auch Effekte wie lokale Adaption und Sättigungsabfall in lichtarmer
Umgebung mit ein.
1.4. Wiedergabemedien
Es muß erwähnt werden, daß diese Beispielbilder natürlich abhängig von dem
Wiedergabemedium mehr oder weniger Details zeigen.
Printtechnisch ist der darstellbare Dynamic Range eng begrenzt durch den Weißgrad des Papiers und dem Schwärzungsgrad der Tinte, ultimativ jedoch durch die
Beleuchtung beim Lesen. So können benachbarte Pixel mit sehr ähnlichen RGBWertepaaren leicht als gleichwertig erscheinen. Monitore arbeiten in der Regel
nach der sRGB Norm. Ursprünglich wurde die 24bit RGB Verschlüsselung genau
für diesen Zweck eingeführt – die Anzeige digitaler Bilder auf Röhrenmonitoren.
Sie stufen demnach die Farben auch in genau diesen Intervallen ab, und lassen
so im ersten Bild schon mehr Details erkennen. Doch auch hier liegt der nutzbare
Dynamic Range bei 90:1 (bzw. 30-40 dB) [8][9], begrenzt durch die Grundschwärzung der Mattscheibe und die maximale Leuchtkraft.
6
WARD [8] schlußfolgert: „Therefore, although 24-bit RGB does a reasonable job
of representing what a CRT monitor [Cathode-Ray-Tube: Röhrenmonitor] can
display, it does a poor job representing what a human observer can see.“.
Kann man sich damit zufriedengeben, den Informationsgehalt digitaler Bilder auf
den technisch darstellbaren Dynamic Range (DR) zu beschränken? Welche Konsequenzen zieht diese Beschränkung mit sich, wenn das Bild zwischen Aufnahme
und Ausgabe noch digitaler Bearbeitung unterliegt? Und welchen Nutzen bringt
es, diese Beschränkung zu erweitern oder gar aufzuheben? Wie kann man
überhaupt mit einem nicht darstellbaren Helligkeitsumfang hantieren? Lohnt sich
dieser Aufwand überhaupt? Und dann steht noch die Frage nach der Aquisition im
Raum: Wie kann man den gesamten sichtbaren DR überhaupt fotografieren?
Diese Fragen sollen in dieser Arbeit untersucht werden. Die Antworten werden
sich zwangsläufig auf die heute nutzbare Hard- und Software beziehen, und
repräsentieren damit den praktisch verwertbaren Status Quo. Einige der Fragen
sind einer tieferen Erörterung wert. Insbesondere den fortgeschrittenen Anwendungsmöglichkeiten im Bereich computergenerierter Bilder ist ein ausführlicher
Praxistest gewidmet.
Fakt ist, daß sich die Displaytechnologien rasant entwickeln. LCDs werden immer
lichtstärker, und moderne DLP (Digital Light Processing) Projektoren bieten heute
schon einen weitaus höheren DR als Röhrenmonitore. Kodak’s neue OLED (Organic Light-Emitting Diode) Display’s können nach eigenen Angaben einen DR von
250:1 darstellen [10]. Die im März 2003 vorgestellte „Kodak EasyShare LS633“
Kamera zeigt, daß diese Technologie inzwischen reif für den Consumermarkt
ist. Mehr als ein Dutzend Hardwarehersteller haben schon Lizenzen erworben; in
5 Jahren erwarten Analysten die OLED Technologie in Handys, PDAs, Digitalen
Kameras, DVD Playern [11]. Darüberhinaus sind Laserdisplays vielerorts in der
Entwicklung, und niemand kann heute mit Bestimmtheit sagen, auf welche Weise
digitale Bilder in der Zukunft betrachtet werden.
WARD [8] gibt zumindest auf die erste Frage schon eine klare Antwort: „Unless we
introduce new color models to our image sources and do it soon, we will never
get out of the CRT color cube.“.
Leiden Film und klassische Fotografie denn nicht unter diesem Problem? Der
DR von analogem Filmmaterial ist zwar auch beschränkt, aber immer noch etwa
doppelt so groß wie der im sRGB Farbmodell erfassbare Bereich [4]. Das ist
einer der prägnantesten Gründe, wieso Film sich durch einen eigenen Look von
Video abhebt.
Ein kurzer Ausflug in die Fotografie ist angebracht, um die Eigenheiten des Films
zu klären.
7
1.5. Fotografie – Was ist dran am Fotorealismus?
Die klassische Fotografie basiert auf einem chemischen Prozess, und zwar dem
lichtbedingten Zerfall von Silberhalogenid [4]. Jedes einzelne Silberhalogenidkristall, auch Filmkorn genannt, besteht aus Milliarden positiv geladenen SilberIonen (Ag+) und negativ geladenen Halogenid-Ionen (Cl-, Br- oder J-). Durch
Lichteinfall findet eine Ladungsverschiebung innerhalb dieser Kristalle statt, und
mindestens ein Halogenid-Ion gibt ein Elektron an ein benachbartes Silber-Ion
ab. Es entsteht metallisches Silber, die sogenannte Schwärzung.
Diese fotochemische Reduktion verläuft logarithmisch. Hat eine bestimmte Lichtmenge beispielsweise die Hälfte des Korns umgewandelt, wird das erneute
Einwirken derselben Lichtmenge nur noch ein Viertel des Korns schwärzen.
Es würde Stunden dauern, um ein gesamtes Filmkorn in Silber umzuwandeln.
Daher stellt man in der Praxis durch eine kurze Belichtung nur einen sogenannten Entwicklerkeim her, der dann bei der Entwicklung durch eine Kettenreaktion
millionenfach verstärkt wird.
Es wird eine bestimmte Mindestmenge an Licht benötigt, um bei dem Filmmaterial überhaupt eine Reaktion hervorzurufen. Im Gegenzug ist ab einem Maximum
an Licht eine Sättigung erreicht, wenn das Filmkorn komplett in metallisches
Silber umgewandelt ist. Um also ein Motiv mit allen seinen Tonwerten abzubilden, muß der gesamte Helligkeitsumfang des einfallenden Lichtes in diesem
Intervall liegen, in dem Dynamic Range des Films.
Ein professioneller Fotograf benutzt verschiedenste Hilfsmittel, um genau das
zu ermöglichen. So kann er den Lichteinfall mit Blende, Belichtungszeit und
verschiedenen Filtern regeln. Eine erfolgreiche Angleichung ist jedoch nur bei
homogen ausgeleuchteten Szenen möglich, vornehmlich unter Studiobedingungen. In Situationen, wo der Himmel oder gar die Sonne im Motiv sind, übersteigt
der Motivkontrast den Dynamic Range des Films.
Dann hat der Fotograf nur die Wahl, entweder die Lichter, oder die Schatten
korrekt abzulichten. In beiden Fällen entspricht das Bild nicht dem wahrgenommenen Sinneseindruck, der sich einem Betrachter der Szene vor Ort erschließt.
Entscheidet sich der Fotograf für die Aufnahme der Lichter, verschwinden die
Details der Schatten in einem gleichmäßig schwarzen Fleck. Belichtet er dagegen die Schatten opfert er die Details in den hellen Regionen. Diese VorOrt-Entscheidung kann nicht umgekehrt werden, die jeweils ausgeklammerten
Details sind endgültig verloren.
8
Die Zwischentöne ordnen sich auf einer filmspezifischen Schwärzungskurve an.
Dabei ist nur im Mittelteil dieser S-förmigen Kurve mit vorhersehbaren Tonwerten
zu rechnen. Am unteren und oberen Ende, Fuß und Schulter genannt, sind die
Belichtungsunterschiede komprimiert. Das sind die Stellen auf dem Film, wo die
Filmkörner nahezu gesättigt sind, oder gerade genügend Licht bekommen haben
um die Reduzierung zu Silber in Gang zu bringen. Auch in hochentwickelten
Filmmaterialien sind diese Fuß und Schulter für jedes Filmkorn leicht verschieden, und ab einem gewissen Punkt überwiegt das Rauschen.
Bei modernen Filmmaterialien beträgt der Dynamic Range, etwa 5 bis 8 Belichtungsstufen [12]. Wohlgemerkt ist er damit größer als der DR des Fotopapiers.
Aus den im Film verfügbaren Informationen muß der Fotograf also wieder einen
Bereich ausklammern. Das geschieht beim Nachbelichten, wenn der Entwicklerkeim chemisch verstärkt wird. Indem der Fotograf die Gradationskurven mittels
geeigneter Chemikalien verändert, gewinnt er einen Spielraum von plus/minus
einer Belichtungsstufe. Natürlich gehen dabei Informationen verloren, trotzdem
nutzt das Ergebnis immer noch den vollen Umfang des dem Fotopapier, aus.
Für diese Nachbearbeitung steht der gesamte Range des Films zur Verfügung,
vergleichbar mit einer Leinwand auf der das Fenster des genutzten Ranges nach
Belieben verschoben und skaliert werden kann. Dieser Spielraum ist es auch,
der viele professionelle Fotografen an den analogen Techniken festhalten läßt.
Denn sind die Bilder erst einmal in 24bit sRGB digitalisiert, ist dieser Spielraum
verschwunden.
Bei digitalen Bildern gehen Helligkeitsmanipulationen stets mit Datenverlust
einher [12]. Eine digitale Aufhellung beispielsweise komprimiert die Farbwerte
am hellen Ende, und am dunklen Ende der Skala entstehen Lücken im Histogramm. Eine Tonwertkorrektur kann nur die vorhandenen Werte spreizen oder
komprimieren, aber in Lichtern und Schatten keine neuen Details hervorbringen.
Grund dafür ist, daß der Dynamic Range des Rohmaterials identisch ist mit dem
Dynamic Range des Endproduktes.
9
2.
Neue Werkzeuge
2.1. Dateiformate
8 Bit pro Farbkanal sind also nicht genug. Viele Dateiformate gibt es auch in einer
16 Bit Version, wie beispielsweise TIFF, PSD, oder SGI. Diese fallen unter die
Rubrik „Medium Dynamic Range“. Sie enthalten im Grunde nur feinere Abstufungen der Farbwerte, haben aber nicht zwangsläufig auch einen höheren Dynamik
Range [4].
Echte High Dynamic Range Formate speichern Farbwerte ganz anders ab.
2.1.1. Raw Binary Floating Point .RAW / .FLOAT
Wie der Name schon andeutet, sind in diesem Format die Pixelwerte als reine
RGB-Fließkommawerte abgelegt. Pro Pixel und Farbe werden volle 32 Bit in
Anspruch genommen, Kompressionsalgorithmen sind nicht eingebaut. Dieses
Format macht nur als Ausgabeformat digitaler Kameras Sinn, und auch dann nur
in beschränktem Umfang [2].
Hochwertige Digitalkameras, deren CCD-Chip mit 10 bis 12 bit Präzision arbeitet,
bieten RAW-Ausgabe als Alternative zur internen Aufbereitung in 8 bit JPEGs an.
Da sich jedoch die Bauweise digitaler Kameras oft grundlegend unterscheidet,
weicht auch dieser Rohdatenstrom oft von
dem Formatstandard ab. Im Extremfall, wie
bei der Minolta DiMage Serie, kann diese
RAW-Datei nur mit der vom Hersteller mitgelieferten Software gelesen werden. Ein universelles RAW-Importmodul enhüllt eine verwirrende Vielfalt in Bild 4.:
Aufgrund technischer Beschränkungen der
CCD-Chips hat dies nur eine geringe Rangeerweiterung zur Folge. Im Gegenzug muß
man auf die JPEG-eigenen Metadaten verzichten. Außerdem sind die RAW-Dateien
sind so groß, daß der Datentransfer auf die
Speicherkarte enorm verzögert wird.
Bild 4: RAW Import Optionen in HCR-Edit
10
2.1.2. Portable Float Map .PFM
Das PFM Format sollte dem Wildwuchs unter unkompatiblen RAW Formaten
ein Ende bereiten. Die eigentlichen Bilddaten entsprechen den ursprünglichen
Richtlinien des RAW-Formates, sind also als unkomprimierter 32 Bit Strom
von RGB-Fließkommawerten. Es ist ein kleiner Kopfteil mit Formatangabe und
Normbelichtung vorangestellt, um den Import zu vereinfachen (siehe Bild 5).
Bild 5: Vergleich von PFM und RAW
2.1.3. Floating Point TIFF .TIF
In der originalen TIFF Spezifikation ist neben 8 und 16 Bit pro Farbkanal auch
eine 32 Bit Fließkomma Version vorgesehen [12]. Lange Zeit galt dieses TIFF32
Format als hypothetisches, ultimatives Präzisionsformat.
Da dieses Format keine Kompression vorsieht, ist es für die Postproduktion nicht
empfehlenswert.
2.1.4. Radiance .HDR / .PIC
Dieses Format ist der Dinosaurier unter den High Dynamic Range Formaten.
Eingeführt wurde es schon 1985 von Greg WARD, als Outputformat seines
3D-Rendering System „Radiance“ [13]. Dieser war einer der ersten sogenannten
physikalisch basierten Renderer. Das heißt er berechnet seine Bilder, indem
er die spektralen Strahlungswerte in einem virtuellen Raum simuliert. Diese
Strahlungswerte orientieren sich an den Verhältnissen der realen Welt, die
Sonne wird beispielsweise als 50.000mal so hell wie eine Glühbirne definiert. Im
Kapitel 6 sind die Besonderheiten dieser Rendermethode detailliert ausgeführt.
Für solche Simulationen werden die aufwendigen Berechnungen üblicherweise
mit Fließkommawerten ausgeführt. Um die nach langer Berechnungszeit ermittelten Werte mit größtmöglicher Genauigkeit zu speichern, führte WARD das
Radiance-Format ein.
11
Es speichert im Grunde auch nur 8 Bit pro Farbkanal. Doch ein vierter, zusätzlicher Kanal wird mit einem 8 Bit breiten Exponenten belegt. Man nennt das
Radiance-Format daher auch ein 32bit/pixel RGBE Format [13]. Mit dem Exponenten wird die Luminanz von den drei anderen Kanälen entkoppelt. Damit
vervielfacht sich der speicherbare Helligkeitsbereich. Das Radiance Format kann
so 26 Belichtungsstufen aufnehmen.
Dabei ist das Format sehr einfach aufgebaut. Der Fließkommawert eines Pixels
errechnet sich nach der Formel [2]:
(R,G,B) * 2(E-128).
Hat ein Pixel beispielsweise die Werte (145, 215, 87, 149) so errechnet sich sein
Farbwert aus:
(145, 215, 87) * 2(149-128) = (1190000, 1760000, 713000).
Ein dunkler Pixel mit gleicher Farbe hätte nur einen anderen Exponenten. Für die
Farbwerte (145, 215, 87, 103) sieht die Rechnung dann so aus:
(145, 215, 87) * 2(103-128) = (0.00000432, 0.00000641, 0.00000259).
Diese Konvertierung ist so einfach, daß sie problemlos als Lade- oder Speichermodul zu implementieren ist – vorausgesetzt die Software kann mit Fließkommawerten umgehen.
Nachteil dieses Formates ist, nach eigener Aussage des Autors Ward [12], daß
die RGB-Farbwerte nur positive Zahlen zulassen und damit einige sichtbare
Farbtöne nicht annehmen können.
2.1.5. LogLuv Format .TIF
Im Grundaufbau handelt es sich hier um TIFFs. Das LogLuv Format wurde
kürzlich in den offiziellen TIFF Standard aufgenommen und steht damit allen
Entwicklern frei zur Verfügung. Es wurde von WARD [12] eingeführt, um die
Nachteile seines eigenen Radiance-Formats auszugleichen. Statt RGB nutzt es
den geräteunabhängigen LUV-Farbraum. Dabei wird die Luminance (L) logarithmisch mit 16 Bit verschlüsselt, die Farbe separat als U und V mit jeweils 8 Bit.
Zusammen werden also 32 Bits pro Pixel benötigt.
12
Zusätzlich entwickelte wurde auch eine 24-bit Version dieses Formates. Die
Luminance muß hier mit 10 Bits auskommen. Trotzdem kann es auf Grund
der logarithmischen Kompression immer noch einen Dynamic Range von 11
Belichtungsstufen beinhalten. Die Farbinformationen werden in den restlichen
14 Bits untergebracht. Diesmal allerdings nicht direkt als U- und V-Koordinaten.
Statt dessen werden die sichtbaren Farben im UV-Raum in nichtwahrnehmbaren
Schritten indiziert, und dieser Index mit 14 Bits gespeichert.
2.1.6. ILM OpenEXR .EXR
EXR entstand 2000 bei Industrial Lights & Magic als hauseigenes Format, und
wurde 2002 als Open Source für die Öffentlichkeit freigegeben [1]. Alle ILMinternen Tools nutzen inzwischen EXR als Austauschformat, unter anderem bei
der Produktion von „Harry Potter 2“, „Men in Black 2“ und „The Hulk“.
Die Standardkodierung sieht 16 Bit pro Farbkanal vor, zusammengesetzt aus
einem Vorzeichenbit, 10 Bit Farbinformation, und 5 Bit für einen Exponenten [14].
Unterstützt wird aber auch die Kodierung in volle 32 Bit Fließkommawerte und
in Standard 8 Bit RGB.
Zusätzlich enthält die Spezifikation eine ganze Reihe innovativer Features, die
speziell auf die Bedürfnisse in der Postproduktion zugeschnitten sind. So werden
eine beliebige Anzahl von Kanälen unterstützt, die individuelle Kodierformate,
Farbtiefen und Pixelaufösungen haben können. Eine neuartige Trennung von
Bildgröße und sichtbarem Ausschnitt erlaubt das Unterbringen von zusätzlichen
Bildinformation jenseits der Bildränder. Diese Zusatzinfos können das Ergebnis
von großflächigen Filtern wie Weichzeichner oder Bewegungsunschärfe bedeutend verbessern.
Der entscheidende Vorteil dieses Formates ist seine Flexibilität in Kompression
und Informationsgehalt. Ein Blick auf den Dateikopf (Bild 6) läßt die Fülle der
möglichen Optionen erahnen.
Bild 6: Dateiheader einer OpenEXR Datei
13
Das EXR Format zu implementieren, erweist sich als komplexes Unterfangen.
Gerade bei den ausgefalleneren Zusatzkanälen wie „Object ID“, „Texture UV
Buffer“, hat sich noch keine Standardisierung durchgesetzt.
2.1.7. Kodak ERI-JPEG
Dieses Format wurde im April 2002 von Kodak [15] vorgestellt, und soll
als Alternative für die riesigen RAW-Dateien der Digitalkameras dienen. Die
„Extended Range Imaging“ (ERI) Technologie nutzt den Metadatenblock, um
zusätzliche Informationen über Highlight- und Schattendetails in einer JPEG
Datei unterzubringen. Die ERI-JPEGs sind dementsprechend an die Aufnahmefähigkeit der CCD gebunden. In der 5000 Dollar teuren „Kodak DCS
Pro14n“ wurde so zum Beispiel die Unterbringung von 4 zusätzlichen Belichtungsstufen ( -2 EV bis +2 EV) realisiert. [16]
Dabei bleibt die JPEG-Datei voll kompatibel nach dem EXIF2.1 Standard.
Programme die diese Zusatzdaten nicht verstehen, können zumindest den
Low-Dynamic-Teil immer noch problemlos lesen.
Leider betrifft dies eigentlich alle Programme. Oder wie Kodak‘s Produktmanager KELBLEY [16] es ausdrückt: „The difference today is the software we have
to open the ERI-JPEG that is not mature...“. Zugriff auf die HDR-Zusatzdaten
bekommt man bisher nur mit Kodaks eigener Software wie dem „DCS Photo
Desk“ oder dem FFM Photoshop Importer. Dabei handelt es sich nur um ein
Lademodul, was nach kleineren Belichtungskorrekturen ein normales 8 bit Bild
an Photoshop übergibt.
Deshalb ist dieses Format für die Postproduktion noch uninteressant, und soll
in der folgenden Betrachtung ausgenommen werden.
14
2.1.8. Vergleichstabelle
Eine direkter Vergleich legt die Stärken und Schwächen dieser Formate dar.
Tabelle 2: Übersichtstabelle HDRI Dateiformate
TGA
(Referenz)
RAW
PFM
TIFF float
TIFF
LogLUV
32
TIFF
LogLUV
24
RGBE
HDR
EXR
RGBE
(+ Alpha
+ Depth
+ ... )
RGB
(+ Apha)
RGB
YUV
Indexed
YUV
Bits pro Pixel
24
96
32
24
32
variabel
Maximal
enthaltene EV
1.7
30
38
11
26
30
Kompression
RLE
-
RLE
RLE
RLE
Größe der
Testdatei (2)
858 kB
3601 kB
812 kB
681 kB
939 kB
Farbkanäle
RLE, ZIP,
ZIPS, PIZ
655 kB
(1)
Anmerkungen:
(1) Im verlustfreien RLE Kompressionsmodus.
(2) Testdatei war ein HDR-Foto mit durchschnittlicher Detaildichte und Dynamic Range, ohne
Extrakanäle (Bild 7):
Fazit:
EXR bietet die effizienteste Komprimierung,
und ist durch seine variable Gestaltung das
anpassungsfähigste Format.
Bild 7: Testbild
2.2. Spezielle Software
Parallel zur Entwicklung dieser Formate entstand
auch spezielle Software. Dies war eine zwingende
Notwendigkeit, denn bisher gebräuchliche Bildbearbeitungssoftware arbeitete intern mit nur 8
Bit pro Farbkanal. Die Einbindung in Photoshop
beispielsweise, ginge weit über ein simples
Lademodul hinaus. Buchstäblich alle Funktionen
müßten neu geschrieben werden. So bietet der
kürzlich implementierte 16-Bit Modus nur die
rudimentärsten Filter an (siehe Bild 8). Die
Ebenen-Funktion ist komplett abgeschalten.
Bild 8: Photoshop‘s Filterauswahl
im 16-Bit Modus ist karg.
15
Um wirklichen Nutzen aus dem gespeicherten HDR Daten ziehen zu können,
muß die Software intern mit 32 Bit Fließkommapräzision arbeiten können [13].
2.2.1. HDRView
HDRView ist ein kostenloser ImageViewer, und ist essentiell um HDR Bilder
unter Windows zu betrachten. Dabei kann mit Plus- und Minus-Tasten die am
Monitor sichtbaren Belichtungstufen verschieben, mit Shift-Klick auf einen Pixel
wird die Anzeige automatisch auf diesen Pixelwert nachbelichtet.
Erhältlich ist HDRView unter: http://athens.ict.usc.edu/FiatLux/hdrview .
2.2.2. HDRShop
HDRShop ist eine rudimentäre Bildbearbeitungssoftware. Die Funktionen sind
speziell auf die Generierung von HDRIs und deren Aufbereitung für die Verwendung in 3D Programmen zugeschnitten. Herausragend sind die Werkzeuge
für panoramische Transformationen, sowie die Analysefunktion für Glanz- und
Diffusanteile. Andere Filter sind jedoch sehr limitiert, und eher zu Testzwecken zu
gebrauchen. Die Entwicklung von HDRShop wurde mit der Version 1.0 vorübergehend eingestellt. Als einzelner Programmierer führt TCHOU [18] das Projekt nun
in seiner Freizeit weiter, und hat Verbesserungen für 2004 angekündigt.
Erhältlich ist HDRShop unter: www.debevec.org/HDRShop .
2.2.3. HDRIE
HDRIE (sprich „Hedrie“) steht für High Dynamic Range Image Editor, und
ist momentan an der University Of Illinois in Entwicklung [25]. Inspiriert von
HDRShop, bietet es schon im derzeitigen Stadium eine Vielzahl derselben
Funktionen. Zusätzlich hat es an Photoshop angelehnte Malwerkzeuge und
ein Clone Stamp Tool. Das Projekt ist OpenSource und Freeware, was die
Weiterentwicklung und allgemeine Verfügbarkeit sichern soll. Das Projekt klingt
zwar sehr vielversprechend, ist jedoch ist im derzeitigen Entwicklungsstadium
noch nicht produktionstauglich. Im Praxistest erwies sich HDRI als sehr instabil,
es versteht einzig und allein das Radiance Format, und einige Funktionen sind
offensichtlich noch nicht fertig programmiert.
SourceCode und erste Windows-beta-Version sind erhältlich unter:
www.acm.uiuc.edu/siggraph/eoh_projects/eoh2002.html .
16
2.2.4. HCR-Edit
Christoph HORMANN entwarf HCR (High Color Resolution)-Edit speziell für die
Nachbearbeitung von Renderings aus POV-Ray. Das Programm befindet sich
noch in der Betaphase, der Funktionsumfang ist noch sehr limitiert. In der
aktuellen Version 0.5 bietet es allerdings als einzige frei erhältliche HDRIBildbearbeitungssoftware einen Histogrammeditor und Gradationskurven.
Herausragend ist auch der flexible RAW-Importer (siehe Bild 1), der durch eine
Vielzahl von Parametern mit jeder denkbaren RAW-Variante zurechkommt.
Erhältlich ist HCR-Edit unter: www-public.tu-bs.de:8080/~y0013390/hcredit/
2.2.5. Photosphere
Greg WARD konzipierte PhotoSphere als HDR-tauglichen Imagebrowser [20]. Es
kann die meisten HDRI Formate lesen und in Thumbnail-Übersichten darstellen.
Daher ist es unverzichtbar für die Dateiverwaltung. Es ist die erste Software, die
Greg Ward’s platzsparende 24 Bit Version des TIFF LogLuv Formates korrekt
lesen und schreiben kann. Das Generieren von HDRIs ist im Vergleich zu
HDRShop einfacher und führt zu besseren Ergebnissen. PhotoSphere beinhaltet
auch Algorithmen, mit denen der gesamten in einem Bild enthaltenen Range
auf einem Monitor mit geringerem darstellbarem Range angezeigt werden kann
(Tonemapping Operatoren) [13][20].
Alle diese Kernfunktionen sind in plattformunabhängigen C-Bibliotheken
(libraries/dlls) enthalten. WARD würde es begrüßen wenn diese in das Standardrepertoire der Bildbearbeitung eingehen und verhandelt zur Zeit mit Adobe über
eine Lizensierung [21].
Erhältlich ist PhotoSphere für MacOS X unter: www.anyhere.com
17
2.2.6. Photogenics
Photogenics ist das erste kommerzielle Malprogramm, was im vollen 32 Bit
Fließkommabereich arbeitet [22]. Es handelt sich um eine ausgewachsene
Bildbearbeitungssoftware mit vielen verschiedenen Malwerkzeugen, wie zum
Beispiel dem aus Photoshop bekannten Clone Stamp Tool. Es beherrscht auch
alle üblichen Filterfunktionen. Photogenics ist bei der Darstellung und Manipulation von HDRIs bemerkenswert schnell.
Ebenensystem und Menüführung sind etwas gewöhnungsbedürftig, denn sie
funktionieren völlig anders als in Photoshop. In Photogenics wird jeder Filter oder
Operator als Ebene behandelt und mit einem eigenen Alphakanal gesteuert.
Die Parameter aller dieser Filterebenen sind jederzeit editierbar. So belegt man
beispielsweise Teile des Bildes mit einem Gaussian Blur, färbt dann andere
Stellen ein, und kann danach einfach wieder in den Blur Operator zurückgehen
und die Intensität erhöhen. Ebenen mit separaten Bildinformationen, die also
Ebenen aus Photoshop entsprechen, fügen sich nur über einen Umweg in
dieses System ein. Dabei übernimmt ein Rubthrough-Operator die Funktion
des Blend Modus, der Alphakanal steuert wie gehabt die Tranzparenz, und die
eigentliche Bildinformation wird aus einem separaten Bild referenziert.
Nach einer kleinen Eingewöhnungsphase lernt man diesen nichtdestruktiven und
quasi nichtlinearen Workflow zu schätzen.
Eine Demoversion kann unter www.idruna.com/downloads.html heruntergeladen
werden. Diese ist 30 Tage lang voll funktionsfähig.
2.2.7. mkhdr
Dieses Programm ist der Urvater der HDRI-Generatoren [24].
Es ist DOS-basiert, und sein einziger Zweck ist die Kombination von mehreren
Low-Dynamic-Range Bildern in ein HDRI. Allerdings müssen alle erforderlichen
Parameter dazu per Kommandozeile eingegeben werden.
Für den alltäglichen Produktionsbetrieb ist diese Arbeitsweise nicht akzeptabel,
da sie umständlich zu bedienen und ohne jegliches Feedback ist. Einzig bei der
Einbindung in eigene Software ist eine Auseinandersetzung mit mkhdr sinnvoll.
Da in dieser Arbeit jedoch die Benutzung proprietärer Werkzeuge vermieden
wird, soll mkhdr von den folgenden Betrachtungen ausgeschlossen werden.
Erhältlich ist mkhdr kostenlos unter www.debevec.org/Research/HDR (DOS
Version) und www.kennethwoodruff.com/digitalart/files/ (OS X version).
18
2.2.8. Vergleich
In einer Testreihe wurde die Unterstützung der HDR Formate und die Leistungsprofile der einzelnen Programme ermittelt. Die Ergebnisse sind in Tabelle 3
zusammengestellt und geben den aktuellen Stand im Mai 2003 wieder.
Tabelle 3: Vergleichsübersicht HDRI-Spezifische Software
Aktuelle Version
HDRView
PhotoSphere
HDRShop
HDRIE
HCR-Edit
1.2
0.9
1.0
0.01
0.5 beta
Plattform
Windows
MacOS X (1)
Windows
Preis
Freeware
Shareware (3)
Freeware (4)
Programmtyp
Viewer
Browser
Image
Processor
Windows (2)
Freeware,
OpenSource
Image
Processor
Photogenics
5.0
Windows
Windows,
Linux
Freeware
$ 699
Image
Processor
Image
Processor
Formate
.RAW
m
-
mm
-
m
m
m
m
m
-
m
-
-
-
m (5)
m
m
-
-
m
-
m
-
-
-
(9)
-
-
.HDR
m
.PFM
m (5)
.TIF Floating Point
.TIF LogLUV
.FLX
-
-
- (7)
-
-
m
.EXR
-
m
-
-
-
-
Generate HDR
-
mmm
mm
- (8)
-
m
Panoramic
Transformation
-
-
m
m
-
-
Flip/Rotate
m
m
m
-
-
m
-
m
(6)
-
-
-
-
-
-
m
-
m
-
-
m
m
-
mm
-
-
-
-
m
m
-
m
Funktionen
Tonemapping
Operatoren
Permanent
Gamma correction
Blur/Sharpen Filter
Histogramm,
Gradationskurven
Malwerkzeuge
(Clone Stamp)
Besondere
Funktionen
-
-
-
-Thumbnails
-Tonemapping
Operatoren
-Anzeige von
Pixelhelligkeit in
cd/qm
- AutoAligning bei
HDR Generation
- editierbare
CameraCurve
- LightGen
Plugin
-
- Tiefenunschärfe
Anmerkungen:
(1)
(2)
(3)
(4)
(5)
(6)
(7)
(8)
(9)
Portierung auf Windows und UNIX ist geplant [20].
Portierung auf LINUX ist geplant [25].
Autor Ward hat sich noch nicht für ein Marketingmodell entschieden,
daher vorerst Shareware mit limitiertem Support[21].
Frei für private Anwendungen, kommerzielle Lizenz auf Anfrage.
Nur als Ladeformat implementiert.
Reinhard-Tonemapping [58] mit kostenlosem Plugin.
Als Ladeformat implementiert, aber nur 32 bit Version.
Temporär abgeschalten, wegen Programmfehlern in v0.01 [25].
fehlerhafte Interpretation der Farbanteile, besonders Rot verblaßt
m
- Alphakanäle
für Image Filter
- RubThrough
zum Verbinden
von Bildern
- sehr schnell
- Unterstützung
für Sequenzen
19
Auswertung:
Radiance HDR und Floating Point TIF bieten die breitere Unterstützung, wobei
das Radiance Format aufgrund seiner verlustfreien Kompression vorzuziehen
ist. Die wirtschaftlicheren Formate TIF LogLuv 24 und EXR sind noch nicht
breit genug implementiert, um als allgemeine Empfehlung gelten zu können.
HDRView, HDRShop und PhotoSphere können als essentiell angesehen
werden für die Arbeit mit HDRIs. Da sie kostenlos erhältlich sind, sind sie
uneingeschränkt zu empfehlen.
Photogenics ist hier aufgeführt, weil es als einziges einzelbildbasiertes Paintprogramm die Rolle von Photoshop übernehmen kann. Damit steht es ziemlich
konkurrenzlos da, wenn es beispielsweise um das Bearbeiten von HDRITexturen geht. Wer ernsthaft eine HDRI-basierte Pipeline aufbauen will, sollte
sich zumindest die Demoversion herunterladen und anschauen.
2.3. HDRI-taugliche Compositing Programme
Die schönsten Werkzeuge sind natürlich die, die man schon hat. Viele
Compositing Programme, die in der Postproduktion zum Einsatz kommen,
können auch schon im High Dynamic Range arbeiten. Das kommt daher,
weil Film schon von jeher in 16 Bit (Medium Dynamic Range) bearbeitet
wurde [1][3]. Nur so kann ein digitaler Output erstellt werden, der noch weiche
Farbverläufe und brillante Lichter aufweist, wenn er auf Film ausbelichtet ist.
Der Schritt in die nächste Präzisionsstufe ist die logische Konsequenz.
Während Adobe-Programme gerade erst anfangen, in 16-Bit Farbtiefe zu
rechnen, haben diese Compositing Programme auf interne 32 Bit Fließkommapräzision umgerüstet.
Laut Herstellerangaben sind es diese Programme:
• Digital Fusion 4 (eye-On)
• Combustion 2 (discreet)
• Shake 2.4 (Apple)
• Tremor 1.5
• Nuke 4 (D2 Software)
Sie alle können mittlerweile Bilder in den empfohlenen Formaten Radiance
(HDR) und EXR laden und bearbeiten. 24-bit LogLUV wird jedoch von keinem
unterstützt.
20
2.4. Panoramaformate
Besondere Anwendungen in der Postproduktion erschließen sich durch HDRI
Panoramen, also Rundumsichten von 360 Grad horizontal und 180 Grad vertikal
[3][23]. Um nun diese Panoramen in einem zweidimensionalen Bild darzustellen,
gibt es verschiedene Abwicklungsformate.
Aufnahme und Anwendung dieser Panoramen werden in den Kapiteln 5 und 6
noch im Detail erläutert. Vorher muß jedoch das Grundwissen gelegt sein.
2.4.1. Spherical Map
Dieses, auch als „Latitude-Longitude“ bekannte Format ist die gebräuchlichste
Abwicklungsform und wird von den meisten 3D-Programmen unterstützt.
Sie entspricht der Transformation von einem Globus in eine klassische Weltkarte. Breiten- und Längengrade finden sich als XY-Pixelkoordinaten wieder.
Die Horizontline ist genau in der Mitte des Bildes, und wird nahezu unverzerrt
abgebildet. Die Pole dagegen werden extrem verzerrt, und füllen obere und
untere Pixelreihe aus.
Bild 9: Abwicklung im Spherical Map Format
Eine Besonderheit des Spherical Formates ist, daß es nur eine Nahtstelle hat.
Oberer und unterer Rand konvergieren zu den Polen. Bei der Bearbeitung ist
darauf zu achten, daß linker und rechter Rand genau aneinander passen. Zur
Kontrolle kann man den Bildinhalt horizontal verschieben, was einer Y-Rotation
der Umgebungskugel entspricht.
21
2.4.2. Cubic Map
Statt einer Umgebungskugel kann man auch einen Würfel benutzen. Sitzt die virtuelle Kamera im Mittelpunkt, kann man praktisch keinen Unterschied zwischen
Kugel oder Würfel erkennen. Wichtig ist nur, daß aus jeder Blickrichtung auch die
entsprechende Bildinformation vorliegt.
Die Abwicklung entspricht dem leicht nachvollziehbaren Faltschachtelprinzip.
Bild 10: Zusammenfalten einer Cubic Map
Vor allem für rein polygon-basierte Rendersysteme ist diese Abwicklung
vorteilhaft, da sie mit nur 6 Polygonen auskommt. Es wird daher meist in
Computerspielen und andere Echtzeitanwendungen verwendet. Grafikchips der
neuesten Generation [26] bieten dafür spezielle Hardwareunterstützung.
Die Cubic Map gibt es als „Horizontal Cross“ (Bild 11) und „Vertical Cross“
(Bild 12), welche sich nur durch die Platzierung der rückwärtigen Würfelwand
unterscheiden.
Bild 11: Horizontal Cross Format
Bild 12: Vertical Cross Format
Die Raumverzerrung ist hier gleich Null, denn die einzelnen Würfelseiten beinhalten einen direkten Blick in die entsprechende Richtung. Gerade Linien im
Motiv erfahren keine Krümmung wie in der Sperical Map, und die Pixeldichte
bleibt konstant über die gesamte Würfelfläche. Die Nachbearbeitung der einzelnen Seiten erscheint dementsprechend einfach. Allerdings ist darauf zu achten,
daß jede Würfelkante eine Nahtstelle darstellt. Selbst scheinbar verbundene
Seiten sind durch einen sprunghaften Perspektivwechsel getrennt, der bei der
22
Retusche nicht überschritten werden sollte. Auch bei der Anwendung von Filtern
ist Vorsicht geboten, damit die Kontinuität an den Kanten nicht unterbrochen
wird.
Von der verfügbaren Bildfläche wird nur die Hälfte benutzt. Zwar schrumpft
die ungenutzte Fläche bei der Speicherung in einem RLE-kompressionsfähigen
Dateiformat auf wenige Bytes, sie verursacht jedoch im geladenen Zustand den
doppelten Speicherbedarf.
2.4.3. Angular Map
Dieses, auch „Lightprobe“ genannte Format ist speziell für die Beleuchtung
mit HDR Images entwickelt worden [2]. Erstmalige Erwähnung findet es in
DEBEVEC’s Siggraph Vortrag von 1998 [23]. Die geometrische Abbildung ist der
einer Fischaugenlinse oder Spiegelkugel ähnlich, allerdings mit einem vollen
360° Öffnungswinkel und mit gleichmässigen Winkelabständen.
Bild 13 demonstriert, wie aus diesem kreisrunden Bild eine Umgebungskugel
geformt wird. Der Kreismittelpunkt markiert den Blick nach vorn. Oben, unten,
links und rechts liegen auf dem halben Radius, und der Blick nach hinten ist
auf dem Umfang verteilt.
Bild 13: Zusammenwickeln des Angular Map Formates
Diese extreme Raumverzerrung macht eine Orientierung sehr schwierig, zur
Retusche ist dieses Format gänzlich ungeeignet.
Der Vorteil des Angular Formats liegt in seiner Kontinuität.
Bis auf den Punkt direkt hinter der Kamera wird die Umgebung nahtlos abgebildet. Damit ist die Gefahr minimiert, bei Kameraschwenks eine Nahtstelle ins Bild
zu bekommen, und dort auf die korrekte Interpolation durch das 3D-Programm
angewiesen zu sein.
23
2.4.4. Vergleichstabelle
In Tabelle 3 sind die wesentlichen Merkmale dieser Abwicklungsformate zusammengefaßt. Die Farbcodierung stellt in den jeweiligen Kategorien eine Rangliste
auf, von schlecht(Rot) bis gut(Grün).
Tabelle 4: Vergleichsübersicht Panoramaformate
Spherical Map
3.
Cubic Map
Angular Map
Seitenverhältnis
2:1
4:3 bzw. 3:4
1:1
Raumverzerrung
hoch
gering
extrem
Nahtstellen
2 Pole, 1 Kante
8 Kanten
1 Pol
Informationsgehalt
100%
50%
78%
Editiermöglichkeit
Filter, Retusche
Retusche
keine
Aufnahme von HDR Images
Es gibt 3 denkbare Methoden, HDR Bilder zu erzeugen.
Zum ersten kann man sie mit einem 3D-Programm vollsynthetisch generieren.
Nahezu alle 3D-Programme arbeiten intern mit 32-Bit Fließkommazahlen, um
simulierte Beleuchtungssituationen realitätsnah zu berechnen. Zwar sind die
Daten latent vorhanden, der Großteil wird jedoch wird in der gängigen Praxis
mit der Wahl eines 8-Bit Speicherformates verworfen. Bislang ist das der einzige
Weg, HDR-Videosequenzen zu erzeugen und in der Postproduktion zu nutzen.
Allerdings setzt dieser Schritt erst in der Mitte der regulären Produktionskette
ein, wenn virtuelle Elemente einem realen Video oder Standbild hinzugefügt
werden. Wie aber fängt man den kompletten Dynamic Range der echten Welt
ein?
Der zweite Weg besteht darin, nacheinander mehrere Aufnahmen mit verschiedener Belichtung zu fotografieren, und dann digital zu einem Bild zusammenzufügen [24]. Das ist heute schon mit gewöhnlichen Kameras möglich, hat
allerdings den Nachteil daß es ein erhebliches Maß an Handarbeit erfordert.
Diese Methode eignet sich allerdings nur für relativ unbewegte Motive, für
Videoaufnahmen ist sie gänzlich unbrauchbar.
24
Die dritte denkbare Möglichkeit wäre, den gesamten Dynamic Range zu fotografieren. Elektronikingenieure arbeiten schon seit langem daran, entsprechende
digitale Sensoren zu entwickeln. Diese befinden sich im Großteil noch im Laborstadium, und arbeiten mit teilweise sehr aufwendigen Tricks um die Limitierungen herkömmlicher CCD Sensoren zu umgehen.
3.1. Digitale Sensoren
3.1.1. Technische Problemdefinition
Von durschnittlichen CCD-Sensoren ist eine Aufnahmefähigkeit von 66 dB zu
erwarten, High-End-CCDs erreichen bis zu 78 dB [29]. Zum Vergleich, der
Dynamic Range einer sonnigen Außenszene liegt zwischen 100 und 150 dB.
Hardwaretechnisch ergibt sich das Problem direkt aus der technischen Definition
des Dynamic Range. Er setzt sich zusammen aus dem logarithmischen
Verhältnis des größten auslesbaren Signals bevor ein Pixel seine Sättigung
erreicht (iph,max) und dem kleinsten, vom Rauschen gerade noch unterscheidbaren Signal (iph,min) [27]:
DR = 20 log10 (iph,max / iph,mix)
(1)
Das Naheliegendste wäre natürlich, durch eine robustere Bauweise des Sensors
das größte auslesbare Signal (iph,max) zu erhöhen. Doch leider hat das den
Nebeneffekt, daß es einen überproportionalen Anstieg des Signalrauschens
verursacht. Überdies verhalten sich die ausgelesenen Daten dann nichtlinear,
was zu extremen Problemen bei der Rekonstruktion der Farbwerte führt.
3.1.2. „Time-to-Saturation“
Eine andere Möglichkeit wäre, nicht wie üblich die CCD-Ladungswerte nach
einer bestimmten Belichtungszeit auszuwerten, sondern die Zeit zu messen die
jeder einzelne Pixel benötigt, um seine Sättigungsladung zu erreichen [27][28].
Damit wäre das obere Ende des auslesbaren DR zwar nicht unendlich, aber
maximiert auf das, was die Reaktionszeit der Schaltkreise und die Auslesegeschwindigkeit hergeben. Eine Beschneidung findet nur am unteren Ende
statt, nämlich durch die Festlegung der maximal zulässigen Belichtungszeit.
Diese kann allerdings, gerade in lichtarmen Szenen, sehr lange ausfallen. Auch
bereitet eine bauteilschonende Implementierung grundlegende Schwierigkeiten.
Es ist noch kein befriedigender Weg gefunden worden, die Sättigung eines
Pixels zu registrieren und die dementsprechende Zeit zu messen.
25
3.1.3. Logarithmische Sensoren
Ein dritter Lösungsansatz stellt sich in Form von MOSFET Sensoren dar, die
in ihrer Bauweise an CMOS Speicherbausteine angelehnt sind. Herzstück dieser,
auch CMOS Active Pixel Sensor (APS) genannten Bauteile ist ein Transistor.
Dieser sammelt direkt die Photospannung, die über die Dauer der Belichtungszeit
anfällt [27]. Im Unterschied zu CCDs reagieren MOSFET Sensoren auf Lichteinfall
der Ladekurve des Transistors entsprechend logarithmisch statt linear. Dieses
Anspechverhalten ist dem des analogen Films sehr ähnlich, und erreicht deshalb
einen ähnlichen Medium Dynamic Range von 5-6 Belichtungsstufen.
Allerdings leiden MOSFET Sensoren auch unter dengleichen Schwächen wie
analoger Film, die nichtlineraren Daten lassen nur im Mittelteil der Kurve ein
zuverlässiges Farbmanagement zu. Am oberen und unteren Bereichsende sind
die Informationen zwar latent vorhanden, doch sind sie so stark komprimiert daß
schon geringste Rauschanteile eine starke Signalverfälschung bewirken.
Diese Sensoren sind bereits in Serienprodukten erhältlich, etwa in der Canon
EOS Serie [16].
3.1.4. Digital Pixel Sensor
An der Stanford Universität wurde diese Idee jedoch im Zuge des „Programmable
Digital Camere Projekt“ aufgegriffen [27][39]. Unter der Leitung von Abbas El
GAMAL wurde ein neuer, auf CMOS Technologie basierter Sensor entwickelt: der
Digital Pixel Sensor (DPS). Der entscheidende Unterschied liegt darin, daß jeder
einzelne Pixel einen eigenen Analog-Digital-Converter sowie eine eigene digitale
Speicherzelle besitzt. Diese arbeiten alle parallel, und werden gleichzeitig digital
ausgelesen. Damit sind weitaus höhere Auslesegeschwindigkeiten erreichbar als
mit konventionellen CCDs, wo der Auslesevorgang in jeder Zeile seriell geschieht.
So erreicht der Prototyp mit 10.000 Bildern pro Sekunde eine bislang unerreichte
Geschwindigkeit. Der Trick besteht nun darin, den eigentlichen Sensor mit einer
höheren Bildrate zu betreiben, als das ausgegebene Video. Für jedes einzelne
Videobild werden so mehrere Bilder mit verschiedener Belichtung aufgenommen.
Diese werden schon auf unterster Ebene zu einem HDRI kombiniert. Da die
Bauweise auf einem CMOS Chip basiert, sind solche chipinternen Berechnungen
leicht implementierbar. Diese Vorauswertung hat auch den angenehmen Nebeneffekt einer Rauschunterdrückung, denn die effektiven Pixelwerte stellen einen
Querschnitt aus mehreren Messungen dar. Auch komplexere Vorauswertungen
sind direkt auf dem Chip möglich, wie beispielsweise eine Verringerung der
Bewegungsunschärfe oder Berechnung der Bewegungsvektoren.
26
Das Fraunhofer Institut für Mikroelektronische Schaltungen und Systeme verfolgt
denselben Ansatz, und entwickelte einen CMOS-basierten Chip mit pixeleigenen
Schaltkreisen [9]. Nach eigenen Angaben wird ein Bildpixel aus wahlweise 1, 2
oder 4 Auslesevorgängen ermittelt, was auch bei einer Bildrate von 50 Hz einen
effektiven Dynamic Range von 120 dB bringt. Es ist also nur eine Frage der Zeit,
bis dieser Ansatz zu einem serienreifen Produkt führt.
Allerdings ist der mikroelektronische Aufwand immens. Die Stanforder Prototypen
benötigen bis zu 37 Transistoren pro Bildpixel, was sich schon bei einem 352*288
Pixelfeld (halbe Videoauflösung) auf 3,8 Millionen Transistoren addiert. Erfahrungen aus der LCD-Display-Technologie, die auch auf pixeleigenen Logikschaltkreisen basiert, lehren daß die hohen Ausschußraten sich in einem hohen Fertigungspreis niederschlagen. Digital Pixel Sensoren werden warscheinlich den High-End
Markt kommender High Dynamic Range Kameras dominieren, in Hinsicht auf
Leistung und Preis.
3.1.5. Rasterversetzte Belichtung
Eine fünfte, auch sehr vielversprechende Möglichkeit wird an der Universität
Columbia untersucht [30]. Spatially Varying Exposure, zu deutsch Rasterversetzte
Belichtung nennt sich die Methode. Die Grundidee besteht darin, einen konventionellen CCD Sensor mit einem gleichmäßigen Raster von Neutral Density
(ND) Filtern verschiedener Stärke zu bedecken. Die Pixel unter den lichtundurchlässigeren Filtern fangen die hellen Lichtanteile ein, während die Pixel unter
den lichtdurchlässigeren Filtern für die dunklen Anteile empfindlicher sind. Aus
dem kombinierten Informationen von 4 Pixeln des CCD-Sensors wird damit ein
Bildpixel gewonnen. Offensichtlicher Nachteil dieser Methode ist, daß die effektive
Auflösung geviertelt wird.
Außerdem ist die Umsetzung auf 3-Chip-Kameras beschränkt, wo für jeden Farbkanal ein volles CCD-Feld zur Verfügung steht. In 1-Chip-Kameras wird schon ein
ähnliches Raster aus Farbfiltern benutzt, um die Empfindlichkeit der CCD-Pixel
auf die Grundfarben Rot, Grün, Blau zu modulieren. Ein weniger offensichtlicher
Nachteil ist, daß diese Methode den Dynamic Range nur nach oben hin erweitert.
Die Detailtiefe in den Schattenregionen bleibt unbeeinflußt. Dennoch entspricht
der theoretisch erreichbare DR einer Vervierfachung des ursprünglichen DR des
CCD-Sensors, was dann etwa 200 dB oder 20-24 Belichtungsstufen entspricht.
Und heutzutage, wo 3 Megapixel auch von Consumerkameras erreicht werden,
verblaßt der Auflösungsnachteil zugunsten der unkomplizierten Implementierung.
Auf Grundlage einer HighDefinition Videokamera, ist sogar eine HDR-Videokamera mit voller PAL-Auflösung denkbar.
27
3.1.6. SuperCCD SR
Fujifilms eigene Sensorserie, die SuperCCD, unterscheidet sich durch eine
wabenartige, um 45 Grad rotierte Anordnung der Photodioden. Das ermöglicht
eine höhere Sensordichte, und vermeidet das „Ausbluten“ von einer Überspannung in die gesamte CCD-Zeile. In der vierten Generation erreicht die
SuperCCD in der SR Variante einen Dynamic Range, der dem von Filmmaterial
gleichkommt [31]. Dies wird dadurch erreicht, daß jede Sensorzelle aus einer
Paarung von Photodioden unterschiedlicher Empfindlichkeit besteht. Die hochemfindlichen Photodioden fangen so die dunklen Bereiche ein, und die schwach
empfindlichen Photodioden können die hellen Anteile detailgetreu aufnehmen.
Dabei schafft dieser neue Sensor eine Bildrate von 30 Frames pro Sekunde in
VGA-Auflösung[33].
3.1.7. Doppelblitzverfahren
Ein ganz anderer Entwicklungsansatz leitet sich aus der Forschung für
maschinelles Sehen her, und sei hier nur am Rande wegen seiner Originalität
erwähnt. Typische Anwendungsgebiete Maschinellen Sehens sind Gesichtererkennung, Raumüberwachung, Bewegungssensoren und Fahrzeuginsassenerkennung. Eine gemischte Forschungsgruppe der BMW AG, City University
London, und FH Nordostniedersachsen [32] suchte nach einem automatischen
System, daß auch unter kontrastreichen Lichtverhältnissen einen konstanten
Fluss verlässlicher Bildinformationen liefert. Über- und Unterbelichtung, auch
von Bildteilen, stellen einen Verlust wertvoller Information für die Auswertungsalgorithmen dar, und sind daher unerwünscht. Darüber hinaus soll das System
tauglich für den Consumermarkt sein, und damit aus kostengünstigen Einzelkomponenten bestehen.
Die Forschungsgruppe ist auf eine sehr bemerkenswerte Lösung gekommen:
Das Doppelblitzverfahren. Im Abstand von 20 Millisekunden werden 2 Bilder aufgenommen, im selben Takt wird eine Blitz zur Beleuchtung der Szene geschaltet.
Die Blitzdiode arbeitet dabei dem infraroten Bereich, und ist für das Auge
unsichtbar. Allerdings ist der zweite Blitz viel heller als der Erste, so daß 2
unterschiedlich belichtete Bilder entstehen. Diese werden dann zu einem Bild
kombiniert, was aufgrund der komplett kontrollierten Beleuchtung der Szene
sogar in Echtzeit von der Firmware des Systems übernommen werden kann. In
einem Beispiel wurde so eine Szene mit einem gemessenen Dynamic Range
von 105 dB mit vollem Detailreichtum aufgenommen.
28
Allerdings ziehlt das System in seiner vorgestellten Kalibrierung auf eine
optische Kompression des Dynamic Range auf 48 dB ab, um die Outputdaten
in ein 8 Bit Format zu pressen. Die absoluten Szenenkontraste werden damit
zugunsten der Detailkontraste geopfert, was für den angedachten Zweck des
maschinellen Sehens vielleicht noch als sinnvoll erscheinen mag, nicht jedoch
für Postproduktion im High Dynamic Range. Die Doppelblitzmethode findet hier
nur eine Erwähnung, weil sie das Potential hat, zu einer HDR-tauglichen Videokamera für den Studioeinsatz entwickelt zu werden.
3.2. Realisierte Systeme
3.2.1. HDR Video
HDR taugliche Videokameras befinden sich wie ausgeführt noch im Entwicklungsstadium. Allerdings ist der Weg noch weit. Selbst wenn die Forscher es
schaffen, einen HDR-Chip zu entwickeln, wird herkömmliches Videoband nicht
in der Lage sein diese Daten aufzunehmen. Dann wird entweder ein neuer
Videostandard gebraucht oder die Aufzeichnung findet gleich auf Festplatte statt.
Echtes HDR Video ist bisher also rein spekulativ.
Es existiert allerdings eine nachvollziehbare Lösung, durch eine Umrüstung
handelsüblicher Videokameras deren Dynamic Range zu erweitern. Die Idee
basiert auf einem Kaleidoskop-Effekt-Filter, der den Bildstrahl in 5 gleiche Bilder
aufsplittet. WAESE [33] beschichtete diesen Filter mit Neutral-Density-Gel verschiedener Dichten, und erreichte damit eine unterschiedliche Belichtung dieser
5 Bilder. Diese Variationen existieren dann alle nebeneinander auf jedem Videobild. Um den horizontalen und vertikalen Versatz zu ermitteln, ist eine einmalige
Kalibrierung erforderlich. Dann kann mittels entsprechender Software eine HDRVideosequenz errechnet werden.
Der Nachteil ist dabei, daß die effektive Auflösung weniger als die Hälfte
der ursprünglich aufgenommen Auflösung beträgt. Dementsprechend ist diese
Methode nur mit teuren High Definition Kameras praktikabel, und auch dann nur
in beschränktem Maße.
29
3.2.2. Digitale Fotografie
Auf dem Gebiet der Digitalen Fotografie wurden dagegen schon marktreife
Produke entwickelt, die bis in den Medium Dynamic Range vordringen [34].
Hersteller digitaler Rückteile für Mittelformatkameras wollen den professionellen
Fotografen zum Umstieg von Film auf Digital bewegen. Kernstück dieser Bestrebungen ist es, den Dynamic Range von Filmmaterial zu überbieten (zur Erinnerung: etwa 5-8 Belichtungsstufen). Dabei bedienen sie sich im Regelfall des
ersten oben beschriebenen Ansatzes zur Rangeerweiterung, der Erhöhung
von imax. Um dem Nachteil des Rauschanstiegs entgegenzuwirken sind diese
Kameras mit einer aktiven Kühlung ausgestattet. So erreichen diese High End
Kamerarückteile einen Dynamic Range von 11-12 Belichtungsstufen. Beispiele
sind: LEICA S1 Alpha/Pro, Better Light Super 6000/8000, Jenoptik eyelike MF,
LEAF Cantare/Volare [34].
Die LEAF c-most erreicht mit einem MOSFET-Sensor 11 Belichtungsstufen.
Erhältlich sind diese Kameras nur im Fachhandel, in einer Preisklasse von
€ 20.000 aufwärts. Diese Profikameras sind dafür designed, direkt von einem
Hostcomputer aus betrieben zu werden. Der Monitor dient dabei als Viewfinder,
die Bedienung erfolgt über ein Softwareinterface. Gespeichert werden die Fotos
direkt auf Festplatte. Als Speicherformate haben sich HDR und TIFF16 zum
Industriestandard professioneller Digitalfotografie entwickelt, und werden von
allen diesen Kameras unterstützt.
Echter High Dynamic Range von mehr als 12 Belichtungsstufen ist damit zwar
nicht aufnehmbar, doch der Markt existiert bereits. Sobald ein marktreifes Produkt mit echtem HDR Chip entwickelt ist, wird er sich auf diesem High-End Markt
auch verkaufen lassen.
30
3.3. Handarbeit
Auch mit heutigem Equipment kann man Bilder erstellen, die den gesamten
sichtbaren Dynamic Range enthalten. Man braucht zwar einiges an Arbeitsaufwand und Zeit, doch mit Sorgfalt und der richtigen Methode sind die Ergebnisse
sehr professionell.
Die Grundidee besteht darin, mehrere Aufnahmen mit verschiedener Belichtung
aufzunehmen. Damit fängt man den Dynamic Range quasi scheibchenweise ein.
Danach kann man diese Scheibchen wieder zusammenfügen, und erhält ein
HDRI [2][3][23]. Bild 14 veranschaulicht diese Idee.
Bild 14: Grundprinzip der Rekonstruktion eines HDRI
Um eine korrekte Reproduktion des HDR zu gewährleisten, müssen sich die
Dynamic Ranges der einzelnen Aufnahmen überlappen. Nur dann können sie
durch einen allgemein gültigen Algorithmus auch wieder kombiniert werden.
Ein angenehmer Nebeneffekt ist, daß durch die Kombinationsalgorithmen das
Rauschen vermindert wird. Je mehr Einzelaufnahmen denselben Pixel ohne
Über- oder Unterbelichtung zeigen, umso genauer kann der exakte Farbwert
ermittelt werden.
Unweigerlicher Nachteil dieser sequentiellen Methode ist, daß man nur unbewegte Motive aufnehmen kann. Ist das Motiv nicht konstant statisch über
die ganze Zeit der Belichtungsserie, versagen selbstverständlich
auch die Kombinationsalgorithmen.
Menschen, Autos, Tiere, wehende
Flaggen, sich im Wind wiegende
Zweige – all diese Dinge führen zu
geisterhaften Schemen im kombinierten HDRI (siehe Bild 15).
Bild 15: Geisterbus
31
3.3.1. Aufnehmen der Belichtungsreihe
Dafür benötigt man nur ein Stativ und einen Fotoapparat mit manuellen
Einstellmöglichkeiten.
Man fixiert die Kamera zuerst auf das Motiv - stellt also Stativ fest, manuellen
Fokus scharf und die Blende fest ein. Bei Aussenaufnahmen ist es empfehlenswert, die Blende auf den größten verfügbaren f-Wert zu stellen, das bedeutet
auf die kleinstmögliche Blendenöffnung. Damit minimiert man den Einfluß von
Streulicht und Tiefenunschärfe [2]. Außerdem maximiert man damit den oberen
Grenzwert des über die gesamte Belichtungsreihe aufgenommenen Dynamic
Range. Denn die hellsten Objekte im Bild, wie beispielsweise die Sonne, sind
am besten bei der kleinsten Blendenöffnung und der kürzesten Belichtungszeit
zu erkennen. Um sicherzugehen, bietet es sich daher auch an, an diesem hellen
Ende des Dynamic Range zu beginnen.
Man fotografiert nun eine Belichtungsserie, indem man von Bild zu Bild die
Belichtungszeit erhöht. Empfohlen ist, in einzelnen Belichtungsstufen vorzugehen, oft reicht es auch aus, die Bilder im Abstand von 2 Belichtungsstufen zu
machen. Als Faustregel gilt: jeder Pixel sollte auf mindestens zwei Bildern gut
zu erkennen sein – also weder über- noch unterbelichtet sein [23]. Ist man sich
unsicher, fotografiert man lieber in kleineren Schritten.
3.3.2. Welche Kamera? Analog oder Digital?
Analoge Kameras bieten eine weitaus bessere Auflösung, sowie wie oben
beschrieben einen grösseren Dynamic Range in jeder einzelnen Aufnahme. Mit
einem 48 bit Negativscanner hat man damit bessere Grunddaten für die spätere
Rekonstruktion des HDRIs. COHEN [3] schätzt aber vor allem den Geschwindigkeitsvorteil: „Digital cameras always need time to write the image to the card,
but with analoge all you are waiting for is the shutter.“ Und gerade wenn man
die Beleuchtung an einem Filmset einfangen will, ist Zeit knapp. Alle Requisiten,
Beleuchter und Gaffer müssen in Position bleiben, und da kostet jede Sekunde
teures Geld. COHEN [3] empfiehlt daher auch die Verwendung programmierbarer
Spiegelreflexkameras, die auf einen Knopfdruck automatisch durch alle Belichtungszeiten gehen.
32
Nachteile analoger Kameras sind, daß man keine direkte Kontrollmöglichkeit
hat, sondern auf Entwicklung warten muß. Außerdem enthalten die Bilder keine
Belichtungsdaten - die muß man gesondert notieren. Die spätere Rekonstruktion
des HDRI ist dadurch mit erheblichem Mehraufwand verbunden, und muß
in HDRShop durchgeführt werden. Das ist auch deswegen ungünstig, weil
HDRShop (wie später beschrieben) keine Funktion anbietet um die einzelnen
Bilder horizontal und vertikal aufeinander anzupassen. Doch gerade bei der
Entwicklung analoger Bilder treten solche Verschiebungen immer wieder auf,
bedingt durch Toleranzen des Filmschlittens in kommerziellen Entwicklungsmaschinen. Man muß also alle Bilder der Belichtungsserie mühsam in Photoshop aufeinander passen.
Digitale Kameras befreien von diesen Problemen. Blende und Belichtungszeit
sind in der sogenannten EXIF-Datenspur enthalten, und können beispielsweise
mit Photoshop oder ACDSee ausgelesen werden. Bei hochwertigen Kameras
kann man die Kamera von einem Laptop aus fernsteuern. Ein einfaches Kabel
mit Auslöserknopf, wie es als Sonderzubehör bei vielen Kameras erhältlich ist,
reicht meist nicht aus. Dann müßte man ja immer noch die Kamera anfassen,
um die Belichtungszeit zu verstellen. Und gerade beim Verstellen der Belichtungszeit sind kleine Wackler kaum zu vermeiden. Mit einer geeigneten Fernsteuerung jedoch passen digitale Bilder pixelgenau übereinander. Selbstverständlich ist auch die langfristige Kostenersparnis zu erwähnen, denn gerade
bei Belichtungsreihen für Panoramabilder kommen im Schnitt 30 Aufnahmen pro
Motiv zusammen.
Allerdings ist die Wahl der richtigen Digitalkamera wichtig. Normale CCDs leiden
unter dem sogenannten Pixelbleeding-Effekt. Richtet man das Objektiv direkt
auf eine Lichtquelle, pflanzt sich die extreme Überspannung durch die gesamte
Pixelspalte fort und es entstehen weiße Striche im Bild. Kameras mit CMOSSensor sind besser geeignet, denn dieser Sensor entspricht in seinem
Ansprechverhalten eher dem von Filmmaterial (siehe Abschnitt 3.1.3.). Auch
sollte man bei der Wahl der Kamera auf einen möglichst großen Sensor achten,
hohe Auflösung, ein Objektivgewinde, und einen vollmanuellen Modus. Besonders vorteilhaft ist auch eine Belichtungsreihen-Funktion (Auto Bracketing), die
automatisch mehrere Bilder mit verschiedener Belichtungszeit aufnimmt. Empfehlenswert sind die Serien Canon EOS und Nikon Coolpix.
Nachteile auch hochwertiger Digitalkameras sind immer noch die Verzögerung
durch die Speicherzeit, und der geringe Dynamic Range der einzelnen Aufnahmen – der mit zusätzlichen Aufnahmen kompensiert werden muss.
33
Tabelle 5 zeigt den geschätzten Aufwand im Vergleich.
Tabelle 5: Aufwandsschätzung Analog/Digital
Auflösung
Zeitaufwand
pro Reihe
Zeitaufwand
pro Reihe
am Set
für HDRI Generation
Analog
hoch
Ca. 4 sec
Ca. 4 h (+24 h für
Entwicklung und
Filmscannen)
Digital
niedrig
Ca. 20 sec
Ca. 30 sec
Fazit:
Digitale Kameras vereinfachen und verkürzen den gesamten Prozess der HDRI
Aquisition, und sind prinzipiell vorzuziehen. Bei einer Filmproduktion jedoch, wo
die Zeit am Set wesentlich wertvoller ist als die Zeit für die Nachbearbeitung, ist
eine analoge Ausrüstung angebrachter.
3.3.3. Kalibrierung
Jede Kamera führt nichtlinare Faktoren in die aufgenommenen Pixelwerte ein
[24]. Das liegt an der spektralen Empfindlichkeit der CCD Bauteile. Auch die
kamerainterne Software, die darauf geeicht ist eine nichtlineare Filmkurve zu
emulieren, verändert die Pixelwerte beim Codieren und Speichern. Die resultierende Verfälschung des Motivs ist hochgradig nichtlinear, kann aber durch einen
speziellen Algorithmus aus einer Belichtungsreihe zurückverfolgt werden. Alles
was man dazu braucht ist eine Belichtungsreihe von einem kontrastreichen Motiv
mit möglichst kleinen Abständen.
In HDRShop ist dieser Kalibrierungsprozess sehr transparent und anschaulich.
Unter „CreateàCalibrate Camera Curve“ erreicht man das Kalibrierungsfenster
(Bild 16) und kann dort die Reihe einladen. HDRShop ordnet die Bilder automatisch nach ihrer Helligkeit. Trotzdem muß man die Tabelle noch vervollständigen
um sie miteinander ins Verhältnis zu setzen. Dabei trägt man die Schrittweite der
Belichtungsstufen in die Spalte „Rel. Stops“ ein. Hat man die Serie in gleichmäßigen Intervallen aufgenommen, kann man auch von den Presets wählen.
In der Praxis ist es empfehlenswert, die Bilder vorher umzubenennen [35].
Kryptische Dateinamen wie „PICT4335.JPG“ sind für die Kontrolle dieser Tabelle
sehr ungeeignet. Besser ist es, wenn man mit ACDSee oder Photoshop die
Belichtungszeit ausliest, und diese in den Dateinamen überträgt.
34
Bild 16: Einordnen der Kalibrierungsserie in HDRShop.
Die eigentliche Kalibrierung ist dann eine iterative Berechnung und läuft automatisch ab. Es entstehen 3 Kurven, die das Verhältnis von Motivhelligkeit und
Pixelwert beschreiben. Diese Verhältnisse bleiben bei Digitalkameras konstant,
solange man immer gleiche ISO-Einstellung und Weißabgleich benutzt. Dann
braucht die Kalibrierung nur einmal durchgeführt werden. Das hat den Vorteil, daß
man diese Kamerakurve aus einer fein abgestuften Belichtungsreihe von einem
Motiv mit besonders hohen Dynamic Range erstellen kann, und das gespeicherte
Ergebnis auf grober abgestufte Belichtungsreihen anwenden kann.
Arbeitet man jedoch mit analogen Fotos, verändern sich die Einflußfaktoren bei
jedem Wechsel der Filmrolle [24]. Auch die Entwicklung des Filmes, die nie auf
ein und derselben Entwicklungsmaschine passiert, verändert die nichtlinearen
Faktoren. Daher muß diese Kalibrierung bei jeder analogen Belichtungsreihe neu
durchgeführt werden.
Positiv hervorzuheben an
HDRShop ist, daß man direkten Einfluß auf die Genauigkeit
dieser Kalibrierung hat. Die iterative Berechnung läuft solange
weiter, bis man sie abbricht.
Außerdem hat man die Möglichkeit die Kurven mit „Regularize“ nachträglich zu glätten,
was sich besonders bei verrauschten oder nicht ganz paßgenauen Bildsequenzen als
nützlich erweist.
Bild 17: Erstellen der Kalibrierungskurve in HDRShop
35
In PhotoSphere dagegen läuft diese Kalibrierung vollautomatisch, also ohne
Eingriff des Benutzers, ab. Man hat immerhin noch die Möglichkeit, jederzeit
eine neue Kamerakurve erzeugen zu lassen. So ist gewährleistet, daß die
Kurve aus einer optimalen Belichtungsserie mit größtmöglichem Motivrange zur
Kalibrierung verwendet wird.
Photogenics dagegen kalibriert seine Algorithmen anhand jeder neuen Belichtungsserie neu.
3.3.4. Rekonstrukion des HDRI
Mit HDRShop kann man nun auch die Bildsequenz kombinieren. Dazu werden
wieder die Belichtungsintervalle in eine ähnliche Tabelle eingetragen (Bild 18).
Bild 18: Einordnen der Belichtungsstufen zur HDRI Rekonstruktion in HDRShop
Diese manuelle Eingabe der Werte erfordert nicht nur die Fachkenntnisse des
Benutzers, sondern ist bei digitalen Fotos geradezu lästig. Denn die notwendigen
Informationen sind in den Bildern enthalten. Auch hier ist es wieder sehr zu empfehlen, die EXIF-Daten vorher auszulesen, und im Dateinamen zu verschlüsseln.
Außerdem ist HDRShop nicht in der Lage, das generierte Bild in einer absoluten
Helligkeitsskala einzuordnen. Wie in der Spalte „Abs. Stops“ (Bild 18) ersichtlich,
wird immer das dunkelste Bild eine Belichtungsreihe als Nullpunkt angesehen.
Zwar stehen die erzeugten Pixelwerte in denselben Verhältnissen zueinander
wie die korrespondierenden Motivhelligkeiten, doch die erzeugten Bilder sind nur
in sich selbst proportional. Die Pixelwerte erlauben weder direkten Rückschluß
auf die tatsächliche Leuchtkraft des Motivs, noch kann man verschiedene HDRBilder ohne weiteres miteinander ins Verhältnis setzen.
36
Um das HDRI zu benutzen, muß man es erst nachbelichten. Mit der Taste „+“
verschiebt man den angezeigten Ausschnitt des Dynamic Range bis man ein
optisch gut erkennbares Bild hat. In den meisten Fällen entspricht das etwa der
mittleren Belichtung aus der Serie. Hat man also beispielsweise 8 Quellbilder
kombiniert, ist bei +3.5 EV die gut sichtbare Mitte (siehe Bild 64). Mit dem
Menüpunkt „ImageàPixelsàScale to Current Exposure“ wird das HDRI dann
fixiert. Die Farbwerte werden dabei nicht abgeschnitten, sondern nur für die
bessere Weiterbearbeitung auf dem Monitor verschoben.
Bild 19: Nachbelichten auf mittlere Belichtung der Serie
Man kann sich diese Vorbehandlung analog zur klassischen Filmentwicklung
vorstellen: Aufnehmen, Nachbelichten, Fixieren. Nur mit dem Unterschied, daß
man mit dem HDRI vollkommen non-destrukiv arbeitet.
Sehr ähnlich funktioniert die Rekonstruktion
eines HDRI in Photogenics. Laut Herstellerangaben [22] liest es zwar die Belichtungsdaten
aus den EXIF-Header, doch funktionierte das
im Praxistest nicht mit allen Kameras. Alternativ
zur automatischen Erkennung kann man auch
die Belichtungsdaten in einer Tabelle eintragen.
Diese erlaubt zwar weniger Optionen, ist aber
dafür weitaus übersichtlicher als in HDRShop
(Siehe Bild 20). Gerade dem weniger erfahrenen
Benutzer kommt die direkte Eingabe der Belichtungszeit anstatt Lichtwertabständen entgegen.
Bild 20: HDRI Rekonstruktion in Photogenics
37
Ein besonderes Bonbon hält Photogenics für die Besitzer bestimmter CanonKameras parat. Die Modelle S30,S40,G2 sowie die High-End Modelle D30 und
D60pro können per USB-Kabel ferngesteuert werden. Mit dem Dialogfeld in
Bild 21 wird dann automatisch eine Belichtungsserie aufgenommen, heruntergeladen, und zu einem HDRI kombiniert.
Bild 21: Ferngesteuerte Automatische HDRI-Aufnahme in Photogenics
So komfortabel und benutzerfreundlich das auch klingt, der Schwachpunkt von
Photogenics liegt in den eigentlichen Kombinationsalgorithmen. Diese bauen
die einzelnen Belichtungsstufen nur anhand einer allgemeinen Gamma-Kurve
zusammen, eine exakte Kalibrierung ist nicht möglich. Das mag zwar in vielen
Fällen funktionieren, bietet jedoch keine Präzision in Sachen Farbechtheit.
Eine gute Kombination aus Benutzerfreundlichkeit und wissenschaftlicher
Präzision stellt dagegen Photosphere dar.
Hier genügt es, alle Bilder der Belichtungsreihe anhand von Thumbnails auszuwählen, um dann auf MakeHDR aus dem File-Menü zu klicken (Bild 21).
Daraufhin taucht ein Dailogfeld auf, in dem man nur noch OK klicken braucht
(Bild 22).
38
Bild 22: Auswahl der Belichtungsserie in PhotoSphere
Bild 23: HDRI Rekonstruktion in PhotoSphere
Alle erforderlichen Belichtungsdaten liest Photosphere aus dem EXIF-Header.
Erkennt es anhand dieses Headers, daß die Bilder mit einer ihm noch unbekannten Kamera aufgenommen wurden, führt es vollautomatisch eine neue
Kalibrierung durch. Andernfalls verwendet es von selbst die zugehörige Kalibrierungskurve. (In HDRShop muß diese immer wieder von Hand lokalisiert werden).
PhotoSphere erkennt es sogar, wenn die neue Belichtungsserie einen höheren
Dynamic Range hat als die Kalibrierungsserie. Dann schlägt es automatisch vor,
eine neue Kurve aus der neuen Serie zu ermitteln.
Einzigartig in Photosphere ist auch die Align-Funktion, die alle Bilder der
Belichtungsreihe pixelgenau aufeinander anpasst. Der entsprechende
Algorithmus arbeitet sehr schnell und führt in 85% der Fälle zu einem
perfekten Ergebnis [20].
39
Die Funktionsweise [20] ist in Bild
24 dargestellt. Zuerst wendet er
einen Median Threshold Bitmap
(MTB) Filter auf zwei benachbarte
Belichtungsstufen an. Dann werden
die Bilder mehrfach auf die Hälfte
ihrer Auflösung skaliert, und damit
eine Bilder-Pyramide aufgebaut.
Auf der kleinsten Stufe werden die
Bilder dann horizontal und vertikal
um einen Pixel verschoben und
auf Kongruenz getestet. Dieser eine
Pixel entspricht 32 Pixeln der OrigiBild 24: Bilder-Pyramide des MTB-Align-Algorithmus
nalbilder. Passen sie aufeinander,
wird die Richtung gemerkt und die
auf die nächstgrößere Auflösungsstufe übertragen. Auch diese wird dann wieder
um einen Pixel verschoben, bis sie auch in dieser Auflösung passgenau sind.
Diese Schritte werden iterativ immer wieder wierderholt, bis die zwei benachbarten Belichtungsstufen in ihrer vollen Auflösung aufeinander passen. Dann wird
die ganze Prozedur mit dem nächsten zwei Belichtungsstufen wiederholt, so daß
am Ende alle Bilder der ganzen Serie paßgenau sind.
Dieser Algorithmus ist so robust, daß er beispielsweise im Bild 25 sogar die
Bewegung der Wolken kompensieren konnte.
Alle Belichtungsstufen, die hauptsächlich Wolken zeigen, wurden
gemeinsam gegen die Bilder verschoben, auf denen der Himmel
überstrahlt war. Die schwarze Linie
am linken Rand kommt allein durch
diese Verschiebung zustande, und
markiert die Reichweite dieser
Anpassung.
Alles was der Benutzer von dieser
Prozedur mitbekommt, ist ein zügig
wachsender Fortschrittsbalken,
begleitet von dem Gedanken wie
lange diese Feinanpassung per
Hand wohl dauern würde.
Bild 25: Leistungsfähigkeit des Align Algorithmus
40
Im Unterschied zu den anderen beiden Programmen konserviert Photosphere
auch eine Vielzahl von Daten im Dateiheader des generierten HDR Bildes
(Siehe Bild 26).
Bild 26: Vergleich der Radiance(.HDR) Dateiheader, generiert
von Photosphere, HDRShop und Photogenics
Speziell die Variable „Exposure“ ist interessant. Das ist ein Faktor der sich aus
der Kombination von Belichtungszeit, Blendenwert und Filmempfindlichkeit (ISOWert) der Quellbilder ermittelt. Die generierten HDR-Pixelwerte werden damit an
der Helligkeitsskala der echten Welt gemessen. Klickt man in Photosphere in das
Bild oder zieht man
einen Selektionsrahmen auf, kann
man lichttechnisch
korrekte Strahlungswerte ablesen. So
hat beispielsweise
die Wolke im Bild 27
eine Beleuchtungsstärke von knapp
über 20.000 lux
(bzw. cd/m²).
Bild 27: Lichttechnisch korrekte Ausmessung der Wolke
41
Der größte Vorteil von Photosphere, nämlich die intelligente Interpretation der
Metadaten, ist auch seine Achillesferse. Liegen diese Daten nicht vor, wie
beispielsweise bei Scans analoger Photos, verweigert Photosphere’s Kombinationsalgorithmus die Arbeit.
In einem optischen Qualitätsvergleich liegt Photosphere qualitativ weit vorn. Wie
in den Bildern 28 und 29 gut zu erkennen ist, haben HDRShop und Photogenics
große Probleme an kontrastreichen Kanten. Das Ergebnis ist hier maßgeblich
davon abhängig, wie genau die einzelnen Bilder aufeinander passen. Ist auch
nur eine Belichtungsstufe verrutscht, kommt es zu bildweiten Fehlinterpretationen. Das Bild wird unschärfer, und an Kanten tritt hochfrequentes Rauschen auf
(Siehe 28 B) oder die einzelnen Belichtungsstufen sind geisterhaft überlagert
(siehe 29 C).
Bild 28: Qualitätsvergleich von PhotoSpere (A), HDRShop (B), Photogenics (C)
Bild 29: Qualitätsvergleich am Detail von PhotoSphere (A), HDRShop (B), Photogenics (C)
Als Fazit ist PhotoSphere für die Generierung von HDR-Bildern unbedingt zu
empfehlen. Es ist einfacher zu bedienen und liefert bessere Ergebnisse. Einzig
und allein, wenn die Belichtungsserie mit einer analogen Kamera aufgenommen
wurde, ist HDRShop das Werkzeug der Wahl.
42
4.
Anwendung in der Bildbearbeitung
4.1. Belichtungskontrolle
Das Nachbelichten wurde schon im Kapitel 4.3.4. erwähnt. Es ist sehr wichtig
die Tragweite dieser neuen Möglichkeit zu erfassen. Nachträgliche Kontrolle über
die Belichtung ist der Traum eines jeden Fotografen. Mit den Farbwerten eines
HDR-Bildes kann man so virtuos umgehen wie ein Tontechniker mit einer 64 kHz
Tonstudioaufnahme. Übliche 8 Bit Bilder entsprechen in diesem Vergleich eher
dem Langwellenradio.
Bild 30: kreative Belichtungskontrolle des am Beispiel Schindler House
43
Das Bild 30 zeigt beispielsweise eine besonders schwierige Gegenlichtaufnahme im Hof des Schindler Hauses. Nur ein sehr erfahrener Fotograf
weiß diese Situation mit geeigneten Objektivfiltern und dem Vertrauen in sein
Können zu meistern. Wie die einzelnen Bilder der Belichtungsreihe zeigen, kann
man mit einer Standardkamera entweder auf die Lichter oder auf die Schatten
belichten. Diese Reihe wurde übrigends aus der Hand geschossen, mit der
Auto-Bracketing Funktion der Minolta Dimage5. Das Kombinieren zu einem
HDRI nahm 2 Minuten in Photosphere in Anspruch – inclusive Herunterladen
der Bilder.
Auf dem PC wurde das HDRI dann in Digital Fusion geladen, und einer umfangreichen Farbkorrektur unterzogen. Gamma und Gain wurden zuerst justiert,
dann noch ein Braunton in die Schatten gemischt, die Lichter der unteren Bildhälfte mit einem dezenten Glow versehen. Zum Schluß wurde noch mit einem
Dent-Filter die Linsenkrümmung entzerrt. Das Ergebnis dieser Nachbearbeitung
ist eine Symbiose aus allen Details der Belichtungsserie, ein Foto welches so
niemals geschossen wurde.
Aber auch subtilere Korrekturen können manchmal Details hervorbringen, die
bei herkömmlichen Bildern verloren wären. Bild 31A zeigt beispielsweise ein
leicht überbelichtetes Foto.
Bild 31: Gain-Reduktion im Detail: Original (A), 8-Bit Ergebnis (B), HDRI Ergebnis (C)
Der nur einen Pixel breite Balken am rechten Rand des Histogramms zeigt
die abgeschnittenen Farbwerte an. Durch eine Gain-Korrektur an einem normalen 8-Bit Bild wird dieser Ausschlag nur nach links verschoben. Das Highlight
verwandelt sich in eine matschig graue Fläche, das Bild verliert insgesamt an
Kontrast. Wird dieselbe Gain-Korrektur an einem HDRI durchgeführt, verteilt
44
sich der Balken im Histogramm auf die ganze Breite der verfügbaren Werte
(siehe Bild 31c). Aus den überbelichteten Highlights treten nun ganz klare Details
hervor. Man kann den Titel des Buches wieder lesen, und in der Reflektion an
Teekanne erscheint sogar das Fensterkreuz.
Bild 31c ist insgesamt kontrastreicher, und im Gegensatz zu Bild 31b sieht man
ihm nicht sofort an, daß es digital bearbeitet wurde.
Nun könnte man argumentieren, daß diese Details ja in der Belichtungsserie
fotografiert werden müssen. Könnte man da nicht gleich eines der anderen
Bilder nehmen? Das mag sein, doch dann hat man weiterhin nur die Auswahl
aus einer begrenzten Anzahl von Bildern – die übrigens zusammen weitaus
mehr Speicherplatz und Verwaltungsaufwand beanspruchen. Sind sie dagegen
in einem HDRI kombiniert, hat man stufenlose Kontrolle in einer einzigen Datei.
Außerdem ist wie beschrieben das Aufkommen von HDRI-Fotoapparate schon
absehbar, was den zusätzlichen Aufwand der Belichtungsserien eliminiert.
Heute schon möglich ist allerdings das direkte Speichern computergenerierter
Bilder als HDRI. Es kann nur als grobe Fahrlässigkeit gelten, davon nicht
Gebrauch zu machen, denn der zusätzliche Aufwand ist gleich Null.
Es macht beispielsweise wenig Sinn, nach einer Rechenzeit von 20 Minuten den
Großteil der errechneten Farbwerte abzuschneiden - allein durch die Wahl eines
LDR Speicherformates. Noch viel weniger Sinn macht es, ein gerendertes Bild
zu verwerfen, nur weil man die Beleuchtung herunterdrehen will. Im Beispiel 76a
ist so ein versehentlich überstrahltes Rendering gezeigt.
Bild 32: Belichtungskontrolle an einem HDRI-Rendering in Digital Fusion 4
Bild 32 zeigt den Brightness/Contrast Operator in Digital Fusion, der zur
„magischen“ Rettung des Renderings in Bild 31c führt. Die überstrahlten Stellen
zeigen nun wieder Details, das Highlight an der Grundplatte ist auf eine schmale
45
Linie begrenzt. Im Histogramm hat sich wieder der lange Maximum-Balken auf
das obere Drittel gleichmäßig verteilt.Dabei ist das genau derselbe Operator,
den man auch bei LDR Bildern benutzen würde. Die drastische Wirkung des
Gain-Reglers wird nur durch die Informationstiefe des Ausgangsmaterials hervorgerufen. Der Gamma-Regler dient hier als Gegengewicht, um die dunklen
Anteile nicht im schwarz zu verlieren. Auch die Sättigung wurde leicht angehoben, damit die Gain-Reduktion nicht die Farbanteile herauszieht.
Eine einfache Form der Nachbelichtung ist mit dem EXR-Import Plugin für
Photoshop möglich [14]. Bild 33 zeigt das Dialogfeld, was direkt nach der
Dateiauswahl erscheint.
Mit Exposure regelt man die Helligkeit,
der Gamma-Wert verstellt den
Kontrast. Die Vorschau hilft dabei die
richtigen Einstellungen zu finden. Mit
Klick auf OK wird das Bild dann im
16 Bit Modus geladen. Nun kann man
die Feinkorrektur mit den gewohnten
Photoshop Werkzeugen durchführen,
wie beispielsweise eine Tonwertkorrektur (siehe Bild 34).
Bild 33: EXR Import in Photoshop
Bild 34: Tonwertkorrektur in Photoshop im 16-Bit-Modus
46
So hat man zwar nicht mehr den ganzen Dynamic Range zur Verfügung, aber
16 Bit ist immer noch eine Präzisionsstufe genauer als 8 Bit. Bild 35 zeigt
den Vergleich: Das linke Histogramm zeigt das Ergebnis der Tonwertkorrektur in
16 Bit. Dieselbe Korrektur auf eine 8-Bit Version angewandt, zeigt ein deutlich
zittrigeres Histogramm, in den hellen Bereichen klaffen sogar kleine Lücken.
Bild 35: Histogrammvergleich
Ein EXR in Photoshop zu bearbeiten hat also seine Vorteile, und ist sicherlich
am einfachsten in den gewohnten Workflow zu integrieren. Dabei muß man sich
allerdings im Klaren darüber sein, daß dies keine echte HDR-Bildbearbeitung ist.
Auch in 16 Bit gibt es keine hellere Farbe als das Maximalweiss – nur daß hier
65000 statt 256 Abstufungen zur Verfügung stehen.
Das Arbeiten im echten High Dynamic Range bietet aber noch weitaus mehr
Vorteile.
4.2. Bewegungsunschärfe
Echte Bewegungsunschärfe kommt dadurch zustande, daß sich während der
Belichtungszeit das Motiv ändert. Manche Objekte, vor allem Lichtquellen, sind
jedoch so hell, daß sie auch in einem Bruchteil der Belichtungszeit zu einer
Bild 36: Fotografische Beispiele für extreme Bewegungsunschärfe durch Langzeitbelichtung
Sättigung der Filmschicht führen würden [4][23]. So kommt es, daß sie auf ihrem
Weg durch das Bild einen hellen, teilweise sogar gesättigten Schweif bilden. Bild
36 zeigt dieses optische Phänomen an echten Fotos.
47
In der Postproduktion wird Bewegungsunschärfe meist durch einen gerichteten
Weichzeichner simuliert. Üblich sind lineare, radiale, zentralverzerrte („Chrashzoom“), oder speziell vorberechnete Bewegungsvektoren. In allen dieser Fälle
werden die Pixel nur in Richtung eines Vektors verschmiert. Das funktioniert
auch in den meisten Fällen recht gut. Bis man jedoch Lichtquellen im Bild hat.
Die verwischen sich dann mit den dunklen Pixeln in der Umgebung, und es
entsteht ein unnatürlich verwaschenes Ergebnis wie in Beispiel 37.
Bild 36: Simulierte Bewegungsunschärfe (C) in Digital Fusion; Vergleich zwischen HDRI (A) und 8-Bit (B)
In Bild 37A wurde derselbe Filter auf ein HDRI angewandt. Hier haben die
Lichtquellen genügend Intensität, um auch nach dem Verwischen noch heller
als das Maximalweiß zu sein. Sieht man sich übrigends den Flow (Bild 37C)
genauer an, so stellt man fest daß hier ein sehr dunkles Radiance Bild geladen
und mit einem Brightness/Contrast Operator erst in den sichtbaren Bereich
gehoben wird. Dann gabelt sich der Flow. Ein Strang führt direkt zu dem
linken Blur Operator, dessen Ergebnis in 37A angezeigt wird. Dieser Strang ist
durchgängig in Fließkommapräzision gehalten. Der andere Seitenstrang jedoch
führt erst durch einen Change Depth Operator. Dort wird die Farbtiefe in 8 Bit
umgewandelt. Das Thumbnail sieht zwar noch genauso aus, doch der Dynamic
Range wurde auf den sichtbaren Teil beschnitten.
48
Ein Experiment Bild 38 zeigt eine verfeinerte Version der Bewegungsunschärfe,
und beweist daß der höhere Informationsgehalt allein für die bessere Qualität
verantwortlich ist. Selbst ein einfacher Translate-Operator kann dadurch ein
erstaunliches Ergebnis liefern.
Bild 38: Simulierte Bewegungsunschärfe mit dem Transform-Operator (C) am HDRI (A) und in 8-Bit (B)
In Abschnitt 38c ist der Translate-Operator zu sehen, dieser ist das Standardtool
um in Digital Fusion ein Bild zu animieren. Nun wurde es erst von Frame
0 bis Frame 2 zur Seite geschoben. Auf dem entstandenen Animatonspfad
(rot im Bild 38a) wurden dann Zwischenkeyframes verteilt und so der Pfad in
eine schöne Kurve geformt.
Nun braucht man nur noch den Translate Operator anweisen, die Bewegung
des Bildes mit Bewegungsunschärfe zu berechnen. Das tut er in Sub-Frame
Genauigkeit, und schiebt das Bild zwischen den Frames auch tatsächlich an
dem gekurvten Pfad entlang.
Tut er das auch noch an einem HDRI, kann man am Schweif der Lichtquellen
wunderbar den Pfad erkennen (Bild 38A). Das Resultat ist eine simulierte Bewegungsunscharfe, die in Dynamik und Kontrast an die Ästhetik eines verwackelten
Fotos erinnert.
49
4.3. Glow- und Bloom- Effekte
Im Handbuch einer Kamera steht meist, daß man nicht gegen die Sonne fotografieren soll. Das hat seinen guten Grund, denn die extreme Lichteinstrahlung
kann dann zum sogenannten Blooming („Ausbluten der Lichter“) führen [23].
Damit bezeichnet man die Ausbreitung der überschüssigen Intensität auf der
Bildebene. Benachbarte dunkle Bildteile werden dann überstrahlt, wie beispielsweise die Person im Bild 39A.
Bild 39: Fotografische Beispiele für Bloom- und Glow-Effekte
Auch bei Leuchtreklamen und Rücklichtern tritt dieser Effekt auf, und ist manchmal sogar erwünscht um eine bestimmte Bildästhetik zu schaffen (siehe Bild
39B) [4]. Dieser Effekt wird Glow oder Glühen genannt. Man beachte, daß der
Glow sehr intensiv die Farbe der jeweiligen Lichtquelle annimmt – das Rot der
Rücklichter beispielsweise.
Bild 40 zeigt in Digital Fusion
simulierten Glow. Beide
Bilder wurden mit dem
gleichen Glow-Filter belegt,
doch an der HDRI-Version
blutet deutlich die eigentliche
Farbe der Lichtquelle aus.
Bild 40: Simulierter Glow in Digital Fusion
Auch das nachbelichtete Bild
aus Kapitel 4.1. hat eine Behandlung mit dem Glow-Filter in Bild 41 bekommen.
Die Veränderung ist hier subtil, aber immer noch erkennbar.
50
Bild 41: HDRI-basierter Glow zum Aufpolieren der Glanzlichter
[Die Glanzlichter an den Kanten strahlen auch in die dunkleren Bereiche, und
geben dem Objekt einen goldigen Schimmer. Wohlgemerkt unterscheidet sich
dieser Glow von dem überbelichteten Originalbild, da es sich um die Simulation
eines Effektes auf dem Filmmaterial handelt.
4.4. simulierte Filmbelichtung
Auch komplexere Methoden zur Simulation von Film sind mit HDRIs möglich.
Die Virtual Darkroom Technologie [97] beispielsweise macht sich die physikalisch
korrekte Repräsentation von Helligkeitswerten zunutze, indem sie sämtliche
Schritte der analogen Filmbelichtung auf diesen Datensatz anwendet. Dabei
werden die HDRI-Tonwerte zuerst mit einer Filmkurve transformiert, um die
Abbildung von Welthelligkeiten in belichtete Filmwerte zu simulieren. Dabei
werden auch Belichtungszeit, Blende, Filmkörnung und Streulicht berücksichigt.
Dann wird die Entwicklung des Negativs zum Positiv anhand der entsprechenden Transferkurven echten Filmmaterials simuliert. Diese Kurven basieren auf
Meßwerten echten Filmmaterials, und repräsentieren immer die Charakteristik
eines spezifischen Filmstocks.
Diese simulierte Filmbelichtung generiert automatisch Effekte wie Glow, Farbstich, Rauschen, und Flackern.
51
Die bislang einzige Implementierung in einer Postproduktionssoftware ist ein
Lightwave PlugIn [37] (Siehe Bild 42).
Bild 42: Virtual Darkroom, Plugin-Komponenten und Beispiele
Die Unterschiede in den Beispielbildern sind sehr subtil, entsprechen aber exakt
dem Look des spezifischen Films. Die Auswahl an vorgegebenen „digitalen
Filmstocks“ ist sehr begrenzt.
In der Theorie ist diese Technologie ideal geeignet für Postproduktionsfirmen, die
Filmeffekte herstellen. Das würde jedoch voraussetzen, daß sie Zugriff auf das
Originalfilmmaterial bekommen, und eine Möglichkeit haben diese spezifischen
Transferkurven zu ermitteln. Beides ist in der Praxis problematisch, deshalb wird
diese vielversprechende Technologie selten genutzt.
Einer größeren Verbreitung zuträglich wäre die Implementierung des Virtual Darkrooms in HDR-fähige Compositing Systeme. Hier besteht noch Nachholbedarf
für Entwickler, der Markt und die Technologie sind vorhanden.
52
5.
HDR Environments
HDR Environments sind Panoramabilder mit einem High Dynamic Range. Die
Methoden zur Erstellung sind daher eine Symbiose aus der beschriebenen
Rekonstruktion eines HDRI aus Belichtungsserien und der Panoramafotografie.
Dabei baut die Panoramafotografie auf eine Tradition, die fast bis zu den Anfängen der Fotografie zurückreicht. Inzwischen haben sich 4 verschiedene Methoden etabliert, die sich prinzipiell in dem Verhältnis von Hardware- und Arbeitsaufwand unterscheiden [38][39]. Mit speziellem Equipment kann man sehr schnell
und einfach zu Ergebnissen kommen. Nimmt man jedoch einen höheren Arbeitsund Zeitaufwand in Kauf, kann man durchaus auch mit einfachen Mitteln zu
gleichwertigen Ergebnissen kommen. Insofern haben alle 4 Methoden ihre
Berechtigung.
5.1. One Shot Technik
Das ist der denkbar einfachste Idealfall für den Benutzere. In der klassischen
Ausführung wird dies durch eine rotierende Kamera erreicht, die durch eine
vertikale Schlitzblende einen langen Negativstreifen belichtet. Diese Technik wird
Panoramascan oder Rotationsscan genannt [39].
Bild 43: Klassische One-Shot Panorama Kameras, v.l.n.r.: Gluboscope, Roundshot, Voyageur II,
Lookaround Panoramic Camera
Modernere Rotationskameras wie die Eyescan von der Firma KST arbeiten
bereits digital, wenn auch im Low Dynamic Range.
Eine Rotationskamera ganz besonderer Art ist die SpheroCamHDR [40] (vor
Mai 2003 unter dem Namen PanoCamHDR vertrieben). Diese ist in der Lage,
Panoramen mit einem Dynamic Range von 26 Belichtungsstufen und einem
Format von bis zu 5.300 x 13.000 Pixeln gestochen scharf aufzunehmen. Sie ist
bislang die einzige Möglichkeit, volle HDR-Environments mit nur einem einzigen
Arbeitsschritt zu erzeugen. Wie die digitalen Mittelformatkameras ist auch
sie auf die Ansteuerung durch einem Hostcomputer angewiesen. Allerdings
aus einem anderen Grund, denn die SpheroCam HDR ist in Wahrheit ein
sehr komplexes System verschiedenster Hard- und Software. Herzstück ist ein
53
elektronisch gesteuerter Panoramastativkopf, der eine Kamera mit Fischaugenoptik schrittweise um 360 Grad dreht. Die Steuersoftware nimmt in jede
Richtung eine Vielzahl von Bildern mit verschiedener Belichtungszeit auf. Eine
integrierte und vorkalibrierte Bildbearbeitungssoftware korrigiert dann die Linsenverzerrung, kombiniert die verschiedenen Belichtungszeiten, und setzt die
unterschiedlichen Blickwinkel zu einem Panoramabild zusammen.
Das passiert alles automatisch, der Benutzer muß nur auf den Auslöser drücken.
Das heißt, er drückt natürlich auf den Start Button in der Steuersoftware (siehe
Bild 44).
Bild 44: SpheroCamHDR Steuersoftware
Erhältlich ist dieses Kamerasystem nur direkt vom deutschen Hersteller SpheronVR [40], zu einem Preis von 48.600 € (Preisliste Januar 2003).
5.2. Segment Technik
Auch durch schrittweises Drehen einer gewöhnlichen Kamera kann ein Panorama erzeugt werden [39]. Je nach Öffnungswinkel
des Objektivs benötigt man 12 bis 18 Bilder, mit jeweils
etwa 25% bis 50% Überlappung (siehe Bild 45), um
eine volle 360° Drehung aufzunehmen. Für ein volles
Panorama muß man etwa 4 dieser horizontalen Reihen
aufnehmen, um die auch die vertikalen 180° Blickwinkel
abzudecken [35].
Bild 45: Segment Technik
54
Für optimale Segmentierung bietet der Fach
handel spezielle Stativköpfe mit einstellbare
Winkelraster an [38]. Diese ermöglichen auch
die Drehung der Kamera um den Brennpunkt
der Linse, was die perspektivische Verschiebung
zwischen den Blickwinkeln minimiert. Erhältlich
sind diese Köpfe für die Nikon Coolpix 900/950 für
€ 160,- bis € 250,- von der Firma Kaidan, sowie
passend für alle Kameras für € 1500,- von iMove
(siehe Bild 46).
Bild 46: iMove Panoramakopf
Hierbei muß für das Einfangen des vollen Dynamic Range jeder einzelne Blickwinkel mit mindestens 6 verschiedenen Belichtungszeiten fotografiert werden.
Insgesamt hat man also etwa 300 bis 400 Bilder zu fotografieren. Die benötigte
Zeit und Arbeitsaufwand sind dementsprechend immens.
Für das Zusammenfügen der einzelnen Segmente hat man die Wahl aus 22
verschiedene Stitching Programmen. Doch nicht ein einziges kann mit HDRBildern arbeiten. Das bedeutet, man muß zuerst alle Segmente einer Belichtungsstufe zu einem Panorama zusammenbauen, und dann die Low-DynamicRange Panoramen zu einem HDR Panorama kombinieren.
DOWNING [35], der diese Art der HDR Panoramageneration intensiv untersucht
hat, schlägt daher folgenden Workflow vor:
1. Jeder Blickwinkel wird mit dergleichen Belichtungsreihe fotografiert, etwa
1/2048 sec, 1/512 sec, 1/128 sec, 1/32 sec, 1/8 sec, 1/2 sec.
2. Für jeden Lichtwert wird ein Ordner angelegt, in dem alle Blickwinkel mit
demselben Lichtwert gesammelt werden.
3. Bildern mit gleichen Blickwinkeln werden jeweils identische Dateinamen
gegeben.
4. Mit dem „Realviz Stitcher“ wird zuerst die noch leere Projektdatei im
mittleren Lichtwert Ordner, der die meisten Details zeigt, gespeichert.
Dann wird aus den Blickwinkeln in diesem Ordner das erste Panorama
angefertigt.
5. Nun kann man die Realviz Projektdatei in die anderen Lichtwert Ordner
kopieren. Da die Bildpfade darin relativ gespeichert sind, werden automa-
55
tisch beim Laden alle Blickwinkel der nächsten Belichtungsstufe zu einem
korrekten Panorama angeordnet.
6. Die entstandenen Low-Dynamic-Range Panoramen werden dann in
HDRShop zu einem HDR Panorama kombiniert.
Anstatt des Realviz Stitchers kann man natürlich auch eine andere Stitching
Software verwenden, solange diese Entzerrungsdaten separat speichern,
anwenden, und mit relativen Pfaden operieren kann [38]. Doch auch mit dieser
Vorgehensweise ist der Aufwand enorm. Allein das Fotografieren und die Dateiverwaltung nehmen viel Zeit und Geduld in Anspruch. Im Gegenzug ist aber
auch das resultierende HDR-Panorama enorm groß und detailliert.
Empfehlenswert ist diese Methode, wenn man wirklich die höchstmögliche Auflösung und Qualität braucht.
5.3. Spiegel Technik
5.3.1. Das Prinzip
Mit herkömmlichen Linsenobjektiven kann man das Sichtfeld einer Kamera nicht
unbegrenzt ausweiten. Das Maximum liegt bei 180°. Physikalisch kann der
Strahlengang aus einem Objektiv, auch nicht durch ausgetüftelte Linsensysteme,
hinter die Kamera gelenkt werden.
Bei der Spiegeltechnik dagegen wird die Umgebung nicht direkt fotografiert,
sondern deren Spiegelung. Damit bestimmt der Aufbau des Spiegels den Öffnungswinkel.
Bild 47: Spiegelobjektive, v.l.n.r: Birdeye, Fullview, Surroundphoto, Omnieye, BeHere, ParaShot
Dieser Ansatz ist nicht neu, seit den 70er Jahren sind die verschiedensten
Spiegelformen hergestellt worden. Die Palette reicht von kaleidoskopartigen
Prismenspiegel über konkave und konvexe Spiegel [39]. Bild 47 zeigt einige
dieser Exemplare. Damals wurde eine kompakte Bauweise nach Vorbild der
Linsenobjektive angestrebt. Hauptabnehmer dieser Technologie war die Überwachungstechnik. Deshalb sollte die gesamte Kamera möglichst klein und kompakt
sein. Hinter vielen der getönten Halbkugeln an Kaufhausdecken finden sich eben
56
diese Spiegelobjektive. Die Kamera erfasst tatsächlich den ganzen Raum, und
nicht wie vielfach angenommen nur worauf sie versteckt gerichtet ist.
Die größte Verbreitung finden die konvexen, also zur Linse hin gewölbten
Spiegel. Viele der Hersteller liefern eigene Software zur Entzerrung der Bilder
mit, die für die jeweilige Spiegelgeometrie optimiert ist. Gemeinsamer Schwachpunkt ist allerdings der kurze Abstand von Kamera und Spiegel, was den
effektiven Blickwinkel einschränkt und eine se hr große Spiegelung von Kamera
und Fotograf zur Folge hat. Erhältlich sind diese Spezialobjektive für durchschnittlich €1000,- [39].
Mit einer spiegelnden Kugel ist es möglich, fast
die gesamte Umgebung mit nur einer einzigen
Belichtungsreihe zu fotografieren [23]. Die Sehstrahlen direkt am Rand der Kugel werden in einem
so flachen Winkel reflektiert, daß dort tatsächlich
auch die Objekte hinter der Kugel abgebildet werden
– wenn auch extrem verzerrter Form. Bild 48 zeigt
den Strahlenverlauf.
Spiegelkugel
parallele
Sehstrahlen
(idealisiert)
Es gibt einen blinden Fleck direkt hinter der Kugel,
Bild 48: Spiegel Technik
und der Fotograf ist selbstverständlich auch in der
Kugel zu sehen. Eine bessere Qualität erreicht man
daher, wenn man die Kugel von mehreren Seiten fotografiert. Zwei um 90°
versetzte Blickwinkel sind gut geeignet bei einer perfekt runden Kugel, wie etwa
einer polierten Stahlkugel aus dem Fachhandel für Maschinenbau [23], oder
einer Flipperkugel. Auch eine Suppenkelle von einem Markenhersteller wie WMF
läßt sich für diese Zwecke mißbrauchen [41]. Beim Kauf sollte man darauf
achten, daß die Polierrichtung des Metalls nicht zu sehen ist, und die Oberfläche
keine Kratzer aufweist.
Die billigste Variante ist eine verspiegelte Glaskugel, erhältlich unter der
Bezeichnung „Rosenkugel“ in der Gartenabteilung des lokalen Baumarkts. Diese
Glaskugeln weisen allerdings mittlere bis grobe Unebenheiten auf. Da die Spiegelschicht von der Innenseite aufgebracht ist, kann man auch eine überlagerte
Zweitspiegelung an der Oberfläche des Glases erkennen. Besonders an den
Rändern, wo der flache Blickwinkel auf die Glasoberfläche zu einer Totalreflexion
führt, wirkt sich das sehr störend aus.
Nichtsdestotrotz kann auch eine Glaskugel zu befriedigenden Ergebnissen
führen, wenn mehr als 2 Blickwinkel aufnommen werden. Mit 3 Belichtungsserien
hat man schon genug Bildmaterial, um die groben Fehler wegzuretuschieren.
57
5.3.2. Das Fotografieren
Wie geht man nun konkret vor?
Die Kugel wird zuerst auf ein eigenes Stativ montiert. Dabei ist ein wenig Phantasie gefragt. Gut läßt sind beispielsweise eine Rosenkugel auf ein Universalstativ
montieren, indem man den Hals der Rosenkugel an der runden Feststellscheibe
des Stativs mit Hilfe von Paketklebeband fixiert.
Danach wird die Kugel im gewünschten Zentrum des Panoramas plaziert, also in
der Position, in der später das 3D Objekt scheinbar stehen soll. Dann stellt man
die Kamera auf die maximale Zoomstufe, und entfernt sich soweit zurück bis die
Kugel gerade bildfüllend ist. Damit erreicht man zum einen, daß die Spiegelung
des Fotografen so klein wie möglich ist. Zum anderen ist ein paralleler Lauf
der Sehstrahlen erforderlich um die sphärischen Bildverzerrung korrekt in ein
Panorama umzuwandeln [2][18][23]. Im theoretischen Idealfall ist man unendlich
weit weg, und fotografiert durch ein Teleobjektiv mit unendlicher Brennweite.
In der Realität erlaubt ein 7facher Kamerazoom einen ausreichenden Abstand
von 7 Metern.bei einer Kugel von 40 cm Durchmesser. Aus diesem Grund
empfiehlt sich in engen Räumen auch
die Verwendung einer kleineren Kugel.
Die Kamera wird wie in Bild 49 auf ein
auf einem zweiten Stativ montiert. Ein
hochwertiges Stativ mit Wasserwaage
ist hilfreich für eine exakt horizontale
Ausrichtung. Um die Kugel im Bildausschnitt zu zentrieren, verstellt man
die Höhe des Kamerastativs, nicht die
Neigung. Damit ist gewährleistet, daß
Objektiv und Kugelmittelpunkt in derselben Ebene liegen. Dann fotografiert
man, wie in Kapitel 3.3. beschrieben,
eine Belichtungsserie (Bild 50) von der
Kugel.
Bild 50: Belichtungsserie
Bild 49: Versuchsaufbau
58
Dann bewegt man sich um die Kugel herum, und justiert die Stativhöhe um eventuelle Bodenunebenheiten auszugleichen. Zoom, Kameraneigung und Abstand
zur Kugel sollten dabei jedoch konstant bleiben. Die zweite und dritte Serie
wird fotografiert, indem man dieselben Belichtungsstufen durchläuft wie bei der
ersten Serie.
5.3.3. Übersicht des Nachbearbeitungsprozesses
Der vorgestellte Arbeitsablauf geht von 3 Belichtungsserien aus, die mit der
Spiegeltechnik aufgenommen sind. Er stellt eine Optimierung der von DEBEVEC
[2][23] und BAUER [42] und beschriebenen Methoden dar, und kommt deshalb
mit bedeutend weniger Einzelschritten aus.
1. Aufnahme von 3 Serien
2. Kombination zu HDRIs
3. Abwicklung
4. Vereinigung und Retusche
5. Horizontal spiegeln
Fertig.
Bild 51: Übersicht des optimierten Spiegelkugel-Workflows
59
5.3.4. Umwandlung in HDR
Aus drei Belichtungsserien zu je 12 Bildern entstanden 36 Bilder, aus denen es
nun gilt, ein HDR-Panorama zu erstellen. Um den Aufand für Dateimanagement
zu verringern, empfiehl es sich zuallererst diese Anzahl zu reduzieren.
Also kombinieren wir jeweils die 12 Bilder einer Serie in ein High Dynamic Range
Bild. Wie in Bild 52 zeigt, ist das mit PhotoSphere eine Sache von 5 Minuten.
Bild 52: Make High Dynamic Range in Photosphere
Die drei generierten Bilder werden dann im Radiance Format (.hdr) gespeichert
und auf den PC portiert.
5.3.5. Abwicklung in HDR-Shop
Zunächst müssen die Bilder möglichst exakt auf die Kugelgröße beschnitten
werden. Genau dafür bietet HDR-Shop ein spezielles Selektionswerkzeug, bei
welchem einen Kreis in der rechteckigen Selektion angezeigt wird. Dieser Kreis
wird so angepaßt, daß er genau auf dem Rand der Kugel liegt. Dabei sollte
man sorgsam vorgehen, denn gerade die Randbereiche der Kugel enthalten die
höchste Informationsdichte. Nur eine exakt ausgeschnittene Kugel kann auch
korrekt entzerrt werden. Daher sollte man die Zoomfunktion (Strg. +/-) nutzen,
und für die Anpassung an überstrahlten Kanten die Belichtung der Anzeige auf
beste Sichtbarkeit einregeln (+/-).
60
Dann wird das Bild mit dem Menüpunkt ImageàCrop beschnitten (Bild 53).
Bild 53: Beschneiden
Jetzt ist das Bild vorbereitet für die eigentliche Abwicklung. Dazu dient der
Menüpunkt „ImageàPanoramaàPanoramic Transformations“. Und zwar transformieren wir hier von einem Mirror Ball in das Latitude/Longitude Format. Für
eine optimale Ausbeute der verfügbaren Pixelauflösung empfiehlt es sich, als
entzerrte Bildhöhe die Höhe des Quellbildes anzugeben (siehe Bild 54).
Bild54: Panoramic Transformation
61
Die so erstellte Abwicklung ist dann tatsächlich schon ein 360°/180° Panorama
(siehe Bild 55).
Bild 55: abgewickelte Spiegelkugel
Allerdings wird bei diesem Verfahren die Informationsdichte nicht gleichmäßig
verteilt. Im Mittelbereich entspricht ein abgewickelter Pixel noch ungefähr seinem
Original, doch zum Rand hin werden die Details aus immer engeren Pixelreihen
extrahiert. Gut erkennbar sind die extremen Verzerrungen am linken und rechten
Rand. Das ist die ursprünglich von der Kugel verdeckte Stelle des Raumes. Der
tatsächliche Informationsgehalt an diesen Stellen ist gleich Null.
Bild 56: Verwertbarer Informationsgehalt
Leider ist ausgerechnet im Bereich der besten Abwicklungsgüte der Fotograf
samt Stativ und Kamera abgebildet. Damit ist noch einmal begründet, wieso es
so wichtig ist die Kugel aus einem größtmöglichen Abstand zu fotografieren.
62
5.3.6. Retusche in Photogenics
Aus den zwei bis drei abgewickelten Roh-Panoramen gilt es nun ein hochwertiges Panorama zusammenzustellen. Das kann prinzipiell auch in gängiger
Compositing Software wie Digital Fusion oder Combustion gemacht werden.
Hauptsache ist, daß das Bildbearbeitungsprogramm Ebenen unterstützt und
mit HDRIs umgehen kann. Photogenics sei hier deshalb eingehender beschrieben, weil es als einziges reines Malprogramm für diesem Zweck prädestiniert
erscheint.
Bild 57: empfohlene Fensteranordnung in Photogenics, Horizontales Angleichen mit Roll-Effekt
In Photogenics wird nun das optisch am saubersten erscheinende Bild als Basis
gewählt. Mit einem Roll-Effekt verschiebt man den großen unsauberen Fleck in
die Mitte, so daß an dem Randumbruch eine saubere Stelle liegt.
Die anderen beiden Bilder dienen als Material für die Retusche, und werden
ebenfalls mit dem Roll-Effekt in die gleiche Ausrichtung verschoben. Dabei
muß man nicht allzu genau sein, denn die nichtlineare Funktionsweise von
Photogenics erlaubt jederzeit eine Feinjustierung.
63
Dann erzeugt man für das Basisbild einen neuen Paint-Layer, bei dem als
Paintmodus RubThru („Durchrubbeln“) zum Einsatz kommt (Bild 58). Nun wird
eines der anderen beiden Bilder als „Secondary Layer“ angegeben, und damit
das Ziel dieser Verknüpfung festgelegt (Bild 59).
Bild 58: RubThrough
Bild 59: Secondary Layer
Mit dieser Vorbereitung kann jetzt ganz einfach retuschiert werden, indem mit
dem weichen Pinsel das verknüpfte Bild freigerubbelt wird. So ist beispielsweise
in Bild 60 der Fotograf mit einigen wenigen Pinselstrichen entfernt:
Bild 60: Der Fotograf wird ausradiert.
Genauso verfährt man mit dem blinden Fleck, und allen anderen Stellen die –
eventuell auch durch Dellen oder Kratzer auf der Kugeloberfläche – unsauber
sind. Paßt das durchgerubbelte Bild nicht genau, justiert man den Roll-Effekt des
Secondary Layers entsprechend nach. Im Normalfall können schon mit einem
Durchgang die groben Fehler bereinigt werden. Finden sich auf dem Secondary
Layer keine sauberen Daten zum durchrubbeln, weicht man eben auf das dritte
Bild als Quelle aus. Das ist sozusagen eine Art Rückversicherung.
Doch die Arbeit im High Dynamic Range gebietet besondere Sorgfalt. Da der
Monitor immer nur einen Ausschnitt aus dem gesamten Range darstellt, können
sich in den gerade nicht angezeigten Schatten- oder Lichtregionen leicht Fehler
einschleichen (siehe Bild 59). Daher sollte man in regelmäßigen Abständen die
64
Belichtung der Anzeige verstellen, um solche Fehler sichtbar zu machen. In
Photogenics bedient man sich dafür des Exposure-Reglers im Inspektor Fenster.
Bild 61: Vorsicht! In nicht angezeigten Helligkeitsbereichen können sich Fehler verstecken.
Zusätzlich zum Durchrubbeln ist auch der Clone Stamp (Kopierstempel) eine
gute Möglichkeit, die letzten Unsauberkeiten zu beheben (siehe Bild 60).
Bild 62: Photogenics hat ein CloneStamp Tool à la Photoshop - aber im High Dynamic Range
Abschließend wird das retuschierte Panoramabild horizontal gespiegelt.
Das ist deshalb notwendig, weil wir ja ursprünglich in einen Spiegel fotografiert
haben, und die ganze Zeit die seitenverkehrten Bilder bearbeitet haben. Selbstverständlich hätte man jederzeit zurückspiegeln können, doch macht man es
zum Schluß braucht man eben nur ein einziges Bild zu spiegeln.
5.4. Weitwinkel Technik
5.4.1. rechtliche Vorbemerkungen
Die Firma iPIX [43] hat sich weite Teile der Weitwinkel-Technik patentieren
lassen und verfolgt mit beständiger Vehemenz jeden Verstoß. Damit soll das
umstrittene Geschäftsmodell von iPIX geschützt werden, was eine Zahlung von
$24,- für jedes komplettierte Panorama aus Fisheye Bildern vorsieht.
Da die iPIX Software jedoch nicht mit HDR Images umgehen kann, müßte man
für jede Belichtungsstufe ein Low-Dynamic-Range Panorama generieren und
bezahlen. Das wäre umständlich, zeitaufwendig, und schlägt mit etwa $ 200,- pro
HDR Environment zu Buche.
65
Dabei bestehen die von iPIX verkauften Komplettsysteme im Grunde auch
nur aus Standardkomponenten, wie einer Nikon Kamera, einem Nikon 8mm
Fisheye. Der motorgetriebenen Stativkopf und die hauseigene Stitching Software
sind zwar Eigenentwicklungen, jedoch keinesfalls den auf dem freien Markt
erhältlichen Alternativen überlegen.
Auch sind die patentierten Techniken keinesfalls neu, waren sogar teilweise
schon in Konkurrenzprodukten implementiert. Durch rechtlichen Druck zwang
iPIX seine Konkurrenten, diese Funktionen zu entfernen. Auch Professor Dersch
von der TU Furtwangen wurde in einen jahrelangen Rechtsstreit gezogen, weil
seine kostenlose Software PanoTools die Panoramageneration aus Weitwinkelaufnahmen ermöglicht – und dabei der iPIX Software auch noch qualitativ weit
überlegen ist [44].
Die vorgestellten Techniken kommen komplett ohne das iPIX System aus, und
unterliegen der besonderen Zielstellung, im High Dynamic Range zu arbeiten.
5.4.2. Fotografie
Benutzt man Objektive mit geringerer
Brennweite, vergrößert sich der Bildwinkel
und damit der aufgenommene Ausschnitt.
Extreme Weitwinkel werden Fisheye
genannt, und bieten einen Aufnahmewinkel bis zu 180 Grad.
180° Umgebung
Abbildung der
180° Umgebung
aus Sicht der
Kamera
Bild 63: Fisheye Technik
Damit reichen eigentlich 2 Belichtungsreihen in entgegengesetzter Richtung, um ein volles Panorama aufzunehmen
[2][3]. Die Randbereiche weisen jedoch sehr starke geometrische Verzerrungen,
und je nach Linsenqualität auch mehr oder wenig starke chromatische Abweichungen auf. So ist es wieder sehr zu empfehlen, 3 Belichtungsreihen
mit einem Versatz von ungefähr 120 Grad aufzunehmen [38]. Auch hier
kann ein spezieller Panoramakopf auf dem Stativ die Qualität erhöhen,
indem er die exakt horizontale Kamerarotation um den Linsenbrennpunkt
ermöglicht.
66
Die Nachbearbeitung ist dann ganz einfach:
1. Kombination der Belichtungsreihen zu HDRIs.
2. Entzerrung mit HDRShop.
3. Ergänzung und Zusammenbau mit Photogenics.
5.4.3. Umwandlung in HDRI
Wie bei der Spiegeltechnik hat man auch hier eine ganze Menge an Bilddaten
als Ausgangsmaterial. Es gilt nun 6 bis 12 Belichtungszeiten aus jeweils 3
Blickwinkeln, also 18 bis 36 Bilder zu einem Panorama zu verbinden.
Zwar kann man aus einer großen Palette von verschiedenen Programmen
wählen, um zuerst aus 3 Low Dynamic Range Weitwinkel-Bildern ein Panorama
zusammenzusetzen [38]. Doch dann hat man immer noch für jede Belichtungsstufe jeweils ein Panorama, und muß dann hoffen daß man mit HDRShop diese
6 bis 12 Panoramen in ein sauberes HDRI kombinieren kann. Dabei können sich
leicht Fehler einschleichen, und der Aufwand an Datenmanagement ist recht
groß.
Effizienter geht man vor, indem man erst die 6 bis 12 Bilder aus einem Blickwinkel in ein HDR Image kombiniert. Dabei geht man vor wie in Kapitel 3.3.
beschrieben, also benutzt PhotoSphere bzw. HDRshop. Damit hat man die
Bilderflut auf 3 Fisheye-Aufnahmen im HDR-Format reduziert.
Nun sind wir allerdings wieder auf die spärliche Auswahl an HDR-fähigen
Programmen beschränkt, um diese Fisheye Blickwinkel zu entzerren und
zusammenzusetzen.
5.4.4. Entzerrung mit HDRShop
HDRShop bietet aus oben genannten patentrechtlichen Gründe leider keine
explizite Funktion, um die Fisheye Geometrie zu entzerren. Jedoch durch den
im folgenden beschriebenen Trick kann HDRShop zur Entzerrung mißbraucht
werden. Dabei ist die geometrische Verwandschaft von Fisheye und Spiegelkugel von Nutzen.
Wie im oben erläutert, nimmt eine Fisheye Linse 180° der Umgebung direkt auf.
Fotografiert man dagegen in eine Spiegelkugel, hat man dieses 180° Sichtfeld
67
innerhalb eines Kreises, der exakt
in das Innenquadrat der Kugelaufnahme eingeschrieben ist. (siehe
Bild 64)
Oder, mathematisch ausgedrückt:
Spiegelkugel
(2)
180° Umgebung
a = 2r =
2R
2
1
2-5
1
2-5
Diese
2R
Formel aermittelt
= 2r = sich aus dem Satz
des Pythagoras in 2dem gleichseitigen Dreieck aus Abbildungsradius
r und Kugelradius R. (Siehe Bild
38) R 2 = r 2 + r 2
R 2 = 2r 2
parallele Sehstrahlen
(idealisiert)
R R=2 =2rr2 + r 2
R 2 R= 2r 2
r=
2
R = 2r
R
r=
2
6
7
(3)
a
(4)
(5)
a
frontale
Abbildung der
180° Umgebung
r
r
(6)
R
6
7
YPano =
180°
× YRe nder
VFOV
YPano =
YPano =
Bild 64: Strahlenverlauf an einer Spiegelkugel,
und Konstruktion des 180° Rings
180°
× YRe nder
VFOV
Wendet man diese Überlegung
praktisch an, kann man 180° der
Umgebung in dem Bild einer Spiegelkugel markieren. Bild 65 zeigt
dies:
180°
× 576pixel = 2987,035pixel ≈ 3000 pixel
34,7°
=
°
Bild 65: Beschneiden der Spiegelkugel auf 180°.
YPano
180
× 576pixel = 2987,035pixel ≈ 3000 pixel
34,7°
68
HDRShop bietet für exakt diesen Bildausschnitt eine Option in der Panoramic
Transformations Funktion: „Mirror Ball Close Up“. Diese ist ursprünglich dazu
gedacht, nur den Bereich mit der besten Umgebungsauflösung aus einer Spiegelkugel zu verwenden. Vernachlässigt man die geringen Unterschiede in der
Winkelverteilung von der Mitte zum 180° Ring, so kann man diese Transformationsoption nutzen, um eine Fisheye Aufnahme zu entzerren.
Der Schlüssel zum Erfolg dieser Methode ist die korrekte Beschneidung der
Fisheye-Aufnahme. HDRShop’s Selektionskreis sollte genau den 180° Blickwinkel umfassen. Dabei muß man seine Linse kennen, hat sie beispielsweise
einen Blickwinkel von 184° (wie die Nikon-16mm-Objektive), so muß man diese
Selektion leicht kleiner machen als den aufgenommenen Bildkreis (Siehe Bild
66b). Nimmt das Objektiv dagegen einen Blickwinkel von beispielsweise 170°
auf, so muß man die Auswahl leicht größer wählen, Orientierungspunkte können
dabei die sichtbaren Linsenringe bieten (siehe Bild 66a).
Bild 66: Fisheyes korrekt beschneiden.
Das so beschnittene Bild ähnelt nun von der Bildgeometrie her der Nahaufnahme einer Spiegelkugel. Somit kann es in HDRShop entzerrt werden, wie in
Bild 67 dargestellt.
Quellformat ist „Mirror Ball
Closup“, und als Zielformat
wird „Latitude/Longitude“
angegeben. Die Bildhöhe
des Zielbildes sollte wieder
der Höhe des Quellbildes
entsprechen, um die verfügbare Pixelauflösung maximal auszunutzen.
Bild 67: Fisheye entzerren mit „MirrorBall Close Up“ Preset
69
5.4.5. Panoramageneration in Photogenics
Ist diese Entzerrung an allen 3 Blickwinkeln vorgenommen, ist man im Besitz
von sehr sauberem Ausgangsmaterial. Der Fotograf ist auf keinem der Bilder
abgebildet, also muß er nicht wie bei der Spiegeltechnik wegretuschiert werden.
Auch gibt es keine so extrem schlecht aufgelösten Stellen wie bei den Spiegelpanoramen, und es gibt auch keine Verzerrungen durch Unebenheiten auf der
Spiegelkugel.
Wohl aber sind die 3 abgewickelten Panoramen alle nur partiell. Diese gilt es nun
also, zusammenzusetzen.
Zuerst werden alle 3 Blickwinkel eingeladen, zwei der Bilder zoomt man klein,
eines wird als Basisbild für das künftige Panorama gewählt. Dieses Hauptbild
wird dann mit dem Roll-Effekt so verschoben, daß es den linken und rechten
Rand schneidet. Damit braucht dieser Rand nicht mehr retuschiert werden.
Folglich ist die Gefahr die Nahtstelle zu verletzen ausgeschalten.
Die zwei anderen Blickwinkel werden dann entsprechend horizontal verschoben,
und als Secondary Layer an das Hauptbild geknüpft. Nun benutzt man die
Rubthrough Funktion im Hauptbild, um diese verlinkten Bilder freizurubbeln, und
das Panorama damit zu ergänzen.
Bild 68 zeigt diese Methode im Verlauf, in Kapitel 5.3.6. sind diese Schritte
ausführlicher beschrieben.
Bild 68: 3 entzerrte Fisheye-HDRIs werden in Photogenics zu einem Panorama vereint.
70
Abschließend kann noch eine Retusche des oberen und unteren Randes mit
dem Clone Stamp Tool durchgeführt werden. Diese Ränder stellen die Pole der
Kugelabwicklung dar, und konvergieren eigentlich zu einem Punkt. (vergleiche
Kapitel 3.4.) Für wirklich saubere Ergebnis sollten diese Stellen deshalb erst
nach einer Umwandlung in das Cubic Format retuschiert werden.
Das fertige Panorama sieht dann aus wie in Bild 69:
Bild 69: Fertiges HDRI Panorama
5.4.6. Bessere Qualität durch PTPicker
Die oben beschriebene Entzerrung mit HDRShop basiert sowohl zu einem
gewissen Gard auf Augenmaß, als auch auf der Annahme, daß die Bilder alle
mit exakt horizontaler Kamerausrichtung aufgenommen wurden. Das Ergebnis
ist zwar verwendbar, doch bei genauerer Untersuchung nicht wirklich korrekt.
Insbesondere vertikale Linien, wie Häuserecken, Fenster und Türen, sind im
fertigen Panorama leicht schief oder gebogen.
Um ein wirklich exaktes Ergebnis zu erreichen, kann man PTPicker von DERSCH
[45] benutzen. PTPicker ist eine Java-basierte Applikation, die als Teil des Paketes PanoTools für alle Plattformen erhältlich ist. Dieses Paket ist auch als Plugin
für Photoshop ein sehr beliebtes und vielseitiges Werkzeug für Panoramafotografen [38]. Prinzipiell ist es in der Lage, aus 3 Fisheye-Bildern vollautomatisch ein komplettes Panorama zusammenzusetzen. Leider unterstützt es jedoch
keine HDR-Formate, sondern nur JPEG, PNG, TIFF und BMP.
Die Innovation besteht nun darin, 3 Blickwinkel als Low-Dynamic-Range Originalfotos in PTPicker auszumessen, und die ermittelten Daten bei der Entzerrung
der HDR Images in HDRShop zu berücksichtigen.
71
Panotools inklusive PTPicker kann man kostenlos downloaden unter
http://home.no.net/dmaurer/~dersch/index_deutsch.html. Die Installationsanweisungen sind je
nach Betriebssystem unterschiedlich umfangreich, und erfordern unter anderem
eine Java-Console der Version 1.3. Nach einem Tipp von Bauer [46] ist es für
Windows-User empfehlenswert, PTPicker über ein Batch-File zu starten. Damit
kann man dem Programm mehr als 1 Megabyte Speicher durch die JAVAConsole zur Verfügung stellen, was eine einfachere Alternative zum Ändern der
JAVA-Settings in der Windows-Registrierung ist.
Diese Batch-Datei ist ein einfaches Textfile mit der Endung „.bat“ und dem Inhalt:
java -Xmx192m -jar ptpicker.jar . In diesem Fall werden PTPicker 192
Megabyte zugestanden, lauffähig ist es ab 32 Mb [45].
Das eigentliche Angleichen der Bilder funktioniert dann wie von BAUER [46]
beschrieben:
Zuerst erstellt man in PTPicker mit „FileNew“ ein neues Panorama-Projekt. In dem
Dialogfeld gibt man dann die Brennweite
des Objektivs sowie die Anzahl der verschiedenen Blickwinkel an. In diesem Fall
handelt es sich um ein Nikon Objektiv mit
7.7 Millimeter Brennweite, und Aufnahmen
aus 3 Blickwinkeln.
Bild 70: Neues PTPicker Projekt
Mit den Menüpunkten „Left Image“ und „Right Image“ werden jetzt die Bilder
in die Arbeitsfläche laden. Dabei wird immer paarweise vorgegangen. Beispielsweise wird Bild 1 links, und Bild 2 rechts eingeladen.
Nun werden Kontrollpunkte an solchen Stellen gesetzt, die in beiden Bildern
zu sehen sind (siehe Bild 71A). Vertikale Linien eignen sich besonders gut,
um den Algorithmen die Bildgeometrie zu beschreiben. Etwa 3 bis 4 solcher
Kontrollpunkte reichen aus. Durch einfachen Klick auf eine Kante wird ein
Punkt gesetzt, der erscheinende Partner im anderen Bild wird dann an die
korrespondierende Bildstelle gezogen. Das Plazieren wird unterstützt von einer
kleinen Bildschirmlupe, die sich automatisch unter dem Mauszeiger mitbewegt.
72
Bild 71A: Korrespondierende Punkte in Bild 1 und 2 markieren.
Die Punkte sind dabei farbcodiert. Rot ist das aktive Punktepaar. Grün zeigt an
daß diese Punkte in den angezeigten Bildern zusammengehören. Blau markierte
Punkte haben ihr Gegenstück in dem nicht angezeigten Bild.
Sind Bild 1 und 2 so miteinander verknüpft, wird das Bild 3 in das rechte
Anzeigefeld geladen. Nun werden auch hier korrespondierende Bildteile markiert
(Siehe Bild 71B)
Bild 71B: Kontrollpunkte in Bild 2 und 3 setzen
Bild 71C: Kontrollpunkte in Bild 1 und 3 setzen
Abschließend wird diese Prozedur noch mit Bild 2 und 3 wiederholt (siehe Bild
71C). Damit ist die Verknüpfungskette komplett. Die Reihenfolge der Bearbeitung
und die Plazierung im linken oder rechten Anzeigefeld ist völlig egal. Hauptsache
ist, wir haben die Kombinationen 1:2, 1:3 und 2:3 alle ausgeschöpft.
Nun wird der Optimizer mit dem Menüpunkt „Project-Optimize“ gestartet. Dieser
erzeugt eine Textdatei, die alle Resultate der fotometrischen Vermessung enthält.
Eigentlich ist sie dazu gedacht, dem nächsten PanoTools Modul (PanoStitcher),
die ermittelten Parameter zu übergeben.
73
Mit dem Menüpunkt „ProjectàView Script“ lassen wir uns diesen Text anzeigen.
Und nun kann HDRShop gestartet werden. Dort werden die vorgenerierten
HDRI-Versionen der Blickwinkel geladen und man öffnet die Funktion
„Panoramic Transformation“ wie in Abschnitt 5.4.3 beschrieben. Anstatt nun
jedoch pauschal von ‚Mirror Ball CloseUp’ in ‚Latitude/Longitude’ umzuwandeln,
wird zusätzlich noch auf „Arbitrary Rotation“ geklickt.
Bild 72: Übertragen der ermittelten Kamerarotation von PTPicker Script zu HDRShop.
Tabelle 6: Zuordnung
der Rotationsachsen
In diesem Feld werden jetzt die ermittelten
Kameradaten eingegeben (siehe Bild 44).
Dabei entspricht der X-Wert dem Pitch-Winkel mit invertiertem Vorzeichen, Y ist der YawWinkel, und Z ist der invertierte Roll-Winkel.
In Tabelle 4 ist diese Koordinatenzuordnung
noch einmal zusammengestellt.
HDRShop
PTPicker
X
- Pitch
Y
Yaw
Z
- Roll
Allein durch die Angabe dieser 3 Werte kann die Qualität der Abwicklung
beträchtlich erhöht werden. Klare geometrische Linien sind auch als solche
im Panorama zu erkennen. Vertikale Linien bleiben vertikal (siehe Bild 48c+d).
Durch die Angabe des korrekten Yaw-Winkels (Y) ist das Bild sogar schon an
die korrekte horizontale Stelle verschoben, so daß bei dem Zusammenfügen
der Roll-Effekt überflüssig wird (siehe Bild 73). Dagegen ist die von Pitch (X)
und Roll (Z) verursachte Verzerrung einzigartig, und mit normalen Werkzeugen
kaum nachzustellen.
74
Bild 73: Qualitätsvergleich
Diese vorbereitende Ausmessung zeigt, daß auch HDR Images so präzise
entzerrt werden können wie LDR Images. Allerdings ist diese Präzision in
vielen Fällen gar nicht notwendig. Wie das Kapitel 6 zeigen wird, reicht für
die Beleuchtung von 3D Objekten das schnell und einfach generierte HDR
Environment aus Kapitel 5.4.4. aus.
5.5. Sonderfall Skydome
5.5.1. Vorüberlegungen
Da der überwiegende Teil der natürlichen Außenbeleuchtung sowieso von oben
kommt, benötigt man in vielen Fällen gar kein voll immersives Panorama. So ist
beispielsweise in der Architekturvisualierung die Verwendung eines Skydomes
üblich, also einer halben Himmelskugel die alles vom Horizont aufwärts zeigt.
Das virtuelle Modell steht dann auf einer Bodenplatte, die den unteren Bildraum
bis zum Horizont ausfüllt.
75
Skydomes eignen sich nur bedingt für die Ausleuchtung kleinerer Objekte,
wie z.B. in der Produktvisualisierung oder im Industriedesign. Auch Filmsets
beinhalten oftmals Komponenten, die von unterhalb der Horizontlinie beleuchten,
und deshalb in einem Skydome vernachlässigt werden. Darüberhinaus ist ein
Skydome auch nur bei der Beleuchtung matter Objekte akkurat. Bei einem
reflektierenden Material kann sich der Wegfall der unteren Halbkugel störend
auswirken.
Ob der Einsatz eines Skydomes Sinn macht, ist demnach eine sehr projektspezifische Entscheidung. Als Gegengewicht für die beschränkten Anwendungsmöglichkeiten ist die einfache und unkomplizierte Erzeugung eines Skydomes ins
Feld zu führen. Vorgestellt wird eine Weiterentwicklung der von Bauer [47]
beschriebenen Technik.
5.5.2. Das Fotografieren
Man benötigt eine Digitalkamera und ein 180° Fisheye. Ein Stativ ist nicht
zwingend notwendig, man kommt also mit minimalem Equipment aus.
Die Kamera wird einfach auf die Erde gelegt, und mit dem Objektiv direkt nach
oben gerichtet. Eine einzige Belichtungsserie genügt, denn durch den extremen
Öffnungswinkel des Fisheyes ist die gesamte Umgebung oberhalb des Horizonts
im Bild.
5.5.3. Umwandlung in HDR
Wie in Kapitel 4 ausführlich beschrieben, ist dieser Schritt in PhotoSphere sehr
einfach. Sollte PhotoSphere den Dienst versagen, ist HDRShop oder Photogenics zu verwenden.
5.5.4. Entzerrung in HDRShop
Wie bei der normalen Fisheye Entzerrung wird das Bild auf den 180° Sichtwinkel
beschnitten. Damit kann es wieder als ‚Mirror Ball Close Up’ behandelt werden
(siehe 5.4.4.).
In diesem Fall wird bei der Panoramatransformation wieder ein ‚Arbitrary Angle’
angegeben, und zwar –90° für X (siehe Bild 74).
76
Bild 74: Umwandlung von Fisheye HDRI in Skydome
Damit ist der Skydome schon fertig (siehe Bild 75). Es ist kein weiteres Zusammenfügen notwendig, denn als Ausgangsmaterial gab es ja nur diese eine
Belichtungsserie.
Bild75: Fertiger HDRI Skydome
77
5.6. Vergleich
Die entscheidenden Merkmale der verschiedenen Methoden zur Generierung
von HDR Environments sind noch einmal in Tabelle 7 zusammengefaßt.
Tabelle 7: Vergleichsübersicht HDRI Environment Generation
One Shot
Segment
Equipment
- SpheroCamHDR
- Laptop (nicht im
Lieferumfang)
- 1 Stativ
- Panoramakopf
- Spiegelkugel
- 2 Stative
Kosten, rund
€ 50.000,-
€ 100,- bis
€ 300,-
keine (2)
keine
Anzahl der
notwendigen
Belichtungsserien
Geometrische
Verzerrung im
fertigen HDREnvironment
Maximale nichtinterpolierte
Auflösung
/ Pixel
5300 * 13000
Aufwand am Set
Mittel,
5 min.
Aufwand für die
Nachbearbeitung
keiner (2)
Spiegel
Fisheye
Skydome
- Fisheye
€ 100,- bis
€ 200,-
- Fisheye
- 1 Stativ
- Panoramakopf
€ 300,- bis
€ 600,-
€ 200,- bis
€ 500,-
50 bis 70
2 bis 3
2 bis 3
1
keine
Mittel bis Groß,
Bedingt durch
Kugeloberfläche
Gering bis Mittel,
minimierbar in
Nachbearbeitung
keine
Rund
2200 * 1100 (1)
Rund
2400 * 1200 (1)
Rund
1600 * 800
Groß,
ca. 15 min.
Mittel,
ca. 30 min.
Mittel,
ca. 5 min.
Mittel,
ca. 30-45 min. (3)
Gering,
ca. 2 min.
Gering,
ca. 5 min.
Abhängig von
Segmentanzahl,
theoretisch
unbegrenzt
Sehr groß,
ca. 60 min.
Sehr groß,
bis zu 5 h
Anmerkungen:
(2) Abhängig von Kameraauflösung; Beispiel für 1600 X 1200 Pixel
(3) Direkte Ausgabe des HDR-Environments.
(4) Abhängig von gewünschter Qualität
Fazit:
Ein Skydome ist mit dem geringsten Aufwand erstellt und deshalb unbedingt
zu empfehlen, wenn die Projektanforderungen den eingeschränkten Nutzungsrahmen nicht überschreiten.
Die Fisheye Methode ist einfacher, genauer, schneller als die Spiegelmethode
und ist daher für den professionellen Produktionsalltag am besten geeignet.
Die Spiegelmethode ist besonders attraktiv für Einsteiger und Gelegenheitsanwender, weil sie mit den geringsten Kosten und vertretbarem Aufwand und
Qualität verbunden ist.
Der enorme Aufwand für die Segmenttechnik ist nur in Ausnahmefällen
gerechtfertigt, wenn allerhöchste Auflösungen zwingend notwendig sind. Auch
die Anschaffung einer SpheroCam lohnt sich nur, wenn diese hohen Auflösungen gerechtfertigt sind und die einfachste Art der Handhabung entscheidend
ist.
12-5
78
2-5
2
2
5.7. RWelche
ist notwendig?
= r 2 + rAuflösung
R 2 = 2r 2
2
2
2
R
=
r
+
r
R = 2r
Wie sich
im nächsten
Kapitel herausstellen wird, ist die Auflösung von Spiegel2
2
2
R
=
r
R
und Fisheye-Methode
ausreichend für viele Anwendungen in 3D Programmen.
6
r=
R
= 2r
Sie reicht jedoch nicht, wenn man das Panorama als lückenlose UmgebungstexR
tur im Hintergrund
einer 3D-Szene verwenden will. Um die benötigte Panoramr=
auflösung zu
2 errechnen kann folgende Formel genutzt werden:
67
7
YPano
180°
=
× YRe nder
VFOV
YPano =
(6)
180°
× YRe nder
VFOV
VFOV (Vertical Field Of View) ist dabei der vertikale Öffnungswinkel der virtuellen Kamera in der geplanten 3D-Szene. Will man beispielsweise mit einem
VFOV von 34,7° (entspricht dem geläufigen Zoom Faktor 3.2) in D1-PALAuflösung rendern,
180° ergibt das:
YPano =
YPano =
34,7°
× 576pixel = 2987,035pixel ≈ 3000 pixel
180°
× 576pixel = 2987,035pixel ≈ 3000 pixel
34,7°
(7)
3000 Pixel hoch und dementsprechend 6000 Pixel breit muß also ein Panoramabild sein, um ein scharfes Hintergrundbild abzugeben. 3000 Pixel sind
auch gleichzeitig die benötigte Bildhöhe, wenn man so ein Panorama mit der
Fisheye-Methode aufnehmen will. Mit einer 12 MegaPixel-Kamera kann man das
durchaus schaffen, ansonsten bleibt nur der Weg über analoge Fotografie, die
Segmenttechnik, oder die SpheroCamHDR.
79
6.
Anwendung im CGI Bereich
6.1. CGI – Computer Generated Images
In den 80er Jahren sprach WINKLER [48] erstmals von einem „computergenerierten 3-D-Fotorealismus“. Damit bezeichnet man seither die glaubhafte Abbildung
virtueller, also materiell nicht existenter Objekte. Im eigentlichen Sinne kann das
allerdings nur ein „Fotoillusionismus“ sein, da den Bildern nur mathematischgeometrische Beschreibungen zugrunde liegen. Hierin liegt der Schlüssel zum
Verständnis von CGI. Am Anfang stehen immer nur dreidimensionale Datenmodelle, die am Computer entworfen oder eingescannt wurden. Eine fotorealistische Abbildung dieser Objekte soll dann den Anschein erwecken, sie wären
real fotografiert.
Seit den 80er Jahren, als dieses Konzept noch als visionär angesehen wurde,
hat sich viel entwickelt. Nicht nur die Techniken der fotorealistischen Darstellung
sind heute ausgefeilter, auch die Bedeutung und die Anforderungen haben sich
verändert.
Die freie Umsetzbarkeit von narrativen Ideen setzt ein ähnliches künstlerisches
Potential frei wie es nur von Malerei und Literatur bekannt war. CGI befreien den
Film vom Paradigma des Materiellen und erweitern den Darstellungsraum auf
das Imaginäre – das Vorstellbare. Damit ziehen längst vergessene Fabelwesen,
mystische Begebenheiten und zauberhafte Fiktionen wieder in die darstellenden
Künste ein. Mit CGI werden tagtäglich reale Filmsets erweitert, Phantasielandschaften erschaffen, und gefährliche Stunts von virtuellen Doubles ausgeführt.
„Das Medium, seiner Maske beraubt, bezieht jetzt offen seine Position als
Transportmittel für Illusionen und agiert als kontemporäre Manifestation einer
Sehnsucht, die im vorigen Jahrhundert romantische Motive des Doppelgängers,
des ewig Reisenden und der Maschinenpuppe hervorbrachte. Diesen literarischen Phantasien ist in dieser abbildungsintensiven Epoche ein adäquates Mittel
zur Visualisierung gegeben.“ führt 1993 SCHMIDT [49] aus.
Drehbuchschreiber und Regisseure wissen heute um die Möglichkeiten, und
genießen diese neue Freiheit. Dabei verlassen sie sich inzwischen darauf, daß
sich CGI Elemente nahtlos in real gedrehte Aufnahmen einfügen. Selbst in
wöchentlich produzierten Fernsehserien werden da keine Abstriche gemacht.
Beste Qualität muß daher in möglichst kurzer Zeit produziert werden. Das
betrifft einerseits die Berechnung der Bilder, also Maschinenzeit. Andererseits
80
muß auch die eigentliche Erstellung der Szenen durch den CG-Artist in eng
kalkulierten Zeitrahmen möglich sein. Maschinenzeit ist dabei deutlich billiger
und leichter erweiterbar als die Zeit des CG-Artist. Diese beiden Faktoren
müssen durch moderne Rendermethoden in eine sorgfältig ausgewogene
Balance gebracht werden.
Dabei existiert ein prinzipieller Unterschied zwischen photorealistischen und
physikalisch basierten Rendering Methoden.
6.1.1. Klassisches Fotorealistisches Rendering
Bei fotorealistischem Rendern ist es völlig egal, wie das Bild zustande kommt.
Hauptsache ist, das Ergebnis sieht gut aus [13]. Typische Berechnungsmethoden aus dieser Kategorie sind Scanline-Rendering ( in Maya und 3dMAX),
Raytracing (in Softimage und Lightwave). Sie alle basieren auf vereinfachten
Shading-Modellen wie Phong und Blinn [2].
Grundsätzlich funktionieren sie alle nach demselben Schema: Lichtquellen
werden von der Geometrie separat definiert, und besitzen zum Teil physikalisch
unmögliche Eigenschaften. So sind Punktlichter beispielsweise eindimensional,
also abstrahiert auf einen unendlich kleinen Punkt ohne räumliche Ausdehnung.
Auch die Lichtausbreitung ist oft mit einem linearen Intensitätsabfall charakterisiert, im Gegensatz zum physikalisch korrekten quadratischen Abfall (1/r2 :
Inverse Square Law). Eine andere beliebte Lichtquellendefinition ist das parallele
Licht, was aus unendlicher Entfernung mit konstanter Helligkeit in die Szene
strahlt. Oder ein ambientes Licht das von nirgendwo kommt, und alle Oberflächen gleichermaßen aufhellt. Damit soll diffuse Lichtverteilung innerhalb der
Szene nachgestellt werden.
Alle diese Abstraktionen dienen dazu, die Berechnungen zu vereinfachen und
die benötigte Maschinenzeit zu verkürzen.
Im Gegenzug muß eine gewaltige Menge an Zeit und Geschick von dem CGArtist investiert werden, um eine Szene fotorealistisch auszuleuchten. Beleuchtungseffekte wie weiche Schatten, dunkle verwinkelte Ecken, zurückgeworfenes
Licht von hellen Flächen, all die subtilen Nuancen die eine reale Beleuchtung
ausmachen müssen mit diesen abstrahierten Lichtern nachgestellt werden.
81
Alle 3D-Pakete, die in der Postproduktion verwendet werden, basieren ursprünglich auf diesem Prinzip. Die grafischen Benutzeroberflächen sind stets um die
entsprechende Renderengine (den Berechnungsalgorithmus) herumgebaut. Sie
alle bieten dem Artist Unmengen von Knöpfen, Einstellungen und algorithmischen Kniffen an, um die richtigen Einstellungen für diese abstrahierten Renderengines zu treffen. Damit ist fotorealistisches Rendering in jedem dieser
Programme möglich, vorausgesetzt man kennt seine Renderengine, und weiß
genau wie man ihre abstraktionsbedingten Schwächen umgeht.
6.1.2. Physikalisch Basiertes Rendering
Auf der anderen Seite gibt es die Möglichkeit, die Lichtverteilung in einem
Raum nach allen physikalischen Gesetzmäßigkeiten zu simulieren. Beim Photon-Tracing [50],wird beispielsweise der Weg einzelner Photonen verfolgt, wie
sie zwischen den Objekten immer wieder hin- und hergeworfen werden. Bei
jeder Kollision wird ein Teil ihrer Energie abgezogen und der Helligkeit des
Kollisionsobjektes hinzugefügt. Das geschieht entweder bis sie ihre Energie
verbraucht haben, oder die Berechnung wird nach einer vordefinierten Anzahl
von Kollisionen abgebrochen.
Andere Verfahren funktionieren ähnlich, und sind unter den Oberbegriffen Radiosity oder Global Illumination [51] zusammengefaßt. Der bekannteste dieser
Vertreter ist die Monte Carlo Methode [52]. Hier werden in einer Vorberechnung
erstmal alle Flächen in kleine Stücke zerlegt, deren Größe je nach Oberflächenbiegung und Verwinkelung variiert. Dann wird für jedes dieser Stückchen
die empfangene, absorbierte und weitergestrahlte Lichtmenge ermittelt. Dieser
Schritt wird wiederholt, wobei die weitergestrahlte Lichtmenge des vorigen
Durchgangs mit berücksichtigt wird. Durch mehrere rekursive Durchgänge dieser
Art nähert sich diese Berechnung einer Lösung.
Ein wichtiges Grundprinzip ist allen diesen Simulationen gemein: Die strikte
Trennung in Objekte und Lichtquellen ist aufgehoben. Wird ein Objekt hell genug
angestrahlt, wirkt es auf den Rest der Szene selbst wie eine Lichtquelle. Ein roter
Teppichboden strahlt beispielsweise rotes Licht in den Raum zurück und färbt
damit andere Objekte ein.
Solche Simulationen waren vor 10 Jahren noch Spezialprogrammen für Spektralanalyse, Lichtdesign und Architekturplanung [13] vorenthalten. Für die Postproduktion waren diese Berechnungen viel zu aufwendig, und die entsprechende
82
Software viel zu spezialisiert. Programme wie Lightscape und Radiance waren
zwar schon in der Lage, auf diese Weise Bilder zu berechnen, brauchten jedoch
Stunden bis Tage dafür und waren nur über Kommandozeilen und Scriptsprachen zu bedienen.
Mittlerweile jedoch bieten auch die klassischen 3D-Programme für die Postproduktion einen solchen Simulationsmodus. Um die komplexen Berechnungen
auch für eine Produktion nutzbar zu machen, wurden die verschiedensten Vereinfachungsmechanismen eingebaut. In manchen Fällen ist die Simulation auf
die darunterliegende, klassische Renderengine aufgesetzt – etwa bei Lightwave
oder Cinema 4D. Damit erscheint diese Funktionalität vollintegriert zu sein, und
ist über dieselben Parameter zu steuern wie die klassische Engine.
Bei den von Haus aus modular aufgebauten Programmen 3d Studio MAX,
Maya, und Softimage dagegen kann die komplette Renderengine ausgetauscht
werden. Dabei bekommt der Benutzer dann völlig neue Einstellungen angeboten, die Bedienfelder für die klassische Engine verschwinden. So kommt es
beispielsweise, daß die Mental Ray Renderengine unter 3dMAX, Softimage, und
Maya gleichermaßen betrieben werden kann.
6.1.3. Über den Umgang mit der Simulation
Vielen Benutzern ist dieser neue Simulationsmodus als neues, zusätzliches
Feature vorgekommen. Durch die Gründlichkeit der Implementierung wird dabei
jedoch oftmals die völlig neue Herangehensweise an die Bildberechnung übersehen. Dies erfordert auch ein Umdenken für den Anwender.
Viele Parameter, von denen man gewohnt ist, sie zur Beschreibung der Szene zu
benötigen, sind nun vollkommen überflüssig. So ist beispielsweise die Vergabe
eines Specular Wertes die gängige Methode, um glänzende Materialeigenschaften zu definieren. In einer Radiosity-Simulation hat dieser Wert jedoch keine
Bedeutung mehr.
Ursprünglich diente er dazu Glanzpunkte definiert einzustellen. Ein Glanzpunkt
wird verursacht durch die Reflexion einer Lichtquelle. Das geschieht unter der
Annahme diese Lichtquelle ist der hellste Punkte im Raum. Klassisches Raytracing kann jedoch keine Strahlen zu einem 1-dimensionalen Punkt verfolgen,
kann also die Reflexion der Punktlichtquelle auch nicht als solche berechnen.
Deshalb muß der Specular-Wert diese Reflexion simulieren.
83
In einer Radiosity-Simulation dagegen sind Helligkeiten im ganzen Raum verteilt,
Lichtquellen und Körper sind nicht mehr getrennte Entitäten. Um also glänzende
Materialeigenschaften darzustellen, ist hier der Reflexionswert viel besser geeignet, denn Reflexion ist ja das eigentliche physikalische Phänomen, das den
optischen Eindruck „Glanz“ bestimmt.
6.1.4. Image Based Lighting
In einer Radiosity Simulation werden also klassische Lichtquellen durch das
physikalisch korrektere Modell der leuchtenden Körper ersetzt. Das bedeutet
unter anderem auch, daß auch Bildern direkte Leuchtkraft zugesprochen wird.
Mehr noch – durch Texturen lassen sich regelrechte Leuchtstrukturen auf Oberflächen formen, wobei Intensität und Farbe in denselben Maßstäben wie in der
echten Welt definiert werden können.
Hier kommen HDR Bilder ins Spiel. Nur HDRIs sind in der Lage die Intensitätsverhältnisse der echten Welt zu transportieren. Wickelt man sozusagen die
Szene in ein HDRI Environment ein, kann man tatsächlich virtuelle Objekte mit
echtem Licht beleuchten [23].
Bisher war es mit erheblichem Zeitaufwand und künstlerischem Geschick verbunden, die Lichtsituation realer Aufnahmen nachzustellen. Mit der Aufnahme
eines HDR-Environments ist dies ein rein fotografischer Prozeß, und damit
schnell, unkompliziert und von jedermann nachvollziehbar [2].
In den folgenden Fallbeispielen soll sich diese Technik im Praxistest beweisen.
Auch hier werden wieder verschiedene Methoden beschrieben, diskutiert und
mit Anwendungsfällen verknüpft. Die Beispiele greifen dabei die häufigste
Anwendung von 3D in der Postproduktion auf: die Ergänzung real aufge
nommener Hintergründe mit virtuellen Objekten.
84
6.2. Fallstudie A: Reine Simulation, In-Camera
Die erste Studie soll untersuchen, ob dieses 1998 von DEBEVEC [23] erstmals
in Radiance demonstrierte Grundprinzip inzwischen produktionstauglich ist, also
in handelsüblichen 3D Programmen reibungslos funktioniert. Dazu wurde eine
Referenz-Szene in Lightwave3D aufgebaut, die dann in verschiedene Software
Pakete konvertiert wurde. Es wurden keine Lichtquellen verwendet, die Beleuchtung sollte ausschließlich aus dem HDRI Environment kommen.
Bild 76 zeigt das Referenzbild, die virtuellen Objekte wurden zur Verdeutlichung
in Bild 77 markiert.
Bild 76: Referenzbild
Bild 77: virtuelle Objekte
85
6.2.1. Aufbau und Vorbereitung
Als Hintergrund dient das Bild 78, aufgenommen im Apartment des Autors.
Danach wurde in der Mitte des Tisches
eine Spiegelkugel plaziert, und mittels
der Spiegelmethode ein HDR Environment
hergestellt. Dieser Schritt ist in Kapitel
Bild 78: Hintergrund
5.3.1. ausführlich beschrieben.
Bild 79: passendes HDR-Environment
Nun wurde eine Szenenergänzung aus einfacher Geometrie im Lightwave Modeler erstellt. Der Koordinatenursprung wurde so gewählt, daß dieser mit der
Plazierung der echten Spiegelkugel übereinstimmt. Dies soll als Fixpunkt gelten,
denn in diesem Punkt stimmt die virtuelle Beleuchtung auch tatsächlich mit der
realen Beleuchtung überein. Bild 80 zeigt diesen Aufbau von der Seite:
Bild 80: Drahtgitter Perspektive
86
Die virtuelle 3D-Kamera wird dabei so eingerichtet, daß sie mit der realen
Kamera korrespondiert. Im Handbuch der realen Kamera findet man die
Baugröße der CCD. Diese Angabe ist
wichtig, denn sie legt das Abbildungsverhältnis (Aperture Height) der Linse
fest. Hat man die richtige Kameraart
angegeben, verwendet Lightwave
auch dieselben Brennweiten. Dann
kann die Brennweite aus den EXIFDaten des Hintergrundbildes ausgelesen und übertragen (siehe Bild 81)
werden.
Bild 81: Übertragen der Kameradaten
Damit ist automatisch auch der Sichtwinkel des Objektivs (Field Of View)
angeglichen, die virtuelle Linse weist
also dieselbe perspektivische Verzerrung auf wie die reale. Nun wird
die Kamera solange verschoben und
rotiert, bis die virtuelle Tischplatte mit
der realen deckungsgleich ist. Das
eingeblendete Raster bietet dazu die
passende Referenz, um den richtigen
Blickwinkel zu finden (siehe Bild 82).
Bild 82: Kameraansicht
Eine weitere Zielstellung war, das Bild in einem Durchgang zu rendern. Daher
ist die richtige Texturierung der Tischplatte wichtig. Der Trick besteht darin, das
Hintergrundbild direkt aus der Kameraperspektive auf den Tisch zu projizieren.
Damit ergibt sich im Idealfall ein nahtloser Übergang, denn das eigentliche
Hintergrundbild paßt sich ja genau in die Kamerasicht ein – wird sozusagen
auch aus der Kamerasicht projiziert.
Die 3D-Objekte für diesen Test wurden mit Sorgfalt zusammengestellt (vergleiche Bild 83). Zuerst einmal ist rechts die große Spiegelkugel zu sehen. Sie
ermöglicht eine erste Kontrolle des HDR Environments, hinsichtlich Ausrichtung,
Helligkeit und korrekter Projektionsart. Die beiden Kugeln links sind Materialtests
für einen glatten und einen stumpfen glänzenden Körper. An den Gläsern soll
untersucht werden, ob die Simulation auch mit Transparenzen und Brechung
87
zurechtkommt. Da dies in allen Renderengines durch klassisches Raytracing
berechnet wird, steht hier das nahtlose Zusammenspiel von klassischer Renderengine und Radiosity auf dem Prüfstand. Die schwierigste Herausforderung
aber stellte die Tasse dar, da eine echte Tasse als Referenzobjekt direkt daneben
steht. Jede noch so kleine Abweichung in Form, Farbe, Glanz und Schattenwurf
ist erkennbar. Selbst wenn die virtuelle Tasse für sich allein betrachtet schon
fotorealistisch wirkt, so muß hier einer direkten Konfrontation mit der realen
Tasse standhalten.
Bild 83: Nahaufnahme
6.2.2. HDRI Challenge
Um die beschriebene Szene in den verschiedenen 3D-Programmen zu testen,
wurde ein Internet Projekt ins Leben gerufen: die HDRI Challenge. Christian
Bauer stellte dafür seine Wissensplattform www.CGtechniques.com zur Verfügung.
Mit seiner freundlichen Unterstützung wurde ein eigenes Diskussionsforum
unter dem Titel „HDRI Challenge“ eingerichtet, erreichbar unter
http://hdri.cgtechniques.com/~blochi/.
Die Szene wurde in die geläufigsten Formate (DXF, 3DS, XSI, VRML,
LWO+LWS) konvertiert und zum Download angeboten. Auch Hintergrundbild und
HDR Environment wurden in verschiedenen Auflösungen als Radiance .HDR
Dateien online bereitgestellt.
88
Gestartet wurde die Aktion am 16. Juni 2003, und wurde durch Ankündigung
in einschlägigen Fachforen publik gemacht. Schon innerhalb des ersten Monats
wurde die Szene über 1000 mal heruntergeladen, und das Diskussionsforum
konnte 190 registrierte Mitglieder aufweisen. Sehr zielorientierte Fachdiskussionen über HDRI Beleuchtung werden seitdem dort geführt, erstmalig auch unter
Benutzern verschiedener 3d-Software.
Die ersten vergleichbaren Ergebnisse sind in Bild 84 zusammengetragen.
Bild 84: Ausgewählte Beiträge aus der HDRI Challenge nach einem Monat Laufzeit
89
Diese Bilder zeigen, daß die HDRI Technologie in allen marktführenden 3D-Programmen (3dMAX, SoftimageXSI, Lightwave, Maya und Cinema4D) funktioniert.
Ein direkter Vergleich der Renderzeiten hat sich als unpraktikabel erwiesen,
da die Bilder auf verschiedener Hardware, in verschiedener Auflösung, und in
unterschiedlichen Qualitätsstufen gerendert wurden. Noch zu untersuchen ist die
Unterstützung in
• Finalrender (3dMAX Renderer)
• Renderman 11
• POV Ray 3.5
• Virtualight
Die HDRI Challenge hat kein vorbestimmtes Ablaufdatum, die Downloads und
die Beteiligung an der Diskussion steht auch in Zukunft jedem frei. Es ist die
Hoffnung der Initiatoren, daß sich daraus eine umfassende Bibliothek mit frei
zugänglichen Arbeitsmethoden und Anwender-Tipps entwickelt.
6.2.3. Das Tischproblem
Im Verlauf des Tests tauchte mit dem Tisch in allen Programmen ein Problem
auf. Die Projektion auf dem Tisch war stets deutlich heller als der Hintergrund,
und eine sichtbare Kante markierte den Übergang. Was sich hier als konkreter
Problemfall darstellt, steht beispielhaft für sämtliche Geometrie, die mit Originalfotos texturiert wird und Schatten empfangen soll.
Der Grund ist, daß der Tisch als 3d-Objekt die Beleuchtung von dem HDRI
Environment erfährt, zusätzlich die Beleuchtung aber schon in der projizierten
Textur enthalten ist. Damit wird der gerenderte Tisch effektiv doppelt beleuchtet.
Es gilt also nun, einen dieser Beleuchtungseinflüsse zu eliminieren.
Die erste Lösung wäre, ein Material zu entwerfen, das nur Schatten empfängt,
nicht aber zusätzlich von dem HDRI Environment aufgehellt wird. Damit eliminiert man die Aufhellung durch die Szenenbeleuchtung. Zwar kann beispielsweise in 3dMAX oder Lightwave ein Objekt explizit als „Shadowcatcher only“
definiert werden, doch diese Option bezieht sich nur auf traditionell berechnete
Schatten.
Eine zweite Lösungsmöglichkeit entspricht der im Original von Debevec [23]
ausgearbeiteten Methode. Diese sieht die Aufteilung der Szene in 2 Teillösungen
vor. Erst wird der Tisch allein, dann ein zweites Mal mit den schattenwerfenden
Objekten berechnet. Zieht man nun das erste von dem zweiten Bild ab, bleibt nur
90
der reine Schatten übrig. Dann legt man in einem Compositing-Vorgang diesen
Schatten auf das Hintergrundbild, und darüber wiederum die VordergrundObjekte (per Alpha-Kanal ausmaskiert).
Der Nachteil ist, daß man zwei Rendervorgänge hat. Handelt es sich um eine
bewegte Kamera, so muß die gesamte Sequenz doppelt in voller Qualität
berechnet werden. Das ist ein hoher Preis für die Lösung dieses Einzelproblems,
und kann zu einem Flaschenhals in der Produktion werden.
Die weitere Lösung könnte sein, die in der Textur enthaltene Beleuchtung zu
eliminieren. Es gilt in zukünftigen Arbeiten zu prüfen, ob auf der Grundlage von
DEBEVECS [23] Methode durch eine einmalige Vorberechnung eine Differenztextur
für den Tisch erzeugt werden kann. Damit könnte die Notwendigkeit für einen
zweiten Rendervorgang wegfallen.
6.3. Fallstudie B: Extrahieren der Lichtinformation
So physikalisch korrekt die direkte Lichtsimulation mit einem HDRI auch ist, sie
hat auch einige gravierende Nachteile:
• Die Beleuchtung steht fest, die künstlerischen Eingriffsmöglichkeiten sind
auf globale Veränderungen begrenzt.
• Die Rechenzeit ist bedeutend höher als mit klassischem Raytracing.
• Das Tischproblem ist
nur sehr umständlich zu
lösen.
Um diese Probleme zu umgehen, hat Cohen [3][53] das
Programm LightGen entwikkelt. Es bindet sich als Plugin
in HDR-Shop ein und ermöglicht das Extrahieren von Lichtquellen aus einem HDRI (siehe
Bild 85).
Bild 85: LightGen
Als Grundlage dient ein HDR
Environment im Spherical Format, vorzugsweise kleinskaliert auf 128*64 Pixel.
Lightgen untersucht darin die Intensität und Farbe der Pixelwerte, und ermittelt
aus den Pixelkoordinaten den Lichtwinkel. und erstellt daraus eine vordefinierte
Anzahl von Lichtquellen. Die können dann exportiert werden als Lichtsetup für
91
Arnold, Houdini, Radiance, und Maya (über MEL-Script). Alternativ kann man die
Ausgabe auch in eine Textdatei umleiten lassen. Für fast alle 3d-Programme gibt
es kostenlose Scripte, die diese Textdatei interpretieren können.
So baut beispielsweise das LScript „Lightgen2LW“ von CACHELIN [53] aus dieser
Textdatei die Szene in Bild 86 auf.
Bild 86: Von LightGen generierte und Lightgen2LW importierte Lichter.
Bild 86 zeigt auch sehr deutlich, wie sich in der Mitte durch die Überschneidung
der Lichtkegel eine Art Lichtfeld herausbildet. Das Ergebnis ist natürlich stark
abhängig von der Anzahl der Lichtquellen. Man spricht in diesem Zusammenhang auch von der Sampling-Frequenz des Environments.
Bild 87 zeigt, daß bei 100
Lichtern die Einzelschatten
der Lichter besser miteinander verschmelzen, als bei
20 Lichtern. Je mehr Lichter
man erzeugt, umso näher
kommt man an die diffuse
Beleuchtung des Originals Bild 87: Vergleich 20 / 100 Lichter
heran. Das „Tischproblem“
tritt mit dieser Methode zwar auch auf, läßt sich aber ohne ein zweites Rendering
beheben. Weil es sich hier um klassisch berechnete Schatten handelt, bietet
jede geläufige Software zahlreiche Mechanismen zur isolierten Schattenbearbeitung an. So kann man beispielsweise beim Rendern einen extra Shadow-Pass
mitspeichern lassen, oder den Tisch explizit als „Shadowcatcher“ definieren.
92
Eine andere Methode ist in Bild 88 beschrieben. Hier wird durch die Materialeinstellung des Tisches die Schattendichte in den Aplha-Kanal umgeleitet. Mit
diesem Alpha kann man dann alle gerenderten Bildteile maskieren, inclusive
halbtransparenter Schatten. Dann legt man diesen maskierten Vordergund
wieder auf das orginale Hintergrundbild. So erhält man ein sauberes Ergebnis,
ohne visuellen Bruch von Tischplatte zum Hintergrundbild.
Bild 88: Compositing zur sauberen Integration mit dem Hintergrundbild mit nur einem Rendervorgang
Der Erfolg dieser Technik ist stark abhängig von dem eigentlichen Extraktionsalgorithmus. So entwickelten KELLER und KOLLIG [54] eine Methode, die
an den hellsten Stellen mehr Lichtquellen erzeugt als an dunkleren. Damit
werden mehr Einzelschatten generiert, die Überblendung liefert einen weicheren
Gesamtschatten. Implementiert wurde dieser Algorithmus in dem Programm
„MakeLight“, das als exklusiver Bestandteil der SpheroCamHDR Software [40]
vertrieben wird.
93
6.4. HDRI Projektion durch Spotlights
Abschließend wird eine vom Autor entwickelte Methode vorgestellt, mit der die
Übertragung echter Lichtcharakteristika auf konventionelle Spotlichter möglich
ist. Damit wird der Realitätsgrad bei konventionellen Renderverfahren mit minimalem Aufwand drastisch erhöht.
6.4.1. Aufnahme des Lichtbildes
Man benötigt eine lichtdurchlässige Leinwand, beispielsweise ein aufgespanntes
Bettlaken oder weißes Tuch. Dahinter wird eine Lampe aufgestellt, und lotrecht
auf die Leinwand gerichtet. Der Abstand zur Leinwand richtet sich nach
dem Öffnungswinkel der LIchtquelle und der Größe der Leinwand selbst.
5 bis 15 cm sind aus Erfahrung gut geeignet, um den gesamten Lichtschein auf
der Leinwand abzubilden.
Der Raum muß abgedunkelt sein, um den Einfluß anderer Lichtquellen zu
eliminieren. Auf der anderen Seite der Leinwand, genau der Lampe gegenüber,
wird dann eine Kamera plaziert. Es wird eine Belichtungsserie wie in Bild 89
aufgenommen.
Bild 89: Belichtungsserie von 1/2000 sec bis 15 sec
Wir gewohnt wird die Serie in PhotoSphere zu einem HDRI kombiniert. In
HDRShop wird es dann zentriert, quadratisch beschnitten und mit einem Blur
belegt um die Leinwandstruktur zu verwischen.
6.4.2. Lichtprojektion in 3D
Der Trick besteht nun darin, das so entstandene Bild vor ein ganz normales
Spotlicht zu klemmen, vergleichbar mit einer Diaprojektion. In Lightwave gibt es
dafür eine extra Lichtoption namens „Projection Image“ (siehe Bild 90).
94
Bild 90: Screenshot mit Lichtsettings
Bild 91: Vasen unter verschiedenen Projection Lights
95
Die Intensitäten des HDRI wirken dann als Multiplikator für die Lichtstärke,
die hellen Pixel in der Mitte hellen es auf und die am Rand verringern die
Lichtintensität. Zusätzlich wird das Licht eingefärbt, je nach Farbwert des durchleuchteten Pixels. Stellt man nun den Öffnungswinkel des Spotlichtes noch auf
einen großen Wert, hat der Spot eine ähnliche Leuchtcharakteristik wie die echte
Lampe.
Bild 91A zeigt die Beleuchtung mit einem einzelnen Spotlight, so realistisch
eingerichtet wie es die Standardeinstellungen erlauben. Der Lichtabfall (Falloff)
ist auf die physikalisch korrekten 1/r² eingestellt, und das Licht hat eine leichte
volumetrische Komponente beigemischt (vergleiche Bild 90). Trotzdem ist auf
dem Fußboden nur ein langweiliger diagonaler Farbverlauf zu sehen, das Bild
insgesamt sieht sehr künstlich aus. Die Renderzeit mit „Enhanced High“ Antialiasing betrug 93 Sekunden.
Bei allen anderen Bildern handelt es sich um die identische Szene, nur mir
verschiedenen Projektionsbildern. So wirft in Bild 91B die Fahrradlampe eine
viel nuancenreichere Beleuchtung, die sogar dieser einfachen Szene eine realistische Stimmung verleiht. Bei genauerer Betrachtung erkennt man auch sehr
gut, daß das Lichbild sich in der volumetrischen Komponente als diagonale Streifen wiederfinden. Dieses Bild wurde in 98 Sekunden gerendert, dauerte also nur
5 Sekunden länger als Bild 91A. Ein geringer Preis für diesen Qualitätssprung.
Bild 91B und 91C dauerten genauso lange. Schlußfolgernd ist die Renderzeit
ist also von dem Inhalt der Projektion unabhängig. Man beachte, daß das
kleine Wurmlicht viel gerichteter auf einen Punkt strahlt, und im Hintergrund viel
schneller ausblendet. Die Tischlampe dagegen gibt ein homogeneres Lichtfeld
ab. Bemerkenswert bei beiden sind auch die Farbübergänge von Glanzlicht in
Schattenregionen, ein Effekt der mit herkömmlichen Methoden nur sehr schwer
zu erreichen ist.
Die Eleganz dieser Methode liegt in ihrer einfachen Handhabung. Einfach nur
durch das Auswechseln des Projektionsbildes ändert man die gesamte Lichtstimmung - und hat bei deren Auswahl sogar eine visuelle Vorschau. Trotzdem
hat man noch genügend manuelle Einflußmöglichkeiten. Mit Intensität, Öffnungswinkel, und Lichtfarbe kann man aus jedem dieser Lichtbilder eine Vielzahl von
Variationen erstellen.
96
6.5. Ausblick auf zukünftige Arbeiten
Gegenstand der nächsten Versuche wird die in Abschnitt 6.2.3. erwähnte
Erzeugung und Anwendung einer Differenztextur sein.
Das gegründete Diskussionsforum „HDRI Challenge“ wird aufrecht erhalten. Vielversprechende Ideen, die sich dort herauskristallisieren, werden weiterverfolgt.
So hat beispielsweise eine von HARRINGTON [55] entwickelte Erweiterung der
Fallstudie großes Potential (siehe Bild 92).
Bild 92: Erweiterung von Robert Harrington
In Anlehnung an DOWNING’s [56] PIMP Technik scheint diese Methode geeignet,
um komplexe Interaktionen von CG Objekten und realen Objekten darzustellen.
Beispielsweise spiegelt sich in Bild 94D die virtuelle Kugel in der realen Kaffekanne. Darüberhinaus ist die Simulation perspektivisch korrekter Kamerabewegung in dem ursprünglichen 2d-Hintergrund möglich. Auch Unschärfeverlagerung (vergleiche Bild 92A und 92B) kann erzeugt werden. Es gilt hier, einen
zuverlässigen und effizienten Arbeitsablauf zu entwickeln.
Langfristig ist in Zusammenarbeit mit Christian BAUER eine umfassende Auswertung der HDRI Challenge vorgesehen. Softwarespezifische Setup-Techniken, die
anhand der Referenzszene entwickelt und optimiert wurden, sollen katalogisiert
werden. Es ist weiterhin geplant, die jeweils effizienteste Technik in Form eines
Scriptes für die jeweilige Software zu automatisieren. Angedacht ist auch, die
erforderlichen Inputdaten für die Ausführung des Scriptes in einem neuen
Dateiformat zu bündeln. Das würde dann das HDRI-Environment, Hintergrundbild (oder hochauflösendes Panorama), und Kameradaten enthalten, eventuell
zusätzlich noch primitive Szenengeometrie und vielleicht sogar eine Sounddatei
von der Originalumgebung. Damit hätte man ein Austauschformat geschaffen,
mit dem eine reale Umgebung einfach und zuverlässig importiert werden kann
und in jeder unterstützten 3d-Software zu vergleichbaren Ergebnissen führt.
97
7.
Zusammenfassung
Es wurde das Grundprinzip hinter High Dynamic Range Images (HDRIs)
erläutert, und in Relation zu den Beschränkungen analoger und klassischer
digitaler Aufzeichnungsverfahren gesetzt. Daraus wurde ersichtlich, daß HDRIs
am besten für die Abbildung der realen Welt geeignet sind.
In einem Vergleichstest wurde ermittelt, daß mit einer Digitalkamera und dem
Shareware Programm „PhotoSphere“ die Aufnahme von HDRIs am einfachsten
und exaktesten ist.
Als Dateiformat wird Radiance HDR aufgrund der breitesten Unterstützung
empfohlen, eine breitere Implementierung des überlegenen OpenEXR Formates
wäre wünschenswert. Die Erweiterung der digitalen Bildbearbeitungsmöglichkeiten durch HDRI wurde aufgezeigt. Digitale Nachbelichtung, Simulation von
Bewegungsunschärfe und analogen Filmeffekten kann mit handelsüblicher Software an HDRIs durchgeführt werden und führt zu erheblichen Qualitästverbesserungen.
Mit HDRI Panoramafotos können in allen 5 marktführenden 3D-Programmen
(3dMax, SoftimageXSI, Lightwave, Maya, Cinema4D) virtuelle Objekte mit realen
Lichtsituationen beleuchtet werden. Das erleichtert die Erstellung fotorealistischer 3D-Effekte erheblich.
Diese HDRI Panoramen können auch mit niedrigem Budget und akzeptablem
Aufwand in hoher Qualität aufgenommen werden. Verschiedene optimierte
Arbeitsmethoden wurden vorgestellt, und mit Empfehlungen für einzelne
Anwendergruppen verknüpft.
Als Gesamtschlußfolgerung wird festgestellt, daß die HDRI Technologie inzwischen produktionstauglich ist. Die Integration in eine bestehende Postproduktionskette ist sinnvoll, unkompliziert, und wurde nachvollziehbar demonstriert.
98
Quellenverzeichnis
[1]
[2]
[3]
[4]
[5]
[6]
[7]
[8]
[9]
[10]
[11]
[12]
[13]
[14]
[15]
[16]
[17]
[18]
[19]
[20]
[21]
[22]
[23]
[24]
[25]
ILM, Industrial Light+Magic. OpenEXR Press Release. San Rafael, Calif.
Januar 2003.
DEBEVEC, Paul und LEMMON, Dan: Image-Based Lighting. Siggraph 2001
Course#14 Slides:. August 2001
COHEN, Jonathan. Persönliches Interview im Rhythm&Hues Lighting
Department. Archivierte Tonbandaufnahme, Los Angeles, April 2003.
BIRCHNER, Adrian. Belichtungsmessung: Korrekt messen, richtig belichten.
Gilching: Verlag Photographie, 2002
YANG, David und EL GAMAL, Abbas. Comparative Analysis of SNR for Image
Sensors with Enhanced DR. Stanford University, 1999
STOCKMAN, Andrew u.a. Color and Vision Database, Institute of Ophthalmology, London, http://cvision.ucsd.edu/
HOFFMANN, Donald. Visuelle Intelligenz: Wie die Welt im Kopf entsteht.
3.Aufl. Stuttgart: Verlag Klett-Cotta, 2001
WARD, Greg: High Dynamic Range Imaging, Exponent-Failure Analysis
Assoc. Menlo Park, Calif. 1994
BOLLEROT, Michael. CMOS Camera with High Dynamic Irridiance Range
and Linear Output, Datenblatt. Fraunhofer Institut. Duisburg. Sept.1999
KODAK R&D Abteilung. Apples and Oranges and OLED, Juli 2002
www.kodak.com/US/en/corp/researchDevelopment/
KODAK Pressemitteilung: Kodak... use Active-Matrix OLED Displays, März
2003 http://www.kodak.com/US/en/corp/display/LS633.jhtml
WARD, Greg: Overcoming Gamut and DR Limitations in Digital Images,
IS&T/SID 6th Color Imaging Conference, November 1998.
WARD, Greg: The RADIANCE Lighting Simulation and Rendering System.
In Computer Graphics, S.459-472, Juli 1994
ILM, OpenEXR Developer Website, www.OpenEXR.com
KODAK R&D Abteilung. Extended Range Imaging Technology. April 2002.
www.kodak.com/US/en/corp/researchDevelopment/
Testbericht DCSpro14n, www.steves-digicams.com/2003_reviews/
KELBLEY, Jay. Interview auf der Photokina, in Nexthardware Magazin.
www.nexthardware.com/focus.php?artID=65&numpag=1 , 2002
TCHOU, Cris. Diskussionsbeitrag im HDRShop Support Board:
www.debevec.org/HDRShop , Juni 2003
HORMANN, Christoph. HDR-Edit Entwicklerwebsite. www-public.tubs.de:8080/~y0013390/hcredit/ , 2002
WARD, Greg. The Photophile HDR Image Browser, Vortrag im Radiance
Workshop, Sept.2002 www.radiance-online.org/radiance-workshop1/cd/
WARD. GREG. Persönliche Nachricht per e-mail, Mai 2003
Herstellerangaben zu Photogenics www.idruna.com
DEBEVEC, Paul und Jitendra, Malik. Rendering Synthetic Objects into Real
Scenes… In Proceedings of SIGGRAPH 98, S.189-198. Juli 1998
DEBEVEC, Paul. Recovering High Dynamic Range Radiance Maps from
Photographs. In Proceedings of SIGGRAPH 97, S.369-378. Aug. 1997
ACM SIGGRAPH UIUC. Gruppe an der Universität Illinois, EOH Projekt.
www.acm.uiuc.edu/siggraph/eoh_projects/eoh2002.html , 2002.
99
[26] COHEN, Jonathan / TCHOU, Chris / DEBEVEC, Paul / HAWKINGS, Tim. Real-Time
High Dynamic Range Texture Mapping. In: Eurographics Rendering Workshop, www.ict.usc.edu/graphics, Mai 2001
[27] EL GAMAL, Abbas. High Dynamic Range Image Sensors, Workshop
auf der IEEE International Conference on Cicuits and Systems’02,
www-isl.stanford.edu/~abbas/group, 2002.
[28] BRAJOVIC, V. und KANADE, T. A sorting image sensor:…parallel intensity-totime processing... In Proceedings of the 1996 IEEE International Conference on Robotics and Automation, Minneapolis, S. 1638-1643.
[29] EL GAMAL, Abbas. Digital Pixel Sensors. Stanford University/Department of
Electrical Engeneering. www-isl.stanford.edu/~abbas/group 2002
[30] NAYAR, Shree und MITSUNAGA, Tomoo. HDRI: Spatially varying pixel exposures. www.cs.columbia.edu/CAVE , March 2000.
[31] FUJIFILM Pressemitteilung: Introducing ‘High Fidelity Photography™’
www.fujifilm.co.uk/presscentre/public/
index.cfm?FuseAction=ViewPR&release_ID=535 , 22. Januar 2003
[32] KOCH, C., ELLIS, T.J., GEORGIADIS, A. u.a. Illumination Technique for optical
dynamic range compression and offset reduction. 2000
[33] WAESE, Jamie und DEBEVEC, Paul. A Real Time High Dynamic Range
Light Probe, USC Institute for Creative Technologies/Graphics Lab,
www.ict.usc.edu/graphics, 2001.
[34] RODNEY, Andrew: High-End Digital Cameras, in PEInfo #139, S.18-28, April
2000
[35] DOWNING, Greg. Stitched HDRI, Online Tutorial www.gregdowning.com/
HDRI/stitched/. 2001.
[36] GEIGEL, Joe und MUSGRAVE, Kenton. A Model for Simulating the Photographic Development Process…. , SIGGRAPH’97 Proceedings, S.
135-142, www.jogle.com/Research/vdr/ ,1997.
[37] WOODRUFF, Kenneth, CACHELIN, Arnie, HASTINGS, Allen. LightWave‘s „Full
Precision“ Renderer and You. Online Tutorial. www.newtek.com/products/
lightwave/tutorials/fullprecision, 2002.
[38] RIGG, James. www.Panoguide.com. Online Wissensplattform, 2002.
[39] KUNZ, Thomas. www.tbk.de/panorama/ . Online Wissensplattform. Berlin,
2002
[40] SPHERON VR AG. Herstellerangaben, www.spheron.de, Mai 2002.
[41] KUNZE, Tilo. Panoramaspiegel für 20 Euro, Online Bastelanleitung.
www.crosus.de/panorama/pancam40.html. Senftenberg, 2001.
[42] BAUER, Christian. How to remove the photographer… Online Tutorial
www.cgtechniques.com/tutorials/getridof.php. Wien. August 2001.
[43] IPIX, Selbstdarstellung www.ipix.com. 2002.
[44] Briefverkehr von DERSCH/IPIX, gemirrored auf der Protestseite http://
vr.albury.net.au/%7Ekathyw/EyePics/ipix.html. 1999.
[45] DERSCH, Helmut und DERSCH, Astrid. PanoramaTools. FH Furtwangen http://
home.no.net/dmaurer/~dersch/index_deutsch.html, 2001.
[46] BAUER, Christian. Create a Panoarama with Panotools, Online Tutorial
www.cgtechniques.com/tutorials/makepano.php. Wien. Sept. 2001.
[47] BAUER, Christian. From Fisheye to HDRI, Online Tutorial.
www.cgtechniques.com/tutorials/hdrenviroment.php. Wien. Aug.2001
[48] WINKLER, Mathias: Filmerfahrung: Ansätze einer phänomenologischen Konstitutionsanalyse. S.244. Frankfurt am Main. 1985.
100
[49] SCHMIDT, Mechthild. Gedanken zur Zeit, In: Digitales Fernsehen – eine
neue Medienwelt?... In: ZDF Schriftenreihe, Heft 50 S. 62, Mainz 1993.
[50] WILLMOT, Andrew und HECKBERT, Paul: An Empirical Comparison of Progressive and Wavelet Radiosity. In Eurographics Workshop on Rendering, Juni
1997
[51] ELIAS, Hugo: Radiosity. Online Tutorial für Nichtprogrammierer.
http://freespace.virgin.net/hugo.elias/radiosity/radiosity.htm. 2000
[52] DUTRÉ, Philip. Global Illumination Compendium, Cornell University.
www.graphics.cornell.edu/~phil/GI/ . Januar 2001.
[53] COHEN, Jonathan. CACHELIN, Arnie. LightGen Manual and Download.
www.ict.usc.edu/~jcohen/lightgen/lightgen.html . Sept.2001
[54] KELLER, Alexander und KOLLIG, Thomas. Efficient Illumination by High Dynamic Range Images, Universität Kaiserslautern, Sept. 2002
[55] HARRINGTON, Robert. (Mr.P.) …Camera map me up, Diskussionsbeitrag
http://hdri.cgtechniques.com/~blochi/show_list.php?free=15, 2003
[56] DOWNING, Greg. PIMP-Panoramic Image Modeling Project. Online Tutorial,
http://www.gregdowning.com/pimp/. 2003
[57] DURAND, Frédo und DORSEY, Julie. Fast Bilateral Filtering for the Display of
HDR Images. Laboratory for Computer Science, MIT, 2001
[58] Reinhard, Erik. Tone mapping. Vortrag an der University of Central Florida,
www.cs.ucf.edu/%7Ereinhard/cdrom/, 2002
Bildquellen
24 aus WARD, Greg. The Photophile HDR Image Browser, Vortrag im Radiance
Workshop, Sept.2002 www.radiance-online.org/radiance-workshop1/cd/
44 aus SPHERON VR AG. Herstellerangaben, www.spheron.de, Mai 2002.
43, 45, 46, 47 aus KUNZ, Thomas. www.tbk.de/panorama/ . Online Wissensplattform. Berlin, 2002
84 ist zusammengestellt aus Arbeiten von 8 Teilnehmern der HDRI Challenge,
entsprechende Personen sind im Bild verzeichnet.
66, 68, 69, 71, 73, 74, 74, 75 erstellt unter Verwendung von Rohmaterial von
BAUER, Christian. www.cgtechniques.com/
Tabelle 1 aus www.dpreview.com/learn/key=exposure. Online Photo Glossary