4.3 Digitale Fotografie

Transcrição

4.3 Digitale Fotografie
Medium Fotografie
Medium Fotografie
4.3
Digitale Fotografie
Statt des Filmmaterials befindet sich ein optoelektrischer Wandler im Kameragehäuse.
Dies kann bei Studiokameras ein Zeilensensor sein, der genau wie beim Flachbettscanner das projizierte Bild zeilenweise abtastet und danach mechanisch zur nächsten
Position bewegt wird. Meistens findet man hier trilineare Scannerzeilen, die aus drei
Reihen mit CCD-Sensoren bestehen und mit Farbfiltern für die Primärfarben Rot, Grün
und Blau versehen sind. Mit diesen Scannerkameras lassen sich natürlich keine
bewegten Objekte fotografieren, dafür zeichnen sie sich in einer exzellenten Qualität,
Auflösung und Farbtreue aus und werden zum Beispiel für Produktaufnahmen (TableTop-Fotografie) gerne verwendet.
Flächensensoren dagegen erfassen das ganze Bild auf einmal, eine SchwarzweißKamera wäre damit leicht zu konstruieren. Für eine Farbaufnahme benötigen wir
jedoch wieder eine getrennte Erfassung der Rot-, Grün- und Blau-Anteile. Bei DreiChip-Kameras wird das einfallende Licht in einem Strahlenteiler-Prisma auf drei CCDFlächensensoren gelenkt. Die Farbfilter befinden sich entweder auf dem jeweiligen
CCD-Chip oder im Strahlengang davor. Diese Kameras sind ebenfalls sehr gut, aber
nicht gerade billig und recht voluminös.
Will man mit nur einem Flächensensor auskommen, kann man Three-Shot-Modelle
oder RGB-Modelle wählen. Bei den erstgenannten wird der CCD-Sensor dreimal
belichtet, wobei jedesmal eine andere Filterscheibe in den Strahlengang geschoben
wird. Damit sind natürlich wieder einmal keine Aufnahmen von bewegten Objekten
möglich. Bei One-Shot-Kameras mit RGB-Sensoren sind die einzelnen Pixelelemente
des Flächensensors mit verschiedenen Farbfiltern in den drei Grundfarben versehen.
Mosaikartig sind dann meistens etwa 50% grünempfindliche Pixelsensoren und je 25%
rote und blaue Pixel auf dem Flächensensor verteilt. Da pro Bildpunkt dann aber nur
einer der drei benötigten Farbwerte vorliegt, müssen die beiden anderen Farbwerte aus
den Werten der benachbarten Pixel errechnet, also wieder interpoliert werden. Das
gewählte „Filtermosaikmuster“ und die Interpolations-Software haben dabei entscheidenden Einfluss auf die erreichbare Bildqualität. Verkaufsaussagen wie „Optische
Auflösung 800 x 600 Pixel bei 24 bit Farbtiefe“ sind daher mit Vorsicht zu genießen. Für
den Amateur und die optisch weniger anspruchsvollen Anwendungen im Multimediabereich ist diese Technik sicher allemal ausreichend, im professionellen Bereich für
Druckvorlagen jedoch weniger geeignet. Es gibt allerdings auch Profi-Kameras mit
CCD-Sensor-Auflösungen von etwa 3000 x 2000 Pixel, bei denen die Interpolation
deshalb – bei gleicher Wiedergabe- oder Ausdruckgröße – weniger auffällt.
Umsetzer noch am Digitalisieren sind. Damit lassen sich dann beispielsweise bei
einem aktuellen, professionellen Modell zwei Aufnahmen in zwei Sekunden bewerkstelligen, wonach man allerdings eine Pause von 8 Sekunden einlegen muss, bevor
die nächste Aufnahme möglich ist.
Zur Speicherung der Bilddaten haben sich fast alle Hersteller von digitalen Fotokameras eigene Speichermedien ausgedacht, die natürlich nicht unbedingt kompatibel zueinander sind. Teilweise werden jedoch auch Standardmedien verwendet, so
zum Beispiel Speicherkarten, wie sie auch bei tragbaren PCs, den Notebooks,
Verwendung finden, aber auch handelsübliche 3,5“-Disketten. Damit wäre auch das
Problem gelöst, wie die Bilddaten in den PC kommen. Die meisten Modelle haben aber
auch eine serielle, parallele oder SCSI-Schnittstelle, teilweise findet man auch einen
USB- oder Firewire-Anschluss.
Beim Objektiv ist zu beachten, dass bei den meisten digitalen Kameras der CCD-Chip
geringere Abmessungen als ein Kleinbildformat hat, nehmen wir als Beispiel eine
CCD-Größe von 12 x 18 mm an. Bei der gleichen Objektiv-Brennweite wie bei einer
Kleinbildkamera (in unserem o.a. Beispiel 50 mm) bedeutet dies, dass das formatfüllende Objekt mit Abmessungen von 3,60 x 2,40 m nun nicht 5 m, sondern ganze 10
m von der Kamera entfernt sein muss. Ein Normalobjektiv mit einer Brennweite von f
= 50 mm wirkt hier also wie ein Teleobjektiv mit einer Brennweite von f = 100 mm. Man
spricht deshalb auch von einer sogenannten „Brennweitenverlängerung“, im Beispiel
um den Faktor zwei, obwohl natürlich nicht die Brennweite des gleichen Objektivs
plötzlich größer ist, sondern nur die Auswirkung auf den Bildausschnitt. Für Weitwinkelaufnahmen benötigen wir also extrem kurze Brennweiten von nur wenigen Millimetern,
die für eine gute Qualität jedoch vergleichsweise aufwendig und teuer herzustellen
sind. Weitwinkelaufnahmen sind in der digitalen Fotografie also ein echtes Problem.
Das Verfahren zur Analog-Digital-Umsetzung mag bei den verschiedenen Kameramodellen am Markt je nach Preisklasse stark voneinander abweichen. Immerhin sind
bei Auflösungen von 800 x 600 Pixeln 480.000 Bildpunkte zu digitalisieren. Bei
Audiomaterial digitalisieren wir höchstens 96000 Samples pro Sekunde, für Stereofonie
setzen wir zwei Umsetzer ein. Für digitale Fotos benötigen wir da schon entweder sehr
schnelle Analog-Digital-Wandler oder eine ganze Batterie davon, die dann eine
komplette Zeile oder Spalte des CCD-Signals auf einen Rutsch digitalisieren können.
Teilweise kann der CCD-Aufnehmer bereits neu belichtet werden, während die
Bild FB 4.7
Unterschiedlicher Abbildungsmaßstab bei „normalen“ und digitalen Kameras
FB 68
© by Dr.-Ing. P. Christiani GmbH
© by Dr.-Ing. P. Christiani GmbH
FB 69
Medium Fotografie
4.4
Medium Fotografie
Im Folgenden wollen wir ein Referenzbild (des Autors und seiner Familie) verwenden,
um die Wirkung der einzelnen Kompressionen und Reduktionen feststellen zu können:
Dateiformate und Kompression
Bis jetzt haben wir nur davon gesprochen, dass jeder Bildpunkt einzeln digitalisiert als
diskretes Datum vorliegt, und zwar für jeden Farbanteil Rot, Grün und Blau in einer
Farbauflösung von 8 bit = 1 Byte. Im Bitmap-Format erhalten wir für ein Bild mit 800 x
600 Bildpunkten eine Dateigröße von etwa 1,4 MByte.
Komprimieren wir solch eine Bitmap-Datei mit einem handelsüblichen verlustfreien
Kompressionsprogramm (Packprogramm), erhalten wir je nach Bildinhalt etwas unterschiedliche Ergebnisse. Eine einfarbige Fläche könnten wir auf eine Dateigröße von
rund 1.600 Byte schrumpfen, ein Foto mit wenigen Flächen und vielen Details – wie es
auf den nächsten Seiten mehrmals abgebildet ist – beansprucht dagegen komprimiert
immer noch 1,2 MByte.
Wenden wir also das Verfahren der – verlustbehafteten – Datenreduktion an. Das
wichtigste Verfahren und Standard bei der Reduktion von Standbildern ist das JPEGVerfahren.
Dieses Verfahren wurde 1992 von einer eigens dazu gegründeten Expertenkommission
vorgestellt (Joint Photographers Expert Group, JPEG), daher auch der Name. Als
sogenanntes hybrides Verfahren benutzt JPEG eine Kombination aus verlustfreier und
verlustbehafteter Kompressionsmethoden.
Das farbige RGB-Bild wird zunächst in eine andere Darstellung konvertiert, bei der als
Ergebnis die Helligkeitswerte als Schwarz-Weiß-Bild (Y) und zwei sogenannte
Chrominanzwerte vorliegen (UV), welche die Farbanteile bestimmen und die wir im
nächsten Kapitel (Digitales Video) noch besser kennenlernen.
Anschließend wird das Bild in einzelne Blöcke mit 8x8 Punkten getrennt, auf die man
die Discrete Cosinus Transformation (DCT) anwendet. Damit werden viele hohe
Frequenzen, sprich Details, entfernt. Mit der Differential Puls Code Modulation (DPCM)
untersucht man nun noch benachbarte Punkte und kann durch Prädiktion weitere Werte
reduzieren.
Nach der anschließenden Zick-Zack-Auslesung der 8x8-Matrix erhält man eine Datenfolge, die man sowohl mit der Lauflängen-Codierung (RLE) als auch mit der HuffmannCodierung noch weiter verlustfrei komprimiert. In dieser Form werden alle Teilbildchen
behandelt und zusammen als JPEG-Datei (mit der Endung *.jpg) gespeichert. Die mit
DCT und DPCM erreichbare Kompression lässt sich einstellen und zeigt je nach
Kompressionsfaktor unterschiedliche Ergebnisse.
Bild 4.10
Ausschnitt aus der obigen Bitmap
Bild FB 4.8
JPEG-Datenreduktion
FB 70
Bild FB 4.9
Referenzbild als Bitmap-Datei
© by Dr.-Ing. P. Christiani GmbH
© by Dr.-Ing. P. Christiani GmbH
FB 71
Medium Fotografie
Medium Fotografie
Das gleiche Bild nun als jpg-Datei, also nach JPEG datenreduziert mit einem mittleren
Kompressionsfaktor von 1:50:
Das gleiche Bild nun als jpg-Datei, also nach JPEG datenreduziert mit einem starken
Kompressionsfaktor von 1:100:
Bild FB 4.11
Referenzbild als JPG-Datei, 1:50 komprimiert
Bild FB 4.13
Referenzbild als JPG-Datei, 1:100 komprimiert
Bild 4.12
Ausschnitt aus dem obigen JPG-Bild
Bild 4.14
Ausschnitt aus dem obigen JPG-Bild
FB 72
© by Dr.-Ing. P. Christiani GmbH
© by Dr.-Ing. P. Christiani GmbH
FB 73
Medium Fotografie
Medium Fotografie
Wir können uns die Wirkung auch einmal bei Grafiken anschauen, zum Beispiel an
einem vergrößerten Ausschnitt aus einem Firmenlogo:
Interessant sind in diesem Zusammenhang die benötigten Dateigrößen. Das Familienfoto ist genau 800 x 600 Pixel groß und belegt:
als TIF-Datei:
als JPG-Datei, Kompression 1:50:
als JPG-Datei, Kompression 1:100:
480.174 Byte
36.715 Byte
21.942 Byte
Der Ausschnitt aus dem Firmenlogo ist genau 295x104 Pixel groß und belegt:
als TIF-Datei:
als GIF-Datei:
als JPG-Datei, Kompression 1:50:
als JPG-Datei, Kompression 1:100:
Bild FB 4.15
Ausschnitt aus einem Firmenlogo in Bitmap-Qualität
30.854 Byte
15.283 Byte
17.986 Byte
13.332 Byte
Auffallend an den nach JPEG komprimierten Bildern sind die sogenannten „Artefakte“,
die durch die Blockbildung und blockweise DCT-Kompression entstehen und deutlich
sichtbar sind. Um diese Artefakte zu vermeiden, gleichzeitig jedoch noch höhere
Komressionsraten zu erreichen, wird an neuen Verfahren zur Bilddatenreduktion
gearbeitet.
Bild FB 4.16
Ausschnitt als GIF-Datei (Format von Compuserve für Internet-Darbietungen)
Vielversprechende Ansätze liefern die Vektorquantisierung und die fraktale Kompression. Grundgedanke bei diesen Verfahren ist, ein vorliegendes Bild durch eine
Anordnung von geometrischen Grundmustern zu beschreiben, also einer Menge von
Linien, Kreisen, Dreiecken und Rechtecken und anderen Polygonzügen mit unterschiedlichen Strichstärken und Farbfüllungen. Sind diese Objekte erst einmal erkannt,
braucht man nur noch deren Lage und Eigenschaften in kurzen Formeln beschreiben.
Der Speicherbedarf wird dadurch erheblich reduziert, außerdem lassen sich die Bilder
ohne Qualitätsverluste beliebig vergrößern. Das Erkennen der geometrischen Figuren
ist jedoch ein sehr komplexer und rechenintensiver Vorgang, der noch viele Unsicherheiten aufweist, so dass dieses Verfahren noch nicht allgemein anwendbar ist.
Bild FB 4.17
Ausschnitt aus einem Firmenlogo in JPG-Qualität, Kompression 1:50
Bild FB 4.18
Ausschnitt aus einem Firmenlogo in JPG-Qualität, Kompression 1:100
FB 74
© by Dr.-Ing. P. Christiani GmbH
© by Dr.-Ing. P. Christiani GmbH
FB 75
Medium Video
5
Medium Video
Medium Video
Bei professionellen Kino- und Fernseh-Produktionen wird auch heute noch die gute
alte Filmtechnik eingesetzt, wenngleich sich die Filmerei im Vergleich zum Beginn des
Mediums Film – Anfang des 20. Jahrhunderts – wesentlich verändert hat. Musste man
zu Beginn des Tonfilms zum Beispiel noch eigene Kabinen bauen, um die laute Kamera
nebst Kameraleuten vom akustischen geschahen am „Set“ fernzuhalten, so wurden
später sogenannte „Blimps“ als Schallschutzhauben um die Kamera herum konstruiert.
Heutige Filmkameras laufen fast absolut geräuschlos. Nach wie vor unerreicht ist die
hohe optische Auflösung und damit Wiedergabequalität, die für Projektionen auf die
großen Leinwände in den Kinosälen aber auch schon notwendig ist.
Multimedia findet jedoch nicht im Kinosaal statt, wenngleich man sich Kiosksysteme
vorstellen kann, bei denen man zur Bildwiedergabe keinen Computermonitor nutzt,
sondern das Bild mit einem „Beamer“ (Daten-Video-Projektor) auf eine Wandfläche
projiziert.
Betrachten wir also die zur Wiedergabe von bewegten Bildern auf Fernsehgeräten oder
Computern gedachten Videoverfahren. Auch dabei haben wir es wieder mit der Kette
„Aufnahme – Speicherung/Bearbeitung/Übertragung – Wiedergabe“ zu tun.
5.1
Analoges
Video
Auf einem TV- oder PC-Bildschirm besteht ein Bild aus einzelnen Bildpunkten (Pixeln),
die in horizontalen Zeilen angeordnet sind. Bei analogen Videobildern wird das Bild
zeilenweise von links oben bis rechts unten abgetastet, übertragen und beim Empfänger ebenso wieder zusammengesetzt. Die Geschwindigkeit der Abtastung, die
Nachleuchtdauer der Bildschirms und die Wahrnehmungsträgheit des menschlichen
Auges bewirken, dass wir bei normalem Betrachtungsabstand den zeilenweisen
Aufbau oder gar den im Zick-Zack wandernden Bildstrahl nicht wahrnehmen.
Trotzdem kann gerade bei zusammenhängenden, großen hellen Bildflächen ein
Flimmern auftreten, das wir jedoch mit einem Trick unterdrücken: Man teilt das Bild in
zwei Halbbilder und überträgt zuerst alle ungeraden Zeilen (1,3,5,7, ...) von oben bis
unten und dann alle geraden Zeilen (2,4,6,8, ...). Mit diesem Zeilensprungverfahren
lässt sich bei gleicher Videobandbreite die Bildwiedergabefrequenz verdoppeln, denn
das menschliche Auge kriegt so schnell mal wieder nichts mit und lässt sich täuschen,
es interpretiert alle Halbbilder als ganze Vollbilder.
5.1.1
Fernsehformate
Für das Bildformat, die Anzahl der Zeilen und der Halbbilder pro Sekunde haben sich
unterschiedliche, inkompatible Videostandards entwickelt:
Beim NTSC-Standard, der 1953 in den USA eingeführt wurde, richtet sich die Bildfrequenz nach dem US-amerikanischen Stromnetz (NTSC = National Television Standards Committee). Übertragen werden also 60 Halbbilder pro Sekunde, wobei das Bild
aus 525 Zeilen besteht. Da der Kathodenstrahl der Bildröhre jedoch eine gewisse Zeit
braucht, um von rechts unten wieder nach links oben zu kommen, sind nur 480 Zeilen
wirklich nutzbar. Innerhalb einer Zeile lassen sich 640 Bildpunkte darstellen, die
Auflösung im NTSC-Standard beträgt also 640 x 480 Pixel mit einem Seitenverhältnis
von 4:3. Bei der Farbwiedergabe ist das NTSC-Verfahren allerdings nicht gerade
besonders zuverlässig, Spötter übersetzen daher NTSC auch mit „Never The Same
Colour“.
1962 wurde deshalb in Deutschland das PAL-System entwickelt (Phase Alternating
Line). Entsprechend den europäischen Stromversorgungsnetzen ist hier eine Bildwiederholfrequenz von 50 Halbbildern pro Sekunde definiert. Bei etwa gleicher
Zeilenzahl pro Sekunde (31.250) wie in den USA (31.500) lassen sich damit 625 Zeilen
übertragen, wobei wiederum nur 576 für den eigentlichen Bildaufbau genutzt werden
können. Die horizontale Auflösung erreicht 768 Bildpunkte, ein PAL-Bild besteht also
aus 768 x 576 Pixeln im Seitenverhältnis von ebenfalls 4:3.
In Frankreich, weiten Teilen Osteuropas und Afrikas wurde jedoch das SECAM-System
eingeführt (Sequential En Couleurs Avec Mémoire), das ebenfalls eine Bildfrequenz
von 50 Halbbildern und 625 Zeilen aufweist, die Farbinformationen aber anders
überträgt als im PAL-System.
Nach fast 40 Jahren PAL wären die Geräteindustrie und die Fernsehstudios technologisch in der Lage, noch bessere Videobilder zu produzieren und zu distributieren –
allerdings mit neuen Standards:
Das PAL-Plus-System weist ein Bildformat von 16:9 und eine verbesserte Bildqualität
auf und ist zudem mit dem herkömmlichen PAL-Verfahren kompatibel, lässt sich also
auch auf den normalen PAL-Fernsehgeräten wiedergeben, dort jedoch mit der gewohnten alte PAL-Qualität und mit schwarzen Streifen am oberen und unteren Bildrand.
Das HDTV-System (High Definition TeleVision) kommt ebenfalls mit einem Bild im
Seitenverhältnis 16:9 daher und bietet 1250 Zeilen, wesentlich bessere Farbwiedergabe und hochwertige, mehrkanalige HiFi-Tonqualität. Leider gibt es für diese hoch-
Bild FB 5.1
Zeilensprungverfahren
FB 76
© by Dr.-Ing. P. Christiani GmbH
© by Dr.-Ing. P. Christiani GmbH
FB 77
Medium Video
Medium Video
auflösende Fernsehen unterschiedliche Entwicklungen, so dass wir sicherlich noch
einige Zeit auf einen einheitlichen Standard und entsprechende, preisgünstige Empfangsgeräte warten müssen.
5.1.2
Farbcodierung
Wir erinnern uns an die drei Bestimmungsgrößen einer Farbwiedergabe: Helligkeit,
Farbton und Sättigung.
Um ein Schwarz-Weiß-Bild zu übertragen, benötigen wir lediglich die Helligkeitsinformation (BAS-Signal, Bild-Austast-Synchron-Signal), für die eine Übertragungsbandbreite von etwa 5 MHz nötig ist. Zur Farbdarstellung auf unseren PC- oder TVBildröhren verwenden wir das RGB-Farbmodell, bei dem jeder einzelne Bildpunkt aus
der additiven Farbmischung der drei Primärfarben Rot, Grün und Blau gebildet wird.
Für die Video-Übertragung ist dieses RGB-Modell jedoch nicht so gut geeignet:
-
aus der Einführungszeit des Farbfernsehens rührt die Forderung, dass sich ein
Farbvideosignal auch auf Schwarz-Weiß-Geräten wiedergeben lässt und umgekehrt,
-
die Bandbreite für die Helligkeitsinformationen aller drei Grundfarben müsste gleich
hoch sein und wäre damit – für eine vergleichbare Bildqualität – dreimal so hoch wie
beim Schwarz-Weiß-Signal,
-
will man die Bildpunkte manipulieren (zum Beispiel die Gesamthelligkeit, Kontrast,
Farbsättigung), so müssen alle drei Farbwerte gleichzeitig geändert werden.
Physiologische Untersuchungen des menschlichen Auges haben jedoch gezeigt,
dass man Einzelheiten in einem Farbbild hauptsächlich durch Helligkeitsunterschiede
wahrnimmt, während Farbunterschiede nur unwesentlich dazu beitragen. Wir können
uns also darauf konzentrieren, die Helligkeitsinformationen – mit den Anteilen von
Schwarz, Weiß und allen Grautönen – mit höchstmöglicher Qualität zu übertragen und
an die Farbinformationen Farbton und Sättigung nur geringe Anforderungen zu stellen.
Mit dieser Erkenntnis dürfen wir die intern in einer Videokamera erzeugten, getrennten
Rot-, Grün- und Blau-Signale zu einem einheitlichen Helligkeitssignal zusammenführen. Um der Augenempfindlichkeitskurve (siehe Bild FB 1.6) zu entsprechen, benutzt
man hierzu die Formel:
Y = 0,30 R + 0,59 G + 0,11 B
Dieses Helligkeitssignal (Y) ist mit Schwarz-Weiß-Geräten kompatibel (BAS-Signal mit
5 MHz Bandbreite) und wird „Luminanz“ genannt. Für die Farbinformation werden zwei
Farbdifferenzsignale gebildet und es genügt, sie mit je etwa 1 MHz Bandbreite zu
übertragen:
U = Cr = R-Y,
V = Cb = B-Y
Farbdifferenzsignale getrennt übertragen und sprechen dann von einem 3-Komponenten-Video (YUV).
Wir können auch mit den beiden Farbdifferenzsignalen eine Farbträgerschwingung
phasen- und amplitudenmodulieren, wir erhalten als Ergebnis das Farbartsignal (F)
oder auch „Chrominanz“ genannt. Dann übertragen wir nur zwei Signale und sprechen
folglich von 2-Komponenten-Video oder S-Video (Y/C).
Fügen wir außerdem Luminanz und Chrominanz zu einem einzigen Signal zusammen,
so erhalten wir das FBAS-Signal und nennen es Composite Video.
Für die Bildwiedergabe müssen wir alle zusammengeführten Signale jedoch wieder
aufdröseln, um nach einer Decoderschaltung wieder die ursprünglichen RGB-Signale
zu gewinnen, die für die Bildwiedergabe mit unseren Kathodenstrahlröhren oder FlachDisplays nun einmal notwendig ist. Es leuchtet ein, dass wir beim Komponenten-Video
eine bessere Qualität erreichen als bei Composite Video, dafür allerdings ein paar Mark
mehr hinlegen müssen. Der höhere Preis schlägt insbesondere bei der analogen
Videoaufzeichnung zu Buche.
5.1.3
Video-Aufzeichnungs-Formate
Bereits 1956 gelang es der amerikanischen Firma AMPEX, mit 4 Magnetköpfen und
einer Längsspuraufzeichnung – wie wir sie von herkömmlichen Tonbandgeräten
kennen – 65 Minuten Video auf einem zwei Zoll breiten Magnetband aufzunehmen.
Dagegen findet das Prinzip der Schrägspuraufzeichnung, in den 70er Jahren von den
Firmen Bosch und Philips für 1-Zoll-Bänder entwickelt (BCN), noch heute bei allen
analogen und digitalen Videoaufnahmen Verwendung. Dabei wurden mehrere Verfahren entwickelt:
VHS / Video-8
Das Video Home System VHS stammt von der Firma JVC und verdrängte seit Beginn
der 80er Jahre alle anderen Konkurrenten vom Markt – auch die mit den besseren
Aufzeichnungsverfahren. VHS zeichnet FBAS-Signale als Composite Video auf und
begnügt sich bei einer Bildbandbreite von nur 2,5 MHz mit einer horizontalen
Auflösung.von 240 Linien. Das VHS-HiFi-System benutzt für eine bessere Tonqualität
ebenfalls die Schrägspuren für die Tonaufnahme. Da hiermit aber keine Nachvertonungen möglich sind (nachträgliche Tonaufnahmen zu einem bestehenden
Videobild) und Nicht-HiFi-Recorder diese Schrägspur-Tonaufnahmen nicht lesen
können, stehen die separaten Tonspuren weiterhin zur Verfügung.
VHS-Kassetten sind für stationäre Videorecorder zwar gut zu handhaben, aber für
mobile Camcorder (Camera und Recorder in einem Gehäuse) im Amateurbereich viel
zu groß. Deshalb entwickelten Sony das Video-8-Band und JVC selbst die VHS-CKassette (C für Compact), die bei kompakten Abmessungen vergleichbare Qualität
liefern.
Bei der Video-Aufnahme und der Übertragung können wir die Luminanz und die beiden
Für Videoproduktionen mit anschließendem Kopieren oder Digitalisieren ist das VHSFormat weniger gut geeignet. Neben der geringen Auflösung stören besonders die
FB 78
© by Dr.-Ing. P. Christiani GmbH
© by Dr.-Ing. P. Christiani GmbH
FB 79
Medium Video
Medium Video
sogenannten Dropouts. Besonders am Anfang und Ende eines Bandes lagern sich
gerne Schmutz- und Abriebpartikel ab oder ist das Band bereits bei der Herstellung
mechanisch beschädigt. An diesen Stellen kann das Videosignal nicht korrekt aufgezeichnet werden, was sich in Störstreifen und Aussetzern bemekbar macht.
Videodisc
Die Videodisc oder auch Laser-Disc führte lange Zeit nur ein Schattendasein, obwohl
sie als optischer Speicher – wie die Compact Disc (CD) – sehr gute analoge
Videoqualität und schnellen Zugriff auf einzelne Videobilder oder Sequenzen bot.
Je nach Ausführung ließen sich FBAS-, Y/C-, YUV- oder RGB-Signale aufzeichnen, mit
sehr guter Standbildwiedergabe und Timecode.Die Laser-Disc ist heute so gut wie
ausgestorben und wird durch die DVD mit digitalem Video mehr als ersetzt.
5.1.4
Analoge
Videobearbeitung
Wegen der dichten Schrägspuraufzeichnung, dem empfindlichen Bandmaterial und
dem Zeitversatz von Bild und Tonspuren lassen sich Videobänder nicht – wie beim Film
– mechanisch schneiden und neu zusammenkleben. (Wegen der Schräglage der
Videospur von z.B. 6° im VHS-Format würde auch eine sehr lange Schnittkante
entstehen.)
Der Videoschnitt ist immer ein Kopiervorgang, bei dem das Ausgangsmaterial auf
einem oder mehreren Zuspielgeräten wiedergegeben und auf ein eigenes Aufnahmegerät überspielt wird – mit den entsprechenden Qualitätsverlusten. Die Überspielung
geht sequentiell vonstatten, man spricht dabei von linearem Editieren: nach jeder
überspielten Videosequenz wird das Aufnahmegerät angehalten, das nächste Band
in den Zuspieler gelegt und/oder die nächste Bandstelle aufgesucht und die nächste
Szene an die bereits erfolgte Aufnahme angefügt (Assemble-Schnitt).
Bild FB 5.2
Schrägspuraufzeichnung im VHS-Format, das Band bewegt sich mit nur ca. 2,4 cm/s
S-VHS / Hi-8
S-VHS-Geräte sind als Weiterentwicklung des VHS-Systems abwärtskompatibel und
können auch normale VHS-Kassetten abspielen. Umgekehrt geht das leider nicht, da
S-VHS ein 2-Komponenten-Video ist und Luminanz sowie Chrominanz getrennt
aufzeichnet (Y/C-Signal). Das verwendete Bandmaterial hat eine höhere Qualität und
ermöglicht, bei einer Videobandbreite von 4,5 MHz gut 400 Linien aufzulösen. Wie bei
VHS gibt es kompakte Kassetten für Camcorder im S-VHS-C-Format. Das Hi-8-Format,
von Sony entwickelt, ist von der Qualität dem S-VHS-System vergleichbar und wird wie
dieses ebenfalls gerne für semiprofessionelle Zwecke und als Ausgangsmaterial für
digitale Multimedia-Produktionen benutzt.
Betacam
(SP)
Wehe, wenn man sich dabei vertut und im Nachhinein feststellt, dass ein Schnitt aus
dramaturgischen oder technischen Gründen doch nicht so gut aussieht, wie man sich
das vorher ausgedacht hat. Dann darf man ab dieser Stelle die ganze Arbeit noch
einmal machen oder darauf hoffen, dass das Aufnahmegerät auch einen Insert-Schnitt
beherrscht, bei dem innerhalb einer bereits bestehenden Aufnahme eine neue Videosequenz über die alte Aufnahme überspielt wird. Hierbei lassen sich jedoch immer nur
eine Anzahl von auszutauschenden Videobildern mit genau der gleichen Anzahl von
Bildern überschreiben, quasi 1:1 austauschen.
Ein Einfügen zusätzlicher Videosequenzen in eine bestehende Aufnahme oder das
ersatzlose Entfernen von bereits aufgenommenem Material ist bei analogem, linearen
Videoschnitt nicht möglich.
Das Problem beim Schnitt ist die bildgenaue Synchronisation der Zuspiel- und
Aufnahme-Recorder. Zum Einen lässt sich technisch das Videosignal nur in der
sogenannten Austastlücke schneiden, also in der Zeitspanne, in der der Bildstrahl vom
unteren Ende des Bildes wieder nach oben springt.
Das Betacam-Format arbeitet mit einem echten 3-Komponenten-Video und bietet
daher die beste Bildqualität (YUV-Signal). Anfängliche Mängel in der Ton- und
Bildqualität wurden durch das Betacam-SP-Format bereinigt. Wegen der teuren Geräte
ist Betacam SP professionellen Anwendungen vorbehalten, hier aber weltweiter
Quasi-Standard.
Da Mechanik immer trägheitsbehaftet ist, müssen Wiedergabe- und Aufnahmegeräte
wenigstens ein paar Bilder lang „nebeneinander herlaufen“ und sich synchronisieren,
damit das Aufnahmegerät genau im richtigen Moment und beim vorbestimmten Bild
elektronisch auf Aufnahme umschaltet. Dazu müssen die Geräte natürlich „wissen“,
welches Bild sie gerade wiedergeben oder aufnehmen. Um einen elektronischen
Bildzähler auf dem Videoband aufzunehmen, dazu gibt es den sogenannten Timecode.
FB 80
© by Dr.-Ing. P. Christiani GmbH
© by Dr.-Ing. P. Christiani GmbH
FB 81
Medium Video
Medium Video
Timecode
5.2
Der RC-Timecode (Rewritable Consumer Timecode) wurde von Sony für die 8-mmVideoformate Hi-8 und Video-8 geschaffen , spielt in der Praxis aber fast keine Rolle.
Standard ist dagegen der SMPTE-Timecode (Society of Motion Picture and Televison
Engineers), bei dem auf einer Synchronspur des Videobandes jedes einzelne Videobild ein eindeutiges Datum im Format Stunde:Minute:Sekunde:Frame bekommt. Damit
lässt sich zweifelsfrei erkennen, dass bei einer bestehenden Aufnahme von einer
Stunde, 22 Minuten, 5 Sekunden und 15 (Voll-)Bildern Länge der Timecode-Zählerstand bei 01:22:05:15 steht.
Eine Anzeige in Echtzeit – leider nicht beim NTSC-Standard. Die exakte Bildfrequenz
beträgt nämlich nach der NTSC-Norm nur 29,97 Bilder pro Sekunde, der SMPTETimecode weicht also um 0,1% von der tatsächlichen Spielzeit ab. Aber nur beim NonDrop-Frame-NTSC-Timecode, der diese Abweichung einfach ignoriert. Die DropFrame-Variante dagegen lässt in jeder Minute zwei Frames weg, womit die SMPTEAnzeige wieder mit der Wirklichkeit übereinstimmt.
Die Aufzeichnung der Timecodes geschieht entweder als Bildinformationssignal
(VITC, Vertical Interval TimeCode) oder als Tonsignal (LTC, Longitudinal TimeCode).
Bei der VITC-Methode lässt sich daher auch in der Pausenstellung (Standbildwiedergabe) des Videorecorders der Timecode auslesen, beim LTC-Verfahren dagegen nicht.
Digitales Video
Digitales Video spielt nicht nur bei Multimedia eine Rolle. Beim „Desktop-Video“ wird
zwar ebenfalls das Videomaterial am Computer bearbeitet, als Endprodukt steht aber
möglicherweise wieder ein analoges Videoband zum Anschauen über ein Fernsehgerät im Vordergrund. Dann gelten natürlich etwas andere Qualitätsmaßstäbe, als
wenn wir nur ein kleines Videofenster innerhalb einer interaktiven Anwendung benötigen. Die Bearbeitungsmethoden sind jedoch in beiden Fällen gleich.
Wie kriegen wir nun die analog aufgenommenen und eventuell schon geschnittenen
Videos für unsere Multimedia-Anwendungen in den PC?
5.2.1
Computerzubehör
Video Overlay
Eine Video-Overlay-Karte überlagert das von der PC-Grafikkarte für den Monitor
erzeugte RGB-Signal mit einem externen Videosignal. Aus dem PC-Bild wird dazu ein
Bereich ausgeschnitten und durch das Videobold ersetzt. Das Videosignal kann von
einem Fernsehgerät oder einem Videorecorder kommen, es gibt aber auch Karten, die
ein eigenes TV-Empfangsteil (Tuner) mit an Bord haben.
Schnittsteuerung
Es wäre mühsam, wollte man beim Videoschnitt ständig zwischen den Videorecordern
hin- und herspringen und sie einzeln in Echtzeit bedienen. Viel besser sitzen wir zentral
an einem Schnittplatz – mit oder ohne Computerunterstützung – und bedienen die
Geräte fern. Auch hier gibt es wieder verschiedene Standards, Steuerungsprotokolle
genannt:
Control-S: einfaches Protokoll, das im Wesentlichen nur Befehle für Start, Stop,
Aufnahme und Pause bietet.
Control-P: Untermenge des Control-S-Protokolls, das nur Start und Stop kennt.
Control-L, auch LanC genannt (Local Application Network Control): Fernbedienungsprotokoll für Sony-Heimvideogeräte, kann jedoch Befehle nicht framegenau setzen.
Findet Anwendung in Schnittsteuergeräten mit und ohne PC-Anbindung.
Control-M: von Matsushita entwickeltes Protokoll, das von Panasonic-Geräten benutzt
wird und ebenfalls nicht framegenau arbeitet, mit Control-L inkompatibel.
GPI: weit verbreiteter Standard, aber für Videobearbeitung uninteressant, da es
ebenfalls nur wenige Befehle kennt.
Bild FB 5.3
Prinzip des Video-Overlays
RS-232, RS-422: Standard für die seriellen Datenschnittstellen beim PC und Mac, das
auch von den meisten Videogeräte-Herstellern vorgesehen ist
VISCA: Die „Steuerarchitektur für Videosysteme“ kann auch andere als nur Videogeräte steuern – bis zu sieben an einer Leitung.
Ein Nachteil bei dieser Technik ist, dass der PC von alledem nichts merkt. Er weiß gar
nicht, dass hinter seiner Grafikkarte noch ein zusätzliches Videobild auf den Monitor
gezaubert wird. Man könnte eine Overlay-Karte also der Kategorie „additives Multimedia“ zuordnen, mit digitalem, integrierbaren Video hat das nichts zu tun.
FB 82
© by Dr.-Ing. P. Christiani GmbH
© by Dr.-Ing. P. Christiani GmbH
FB 83
Medium Video
Medium Video
Framegrabber
5.2.2
Einen Framegrabber kann man als Erweiterungskarte oder externes Gerät bekommen.
Wie der Name schon sagt, „grabscht“ sich der Framegrabber einzelne Bilder (Frames)
aus einem analogen Videosignal und setzt sie in aller Ruhe in ein digitales Fotoformat
um. Wenn man die örtliche Auflösung und Farbtiefe gering genug wählt, lassen sich
aber auch Videosequenzen mit einer Bildfrequenz bis zu 30 Bildern pro Sekunde
digitalisieren.
Digitale Videokameras unterscheiden sich von den analogen Modellen im Wesentlichen nur durch das Aufzeichnungsverfahren, mit dem die Videoinformation auf
Magnetbandkassetten gespeichert wird. Auch bei Digitalkameras finden wir zunächst
die FBAS- oder YUV-Signale – und genau diese Signale werden digitalisiert.
Framegrabber sind in erster Linie dazu gedacht, aus einem Videofilm Standfotos (StillVideo) gewinnen, ruckelfreie Digital-Videos in multimedial anschaulicher Qualität
lassen sich mit dieser Technik kaum erzeugen.
Video-Capture-Karten
Das Angebot an Erweiterungskarten oder externen Zusatzgeräten, die analoge Videosignale digitalisieren (im Englischen spricht man von Video Capture), ist mittlerweile
recht groß. Zur Bearbeitung des digitalen Materials liegen allen Video-DgitalisierunsSystemen meist umfangreiche Software-Pakete bei. Beispiele:
Wer bereits eine Grafikkarte der Firma Matrox besitzt (Mystique oder Millennium G200,
Productiva), kann eine Digitalisierungskarte namens Rainbow Runner G huckepack
auf diese Grafikkarte aufstecken. Damit lassen sich (fast) PAL-Signale mit 25 Bildern
pro Sekunde und bis zu 704 x 576 Bildpunkten „einfangen“. Als Eingangssignal ist SVideo (Y/C) oder Composite Video (FBAS) geeignet.
Für die Datenkompression nach M-JPEG und Dekompression ist eine spezielle
Hardware auf der Karte vorhanden, als Clou ist auch noch ein TV-Tuner auf der Karte
integriert. Die beigelegte Software ist ausreichend: Media Studio Pro als VideoEditierprogramm, Photo Express für die Bearbeitung von Einzelbildern und Titeln und
ein Fernbedienungsprogramm PC-VCR-Remote, mit dem sich auch ein linearer,
analoger Videoschnitt durchführen lässt.
Für etwa 750 Euro gibt es die AV Master 2000 der Firma Fast. Mit ihr lassen sich FBASund S-Video-Signale in voller PAL- oder NTSC-Auflösung nach M-JPEG digitalisieren.
Mitgeliefert wird ebenfalls Media Studio Pro von Ulead, Cool 3D zum Betiteln der Videos
und sogar ein komplettes Autorenprogramm (Mediator Light), mit dem man MultimediaAnwendungen zusammenstellen kann.
Sogenannte Hybrid-Systeme verarbeiten natürlich ebenfalls analoges Videomaterial
zu digitalen Movies oder AVIs, können darüber hinaus aber auch gleich mit digitalen
Signalen aus digitalen Camcordern gefüttert werden.
VGA-PAL-Konverter
Bei Desktop-Video müssen wir auch überlegen, wie die Videos möglicherweise wieder
aus dem PC herauskommen. Dafür gibt es VGA-PAL-Konverter, die das VGA-Monitorsignal fernsehnormgerecht nach PAL-Norm aufbereiten und ausgeben. Einige PCGrafikkarten und Video-Digitalisierungs-Karten neuester Bauart haben jedoch bereits
einen TV-Ausgang eingebaut.
FB 84
© by Dr.-Ing. P. Christiani GmbH
Digitale
Videoformate
D1
Das D1-System tastet das Luminanzsignal mit 13,5 MHz ab – das ist das Vierfache einer
vom CCIR für digitales Video definierten Standard-Abtastfrequenz von 3,375 MHz. Die
beiden Chrominanzsignale werden in den hohen Frequenzen beschnitten und mit
jeweils 6,75 MHz abgetastet – das ist das Doppelte der CCIR-Standardfrequenz. Man
spricht deshalb von einem „4:2:2-Subsampling“.
Die Quantisierung der Videosignale erfolgt mit 8 oder 10 Bit, die Quantisierung der
4 Tonkanäle mit 16 bis 20 Bit, wobei eine Abtastfrequenz von 48 kHz verwendet wird
(also besser als die Qualität einer Audio-CD). Mit einer resultierenden Datenrate von
zusammen 27 MByte/s und den sehr teuren Geräten bleibt D1 dem professionellen
Fernsehen vorbehalten.
D2 / D3 / Digital Betacam / D5
D2 wurde von Sony entwickelt und digitalisiert FBAS-Composite-Video mitsamt einer
doppelten Tonspur zu einem Datenstrom von 19,25 MByte/s.
D3 wurde von Panasonic – mit ähnlichen technischen Daten, aber kleineren Kassetten
– als Konkurrenz zum Sony-Format vorgestellt.
Sony stellte daraufhin Digital Betacam vor mit 4 Tonspuren und vielen zusätzlichen
Leistungsmerkmalen (schneller Vor- und Rücklauf ohne Störstreifen, Kompatibilität
zum analogen Betacam-Format etc.). Daraufhin konterte Panasonic seinerseits mit
dem D5-Format mit ähnlichen Leistungsmerkmalen, das zum D3-System kompatibel
ist.
Alle diese Formate sind wie das D1-System allerdings nur im professionellen Bereich
zu finden.
Mini-DV
Die für den Consumer-Bereich entwickelten digitalen Camcorder arbeiten mit Mini-DV
und einem YUV-Subsampling von 4:2:0 (PAL) bzw. 4:1:1 (NTSC). Das digitalisierte
Videosignal erfährt vor der Aufzeichnung noch eine Kompression von etwa 1:10. Ton
kann man in CD-Qualität – mit 44,1-kHz-Abtastung und 16-Bit-Quantisierung – oder
sparsam mit 32-kHz-Abtastung und 12-Bit-Quantisierung aufnehmen. Zusammen
erhält man eine Datenrate von maximal 41 Mbit/s (ca. 5 MByte/s).
Einige der speziellen DV-Kassetten mit 60 Minuten Spielzeit haben einer Speicherchip,
mit dem man Bandpositionen indexieren und somit später leichter wiederfinden kann.
© by Dr.-Ing. P. Christiani GmbH
FB 85
Medium Video
5.2.3
Bildelemente
Datenkompressionsverfahren
6
Den zwei gebräuchlichsten Verfahren zur Datenkompression von digitalen Videodateien liegt zumindest das Prinzip der JPEG-Komprimierung zu Grunde, die wir aus
dem Bereich der Standbilder kennen. Bei Standbildern können wir uns für die Kompression viel Zeit lassen und sogar PCs der unteren Leistungsstufe damit beauftragen. Bei
25 Bildern/s benötigen wir jedoch einen speziellen Hardware-Komprimierer, der aber
zum Glück mit auf der Video-Digitalisierungs-Karte vorhanden ist. Leider weichen viele
Anbieter von dem ursprünglich definierten JPEG-Verfahren mehr oder weniger ab.
Beim Motion JPEG (M-JPEG) werden alle Bilder einzeln nach der jeweils implementierten JPEG-Methode komprimiert. Wir erhalten M-JPEG-Videos mit einem
Kompressionsfaktor von 1:5 bis 1:50, die man gut schneiden kann, da jedes Bild für sich
vollständig erhalten ist.
MPEG – erstmals 1993 von der Moving Pictures Expert Group vorgestellt – definiert
gleich eine ganze Reihe von Standards zur Datenreduktion, hier soll aber nur das
Prinzip erläutert werden:
Bildelemente
Eine Multimedia-Produktion besteht natürlich nicht nur aus den einzelnen Fotos,
Videoclips, Tonbeiträgen oder Animationen. Die visuellen Medien müssen ja irgendwo
auf dem Bildschirm platziert und dargeboten werden. Und sicherlich nicht auf einem
leeren oder einfarbigen Hintergrund.
Die Darbietung auf dem Bildschirm muss also gestaltet werden. Dabei müssen auch
die Interaktionselemente berücksichtigt werden und ihren Platz finden. Dem ScreenDesigner fällt die Aufgabe zu, sowohl die einzelnen Elemente in ihrem Aussehen
optimal zu gestalten, so wie man einem schönen Bild einen schönen Rahmen gibt, und
sie dann anwendergerecht auf dem Bildschirm zu präsentieren.
Zur Bearbeitung von Grafiken oder grafischen Bildelementen gibt es zwei prinzipiell
unterschiedliche Verfahren: pixelorientierte und vektororientierte Bearbeitung. Die
Wiedergabe von Pixelbildern kennen wir schon mit den zweidimensionalen Fotografien oder dem Video. Es klingt selbstverständlich: hinter den sichtbaren Pixeln verbergen sich keine anderen Informationen.
Bei Vektorgrafiken haben wir dagegen eine vektorielle Beschreibung von grafischen
Objekten, also Punkten, Linien und beliebigen Polygonzügen. Damit lässt sich die
Lage, Form, Art der Umrandung und Farbfüllung jederzeit ändern, die Objekte lassen
sich auch auf dem Bildschirm bewegen und übereinanderschieben, so dass sie sich
gegenseitig verdecken.
Aus diesem Grund arbeiten Grafiker gern mit vektororientierten Grafikprogrammen,
denn so können sie aus verschiedenen Grundmustern sehr variabel beliebige Darstellungen „komponieren“. Zum Schluss der Arbeit wird jedoch die sichtbare Anordnung
der einzelnen Objekte in ein zweidimensionales Pixelbild umgerechnet
Bild FB 5.4
Prinzip des MPEG-Verfahrens
Zunächst werden sämtliche Einzelbilder mit dem JPEG-Verfahren komprimiert. Nun
werden die benachbarten Bilder auf Ähnlichkeiten hin untersucht. Bei unbewegter
Kamera (Stativ benutzen!) werden sich nachfolgende Bilder nur unwesentlich von den
vorhergehenden unterscheiden. Beispiel: die Szene zeigt ein vorbeifahrendes Auto.
Die Straße und der Hintergrund werden in allen Bildern der Szene gleich aussehen,
nur das Auto und eventuelle Passanten, aber auch beispielweise Blätter im Wind,
unterscheiden sich von Bild zu Bild.
Der Komprimierer findet nun von selbst eine sinnvolle Szeneneinteilung auf dem
Videofilm, die zu einer gemeinsamen „Group of Pictures“ (GOP) erklärt werden. Am
Anfang und Ende dieser GOP werden die JPEG-komprimierten Einzelbilder als
Intraframes (I-Frames) unverändert beibehalten. Einzelne Bilder innerhalb der GOP
werden zu Predicted Pictures (P-Frames) erklärt und auf diejenigen Bildinformationen
reduziert, die sich zum jeweils nächsten I-Frame unterscheiden. Alle anderen Bilder
dazwischen werden zu Bidirectional Coded Pictures (B-Frames) umgeformt und
enthalten fürderhin nur noch die Bildinformationen, in denen sie sich sowohl vom
vorherigen als auch vom nachfolgenden Bild unterscheiden.
FB 86
© by Dr.-Ing. P. Christiani GmbH
6.1
Interaktionselemente
In den grafisch orientierten PC-Betriebssystemen – zum Beispiel den verschiedenen
Windows-Varianten – werden standardmäßig schon eine Reihe von Eingabemöglichkeiten mitgeliefert. Mit diesen Standardangeboten lassen sich eigentlich schon
gut 90% aller Navigationsaufgaben lösen.
Auch die Autorensysteme und „Hardcore-Programmierer“ greifen gerne auf diese
eingebauten Abfragen zurück. Selbstverständlich werden dabei nur die vom Betriebssystem zur Verfügung gestellten Programmroutinen benutzt, das Aussehen der
Interaktionselemente lässt sich jedoch beliebig aufwerten oder ganz neu gestalten.
In den folgenden Beispielen sind die Standardausführungen der Interaktionselemente
dargestellt, wie wir sie aus dem Windows-Betriebssystem kennen.
Grundlage aller interaktiven Elemente ist dabei die Computermaus, mit der man einen
Cursor über den Bildschirm bewegen kann. Landet der Cursor dabei auf bestimmten
dafür vorgesehenen Stellen, so lässt sich mit dem Drücken einer der Maustasten eine
vorprogrammierte Reaktion des Computers auslösen.
© by Dr.-Ing. P. Christiani GmbH
FB 87

Documentos relacionados