4.3 Digitale Fotografie
Transcrição
4.3 Digitale Fotografie
Medium Fotografie Medium Fotografie 4.3 Digitale Fotografie Statt des Filmmaterials befindet sich ein optoelektrischer Wandler im Kameragehäuse. Dies kann bei Studiokameras ein Zeilensensor sein, der genau wie beim Flachbettscanner das projizierte Bild zeilenweise abtastet und danach mechanisch zur nächsten Position bewegt wird. Meistens findet man hier trilineare Scannerzeilen, die aus drei Reihen mit CCD-Sensoren bestehen und mit Farbfiltern für die Primärfarben Rot, Grün und Blau versehen sind. Mit diesen Scannerkameras lassen sich natürlich keine bewegten Objekte fotografieren, dafür zeichnen sie sich in einer exzellenten Qualität, Auflösung und Farbtreue aus und werden zum Beispiel für Produktaufnahmen (TableTop-Fotografie) gerne verwendet. Flächensensoren dagegen erfassen das ganze Bild auf einmal, eine SchwarzweißKamera wäre damit leicht zu konstruieren. Für eine Farbaufnahme benötigen wir jedoch wieder eine getrennte Erfassung der Rot-, Grün- und Blau-Anteile. Bei DreiChip-Kameras wird das einfallende Licht in einem Strahlenteiler-Prisma auf drei CCDFlächensensoren gelenkt. Die Farbfilter befinden sich entweder auf dem jeweiligen CCD-Chip oder im Strahlengang davor. Diese Kameras sind ebenfalls sehr gut, aber nicht gerade billig und recht voluminös. Will man mit nur einem Flächensensor auskommen, kann man Three-Shot-Modelle oder RGB-Modelle wählen. Bei den erstgenannten wird der CCD-Sensor dreimal belichtet, wobei jedesmal eine andere Filterscheibe in den Strahlengang geschoben wird. Damit sind natürlich wieder einmal keine Aufnahmen von bewegten Objekten möglich. Bei One-Shot-Kameras mit RGB-Sensoren sind die einzelnen Pixelelemente des Flächensensors mit verschiedenen Farbfiltern in den drei Grundfarben versehen. Mosaikartig sind dann meistens etwa 50% grünempfindliche Pixelsensoren und je 25% rote und blaue Pixel auf dem Flächensensor verteilt. Da pro Bildpunkt dann aber nur einer der drei benötigten Farbwerte vorliegt, müssen die beiden anderen Farbwerte aus den Werten der benachbarten Pixel errechnet, also wieder interpoliert werden. Das gewählte „Filtermosaikmuster“ und die Interpolations-Software haben dabei entscheidenden Einfluss auf die erreichbare Bildqualität. Verkaufsaussagen wie „Optische Auflösung 800 x 600 Pixel bei 24 bit Farbtiefe“ sind daher mit Vorsicht zu genießen. Für den Amateur und die optisch weniger anspruchsvollen Anwendungen im Multimediabereich ist diese Technik sicher allemal ausreichend, im professionellen Bereich für Druckvorlagen jedoch weniger geeignet. Es gibt allerdings auch Profi-Kameras mit CCD-Sensor-Auflösungen von etwa 3000 x 2000 Pixel, bei denen die Interpolation deshalb – bei gleicher Wiedergabe- oder Ausdruckgröße – weniger auffällt. Umsetzer noch am Digitalisieren sind. Damit lassen sich dann beispielsweise bei einem aktuellen, professionellen Modell zwei Aufnahmen in zwei Sekunden bewerkstelligen, wonach man allerdings eine Pause von 8 Sekunden einlegen muss, bevor die nächste Aufnahme möglich ist. Zur Speicherung der Bilddaten haben sich fast alle Hersteller von digitalen Fotokameras eigene Speichermedien ausgedacht, die natürlich nicht unbedingt kompatibel zueinander sind. Teilweise werden jedoch auch Standardmedien verwendet, so zum Beispiel Speicherkarten, wie sie auch bei tragbaren PCs, den Notebooks, Verwendung finden, aber auch handelsübliche 3,5“-Disketten. Damit wäre auch das Problem gelöst, wie die Bilddaten in den PC kommen. Die meisten Modelle haben aber auch eine serielle, parallele oder SCSI-Schnittstelle, teilweise findet man auch einen USB- oder Firewire-Anschluss. Beim Objektiv ist zu beachten, dass bei den meisten digitalen Kameras der CCD-Chip geringere Abmessungen als ein Kleinbildformat hat, nehmen wir als Beispiel eine CCD-Größe von 12 x 18 mm an. Bei der gleichen Objektiv-Brennweite wie bei einer Kleinbildkamera (in unserem o.a. Beispiel 50 mm) bedeutet dies, dass das formatfüllende Objekt mit Abmessungen von 3,60 x 2,40 m nun nicht 5 m, sondern ganze 10 m von der Kamera entfernt sein muss. Ein Normalobjektiv mit einer Brennweite von f = 50 mm wirkt hier also wie ein Teleobjektiv mit einer Brennweite von f = 100 mm. Man spricht deshalb auch von einer sogenannten „Brennweitenverlängerung“, im Beispiel um den Faktor zwei, obwohl natürlich nicht die Brennweite des gleichen Objektivs plötzlich größer ist, sondern nur die Auswirkung auf den Bildausschnitt. Für Weitwinkelaufnahmen benötigen wir also extrem kurze Brennweiten von nur wenigen Millimetern, die für eine gute Qualität jedoch vergleichsweise aufwendig und teuer herzustellen sind. Weitwinkelaufnahmen sind in der digitalen Fotografie also ein echtes Problem. Das Verfahren zur Analog-Digital-Umsetzung mag bei den verschiedenen Kameramodellen am Markt je nach Preisklasse stark voneinander abweichen. Immerhin sind bei Auflösungen von 800 x 600 Pixeln 480.000 Bildpunkte zu digitalisieren. Bei Audiomaterial digitalisieren wir höchstens 96000 Samples pro Sekunde, für Stereofonie setzen wir zwei Umsetzer ein. Für digitale Fotos benötigen wir da schon entweder sehr schnelle Analog-Digital-Wandler oder eine ganze Batterie davon, die dann eine komplette Zeile oder Spalte des CCD-Signals auf einen Rutsch digitalisieren können. Teilweise kann der CCD-Aufnehmer bereits neu belichtet werden, während die Bild FB 4.7 Unterschiedlicher Abbildungsmaßstab bei „normalen“ und digitalen Kameras FB 68 © by Dr.-Ing. P. Christiani GmbH © by Dr.-Ing. P. Christiani GmbH FB 69 Medium Fotografie 4.4 Medium Fotografie Im Folgenden wollen wir ein Referenzbild (des Autors und seiner Familie) verwenden, um die Wirkung der einzelnen Kompressionen und Reduktionen feststellen zu können: Dateiformate und Kompression Bis jetzt haben wir nur davon gesprochen, dass jeder Bildpunkt einzeln digitalisiert als diskretes Datum vorliegt, und zwar für jeden Farbanteil Rot, Grün und Blau in einer Farbauflösung von 8 bit = 1 Byte. Im Bitmap-Format erhalten wir für ein Bild mit 800 x 600 Bildpunkten eine Dateigröße von etwa 1,4 MByte. Komprimieren wir solch eine Bitmap-Datei mit einem handelsüblichen verlustfreien Kompressionsprogramm (Packprogramm), erhalten wir je nach Bildinhalt etwas unterschiedliche Ergebnisse. Eine einfarbige Fläche könnten wir auf eine Dateigröße von rund 1.600 Byte schrumpfen, ein Foto mit wenigen Flächen und vielen Details – wie es auf den nächsten Seiten mehrmals abgebildet ist – beansprucht dagegen komprimiert immer noch 1,2 MByte. Wenden wir also das Verfahren der – verlustbehafteten – Datenreduktion an. Das wichtigste Verfahren und Standard bei der Reduktion von Standbildern ist das JPEGVerfahren. Dieses Verfahren wurde 1992 von einer eigens dazu gegründeten Expertenkommission vorgestellt (Joint Photographers Expert Group, JPEG), daher auch der Name. Als sogenanntes hybrides Verfahren benutzt JPEG eine Kombination aus verlustfreier und verlustbehafteter Kompressionsmethoden. Das farbige RGB-Bild wird zunächst in eine andere Darstellung konvertiert, bei der als Ergebnis die Helligkeitswerte als Schwarz-Weiß-Bild (Y) und zwei sogenannte Chrominanzwerte vorliegen (UV), welche die Farbanteile bestimmen und die wir im nächsten Kapitel (Digitales Video) noch besser kennenlernen. Anschließend wird das Bild in einzelne Blöcke mit 8x8 Punkten getrennt, auf die man die Discrete Cosinus Transformation (DCT) anwendet. Damit werden viele hohe Frequenzen, sprich Details, entfernt. Mit der Differential Puls Code Modulation (DPCM) untersucht man nun noch benachbarte Punkte und kann durch Prädiktion weitere Werte reduzieren. Nach der anschließenden Zick-Zack-Auslesung der 8x8-Matrix erhält man eine Datenfolge, die man sowohl mit der Lauflängen-Codierung (RLE) als auch mit der HuffmannCodierung noch weiter verlustfrei komprimiert. In dieser Form werden alle Teilbildchen behandelt und zusammen als JPEG-Datei (mit der Endung *.jpg) gespeichert. Die mit DCT und DPCM erreichbare Kompression lässt sich einstellen und zeigt je nach Kompressionsfaktor unterschiedliche Ergebnisse. Bild 4.10 Ausschnitt aus der obigen Bitmap Bild FB 4.8 JPEG-Datenreduktion FB 70 Bild FB 4.9 Referenzbild als Bitmap-Datei © by Dr.-Ing. P. Christiani GmbH © by Dr.-Ing. P. Christiani GmbH FB 71 Medium Fotografie Medium Fotografie Das gleiche Bild nun als jpg-Datei, also nach JPEG datenreduziert mit einem mittleren Kompressionsfaktor von 1:50: Das gleiche Bild nun als jpg-Datei, also nach JPEG datenreduziert mit einem starken Kompressionsfaktor von 1:100: Bild FB 4.11 Referenzbild als JPG-Datei, 1:50 komprimiert Bild FB 4.13 Referenzbild als JPG-Datei, 1:100 komprimiert Bild 4.12 Ausschnitt aus dem obigen JPG-Bild Bild 4.14 Ausschnitt aus dem obigen JPG-Bild FB 72 © by Dr.-Ing. P. Christiani GmbH © by Dr.-Ing. P. Christiani GmbH FB 73 Medium Fotografie Medium Fotografie Wir können uns die Wirkung auch einmal bei Grafiken anschauen, zum Beispiel an einem vergrößerten Ausschnitt aus einem Firmenlogo: Interessant sind in diesem Zusammenhang die benötigten Dateigrößen. Das Familienfoto ist genau 800 x 600 Pixel groß und belegt: als TIF-Datei: als JPG-Datei, Kompression 1:50: als JPG-Datei, Kompression 1:100: 480.174 Byte 36.715 Byte 21.942 Byte Der Ausschnitt aus dem Firmenlogo ist genau 295x104 Pixel groß und belegt: als TIF-Datei: als GIF-Datei: als JPG-Datei, Kompression 1:50: als JPG-Datei, Kompression 1:100: Bild FB 4.15 Ausschnitt aus einem Firmenlogo in Bitmap-Qualität 30.854 Byte 15.283 Byte 17.986 Byte 13.332 Byte Auffallend an den nach JPEG komprimierten Bildern sind die sogenannten „Artefakte“, die durch die Blockbildung und blockweise DCT-Kompression entstehen und deutlich sichtbar sind. Um diese Artefakte zu vermeiden, gleichzeitig jedoch noch höhere Komressionsraten zu erreichen, wird an neuen Verfahren zur Bilddatenreduktion gearbeitet. Bild FB 4.16 Ausschnitt als GIF-Datei (Format von Compuserve für Internet-Darbietungen) Vielversprechende Ansätze liefern die Vektorquantisierung und die fraktale Kompression. Grundgedanke bei diesen Verfahren ist, ein vorliegendes Bild durch eine Anordnung von geometrischen Grundmustern zu beschreiben, also einer Menge von Linien, Kreisen, Dreiecken und Rechtecken und anderen Polygonzügen mit unterschiedlichen Strichstärken und Farbfüllungen. Sind diese Objekte erst einmal erkannt, braucht man nur noch deren Lage und Eigenschaften in kurzen Formeln beschreiben. Der Speicherbedarf wird dadurch erheblich reduziert, außerdem lassen sich die Bilder ohne Qualitätsverluste beliebig vergrößern. Das Erkennen der geometrischen Figuren ist jedoch ein sehr komplexer und rechenintensiver Vorgang, der noch viele Unsicherheiten aufweist, so dass dieses Verfahren noch nicht allgemein anwendbar ist. Bild FB 4.17 Ausschnitt aus einem Firmenlogo in JPG-Qualität, Kompression 1:50 Bild FB 4.18 Ausschnitt aus einem Firmenlogo in JPG-Qualität, Kompression 1:100 FB 74 © by Dr.-Ing. P. Christiani GmbH © by Dr.-Ing. P. Christiani GmbH FB 75 Medium Video 5 Medium Video Medium Video Bei professionellen Kino- und Fernseh-Produktionen wird auch heute noch die gute alte Filmtechnik eingesetzt, wenngleich sich die Filmerei im Vergleich zum Beginn des Mediums Film – Anfang des 20. Jahrhunderts – wesentlich verändert hat. Musste man zu Beginn des Tonfilms zum Beispiel noch eigene Kabinen bauen, um die laute Kamera nebst Kameraleuten vom akustischen geschahen am „Set“ fernzuhalten, so wurden später sogenannte „Blimps“ als Schallschutzhauben um die Kamera herum konstruiert. Heutige Filmkameras laufen fast absolut geräuschlos. Nach wie vor unerreicht ist die hohe optische Auflösung und damit Wiedergabequalität, die für Projektionen auf die großen Leinwände in den Kinosälen aber auch schon notwendig ist. Multimedia findet jedoch nicht im Kinosaal statt, wenngleich man sich Kiosksysteme vorstellen kann, bei denen man zur Bildwiedergabe keinen Computermonitor nutzt, sondern das Bild mit einem „Beamer“ (Daten-Video-Projektor) auf eine Wandfläche projiziert. Betrachten wir also die zur Wiedergabe von bewegten Bildern auf Fernsehgeräten oder Computern gedachten Videoverfahren. Auch dabei haben wir es wieder mit der Kette „Aufnahme – Speicherung/Bearbeitung/Übertragung – Wiedergabe“ zu tun. 5.1 Analoges Video Auf einem TV- oder PC-Bildschirm besteht ein Bild aus einzelnen Bildpunkten (Pixeln), die in horizontalen Zeilen angeordnet sind. Bei analogen Videobildern wird das Bild zeilenweise von links oben bis rechts unten abgetastet, übertragen und beim Empfänger ebenso wieder zusammengesetzt. Die Geschwindigkeit der Abtastung, die Nachleuchtdauer der Bildschirms und die Wahrnehmungsträgheit des menschlichen Auges bewirken, dass wir bei normalem Betrachtungsabstand den zeilenweisen Aufbau oder gar den im Zick-Zack wandernden Bildstrahl nicht wahrnehmen. Trotzdem kann gerade bei zusammenhängenden, großen hellen Bildflächen ein Flimmern auftreten, das wir jedoch mit einem Trick unterdrücken: Man teilt das Bild in zwei Halbbilder und überträgt zuerst alle ungeraden Zeilen (1,3,5,7, ...) von oben bis unten und dann alle geraden Zeilen (2,4,6,8, ...). Mit diesem Zeilensprungverfahren lässt sich bei gleicher Videobandbreite die Bildwiedergabefrequenz verdoppeln, denn das menschliche Auge kriegt so schnell mal wieder nichts mit und lässt sich täuschen, es interpretiert alle Halbbilder als ganze Vollbilder. 5.1.1 Fernsehformate Für das Bildformat, die Anzahl der Zeilen und der Halbbilder pro Sekunde haben sich unterschiedliche, inkompatible Videostandards entwickelt: Beim NTSC-Standard, der 1953 in den USA eingeführt wurde, richtet sich die Bildfrequenz nach dem US-amerikanischen Stromnetz (NTSC = National Television Standards Committee). Übertragen werden also 60 Halbbilder pro Sekunde, wobei das Bild aus 525 Zeilen besteht. Da der Kathodenstrahl der Bildröhre jedoch eine gewisse Zeit braucht, um von rechts unten wieder nach links oben zu kommen, sind nur 480 Zeilen wirklich nutzbar. Innerhalb einer Zeile lassen sich 640 Bildpunkte darstellen, die Auflösung im NTSC-Standard beträgt also 640 x 480 Pixel mit einem Seitenverhältnis von 4:3. Bei der Farbwiedergabe ist das NTSC-Verfahren allerdings nicht gerade besonders zuverlässig, Spötter übersetzen daher NTSC auch mit „Never The Same Colour“. 1962 wurde deshalb in Deutschland das PAL-System entwickelt (Phase Alternating Line). Entsprechend den europäischen Stromversorgungsnetzen ist hier eine Bildwiederholfrequenz von 50 Halbbildern pro Sekunde definiert. Bei etwa gleicher Zeilenzahl pro Sekunde (31.250) wie in den USA (31.500) lassen sich damit 625 Zeilen übertragen, wobei wiederum nur 576 für den eigentlichen Bildaufbau genutzt werden können. Die horizontale Auflösung erreicht 768 Bildpunkte, ein PAL-Bild besteht also aus 768 x 576 Pixeln im Seitenverhältnis von ebenfalls 4:3. In Frankreich, weiten Teilen Osteuropas und Afrikas wurde jedoch das SECAM-System eingeführt (Sequential En Couleurs Avec Mémoire), das ebenfalls eine Bildfrequenz von 50 Halbbildern und 625 Zeilen aufweist, die Farbinformationen aber anders überträgt als im PAL-System. Nach fast 40 Jahren PAL wären die Geräteindustrie und die Fernsehstudios technologisch in der Lage, noch bessere Videobilder zu produzieren und zu distributieren – allerdings mit neuen Standards: Das PAL-Plus-System weist ein Bildformat von 16:9 und eine verbesserte Bildqualität auf und ist zudem mit dem herkömmlichen PAL-Verfahren kompatibel, lässt sich also auch auf den normalen PAL-Fernsehgeräten wiedergeben, dort jedoch mit der gewohnten alte PAL-Qualität und mit schwarzen Streifen am oberen und unteren Bildrand. Das HDTV-System (High Definition TeleVision) kommt ebenfalls mit einem Bild im Seitenverhältnis 16:9 daher und bietet 1250 Zeilen, wesentlich bessere Farbwiedergabe und hochwertige, mehrkanalige HiFi-Tonqualität. Leider gibt es für diese hoch- Bild FB 5.1 Zeilensprungverfahren FB 76 © by Dr.-Ing. P. Christiani GmbH © by Dr.-Ing. P. Christiani GmbH FB 77 Medium Video Medium Video auflösende Fernsehen unterschiedliche Entwicklungen, so dass wir sicherlich noch einige Zeit auf einen einheitlichen Standard und entsprechende, preisgünstige Empfangsgeräte warten müssen. 5.1.2 Farbcodierung Wir erinnern uns an die drei Bestimmungsgrößen einer Farbwiedergabe: Helligkeit, Farbton und Sättigung. Um ein Schwarz-Weiß-Bild zu übertragen, benötigen wir lediglich die Helligkeitsinformation (BAS-Signal, Bild-Austast-Synchron-Signal), für die eine Übertragungsbandbreite von etwa 5 MHz nötig ist. Zur Farbdarstellung auf unseren PC- oder TVBildröhren verwenden wir das RGB-Farbmodell, bei dem jeder einzelne Bildpunkt aus der additiven Farbmischung der drei Primärfarben Rot, Grün und Blau gebildet wird. Für die Video-Übertragung ist dieses RGB-Modell jedoch nicht so gut geeignet: - aus der Einführungszeit des Farbfernsehens rührt die Forderung, dass sich ein Farbvideosignal auch auf Schwarz-Weiß-Geräten wiedergeben lässt und umgekehrt, - die Bandbreite für die Helligkeitsinformationen aller drei Grundfarben müsste gleich hoch sein und wäre damit – für eine vergleichbare Bildqualität – dreimal so hoch wie beim Schwarz-Weiß-Signal, - will man die Bildpunkte manipulieren (zum Beispiel die Gesamthelligkeit, Kontrast, Farbsättigung), so müssen alle drei Farbwerte gleichzeitig geändert werden. Physiologische Untersuchungen des menschlichen Auges haben jedoch gezeigt, dass man Einzelheiten in einem Farbbild hauptsächlich durch Helligkeitsunterschiede wahrnimmt, während Farbunterschiede nur unwesentlich dazu beitragen. Wir können uns also darauf konzentrieren, die Helligkeitsinformationen – mit den Anteilen von Schwarz, Weiß und allen Grautönen – mit höchstmöglicher Qualität zu übertragen und an die Farbinformationen Farbton und Sättigung nur geringe Anforderungen zu stellen. Mit dieser Erkenntnis dürfen wir die intern in einer Videokamera erzeugten, getrennten Rot-, Grün- und Blau-Signale zu einem einheitlichen Helligkeitssignal zusammenführen. Um der Augenempfindlichkeitskurve (siehe Bild FB 1.6) zu entsprechen, benutzt man hierzu die Formel: Y = 0,30 R + 0,59 G + 0,11 B Dieses Helligkeitssignal (Y) ist mit Schwarz-Weiß-Geräten kompatibel (BAS-Signal mit 5 MHz Bandbreite) und wird „Luminanz“ genannt. Für die Farbinformation werden zwei Farbdifferenzsignale gebildet und es genügt, sie mit je etwa 1 MHz Bandbreite zu übertragen: U = Cr = R-Y, V = Cb = B-Y Farbdifferenzsignale getrennt übertragen und sprechen dann von einem 3-Komponenten-Video (YUV). Wir können auch mit den beiden Farbdifferenzsignalen eine Farbträgerschwingung phasen- und amplitudenmodulieren, wir erhalten als Ergebnis das Farbartsignal (F) oder auch „Chrominanz“ genannt. Dann übertragen wir nur zwei Signale und sprechen folglich von 2-Komponenten-Video oder S-Video (Y/C). Fügen wir außerdem Luminanz und Chrominanz zu einem einzigen Signal zusammen, so erhalten wir das FBAS-Signal und nennen es Composite Video. Für die Bildwiedergabe müssen wir alle zusammengeführten Signale jedoch wieder aufdröseln, um nach einer Decoderschaltung wieder die ursprünglichen RGB-Signale zu gewinnen, die für die Bildwiedergabe mit unseren Kathodenstrahlröhren oder FlachDisplays nun einmal notwendig ist. Es leuchtet ein, dass wir beim Komponenten-Video eine bessere Qualität erreichen als bei Composite Video, dafür allerdings ein paar Mark mehr hinlegen müssen. Der höhere Preis schlägt insbesondere bei der analogen Videoaufzeichnung zu Buche. 5.1.3 Video-Aufzeichnungs-Formate Bereits 1956 gelang es der amerikanischen Firma AMPEX, mit 4 Magnetköpfen und einer Längsspuraufzeichnung – wie wir sie von herkömmlichen Tonbandgeräten kennen – 65 Minuten Video auf einem zwei Zoll breiten Magnetband aufzunehmen. Dagegen findet das Prinzip der Schrägspuraufzeichnung, in den 70er Jahren von den Firmen Bosch und Philips für 1-Zoll-Bänder entwickelt (BCN), noch heute bei allen analogen und digitalen Videoaufnahmen Verwendung. Dabei wurden mehrere Verfahren entwickelt: VHS / Video-8 Das Video Home System VHS stammt von der Firma JVC und verdrängte seit Beginn der 80er Jahre alle anderen Konkurrenten vom Markt – auch die mit den besseren Aufzeichnungsverfahren. VHS zeichnet FBAS-Signale als Composite Video auf und begnügt sich bei einer Bildbandbreite von nur 2,5 MHz mit einer horizontalen Auflösung.von 240 Linien. Das VHS-HiFi-System benutzt für eine bessere Tonqualität ebenfalls die Schrägspuren für die Tonaufnahme. Da hiermit aber keine Nachvertonungen möglich sind (nachträgliche Tonaufnahmen zu einem bestehenden Videobild) und Nicht-HiFi-Recorder diese Schrägspur-Tonaufnahmen nicht lesen können, stehen die separaten Tonspuren weiterhin zur Verfügung. VHS-Kassetten sind für stationäre Videorecorder zwar gut zu handhaben, aber für mobile Camcorder (Camera und Recorder in einem Gehäuse) im Amateurbereich viel zu groß. Deshalb entwickelten Sony das Video-8-Band und JVC selbst die VHS-CKassette (C für Compact), die bei kompakten Abmessungen vergleichbare Qualität liefern. Bei der Video-Aufnahme und der Übertragung können wir die Luminanz und die beiden Für Videoproduktionen mit anschließendem Kopieren oder Digitalisieren ist das VHSFormat weniger gut geeignet. Neben der geringen Auflösung stören besonders die FB 78 © by Dr.-Ing. P. Christiani GmbH © by Dr.-Ing. P. Christiani GmbH FB 79 Medium Video Medium Video sogenannten Dropouts. Besonders am Anfang und Ende eines Bandes lagern sich gerne Schmutz- und Abriebpartikel ab oder ist das Band bereits bei der Herstellung mechanisch beschädigt. An diesen Stellen kann das Videosignal nicht korrekt aufgezeichnet werden, was sich in Störstreifen und Aussetzern bemekbar macht. Videodisc Die Videodisc oder auch Laser-Disc führte lange Zeit nur ein Schattendasein, obwohl sie als optischer Speicher – wie die Compact Disc (CD) – sehr gute analoge Videoqualität und schnellen Zugriff auf einzelne Videobilder oder Sequenzen bot. Je nach Ausführung ließen sich FBAS-, Y/C-, YUV- oder RGB-Signale aufzeichnen, mit sehr guter Standbildwiedergabe und Timecode.Die Laser-Disc ist heute so gut wie ausgestorben und wird durch die DVD mit digitalem Video mehr als ersetzt. 5.1.4 Analoge Videobearbeitung Wegen der dichten Schrägspuraufzeichnung, dem empfindlichen Bandmaterial und dem Zeitversatz von Bild und Tonspuren lassen sich Videobänder nicht – wie beim Film – mechanisch schneiden und neu zusammenkleben. (Wegen der Schräglage der Videospur von z.B. 6° im VHS-Format würde auch eine sehr lange Schnittkante entstehen.) Der Videoschnitt ist immer ein Kopiervorgang, bei dem das Ausgangsmaterial auf einem oder mehreren Zuspielgeräten wiedergegeben und auf ein eigenes Aufnahmegerät überspielt wird – mit den entsprechenden Qualitätsverlusten. Die Überspielung geht sequentiell vonstatten, man spricht dabei von linearem Editieren: nach jeder überspielten Videosequenz wird das Aufnahmegerät angehalten, das nächste Band in den Zuspieler gelegt und/oder die nächste Bandstelle aufgesucht und die nächste Szene an die bereits erfolgte Aufnahme angefügt (Assemble-Schnitt). Bild FB 5.2 Schrägspuraufzeichnung im VHS-Format, das Band bewegt sich mit nur ca. 2,4 cm/s S-VHS / Hi-8 S-VHS-Geräte sind als Weiterentwicklung des VHS-Systems abwärtskompatibel und können auch normale VHS-Kassetten abspielen. Umgekehrt geht das leider nicht, da S-VHS ein 2-Komponenten-Video ist und Luminanz sowie Chrominanz getrennt aufzeichnet (Y/C-Signal). Das verwendete Bandmaterial hat eine höhere Qualität und ermöglicht, bei einer Videobandbreite von 4,5 MHz gut 400 Linien aufzulösen. Wie bei VHS gibt es kompakte Kassetten für Camcorder im S-VHS-C-Format. Das Hi-8-Format, von Sony entwickelt, ist von der Qualität dem S-VHS-System vergleichbar und wird wie dieses ebenfalls gerne für semiprofessionelle Zwecke und als Ausgangsmaterial für digitale Multimedia-Produktionen benutzt. Betacam (SP) Wehe, wenn man sich dabei vertut und im Nachhinein feststellt, dass ein Schnitt aus dramaturgischen oder technischen Gründen doch nicht so gut aussieht, wie man sich das vorher ausgedacht hat. Dann darf man ab dieser Stelle die ganze Arbeit noch einmal machen oder darauf hoffen, dass das Aufnahmegerät auch einen Insert-Schnitt beherrscht, bei dem innerhalb einer bereits bestehenden Aufnahme eine neue Videosequenz über die alte Aufnahme überspielt wird. Hierbei lassen sich jedoch immer nur eine Anzahl von auszutauschenden Videobildern mit genau der gleichen Anzahl von Bildern überschreiben, quasi 1:1 austauschen. Ein Einfügen zusätzlicher Videosequenzen in eine bestehende Aufnahme oder das ersatzlose Entfernen von bereits aufgenommenem Material ist bei analogem, linearen Videoschnitt nicht möglich. Das Problem beim Schnitt ist die bildgenaue Synchronisation der Zuspiel- und Aufnahme-Recorder. Zum Einen lässt sich technisch das Videosignal nur in der sogenannten Austastlücke schneiden, also in der Zeitspanne, in der der Bildstrahl vom unteren Ende des Bildes wieder nach oben springt. Das Betacam-Format arbeitet mit einem echten 3-Komponenten-Video und bietet daher die beste Bildqualität (YUV-Signal). Anfängliche Mängel in der Ton- und Bildqualität wurden durch das Betacam-SP-Format bereinigt. Wegen der teuren Geräte ist Betacam SP professionellen Anwendungen vorbehalten, hier aber weltweiter Quasi-Standard. Da Mechanik immer trägheitsbehaftet ist, müssen Wiedergabe- und Aufnahmegeräte wenigstens ein paar Bilder lang „nebeneinander herlaufen“ und sich synchronisieren, damit das Aufnahmegerät genau im richtigen Moment und beim vorbestimmten Bild elektronisch auf Aufnahme umschaltet. Dazu müssen die Geräte natürlich „wissen“, welches Bild sie gerade wiedergeben oder aufnehmen. Um einen elektronischen Bildzähler auf dem Videoband aufzunehmen, dazu gibt es den sogenannten Timecode. FB 80 © by Dr.-Ing. P. Christiani GmbH © by Dr.-Ing. P. Christiani GmbH FB 81 Medium Video Medium Video Timecode 5.2 Der RC-Timecode (Rewritable Consumer Timecode) wurde von Sony für die 8-mmVideoformate Hi-8 und Video-8 geschaffen , spielt in der Praxis aber fast keine Rolle. Standard ist dagegen der SMPTE-Timecode (Society of Motion Picture and Televison Engineers), bei dem auf einer Synchronspur des Videobandes jedes einzelne Videobild ein eindeutiges Datum im Format Stunde:Minute:Sekunde:Frame bekommt. Damit lässt sich zweifelsfrei erkennen, dass bei einer bestehenden Aufnahme von einer Stunde, 22 Minuten, 5 Sekunden und 15 (Voll-)Bildern Länge der Timecode-Zählerstand bei 01:22:05:15 steht. Eine Anzeige in Echtzeit – leider nicht beim NTSC-Standard. Die exakte Bildfrequenz beträgt nämlich nach der NTSC-Norm nur 29,97 Bilder pro Sekunde, der SMPTETimecode weicht also um 0,1% von der tatsächlichen Spielzeit ab. Aber nur beim NonDrop-Frame-NTSC-Timecode, der diese Abweichung einfach ignoriert. Die DropFrame-Variante dagegen lässt in jeder Minute zwei Frames weg, womit die SMPTEAnzeige wieder mit der Wirklichkeit übereinstimmt. Die Aufzeichnung der Timecodes geschieht entweder als Bildinformationssignal (VITC, Vertical Interval TimeCode) oder als Tonsignal (LTC, Longitudinal TimeCode). Bei der VITC-Methode lässt sich daher auch in der Pausenstellung (Standbildwiedergabe) des Videorecorders der Timecode auslesen, beim LTC-Verfahren dagegen nicht. Digitales Video Digitales Video spielt nicht nur bei Multimedia eine Rolle. Beim „Desktop-Video“ wird zwar ebenfalls das Videomaterial am Computer bearbeitet, als Endprodukt steht aber möglicherweise wieder ein analoges Videoband zum Anschauen über ein Fernsehgerät im Vordergrund. Dann gelten natürlich etwas andere Qualitätsmaßstäbe, als wenn wir nur ein kleines Videofenster innerhalb einer interaktiven Anwendung benötigen. Die Bearbeitungsmethoden sind jedoch in beiden Fällen gleich. Wie kriegen wir nun die analog aufgenommenen und eventuell schon geschnittenen Videos für unsere Multimedia-Anwendungen in den PC? 5.2.1 Computerzubehör Video Overlay Eine Video-Overlay-Karte überlagert das von der PC-Grafikkarte für den Monitor erzeugte RGB-Signal mit einem externen Videosignal. Aus dem PC-Bild wird dazu ein Bereich ausgeschnitten und durch das Videobold ersetzt. Das Videosignal kann von einem Fernsehgerät oder einem Videorecorder kommen, es gibt aber auch Karten, die ein eigenes TV-Empfangsteil (Tuner) mit an Bord haben. Schnittsteuerung Es wäre mühsam, wollte man beim Videoschnitt ständig zwischen den Videorecordern hin- und herspringen und sie einzeln in Echtzeit bedienen. Viel besser sitzen wir zentral an einem Schnittplatz – mit oder ohne Computerunterstützung – und bedienen die Geräte fern. Auch hier gibt es wieder verschiedene Standards, Steuerungsprotokolle genannt: Control-S: einfaches Protokoll, das im Wesentlichen nur Befehle für Start, Stop, Aufnahme und Pause bietet. Control-P: Untermenge des Control-S-Protokolls, das nur Start und Stop kennt. Control-L, auch LanC genannt (Local Application Network Control): Fernbedienungsprotokoll für Sony-Heimvideogeräte, kann jedoch Befehle nicht framegenau setzen. Findet Anwendung in Schnittsteuergeräten mit und ohne PC-Anbindung. Control-M: von Matsushita entwickeltes Protokoll, das von Panasonic-Geräten benutzt wird und ebenfalls nicht framegenau arbeitet, mit Control-L inkompatibel. GPI: weit verbreiteter Standard, aber für Videobearbeitung uninteressant, da es ebenfalls nur wenige Befehle kennt. Bild FB 5.3 Prinzip des Video-Overlays RS-232, RS-422: Standard für die seriellen Datenschnittstellen beim PC und Mac, das auch von den meisten Videogeräte-Herstellern vorgesehen ist VISCA: Die „Steuerarchitektur für Videosysteme“ kann auch andere als nur Videogeräte steuern – bis zu sieben an einer Leitung. Ein Nachteil bei dieser Technik ist, dass der PC von alledem nichts merkt. Er weiß gar nicht, dass hinter seiner Grafikkarte noch ein zusätzliches Videobild auf den Monitor gezaubert wird. Man könnte eine Overlay-Karte also der Kategorie „additives Multimedia“ zuordnen, mit digitalem, integrierbaren Video hat das nichts zu tun. FB 82 © by Dr.-Ing. P. Christiani GmbH © by Dr.-Ing. P. Christiani GmbH FB 83 Medium Video Medium Video Framegrabber 5.2.2 Einen Framegrabber kann man als Erweiterungskarte oder externes Gerät bekommen. Wie der Name schon sagt, „grabscht“ sich der Framegrabber einzelne Bilder (Frames) aus einem analogen Videosignal und setzt sie in aller Ruhe in ein digitales Fotoformat um. Wenn man die örtliche Auflösung und Farbtiefe gering genug wählt, lassen sich aber auch Videosequenzen mit einer Bildfrequenz bis zu 30 Bildern pro Sekunde digitalisieren. Digitale Videokameras unterscheiden sich von den analogen Modellen im Wesentlichen nur durch das Aufzeichnungsverfahren, mit dem die Videoinformation auf Magnetbandkassetten gespeichert wird. Auch bei Digitalkameras finden wir zunächst die FBAS- oder YUV-Signale – und genau diese Signale werden digitalisiert. Framegrabber sind in erster Linie dazu gedacht, aus einem Videofilm Standfotos (StillVideo) gewinnen, ruckelfreie Digital-Videos in multimedial anschaulicher Qualität lassen sich mit dieser Technik kaum erzeugen. Video-Capture-Karten Das Angebot an Erweiterungskarten oder externen Zusatzgeräten, die analoge Videosignale digitalisieren (im Englischen spricht man von Video Capture), ist mittlerweile recht groß. Zur Bearbeitung des digitalen Materials liegen allen Video-DgitalisierunsSystemen meist umfangreiche Software-Pakete bei. Beispiele: Wer bereits eine Grafikkarte der Firma Matrox besitzt (Mystique oder Millennium G200, Productiva), kann eine Digitalisierungskarte namens Rainbow Runner G huckepack auf diese Grafikkarte aufstecken. Damit lassen sich (fast) PAL-Signale mit 25 Bildern pro Sekunde und bis zu 704 x 576 Bildpunkten „einfangen“. Als Eingangssignal ist SVideo (Y/C) oder Composite Video (FBAS) geeignet. Für die Datenkompression nach M-JPEG und Dekompression ist eine spezielle Hardware auf der Karte vorhanden, als Clou ist auch noch ein TV-Tuner auf der Karte integriert. Die beigelegte Software ist ausreichend: Media Studio Pro als VideoEditierprogramm, Photo Express für die Bearbeitung von Einzelbildern und Titeln und ein Fernbedienungsprogramm PC-VCR-Remote, mit dem sich auch ein linearer, analoger Videoschnitt durchführen lässt. Für etwa 750 Euro gibt es die AV Master 2000 der Firma Fast. Mit ihr lassen sich FBASund S-Video-Signale in voller PAL- oder NTSC-Auflösung nach M-JPEG digitalisieren. Mitgeliefert wird ebenfalls Media Studio Pro von Ulead, Cool 3D zum Betiteln der Videos und sogar ein komplettes Autorenprogramm (Mediator Light), mit dem man MultimediaAnwendungen zusammenstellen kann. Sogenannte Hybrid-Systeme verarbeiten natürlich ebenfalls analoges Videomaterial zu digitalen Movies oder AVIs, können darüber hinaus aber auch gleich mit digitalen Signalen aus digitalen Camcordern gefüttert werden. VGA-PAL-Konverter Bei Desktop-Video müssen wir auch überlegen, wie die Videos möglicherweise wieder aus dem PC herauskommen. Dafür gibt es VGA-PAL-Konverter, die das VGA-Monitorsignal fernsehnormgerecht nach PAL-Norm aufbereiten und ausgeben. Einige PCGrafikkarten und Video-Digitalisierungs-Karten neuester Bauart haben jedoch bereits einen TV-Ausgang eingebaut. FB 84 © by Dr.-Ing. P. Christiani GmbH Digitale Videoformate D1 Das D1-System tastet das Luminanzsignal mit 13,5 MHz ab – das ist das Vierfache einer vom CCIR für digitales Video definierten Standard-Abtastfrequenz von 3,375 MHz. Die beiden Chrominanzsignale werden in den hohen Frequenzen beschnitten und mit jeweils 6,75 MHz abgetastet – das ist das Doppelte der CCIR-Standardfrequenz. Man spricht deshalb von einem „4:2:2-Subsampling“. Die Quantisierung der Videosignale erfolgt mit 8 oder 10 Bit, die Quantisierung der 4 Tonkanäle mit 16 bis 20 Bit, wobei eine Abtastfrequenz von 48 kHz verwendet wird (also besser als die Qualität einer Audio-CD). Mit einer resultierenden Datenrate von zusammen 27 MByte/s und den sehr teuren Geräten bleibt D1 dem professionellen Fernsehen vorbehalten. D2 / D3 / Digital Betacam / D5 D2 wurde von Sony entwickelt und digitalisiert FBAS-Composite-Video mitsamt einer doppelten Tonspur zu einem Datenstrom von 19,25 MByte/s. D3 wurde von Panasonic – mit ähnlichen technischen Daten, aber kleineren Kassetten – als Konkurrenz zum Sony-Format vorgestellt. Sony stellte daraufhin Digital Betacam vor mit 4 Tonspuren und vielen zusätzlichen Leistungsmerkmalen (schneller Vor- und Rücklauf ohne Störstreifen, Kompatibilität zum analogen Betacam-Format etc.). Daraufhin konterte Panasonic seinerseits mit dem D5-Format mit ähnlichen Leistungsmerkmalen, das zum D3-System kompatibel ist. Alle diese Formate sind wie das D1-System allerdings nur im professionellen Bereich zu finden. Mini-DV Die für den Consumer-Bereich entwickelten digitalen Camcorder arbeiten mit Mini-DV und einem YUV-Subsampling von 4:2:0 (PAL) bzw. 4:1:1 (NTSC). Das digitalisierte Videosignal erfährt vor der Aufzeichnung noch eine Kompression von etwa 1:10. Ton kann man in CD-Qualität – mit 44,1-kHz-Abtastung und 16-Bit-Quantisierung – oder sparsam mit 32-kHz-Abtastung und 12-Bit-Quantisierung aufnehmen. Zusammen erhält man eine Datenrate von maximal 41 Mbit/s (ca. 5 MByte/s). Einige der speziellen DV-Kassetten mit 60 Minuten Spielzeit haben einer Speicherchip, mit dem man Bandpositionen indexieren und somit später leichter wiederfinden kann. © by Dr.-Ing. P. Christiani GmbH FB 85 Medium Video 5.2.3 Bildelemente Datenkompressionsverfahren 6 Den zwei gebräuchlichsten Verfahren zur Datenkompression von digitalen Videodateien liegt zumindest das Prinzip der JPEG-Komprimierung zu Grunde, die wir aus dem Bereich der Standbilder kennen. Bei Standbildern können wir uns für die Kompression viel Zeit lassen und sogar PCs der unteren Leistungsstufe damit beauftragen. Bei 25 Bildern/s benötigen wir jedoch einen speziellen Hardware-Komprimierer, der aber zum Glück mit auf der Video-Digitalisierungs-Karte vorhanden ist. Leider weichen viele Anbieter von dem ursprünglich definierten JPEG-Verfahren mehr oder weniger ab. Beim Motion JPEG (M-JPEG) werden alle Bilder einzeln nach der jeweils implementierten JPEG-Methode komprimiert. Wir erhalten M-JPEG-Videos mit einem Kompressionsfaktor von 1:5 bis 1:50, die man gut schneiden kann, da jedes Bild für sich vollständig erhalten ist. MPEG – erstmals 1993 von der Moving Pictures Expert Group vorgestellt – definiert gleich eine ganze Reihe von Standards zur Datenreduktion, hier soll aber nur das Prinzip erläutert werden: Bildelemente Eine Multimedia-Produktion besteht natürlich nicht nur aus den einzelnen Fotos, Videoclips, Tonbeiträgen oder Animationen. Die visuellen Medien müssen ja irgendwo auf dem Bildschirm platziert und dargeboten werden. Und sicherlich nicht auf einem leeren oder einfarbigen Hintergrund. Die Darbietung auf dem Bildschirm muss also gestaltet werden. Dabei müssen auch die Interaktionselemente berücksichtigt werden und ihren Platz finden. Dem ScreenDesigner fällt die Aufgabe zu, sowohl die einzelnen Elemente in ihrem Aussehen optimal zu gestalten, so wie man einem schönen Bild einen schönen Rahmen gibt, und sie dann anwendergerecht auf dem Bildschirm zu präsentieren. Zur Bearbeitung von Grafiken oder grafischen Bildelementen gibt es zwei prinzipiell unterschiedliche Verfahren: pixelorientierte und vektororientierte Bearbeitung. Die Wiedergabe von Pixelbildern kennen wir schon mit den zweidimensionalen Fotografien oder dem Video. Es klingt selbstverständlich: hinter den sichtbaren Pixeln verbergen sich keine anderen Informationen. Bei Vektorgrafiken haben wir dagegen eine vektorielle Beschreibung von grafischen Objekten, also Punkten, Linien und beliebigen Polygonzügen. Damit lässt sich die Lage, Form, Art der Umrandung und Farbfüllung jederzeit ändern, die Objekte lassen sich auch auf dem Bildschirm bewegen und übereinanderschieben, so dass sie sich gegenseitig verdecken. Aus diesem Grund arbeiten Grafiker gern mit vektororientierten Grafikprogrammen, denn so können sie aus verschiedenen Grundmustern sehr variabel beliebige Darstellungen „komponieren“. Zum Schluss der Arbeit wird jedoch die sichtbare Anordnung der einzelnen Objekte in ein zweidimensionales Pixelbild umgerechnet Bild FB 5.4 Prinzip des MPEG-Verfahrens Zunächst werden sämtliche Einzelbilder mit dem JPEG-Verfahren komprimiert. Nun werden die benachbarten Bilder auf Ähnlichkeiten hin untersucht. Bei unbewegter Kamera (Stativ benutzen!) werden sich nachfolgende Bilder nur unwesentlich von den vorhergehenden unterscheiden. Beispiel: die Szene zeigt ein vorbeifahrendes Auto. Die Straße und der Hintergrund werden in allen Bildern der Szene gleich aussehen, nur das Auto und eventuelle Passanten, aber auch beispielweise Blätter im Wind, unterscheiden sich von Bild zu Bild. Der Komprimierer findet nun von selbst eine sinnvolle Szeneneinteilung auf dem Videofilm, die zu einer gemeinsamen „Group of Pictures“ (GOP) erklärt werden. Am Anfang und Ende dieser GOP werden die JPEG-komprimierten Einzelbilder als Intraframes (I-Frames) unverändert beibehalten. Einzelne Bilder innerhalb der GOP werden zu Predicted Pictures (P-Frames) erklärt und auf diejenigen Bildinformationen reduziert, die sich zum jeweils nächsten I-Frame unterscheiden. Alle anderen Bilder dazwischen werden zu Bidirectional Coded Pictures (B-Frames) umgeformt und enthalten fürderhin nur noch die Bildinformationen, in denen sie sich sowohl vom vorherigen als auch vom nachfolgenden Bild unterscheiden. FB 86 © by Dr.-Ing. P. Christiani GmbH 6.1 Interaktionselemente In den grafisch orientierten PC-Betriebssystemen – zum Beispiel den verschiedenen Windows-Varianten – werden standardmäßig schon eine Reihe von Eingabemöglichkeiten mitgeliefert. Mit diesen Standardangeboten lassen sich eigentlich schon gut 90% aller Navigationsaufgaben lösen. Auch die Autorensysteme und „Hardcore-Programmierer“ greifen gerne auf diese eingebauten Abfragen zurück. Selbstverständlich werden dabei nur die vom Betriebssystem zur Verfügung gestellten Programmroutinen benutzt, das Aussehen der Interaktionselemente lässt sich jedoch beliebig aufwerten oder ganz neu gestalten. In den folgenden Beispielen sind die Standardausführungen der Interaktionselemente dargestellt, wie wir sie aus dem Windows-Betriebssystem kennen. Grundlage aller interaktiven Elemente ist dabei die Computermaus, mit der man einen Cursor über den Bildschirm bewegen kann. Landet der Cursor dabei auf bestimmten dafür vorgesehenen Stellen, so lässt sich mit dem Drücken einer der Maustasten eine vorprogrammierte Reaktion des Computers auslösen. © by Dr.-Ing. P. Christiani GmbH FB 87