Bewegtbild Grundlagen
Transcrição
Bewegtbild Grundlagen
Bewegtbild Grundlagen Seite 1 Historisch bedingt haben sich die heutigen Videoformate aus der Fernsehtechnik entwickelt. Um einige Phänomene beim Filmschnitt zu verstehen bietet es sich deshalb an hier mal einen Blick in die Vergangenheit zu werfen. 1. Fernsehformate PAL und NTSC Im früheren für TV-Produktion gängigen Videoschnittformat SD (=Standard Definition) gibt es zwei unterschiedliche Standardeinstellungen für den Deutschen und den amerikanischen Raum. Aufgrund der Frequenz der Netzspannung von 50 Hz im hierzulande und 60 Hz im amerikanischen Raum wurden dies auch für die Bildfrequenz des Fernsehers mit der klassischen Bildröhre übernommen. PAL und NTSC PAL (Phase Alternation Line):= europäisches Bildformat, Bildfrequenz von 50 HZ => es werden 50 Halbbilder/ Sekunde gesendet Für euch gilt PAL!! NTSC (National Television Standards Committee):= US Bildformat, Bildfrequenz 60 Hz => es werden 60 Halbbilder/ Sekunde gesendet Beide Formate mit einander zu kombinieren oder im Nachhinein umzuwandeln bringt selbstverständlich Probleme mit sich. Deshalb achtet schon bei der Aufnahme, dem Digitalisieren und dem Anlegen des Projektes auf die richtigen Einstellungen. 2. Was sind Halbbilder? Bei einem herkömmlichen Fernseher baut sich das Bild aus technischen Gründen von unten nach oben auf. Dabei entsteht für das mensch- Oberes Halbbild Unteres Halbbild liche Auge der Eindruck eines Flackerns oder Ruckelns beim Austausch der Bilder. Ein Bild besteht aus vielen einzelnen Zeilen. Wenn sich nun zuerst die ungeraden und anschließend die geraden aufbauen, lässt sich das Flackern mildern. Diesen zeilenweisen Aufbau des Bildes nennt man Halbbilder. Die Halbbildreihenfolge bestimmt ob zuerst die geraden oder die ungeraden Zeilen gesendet werden. Wird ein Clip mit Halbbildern bearbeitet, hat er eine Frequenz von 50 Bilder (=Frames) pro Sekunde. Formate, wie HD benutzen statt der Halbbildaufteilung Verfahren wie den Progressive Scan um das Flackern zu vermeiden. Hier wird das Bild als Ganzes aufgebaut und als sog. Vollbild ausgegeben. Halbbilder sind weniger rechenintensiv zu verarbeiten als Vollbilder, können allerdings bei der Wiedergabe auf Computermonitoren können Halbbilder unschöne Treppenstufeneffekt gerade bei schnellen Bewegungen hervorrufen. Eine Umwandlung von Halbbildern auf Vollbilder ist beim Rendern meist problemfrei möglich (man achte auf die richtige Reihenfolge der Halbbild!) während der umgekehrte Weg nur schwer zu realisieren ist. Deshalb macht es häufig Sinn einen Film in Halbbildern aufzunehmen und zu bearbeiten und ihn erst beim finalen Rendern in Vollbildern umzuwandeln. In den Videoplayern auf dem PC gibt es zudem die Möglichkeit die Wiedergabe als Voll- Vollbild bilder beim Abspielen des Videos einzustellen. Zu finden unter Ansicht -> „Deinterlacing“. Halbbilder - das Wichtigste DVD + Fernsehen : benötigen Halbbilder HDV, PC : arbeitet mit Vollbildern (Halbbilder jedoch möglich, erzeugen aber sichtbare Streifen während der Wiedergabe, wenn es im Player nicht Deinterlacing eingestellt wurde) Halbbilddominanz: Analoge Medien (z.B. VHS): oberes Halbbild zuerst Digitale Medien (z.B. DVD): unteres Halbbild zuerst Interlacing: Umwandlung Vollbildern -> Halbbilder Deinterlacing : Halbbildern ->Vollbilder i = interlaced 25 Frames pro Sekunde aber 50 Bilder pro Sekunde Es wird pro Bild nur die Hälfte der Zeilen angezeigt; die Halbbildreihenfolge ist wichtig! p= progressiv 25 Frames pro Sekunde = 25 Bilder pro Sekunde Keine Halbbilder, keine Halbbildreihenfolge BAUSIEBEN|Tutorials Bewegtbild Grundlagen Seite 2 3. Seitenverhältnisse 4. Pixel-Seiten-Verhältnis In Film- und Videoproduktionen gibt es verschiedene einheitliche Seitenverhältnisse, die für TV, DVD, Kino oder PC gelten. Sie entstanden durch die analoge Aufnahmetechnik auf Filmmaterial und haben auch bei digitalen Aufnahmeverfahren immer noch Relevanz. Diese Standards werden durch neue Aufnahmeverfahren, den Einsatz von Spiegelreflexkameras zur Videoaufnahme und die Produktion fürs Internet allerdings immer wieder erweitert. Hier die Gängigen: Der Pixel eines Computermonitoren ist quadratisch und verfügt über die gleiche Höhe wie Breite. Bei anderen Medien können Pixel ganz anders interpretiert werden. Die sogenannte PAR (=Pixel Aspect Ratio) gibt Auskunft über dieses Verhältnis von Höhe zu Breite eines Pixels. Das PAL Format kann z. B. verschiedene Seitenverhältnisse abhängig vom PAR-Wert aufweisen. Die Gesamtanzahl der Pixel bleibt dabei gleich. Seitenverhältnis Aufnahmetechnik 4:3 SD, Academy, Vollbild 35mm 16:9 SD anamorphotisch, HDTV, HDV 1:2,35 Cinemascope mit Lichtton 1:2,55 Cinemascope mit Magnetton Cinemascope Auf normalem 35 mm Film wird mit Hilfe eines Anamorphoten (Objektivtyp mit mind. 1 zylindrischen Linse) das Bild während der Aufnahme gestaucht (um Bildinformationen zu komprimieren). Anschließend wird es durch die Wiedergabe mit einem Projektor, der ebenfalls über dieses Linsensystem verfügt, wieder entzerrt. Da die Tonspuren bei dieser Aufnahmetechnik im Lichttonverfahren, fotografisch auf demselben Film gespeichert werden wie das Bild, steht für dieses nicht die volle Fläche des Filmstreifens zu Verfügung. Deshalb wird es gestaucht und während des Abspielens wieder entzerrt. Durch das anamorphotische Prinzip der Aufnahme entsteht dennoch ein Bild mit dem Seitenverhältnis von 1:2,35 (bei magnetischen Tonaufnahmen sogar von 1:2,55) 4:3 Achtung: Da Computermonitore quadratische Pixel besitzen, werden Videodaten, die im Seitenverhältnis 16:9 mit einem PAR von 1,42 (z.B. für eine DVD) exportiert wurden, im Format 4:3 (gestaucht) dargestellt. Keine Sorge, auf DVD gebrannt, ist die Darstellung korrekt. Kann aber auch vorher im jeweiligen Player angepasst werden. 16:9 1:2,35 1:2,55 Auflösung Seitenverhältnis PAR 720x576 4:3 PAR 1 720x576 4:3 PAR 1,07 720x576 16:9 PAR 1,42 4. Beipiele der gängigsten Formate DV (Digital Video) DV 720 x 576 DV16:9 720 x 576 Aufnahme Projektion 4:3 16:9 1 1 PAR 1 b=h b=1 h=1 1 1,07 PAR 1,42 b≠h b=1,07 h=1 1,42 PAR 1,42 b≠h 1 b=1,42 h=1 Vergleich der Formate bei 1 PAR PAR 1,07 PAR 1,42 HDV (High Definition Video) HDV1 1280 x 720p 16:9 HDV2 1440 x 1080i 16:9 PAR 1 PAR 1,333 Full HD 1920 x 1080p16:9 PAR 1 BAUSIEBEN|Tutorials Bewegtbild Grundlagen Seite 3 5. Chroma Sampling YUV-Farbgebung Die Helligkeitsinformation (=Luminanz) wird aus diesem Grund in jedem Bild gespeichert, die Farbinformation (= Chrominanz), wird je nach Samplingart z.B. nur in jedem zweiten angegeben, um den Film zu komprimieren. Durch dieses „Weglassen“ von Farbinformation, was vom menschlichen Auge nicht RGB-Farbgebung Y Y Y U U U V V V Y Y U U V V Y Y Y U U U V V V Luminanz (Helligkeitsinformation) Chrominanz (Farbinformation) Luminanz Chrominanz 1 Chrominanz 2 1Bild Die Sony PMW-EX1 macht ein (4:2:0) Farbsampling. 1Bild Verwendung und Herkunft Anwendung findet das Chroma Sampling im Farbfernsehen, der Videotechnik und der Bildkomprimierung im jpg-Format. Die Entstehung der Technik hängt mit der Einführung des Farbfernsehens zusammen. Um das gesendete Filmmaterial auch für den schwarz-weiß-Fernseher kompatibel zu halten, wurde ein separaten Luminanzkanal benötigt. Farbsampling - Hinweise 1Bild wahrgenommen wird, spart man Speicherplatz ohne sichtbaren Qualitätsverlust. Statt drei Farbwerten, wie bei RGB, setzen sich die Chrominanzwerte aus den zwei Einheiten des UV-Farbraum zusammen. Diese werden mithilfe einer 2-Achsen-Skala definiert (s. Bild). 1Bild Im digitalen Bewegtbild werden Farben anders erzeugt als bei der additiven Farbmischung des RGB-Farbraums. Die RGBFarbmischung könnte zwar alle benötigten Farbwerte aus den drei Farben Rot, Grün und Blau erzeugen, wäre bei 25 Bilder pro Sekunde allerdings viel zu speicherintensiv. Statt alle Farben in jedem Bild neu zu erzeugen, macht man sich die Eigenschaft des Auges zu nutze, dass es auf Farbveränderungen nicht so stark reagiert wie auf Helligkeitsunterschiede. Beim sogenannten Farbsampling (= Chroma Sampling) werden bestimmte Farbinformationen nicht in jedem Bild hinterlegt um so die Datenmenge gering zu halten. Y Y Y Y U U U U V V V V 4:4:4 Jedes Pixel beinhaltet Luminanz und beide Chrominanzwerte, bzw. 3 Chrominanzwerte (Volle Qualität wie im RGB Farbraum, Verwendung bei Bildbearbeitung) 4:4:4-Sampling Y U V Y Y Y U V Y U V Y Y Y U V Y U V Y Y Y Y Y Y Y 4:2:2 Jedes Pixel beinhaltet Luminanz, jedes zweite Pixel beinhaltet beide Chrominanzinformationen (Ursprünglich NTSC Farbfernsehstandard, PAL Fernsehen und digitale Videosignale) 4:2:2-Sampling Y U V Y Y Y 4:1:1 Jedes Pixel beinhaltet Luminanz, jedes vierte Pixel hat beide Chrominanzwerte (NTSC DV) 4:1:1-Sampling Y U Y Y U Y V U-V- Farbskala YUV-Farbgebung 4:2:0-Sampling (DV-PAL) V 4:2:0 Jedes Pixel beinhaltet Luminanz, jedes zweite Pixel, jeder zweiten Zeile hat beide Chrominanzwerte ( jpg- Standard, bei Video: mpeg und DV PAL) BAUSIEBEN|Tutorials Bewegtbild Grundlagen Vorsicht hier wird ‚s unübersichtlich! Die Fülle der Hersteller und Anwendungsbereiche hat eine unüberschaubare Menge von unterschiedlichen Containerformaten und Codecs hervorgebracht. Dabei kann nicht jeder Container jeden Codec einbetten. Um euch einen kleinen Überblick der gängigsten zu gewähren, haben wir euch diese Liste zusammengetragen. Was ist ein Codec? Codecs sind kurz gesagt Kompressoren, die dafür sorgen, dass die Speichergröße einer Datei verringert wird. Manche tun dies ohne sichtbare Qualitätseinbußen, andere sind verlustbehaftet. Entscheidend bei der Wahl des Codecs ist immer der Verwendungszweck des Videos und demnach die Ansprüche an seine Speichergröße. Jeder Codec arbeitet ein bisschen anders. Für DVDs gelten hier andere Standards als für Web oder Handyfilme. Was ist ein Container? Im Videobereich sind Container (auch Encapsulation genannt) Sammelbehälter für verschiedene Arten von Dateien. Diese können z. B. Audio-, Videooder Metadateien sein. Ein Container kann aber auch mehrere Audiodateien (z.B. für verschiedene Sprachen), Untertitel, oder DVD-Menüs enthalten. Zum getrennte Codierung von Audio- und Videodateien werden sog. Demultiplexer angewendet. Diese werden im Player beim Abspielen im Multiplexing wieder synchron zusammengeführt. Beispiele für Containerformate sind z. B. „.mov“ oder „.avi“. Diese sagen allerdings noch nichts über die Codierung ihrer Inhalte aus! So kann ein .mov z.B. mit mp3 codierten Audio geschrieben werden aber auch mit AAC. Seite 4 lichen. Dabei werden nicht nur einzelnen Bilder sondern auch die Veränderungen der aufeinander folgenden Bilder analysiert und entsprechend zusammengefasst. Die Bezeichnung Mpeg kann sowohl für Container als auch für Codecs verwendet werden. Hier also nicht irritieren lassen, wenn die Endung gleich dem Codec ist. Neben den drei hier aufgeführten, die speziell für Video, DVD und Film -CDs gedacht sind, gibt es noch eine Reihe weiterer für Streaming oder Videokonferenzen optimierte Codecs. mpeg1 Wurde laut Wikipedia 1993 entScreenshot aus dem Rendermenü von After Effects wickelt um Filme auf einer Audio CD (700MB) in Echtzeit abspielen zu können. DemDie wichtigsten Codecs entsprechend bescheiden ist auch die Qualität der Keine Komprimierung damit zusammenhängenden Codecs. Sein großer • verlustfreier Codec Vorteil ist die Kompatibilität. Er kann sowohl von • Große Datenmenge / optimale Qualität DVD-Playern als auch Mac und PC Systemen gele• Geeignet um Vollfarbe einen indizierten sen werden. Farbraum umzuwandeln (Farbraum mit be- • Maximale Bildgröße: 768 x 576 Pixel grenzter Anzahl von Farben, s. Photoshop) • Qualität: etwa mit VHS vergleichbar oder mit dem Material in einem anderen Programm (z.B. After Effects) weiterzuarbeiten mpeg2 • Nicht geeignet als Finaler Codec (zu groß, un- Qualität: Broadcast, für DVDs optimiert (Einstelpraktisch) lung mpeg2 für DVD ergibt den Container .m2v) Das mpeg2 Codec-Verfahren basiert auf sog. GOPs mpeg - Codecs (Motion Picture Expert Group) (Groups of Pictures)Ein Film wird dabei in BildDiese Codecs werden von der Motion Picture Ex- gruppen zerteilt. pert Group entwickelt, die sich zum Ziel gesetzt Es gibt I-frames die am Anfang so einer Gruppe stehat einheitliche Standards für Container und hen und als einzelnen Bilder komprimiert werden. Codecs im Video- und Audiobereich zu entwi- Sie sind die Referenzbilder für die nachfolgenden. ckeln, die eine effiziente Komprimierung ermög- Weiter geht es mit den P-Frames, in denen nur die BAUSIEBEN|Tutorials Bewegtbild Grundlagen Abweichungen zum I-Frame gespeichert werden, wie in einer Maske. Gestikuliert der Held wild vor dem, sonst gleich bleibenden Hintergrund, wird nur der sich verändernde Ausschnitt des Bildes gespeichert und über den Hintergrund des I-frames gelegt. Die Information des Hintergrundes muss also nur einmal gespeichert werden und die P-frames beziehen sich dann darauf. Geht der I-frame allerdings (z.B. beim Schnitt) verloren, ist die ganze GOP unbrauchbar. mpeg-4 Mpeg-4 stellt den Versuch dar, einen standardisierten Codec für Handy, Video, DVD zu erschaffen Er wurde ursprünglich auf den schnellen Austausch über das Internet angelegt. Er ist eine Weiterentwicklung des mpeg1 und mpeg2 Codecs. Viele weiter Codecs basieren auf Mpeg-4, wie z.B. DivX. • Quicktime basierend, schmale Bandbreite • Audio: Advance Audio Codec (AAC) mjpeg (Motion Joint Photographic Expert Group) Dieser Codec basiert auf einem anderen Verfahren als mpeg, da die Komprimierung nur auf Einzelbilder angewendet werden. Wurde zum Digitalisieren von Analogfilmen entwickelt. Fotojpg Dieser Codec ist identisch mit M-jpg allerdings optimiert für Halbbilder. • Qualität: gute Komprimierung, wenig Verlust; Bei mehrmaligem Abspeichern Qualitätseinbußen wie bei jpg • Nicht als Endformat für DVD/CD geeignet Cinepak • Optimiert auf Quicktime • Geringe Rechenanforderungen an Prozessor Seite 5 Component Video Codec (YUV-codec) • Für Quicktime 6.1 optimiert zur Archivierung. • Seitenverhältnis 2:1 • Kann den Rechner beim Capturen lahmlegen. Animation • Codec für Quicktime, 2-D Animation und CGVideos (für synthetisch generierte Bilder, kein Realfilm) • Qualität: verlustfrei, aber kleiner Dateigröße als unkomprimiert Graphics • Qualität: wie ein animiertes gif • Kleine Bildgröße: Reduktion von 16 bzw. 24 Bit zu 8 Bit • Nicht kompatibel mit Video -> zu langsam Video (Quicktime) • Einer der ersten Videocodecs • Ausgelegt für rechenschwache CPUs; nicht vergleichbar mit neueren Codecs (veraltet) Sorenson • Nur als Demo in Premiere und AE vorinstalliert -> keine Einstellmöglichkeiten • Erst in Vollversion richtig mächtig • Für Web und DVD/CD-Rom entwickelt • Höhere Qualität bei kleinerer Datenrate • Unterstützt Variable Datenrate H261 Codec für Internetvideokonferenzen H263 • Für kleine Datenraten und wenig Bewegung • Entwickelt für Streamingoptionen (Internet) • Festgelegte Framegröße 176px x 144px DiV-X • Ursprünglich ein gehackter Mpeg Codec • Der die Ausgabe als Avi (kein Quicktime-Mov) ermöglicht • Höhere Bitrate als mpeg • Mittlerweile Version Divx 4/5 -> kostenlos zu installieren • Kompatibel mit mpeg 4 Xvid Basiert auf dem offenem Quellcode von DiVx (also mpeg) H264 • Von den Vereinten Nationen (internationale Fernmeldeunion) herausgegeben • Basierend auf mpeg • Normierung auf ljpg • Für mobile Anwendungen aber auch TV • Für HD-Auflösungen gedacht • Bessere Qualität als mpeg bei kleinerer Bildgröße • Höherer Rechenaufwand bei de- und Codieren (leistungsstärkere CPUS) • Kompatibel mit allen Containerformaten • Auch Quicktime mov (vorher … ) seit Quicktimeplayer V.7 X264 • Basiert auf H264, opensource Variante • Rechenintensiv (Multicore notwendig) • Nicht mit jedem Player kompatibel • Sehr effizient • Ermöglicht Einzelbildsequenzen in BMP, jpg, tiff, psd, Prtl (Premiere Titel. Format) Containern diverser Codecs von Camcorderherstellern WMV (Windows Media Video) • Verlustbehaftetes Komprimierungsverfahren • An Windows gebunden (nicht standardmäßig BAUSIEBEN|Tutorials Bewegtbild Grundlagen Renderdialog aus After Effects Seite 6 Renderdialog aus Premiere AAC (Advance Audio Codec ((mpeg4 Part3)) Besser als Mp3, Multichannel optimiert, Weiterentwicklung der .mp3 Die gängisten Container .3gp Containerformat für Handyanwendungen .flv Für Flashbasiertes Webstreaming .mov Container speziell für Apple Quicktime .mkv/.mka Open Source, Für fast alle Formate und Codecs, Container für H246/mpeg .asf An Microsoft gebundenes Format für Streaming Audio codecs mp3 (mpeg1 Layer 3) Verlustbehaftete Komprimierung aufgrund psychoakustischer Wahrnehmung (Vom Ohr nicht wahrnehmbare Frequenzen werden eliminiert) mit dem Quicktime abspielbar) HD-Codecs mpk Weiterentwicklung von mp3 HDV LAME (Ain’t an MP3-Encoder) Quelloffene mp3 version HDCAM Von Sony WMA (Windows Media Audio) Von Microsoft DVC PRO Von Panasonic FLAC (Free Loss Audio Codec) Verlustfrei, hohe Qualität für CD-Rohdaten .wmv/.wma An Microsoft gebundene Formate für Video und Audio .avi Audio Video Interleave, technisch begrenzt, aber immer noch weit verbreitet .vob Container für DVD Video, meist mit Mpeg1 oder 2 komprimiert .evo Enhanced .vob, .vob-Format für Blu-Ray .dv Für Schnittsysteme BAUSIEBEN|Tutorials Bewegtbild Grundlagen Seite 7 Einzelbildsequenzen Filme können auch in Sequenzen gerendert werden, die auf Einzelbildern basieren. Diese sind meist speicherintensiv und werden nicht von allen Playern unterstützt. Zum Weiterarbeiten in einem anderen Programm sind sie gegebenenfalls sehr nützlich. So gibt es tiff-, jpg, psd-, png- und bmpSequenzen. Bit- und Datenrate Die Datenrate bestimmt die Qualität und Farbtiefe eines Films. Je höher sie ist, desto besser ist die Qualität, allerdings wird dadurch auch die Dateigröße des Films höher. Hat man nur begrenzten Platz (CD oder DVD) zu Verfügung muss man dementsprechend mit der Datenrate runtergehen und Qualitätsverluste in Kauf nehmen. Es gibt zwei Möglichkeiten, wie die Bitraten beim Rendern eines Films codiert werden: Die konstante Bitrate (CBR), die durchweg gleichbleibende Qualität bietet und die variable Bitrate (VBR), die sich an den Bildinhalten zum jeweiligen Zeitpunkt orientiert. Findet viel Veränderung in kurzer Zeit statt kann sie höher ausfallen als bei fast statischen Bildern mit wenig Veränderung. Konstante Bitrate Nachteil der CBR liegt darin, dass sie entsprechend hoch gewählt werden muss um schnelle Sequenzen in guter Qualität darzustellen, allerdings im Rest des Films den gleichen Wert hat und demnach die Rechenleistung und Speichergröße unnötig hochhält. Datenrate -Hardware VBR = variable Bitrate CBR= konstante Bitrate 1-Pass: ein Suchdurchlauf 2-Pass: erst Analyse, dann Anwendung Variable Bitrate Bei der VBR kann eine maximale, eine minimale und eine Zielbitrate angegeben werden. Je nach Inhalt orientiert sich die verwendetet Bitrate an den drei Werten. Hier muss man etwas aufpassen, denn je mehr Bit beim Maximalwert eingestellt wird desto weniger Bit bleiben für den Rest übrig. Die Spannweite zwischen guter Qualität und der schlechten Qualität in ruhigen Szenen ist dann sehr groß, da sich insgesamt an dem Zielwert orientiert wird. Dieser stellt den Mittelwert hoher und niedriger Bitrate im Film dar. 1-Pass / 2-Pass 1 - Pass: Entspricht einem Suchdurchlauf, in dem direkt komprimiert wird 2- Pass: Entspricht zwei Suchläufen. Den ersten Suchdurchlauf, bei dem erst der Gesamtfilm analysiert wird (Wie viel Bewegung, Wann, Wo gibt es „Standbilder, etc.) Erst beim zweiten Durchlauf wird dann komprimiert. Vorteil: Es wird nicht linear nacheinander komprimiert, sondern der Film auch in seiner Gesamtheit analysiert und die Komprimierung darauf abgestimmt. HDV 25 Mbits/s (Canon XLH1) 35 Mbits/s (Sony EX-1) DV25 25 Mbits/s (Canon XL1) DVC PRO 50 50 Mbits/s Digibeta 84 Mbits/s HDCAM 440 Mbits/s Einige nützliche Hinweise, welche Codecs, Container und Formate für eure Zwecke am besten geeignet sind findet ihr im Rendertutorial im „Erste-Hilfe-Bereich“ des ZBM. Quellen: http://lern.hfbk-hamburg.de/dvdtutorial/ http://www.movie-college.de/filmschule/postproduktion/hd_codecs.htm http://de.wikipedia.org/wiki/Moving_Picture_Experts_Group http://mpeg.chiariglione.org/ www.slashcam.com http://library.creativecow.net/articles/minut_manuel/crossplatform.php BAUSIEBEN|Tutorials