Bewegtbild Grundlagen

Transcrição

Bewegtbild Grundlagen
Bewegtbild Grundlagen
Seite 1
Historisch bedingt haben sich die heutigen
Videoformate aus der Fernsehtechnik entwickelt. Um einige Phänomene beim Filmschnitt
zu verstehen bietet es sich deshalb an hier mal
einen Blick in die Vergangenheit zu werfen.
1. Fernsehformate PAL und NTSC
Im früheren für TV-Produktion gängigen Videoschnittformat SD (=Standard Definition) gibt es
zwei unterschiedliche Standardeinstellungen für
den Deutschen und den amerikanischen Raum.
Aufgrund der Frequenz der Netzspannung
von 50 Hz im hierzulande und 60 Hz im
amerikanischen Raum wurden dies auch
für die Bildfrequenz des Fernsehers mit der
klassischen Bildröhre übernommen.
PAL und NTSC
PAL (Phase Alternation Line):= europäisches Bildformat, Bildfrequenz von 50 HZ => es werden 50
Halbbilder/ Sekunde gesendet
Für euch gilt PAL!!
NTSC (National Television Standards Committee):= US Bildformat, Bildfrequenz 60 Hz => es
werden 60 Halbbilder/ Sekunde gesendet
Beide Formate mit einander zu kombinieren
oder im Nachhinein umzuwandeln bringt
selbstverständlich Probleme mit sich. Deshalb achtet schon bei der Aufnahme, dem
Digitalisieren und dem Anlegen des Projektes auf die richtigen Einstellungen.
2. Was sind Halbbilder?
Bei einem herkömmlichen Fernseher baut sich
das Bild aus technischen Gründen von unten
nach oben auf. Dabei entsteht für das mensch-
Oberes Halbbild
Unteres Halbbild
liche Auge der Eindruck eines Flackerns oder
Ruckelns beim Austausch der Bilder. Ein Bild
besteht aus vielen einzelnen Zeilen. Wenn sich
nun zuerst die ungeraden und anschließend
die geraden aufbauen, lässt sich das Flackern
mildern. Diesen zeilenweisen Aufbau des Bildes
nennt man Halbbilder. Die Halbbildreihenfolge bestimmt ob zuerst die geraden oder die
ungeraden Zeilen gesendet werden. Wird ein
Clip mit Halbbildern bearbeitet, hat er eine
Frequenz von 50 Bilder (=Frames) pro Sekunde.
Formate, wie HD benutzen statt der Halbbildaufteilung Verfahren wie den Progressive Scan
um das Flackern zu vermeiden. Hier wird das
Bild als Ganzes aufgebaut und als sog. Vollbild
ausgegeben. Halbbilder sind weniger rechenintensiv zu verarbeiten als Vollbilder, können
allerdings bei der Wiedergabe auf Computermonitoren können Halbbilder unschöne
Treppenstufeneffekt gerade bei schnellen
Bewegungen hervorrufen. Eine Umwandlung
von Halbbildern auf Vollbilder ist beim Rendern
meist problemfrei möglich (man achte auf die
richtige Reihenfolge der Halbbild!) während der
umgekehrte Weg nur schwer zu realisieren ist.
Deshalb macht es häufig Sinn einen Film
in Halbbildern aufzunehmen und zu bearbeiten und ihn erst beim finalen Rendern in Vollbildern umzuwandeln.
In den Videoplayern auf dem PC gibt es zudem die Möglichkeit die Wiedergabe als Voll-
Vollbild
bilder beim Abspielen des Videos einzustellen.
Zu finden unter Ansicht -> „Deinterlacing“.
Halbbilder - das Wichtigste
DVD + Fernsehen : benötigen Halbbilder
HDV, PC : arbeitet mit Vollbildern (Halbbilder
jedoch möglich, erzeugen aber sichtbare Streifen während der Wiedergabe, wenn es im Player nicht Deinterlacing eingestellt wurde)
Halbbilddominanz:
Analoge Medien (z.B. VHS): oberes Halbbild zuerst
Digitale Medien (z.B. DVD): unteres Halbbild zuerst
Interlacing: Umwandlung Vollbildern -> Halbbilder
Deinterlacing : Halbbildern ->Vollbilder
i = interlaced 25 Frames pro Sekunde aber 50 Bilder pro Sekunde
Es wird pro Bild nur die Hälfte der Zeilen angezeigt; die Halbbildreihenfolge ist wichtig!
p= progressiv
25 Frames pro Sekunde = 25 Bilder pro Sekunde
Keine Halbbilder, keine Halbbildreihenfolge
BAUSIEBEN|Tutorials
Bewegtbild Grundlagen
Seite 2
3. Seitenverhältnisse
4. Pixel-Seiten-Verhältnis
In Film- und Videoproduktionen gibt es verschiedene einheitliche Seitenverhältnisse, die für TV,
DVD, Kino oder PC gelten. Sie entstanden durch
die analoge Aufnahmetechnik auf Filmmaterial
und haben auch bei digitalen Aufnahmeverfahren immer noch Relevanz. Diese Standards
werden durch neue Aufnahmeverfahren, den
Einsatz von Spiegelreflexkameras zur Videoaufnahme und die Produktion fürs Internet allerdings
immer wieder erweitert. Hier die Gängigen:
Der Pixel eines Computermonitoren ist quadratisch und verfügt über die gleiche Höhe wie
Breite. Bei anderen Medien können Pixel ganz
anders interpretiert werden. Die sogenannte PAR
(=Pixel Aspect Ratio) gibt Auskunft über dieses
Verhältnis von Höhe zu Breite eines Pixels.
Das PAL Format kann z. B. verschiedene Seitenverhältnisse abhängig vom PAR-Wert aufweisen.
Die Gesamtanzahl der Pixel bleibt dabei gleich.
Seitenverhältnis
Aufnahmetechnik
4:3
SD, Academy, Vollbild 35mm
16:9
SD anamorphotisch, HDTV, HDV
1:2,35
Cinemascope mit Lichtton
1:2,55
Cinemascope mit Magnetton
Cinemascope
Auf normalem 35 mm Film wird mit Hilfe eines
Anamorphoten (Objektivtyp mit mind. 1 zylindrischen Linse) das Bild während der Aufnahme
gestaucht (um Bildinformationen zu komprimieren). Anschließend wird es durch die Wiedergabe mit einem Projektor, der ebenfalls über
dieses Linsensystem verfügt, wieder entzerrt.
Da die Tonspuren bei dieser Aufnahmetechnik
im Lichttonverfahren, fotografisch auf demselben
Film gespeichert werden wie das Bild, steht für
dieses nicht die volle Fläche des Filmstreifens
zu Verfügung. Deshalb wird es gestaucht und
während des Abspielens wieder entzerrt.
Durch das anamorphotische Prinzip der Aufnahme entsteht dennoch ein Bild mit dem
Seitenverhältnis von 1:2,35 (bei magnetischen Tonaufnahmen sogar von 1:2,55)
4:3
Achtung: Da Computermonitore quadratische Pixel besitzen, werden Videodaten,
die im Seitenverhältnis 16:9 mit einem PAR
von 1,42 (z.B. für eine DVD) exportiert wurden, im Format 4:3 (gestaucht) dargestellt.
Keine Sorge, auf DVD gebrannt, ist die Darstellung korrekt. Kann aber auch vorher im
jeweiligen Player angepasst werden.
16:9
1:2,35
1:2,55
Auflösung
Seitenverhältnis
PAR
720x576
4:3
PAR 1
720x576
4:3
PAR 1,07
720x576
16:9
PAR 1,42
4. Beipiele der gängigsten Formate
DV (Digital Video)
DV 720 x 576 DV16:9 720 x 576 Aufnahme
Projektion
4:3 16:9 1
1
PAR 1
b=h
b=1
h=1
1
1,07
PAR 1,42
b≠h
b=1,07
h=1
1,42
PAR 1,42
b≠h
1
b=1,42
h=1
Vergleich der Formate bei 1 PAR
PAR 1,07
PAR 1,42
HDV (High Definition Video)
HDV1
1280 x 720p 16:9
HDV2
1440 x 1080i 16:9
PAR 1
PAR 1,333
Full HD 1920 x 1080p16:9
PAR 1
BAUSIEBEN|Tutorials
Bewegtbild Grundlagen
Seite 3
5. Chroma Sampling
YUV-Farbgebung
Die Helligkeitsinformation (=Luminanz) wird
aus diesem Grund in jedem Bild gespeichert,
die Farbinformation (= Chrominanz), wird je
nach Samplingart z.B. nur in jedem zweiten
angegeben, um den Film zu komprimieren.
Durch dieses „Weglassen“ von Farbinformation, was vom menschlichen Auge nicht
RGB-Farbgebung
Y Y Y
U U U
V V V
Y Y
U U
V V
Y Y Y
U U U
V V V
Luminanz (Helligkeitsinformation)
Chrominanz (Farbinformation)
Luminanz
Chrominanz 1
Chrominanz 2
1Bild
Die Sony PMW-EX1 macht
ein (4:2:0) Farbsampling.
1Bild
Verwendung und Herkunft
Anwendung findet das Chroma Sampling im Farbfernsehen, der Videotechnik und der Bildkomprimierung im jpg-Format. Die Entstehung der
Technik hängt mit der Einführung des Farbfernsehens zusammen.
Um das gesendete Filmmaterial auch für den
schwarz-weiß-Fernseher kompatibel zu halten,
wurde ein separaten Luminanzkanal benötigt.
Farbsampling - Hinweise
1Bild
wahrgenommen wird, spart man Speicherplatz ohne sichtbaren Qualitätsverlust. Statt
drei Farbwerten, wie bei RGB, setzen sich die
Chrominanzwerte aus den zwei Einheiten des
UV-Farbraum zusammen. Diese werden mithilfe einer 2-Achsen-Skala definiert (s. Bild).
1Bild
Im digitalen Bewegtbild werden Farben
anders erzeugt als bei der additiven Farbmischung des RGB-Farbraums. Die RGBFarbmischung könnte zwar alle benötigten
Farbwerte aus den drei Farben Rot, Grün und
Blau erzeugen, wäre bei 25 Bilder pro Sekunde allerdings viel zu speicherintensiv.
Statt alle Farben in jedem Bild neu zu erzeugen,
macht man sich die Eigenschaft des Auges zu
nutze, dass es auf Farbveränderungen nicht so
stark reagiert wie auf Helligkeitsunterschiede.
Beim sogenannten Farbsampling (= Chroma Sampling) werden bestimmte Farbinformationen nicht in jedem Bild hinterlegt
um so die Datenmenge gering zu halten.
Y Y Y Y
U U U U
V V V V
4:4:4 Jedes Pixel beinhaltet Luminanz und
beide Chrominanzwerte, bzw. 3 Chrominanzwerte (Volle Qualität wie im RGB Farbraum, Verwendung bei Bildbearbeitung)
4:4:4-Sampling
Y
U
V
Y
Y Y
U
V
Y
U
V
Y
Y Y
U
V
Y
U
V
Y
Y
Y
Y
Y
Y
Y
4:2:2 Jedes Pixel beinhaltet Luminanz, jedes
zweite Pixel beinhaltet beide Chrominanzinformationen (Ursprünglich NTSC Farbfernsehstandard, PAL Fernsehen und digitale Videosignale)
4:2:2-Sampling
Y
U
V
Y
Y
Y
4:1:1 Jedes Pixel beinhaltet Luminanz, jedes
vierte Pixel hat beide Chrominanzwerte
(NTSC DV)
4:1:1-Sampling
Y
U
Y
Y
U
Y
V
U-V- Farbskala
YUV-Farbgebung
4:2:0-Sampling (DV-PAL)
V
4:2:0 Jedes Pixel beinhaltet Luminanz, jedes
zweite Pixel, jeder zweiten Zeile hat beide Chrominanzwerte
( jpg- Standard, bei Video: mpeg und DV PAL)
BAUSIEBEN|Tutorials
Bewegtbild Grundlagen
Vorsicht hier wird ‚s unübersichtlich!
Die Fülle der Hersteller und Anwendungsbereiche hat eine unüberschaubare Menge von unterschiedlichen Containerformaten und Codecs
hervorgebracht. Dabei kann nicht jeder Container
jeden Codec einbetten. Um euch einen kleinen
Überblick der gängigsten zu gewähren, haben wir
euch diese Liste zusammengetragen.
Was ist ein Codec?
Codecs sind kurz gesagt Kompressoren, die dafür
sorgen, dass die Speichergröße einer Datei verringert wird. Manche tun dies ohne sichtbare Qualitätseinbußen, andere sind verlustbehaftet. Entscheidend bei der Wahl des Codecs ist immer der
Verwendungszweck des Videos und demnach die
Ansprüche an seine Speichergröße. Jeder Codec
arbeitet ein bisschen anders. Für DVDs gelten hier
andere Standards als für Web oder Handyfilme.
Was ist ein Container?
Im Videobereich sind Container (auch Encapsulation genannt) Sammelbehälter für verschiedene Arten von Dateien. Diese können z. B. Audio-, Videooder Metadateien sein. Ein Container kann aber
auch mehrere Audiodateien (z.B. für verschiedene
Sprachen), Untertitel, oder DVD-Menüs enthalten.
Zum getrennte Codierung von Audio- und Videodateien werden sog. Demultiplexer angewendet.
Diese werden im Player beim Abspielen im Multiplexing wieder synchron zusammengeführt.
Beispiele für Containerformate sind z. B. „.mov“
oder „.avi“. Diese sagen allerdings noch nichts über
die Codierung ihrer Inhalte aus! So kann ein .mov
z.B. mit mp3 codierten Audio geschrieben werden
aber auch mit AAC.
Seite 4
lichen. Dabei werden nicht nur
einzelnen Bilder sondern auch
die Veränderungen der aufeinander folgenden Bilder analysiert und entsprechend zusammengefasst. Die Bezeichnung
Mpeg kann sowohl für Container
als auch für Codecs verwendet
werden. Hier also nicht irritieren
lassen, wenn die Endung gleich
dem Codec ist. Neben den drei
hier aufgeführten, die speziell
für Video, DVD und Film -CDs gedacht sind, gibt es noch eine Reihe weiterer für Streaming oder
Videokonferenzen optimierte
Codecs.
mpeg1
Wurde laut Wikipedia 1993 entScreenshot aus dem Rendermenü von After Effects
wickelt um Filme auf einer Audio
CD (700MB) in Echtzeit abspielen zu können. DemDie wichtigsten Codecs
entsprechend bescheiden ist auch die Qualität der
Keine Komprimierung
damit zusammenhängenden Codecs. Sein großer
• verlustfreier Codec
Vorteil ist die Kompatibilität. Er kann sowohl von
• Große Datenmenge / optimale Qualität
DVD-Playern als auch Mac und PC Systemen gele• Geeignet um Vollfarbe einen indizierten sen werden.
Farbraum umzuwandeln (Farbraum mit be- • Maximale Bildgröße: 768 x 576 Pixel
grenzter Anzahl von Farben, s. Photoshop) • Qualität: etwa mit VHS vergleichbar
oder mit dem Material in einem anderen Programm (z.B. After Effects) weiterzuarbeiten
mpeg2
• Nicht geeignet als Finaler Codec (zu groß, un- Qualität: Broadcast, für DVDs optimiert (Einstelpraktisch)
lung mpeg2 für DVD ergibt den Container .m2v)
Das mpeg2 Codec-Verfahren basiert auf sog. GOPs
mpeg - Codecs (Motion Picture Expert Group)
(Groups of Pictures)Ein Film wird dabei in BildDiese Codecs werden von der Motion Picture Ex- gruppen zerteilt.
pert Group entwickelt, die sich zum Ziel gesetzt Es gibt I-frames die am Anfang so einer Gruppe stehat einheitliche Standards für Container und hen und als einzelnen Bilder komprimiert werden.
Codecs im Video- und Audiobereich zu entwi- Sie sind die Referenzbilder für die nachfolgenden.
ckeln, die eine effiziente Komprimierung ermög- Weiter geht es mit den P-Frames, in denen nur die
BAUSIEBEN|Tutorials
Bewegtbild Grundlagen
Abweichungen zum I-Frame gespeichert werden,
wie in einer Maske.
Gestikuliert der Held wild vor dem, sonst gleich
bleibenden Hintergrund, wird nur der sich verändernde Ausschnitt des Bildes gespeichert und
über den Hintergrund des I-frames gelegt.
Die Information des Hintergrundes muss also nur
einmal gespeichert werden und die P-frames beziehen sich dann darauf. Geht der I-frame allerdings (z.B. beim Schnitt) verloren, ist die ganze
GOP unbrauchbar.
mpeg-4
Mpeg-4 stellt den Versuch dar, einen standardisierten Codec für Handy, Video, DVD zu erschaffen
Er wurde ursprünglich auf den schnellen Austausch über das Internet angelegt. Er ist eine Weiterentwicklung des mpeg1 und mpeg2 Codecs.
Viele weiter Codecs basieren auf Mpeg-4, wie z.B.
DivX.
• Quicktime basierend, schmale Bandbreite
• Audio: Advance Audio Codec (AAC)
mjpeg (Motion Joint Photographic Expert Group)
Dieser Codec basiert auf einem anderen Verfahren
als mpeg, da die Komprimierung nur auf Einzelbilder angewendet werden. Wurde zum Digitalisieren von Analogfilmen entwickelt.
Fotojpg
Dieser Codec ist identisch mit M-jpg allerdings optimiert für Halbbilder.
• Qualität: gute Komprimierung, wenig Verlust;
Bei mehrmaligem Abspeichern Qualitätseinbußen wie bei jpg
• Nicht als Endformat für DVD/CD geeignet
Cinepak
• Optimiert auf Quicktime
• Geringe Rechenanforderungen an Prozessor
Seite 5
Component Video Codec (YUV-codec)
• Für Quicktime 6.1 optimiert zur Archivierung.
• Seitenverhältnis 2:1
• Kann den Rechner beim Capturen lahmlegen.
Animation
• Codec für Quicktime, 2-D Animation und CGVideos (für synthetisch generierte Bilder, kein
Realfilm)
• Qualität: verlustfrei, aber kleiner Dateigröße
als unkomprimiert
Graphics
• Qualität: wie ein animiertes gif
• Kleine Bildgröße: Reduktion von 16 bzw. 24 Bit
zu 8 Bit
• Nicht kompatibel mit Video -> zu langsam
Video (Quicktime)
• Einer der ersten Videocodecs
• Ausgelegt für rechenschwache CPUs; nicht
vergleichbar mit neueren Codecs (veraltet)
Sorenson
• Nur als Demo in Premiere und AE vorinstalliert
-> keine Einstellmöglichkeiten
• Erst in Vollversion richtig mächtig
• Für Web und DVD/CD-Rom entwickelt
• Höhere Qualität bei kleinerer Datenrate
• Unterstützt Variable Datenrate
H261
Codec für Internetvideokonferenzen
H263
• Für kleine Datenraten und wenig Bewegung
• Entwickelt für Streamingoptionen (Internet)
• Festgelegte Framegröße 176px x 144px
DiV-X
• Ursprünglich ein gehackter Mpeg Codec
• Der die Ausgabe als Avi (kein Quicktime-Mov)
ermöglicht
• Höhere Bitrate als mpeg
• Mittlerweile Version Divx 4/5 -> kostenlos zu
installieren
• Kompatibel mit mpeg 4
Xvid
Basiert auf dem offenem Quellcode von DiVx (also
mpeg)
H264
• Von den Vereinten Nationen (internationale
Fernmeldeunion) herausgegeben
• Basierend auf mpeg
• Normierung auf ljpg
• Für mobile Anwendungen aber auch TV
• Für HD-Auflösungen gedacht
• Bessere Qualität als mpeg bei kleinerer Bildgröße
• Höherer Rechenaufwand bei de- und Codieren
(leistungsstärkere CPUS)
• Kompatibel mit allen Containerformaten
• Auch Quicktime mov (vorher … ) seit Quicktimeplayer V.7
X264
• Basiert auf H264, opensource Variante
• Rechenintensiv (Multicore notwendig)
• Nicht mit jedem Player kompatibel
• Sehr effizient
• Ermöglicht Einzelbildsequenzen in BMP, jpg, tiff,
psd, Prtl (Premiere Titel. Format) Containern diverser Codecs von Camcorderherstellern
WMV (Windows Media Video)
• Verlustbehaftetes Komprimierungsverfahren
• An Windows gebunden (nicht standardmäßig
BAUSIEBEN|Tutorials
Bewegtbild Grundlagen
Renderdialog aus After Effects
Seite 6
Renderdialog aus Premiere
AAC (Advance Audio Codec ((mpeg4 Part3))
Besser als Mp3, Multichannel optimiert, Weiterentwicklung der .mp3
Die gängisten Container
.3gp
Containerformat für Handyanwendungen
.flv
Für Flashbasiertes Webstreaming
.mov
Container speziell für Apple Quicktime
.mkv/.mka
Open Source, Für fast alle Formate und Codecs,
Container für H246/mpeg
.asf
An Microsoft gebundenes Format für Streaming
Audio codecs
mp3 (mpeg1 Layer 3)
Verlustbehaftete Komprimierung aufgrund psychoakustischer Wahrnehmung (Vom Ohr nicht
wahrnehmbare Frequenzen werden eliminiert)
mit dem Quicktime abspielbar)
HD-Codecs
mpk
Weiterentwicklung von mp3
HDV
LAME (Ain’t an MP3-Encoder)
Quelloffene mp3 version
HDCAM
Von Sony
WMA (Windows Media Audio)
Von Microsoft
DVC PRO
Von Panasonic
FLAC (Free Loss Audio Codec)
Verlustfrei, hohe Qualität für CD-Rohdaten
.wmv/.wma
An Microsoft gebundene Formate für Video und
Audio
.avi
Audio Video Interleave, technisch begrenzt, aber
immer noch weit verbreitet
.vob
Container für DVD Video, meist mit Mpeg1 oder 2
komprimiert
.evo
Enhanced .vob, .vob-Format für Blu-Ray
.dv
Für Schnittsysteme
BAUSIEBEN|Tutorials
Bewegtbild Grundlagen
Seite 7
Einzelbildsequenzen
Filme können auch in Sequenzen gerendert werden, die auf Einzelbildern basieren. Diese sind
meist speicherintensiv und werden nicht von allen
Playern unterstützt. Zum Weiterarbeiten in einem
anderen Programm sind sie gegebenenfalls sehr
nützlich. So gibt es tiff-, jpg, psd-, png- und bmpSequenzen.
Bit- und Datenrate
Die Datenrate bestimmt die Qualität und Farbtiefe eines Films. Je höher sie ist, desto besser ist die
Qualität, allerdings wird dadurch auch die Dateigröße des Films höher. Hat man nur begrenzten
Platz (CD oder DVD) zu Verfügung muss man dementsprechend mit der Datenrate runtergehen und
Qualitätsverluste in Kauf nehmen.
Es gibt zwei Möglichkeiten, wie die Bitraten beim
Rendern eines Films codiert werden: Die konstante
Bitrate (CBR), die durchweg gleichbleibende Qualität bietet und die variable Bitrate (VBR), die sich
an den Bildinhalten zum jeweiligen Zeitpunkt orientiert. Findet viel Veränderung in kurzer Zeit statt
kann sie höher ausfallen als bei fast statischen Bildern mit wenig Veränderung.
Konstante Bitrate
Nachteil der CBR liegt darin, dass sie entsprechend
hoch gewählt werden muss um schnelle Sequenzen in guter Qualität darzustellen, allerdings im
Rest des Films den gleichen Wert hat und demnach die Rechenleistung und Speichergröße unnötig hochhält.
Datenrate -Hardware
VBR = variable Bitrate
CBR= konstante Bitrate
1-Pass: ein Suchdurchlauf
2-Pass: erst Analyse, dann Anwendung
Variable Bitrate
Bei der VBR kann eine maximale, eine minimale
und eine Zielbitrate angegeben werden. Je nach
Inhalt orientiert sich die verwendetet Bitrate an
den drei Werten. Hier muss man etwas aufpassen,
denn je mehr Bit beim Maximalwert eingestellt
wird desto weniger Bit bleiben für den Rest übrig.
Die Spannweite zwischen guter Qualität und der
schlechten Qualität in ruhigen Szenen ist dann
sehr groß, da sich insgesamt an dem Zielwert orientiert wird. Dieser stellt den Mittelwert hoher und
niedriger Bitrate im Film dar.
1-Pass / 2-Pass
1 - Pass: Entspricht einem Suchdurchlauf, in dem
direkt komprimiert wird
2- Pass: Entspricht zwei Suchläufen. Den ersten
Suchdurchlauf, bei dem erst der Gesamtfilm analysiert wird (Wie viel Bewegung, Wann, Wo gibt
es „Standbilder, etc.) Erst beim zweiten Durchlauf
wird dann komprimiert. Vorteil: Es wird nicht linear
nacheinander komprimiert, sondern der Film auch
in seiner Gesamtheit analysiert und die Komprimierung darauf abgestimmt.
HDV
25 Mbits/s (Canon XLH1)
35 Mbits/s (Sony EX-1)
DV25
25 Mbits/s (Canon XL1)
DVC PRO 50
50 Mbits/s
Digibeta
84 Mbits/s
HDCAM
440 Mbits/s
Einige nützliche Hinweise, welche Codecs,
Container und Formate für eure Zwecke am
besten geeignet sind findet ihr im Rendertutorial im „Erste-Hilfe-Bereich“ des ZBM.
Quellen:
http://lern.hfbk-hamburg.de/dvdtutorial/
http://www.movie-college.de/filmschule/postproduktion/hd_codecs.htm
http://de.wikipedia.org/wiki/Moving_Picture_Experts_Group
http://mpeg.chiariglione.org/
www.slashcam.com
http://library.creativecow.net/articles/minut_manuel/crossplatform.php
BAUSIEBEN|Tutorials