Kopie von Archivserver für digitale Videoformate_oFormat

Transcrição

Kopie von Archivserver für digitale Videoformate_oFormat
Archivserver für digitale Videoformate - Langzeitarchivierung von
Videodaten im Fernsehen unter besonderer Berücksichtigung
verschiedener Dateiformate und der strukturellen Situation bei RTL
Nord
Hausarbeit im Rahmen der Fortbildung zum Wissenschaftlichen Dokumentar /
Information Specialist am Institut für Information und Dokumentation in Potsdam
Thematischer Schwerpunkt: „Wirtschaftsinformatik – Grundlagen für
Informationsspezialisten“
Betreuer: Sven Hirsch
Vorgelegt
von
Oliver Hirsch
31.08.2008
Abstract
In dieser Arbeit werden Dateiformate als wichtiger Teil von Archivservern und damit
der
Langzeitarchivierung
analysiert.
Nach
einer
Einordnung
des
Begriffs
„Digitalisierung“, und damit verbunden der aktuelle Stand dieser Umwälzung der
Mediendokumentation,
werden
zunächst
kurz
die
wichtigsten
Kriterien
der
Unterscheidung von Videoformaten dargestellt. Darauf folgend werden die Grundlagen
der
Datenkompression
Austauschformate
vorgestellt
erklärt.
Nach
und
die
einer
wichtigsten
technischen
Kompressionsund
und
strukturellen
Unternehmensdarstellung von RTL Television und RTL Nord werden allgemeine
Kriterien zum Umgang mit Dateiformaten aufgezeigt und Hinweise für die Einführung
eines Archivservers bei RTL Nord gegeben.
-3-
Inhaltsverzeichnis
1
2
3
4
5
6
7
Einleitung ................................................................................................................. 3
Phasen der Digitalisierung........................................................................................ 5
File-Formate im Videobereich ................................................................................. 7
3.1
„Rohe Bewegtbilddaten“ .................................................................................. 8
3.2
Codecs .............................................................................................................. 8
3.3
Container-Formate und Wrapper-Formate ....................................................... 9
Videokompression .................................................................................................. 11
4.1
Grundsätzliche Prinzipien der Datenreduktion .............................................. 11
4.1.1
Das Prinzip der Redundanz und Irrelevanz ............................................ 11
4.1.2
Das Prinzip der örtlichen und zeitlichen Korrelationen ......................... 11
4.2
Vorgehensweise bei der Datenreduktion........................................................ 12
4.2.1
Verlustlose Kodierung............................................................................ 12
4.2.2
VLC – Variable Längenkodierung nach Huffman ................................. 12
4.2.3
RLC ........................................................................................................ 13
4.2.4
DPCM..................................................................................................... 13
4.2.5
Intraframe und Interframe ...................................................................... 13
4.2.6
DCT und Quantisierung ......................................................................... 14
4.2.7
Wavelet-Transformation......................................................................... 15
4.2.8
Bitrate – Datenrate.................................................................................. 15
4.2.9
Farbvideosignal / Farbunterabtastung (Chroma Subsampling) .............. 16
4.3
Gängige Formate und Standards .................................................................... 16
4.3.1
DV-Algorithmus..................................................................................... 16
4.3.2
MPEG ..................................................................................................... 17
4.3.3
MPEG-2.................................................................................................. 17
4.3.4
GOP - Group of Pictures ........................................................................ 18
4.3.5
MPEG-4.................................................................................................. 18
4.3.6
AVI ......................................................................................................... 19
4.3.7
IMX ........................................................................................................ 19
4.4
Austauschformate ........................................................................................... 20
4.4.1
DPX, GXF, AAF .................................................................................... 20
4.4.2
MXF ....................................................................................................... 21
4.4.3
Quicktime ............................................................................................... 21
4.5
Metadaten ....................................................................................................... 22
4.6
Nützliche Werkzeuge ..................................................................................... 24
4.6.1
Gspot....................................................................................................... 24
4.6.2
MPEG Streamclip Video Converter ....................................................... 24
Unternehmensdarstellung ....................................................................................... 25
5.1
RTL Nord ....................................................................................................... 25
5.2
RTL Nord Technik Ist-Zustand ...................................................................... 25
5.3
RTL Television............................................................................................... 26
5.4
INES ............................................................................................................... 27
5.5
Anbindung an Aussenstudios ......................................................................... 28
Fazit ........................................................................................................................ 30
Literaturverzeichnis ................................................................................................ 32
1 Einleitung
Archivierung im Fernsehbereich hat sich in den letzten Jahren durch die Digitalisierung
grundlegend geändert. Erfolgte der Zugriff auf das Material bis vor kurzer Zeit noch
ausschließlich über ausgespielte Videobänder, so wird das Material heute zunehmend
auf Archivservern als Dateien gespeichert. Das hat verschiedene Vorteile. Der
Platzbedarf ist deutlich geringer, der Zugriff wird vereinfacht und die Recherche kann
durch Vorschauvideos unabhängiger von deskriptiven Metadaten erfolgen. Um den
Begriff Archivierung von Vorgehensweisen wie dem kurzfristigen Zwischenspeichern
auf anderen Medien abzugrenzen, spricht man bei der Bestandserhaltung im
Fernsehbereich besser von Langzeitarchivierung.
Diese Veränderung des Arbeitsumfelds von Fernsehdokumentaren erfordert teilweise
ein Umdenken in Bezug auf die Arbeitsprozesse, in jedem Fall aber muss sich der
Dokumentar mit den neuen Techniken auseinandersetzen
Günter Peters schreibt dazu:
Die Umstellung von konventioneller Ablage zu elektronischen Datenbanken führte zu
signifikanten Veränderungen bei der Arbeitsweise der Dokumentationen und Dokumentare,
nicht aber zur Veränderung ihrer wesentlichen Aufgaben. [...] Allerdings bedeutet die
elektronische und digitale Speicherung den Einstieg in neue Strukturen, eine einfache
Übertragung von Systematiken und Arbeitsabläufen von konventionellen auf das elektronische
Archiv würde Möglichkeiten verschenken. [Peters 2004:516]
Die Archivierung von digitalen Daten in Form von Dateien wirft also einige neue
Fragen auf. Welche Dateiformate bieten sich aus welchem Grund zur Archivierung an?
Sollen archivierte Dateiformate automatisch dasselbe Format haben wie die Formate der
Produktion? Wie kann ich die langfristige Bestandssicherung garantieren? Gibt es das
ideale Dateiformat?
Solche Fragen lassen sich teilweise nur in spezifischen Kontexten klären. Die
übergeordneten Strukturen bestimmen die Auswahl, sei es aus ökonomischen,
rechtlichen oder aus infrastrukturellen Gründen. Da der Autor Mitarbeiter von RTL
Nord in Hamburg ist und weil dort eine technische Neustrukturierung angestrebt wird,
sollen die betrieblichen Strukturen von RTL Nord einen Rahmen für diese Arbeit geben.
Um dem gegebenen Umfang zu entsprechen, konzentriert sich die Arbeit auf
Videodateiformate und deren Speicherung; auf Audio wird nur am Rande eingegangen.
Auch auf Transferprozesse und spezifische Speichermedien wird nur marginal
-3-
eingegangen, diese Themen würden sich gut für eine Fortsetzung der Arbeit anbieten.
Im ersten Teil der Arbeit wird allgemein der Stand der Digitalisierung im
fernsehdokumentarischen Bereich beschrieben. Im zweiten Teil werden relevante
Datenformate und die Grundlagen der Videokompression erläutert. Im dritten Teil wird
auf die Struktur von RTL Nord und RTL Television eingegangen sowie der heutige
Stand der Technik dargestellt. Letztlich analysiert diese Arbeit einen wichtigen Teil der
Arbeitsumgebung eines Fernseh-Dokumentars und führt zu Empfehlungen zur Nutzung
von Dateiformaten in Archivservern.
-4-
2 Phasen der Digitalisierung
Die Entwicklung der Digitalisierung entspricht mehreren Phasen. Ulrich Schmidt
spricht von zwei Phasen der Digitalisierung. Ihre Unterteilung ist allgemein auf die TVProduktion bezogen. [vgl. Heyna/Briede/Schmidt 2003: 13ff.]
Die erste Phase ist davon geprägt, dass die Arbeitsabläufe in der TV-Produktion im
Wesentlichen dieselben sind wie bei der analogen Verarbeitung, nur dass Digitalgeräte
verwendet werden. Außerdem fällt die Neuerung hin zu nichtlinearen Schnittsystemen
in diese Phase.
Die zweite Phase der Digitalisierung „ist nun geprägt durch die ständig gestiegene
Leistung von Informations- und Telekommunikations-Technologien (...), die zudem
durch die Nähe zum Massenmarkt der Standard-Computertechnologien relativ
preiswert sind.“ [ebd.:18]
Jürgen Heitmann und Frank Altmeier sprechen von drei Phasen (hier „Revolutionen“
genannt). [vgl. Altmeier/Heitmann 2005: 347] Ihre Unterteilung geht spezifisch auf die
digitalen Veränderungen im Archivbereich ein.
Die erste „Revolution“ wird auf einen Report der SMPTE-Arbeitsgruppe „Automated
Storage & Retrieval“ von 1997 zurückgeführt und besagt: „Bewahre Bits und Bytes und
nicht den Datenträger (alle Speichermedien haben eine begrenzte Lebensdauer)“ und
„benutze Automatisierung, um den Erhaltungszustand der Datenträger zu überprüfen“.
[ebd.]
Die zweite „Revolution“ beinhaltet, dass technischer Fortschritt das einzige Mittel sei,
um den steigenden Raumbedarf von Archiven konstant zu halten und dass technischer
Fortschritt stets Hard- und Software (die zum Bewahren von Content genutzt werden)
hinfällig macht. Daraus folgt nach den Autoren das „Prinzip der ständigen Migration
von archiviertem Content.“ [ebd.]
Die dritte „Revolution“ ist für die Autoren gerade voll im Gange und bezieht sich
explizit auf die Speicherung auf Festplatten, also auf „den Übergang auf einen
Datenträger, der weder transportabel und vom Aufzeichnungsgerät trennbar ist, noch
einem bestimmten Programm mehr eindeutig zugeordnet werden kann.“ [ebd.]
Das zu archivierende Produkt wird also aus verschiedenen Gründen entmaterialisiert.
Ulrich Schmidt drückt das so aus: „Dabei wird die allgemeine Entwicklung weg vom
physikalisch Wahrnehmbaren, hin zu immer mehr Abstraktion weiter vorangetrieben.“
[Heyna/Briede/Schmidt: 18]
-5-
Der Medienarchivar hat bis heute immer mit einer Kassette oder einer Filmrolle, die in
einem Regal in einem spezifischen Raum standen, zu tun gehabt. Die heutigen
Entwicklungen bewirken zum Beispiel, dass dem Archivar zunächst die Fähigkeit
genommen wird, den Verlust von Content zu begreifen. Fehlt ein Band aus einem
Archivregal, so ist die Situation eindeutig. Wird dem Archivar eine Video-Datei in
seinem System nicht angezeigt, so kann das vielerlei Gründe haben (Gelöscht,
Verschoben, Interface defekt, Serveranbindung defekt, eigene Software erkennt das
Dateiformat nicht, etc.). Es ist deshalb von hoher Wichtigkeit, neue entmaterialisierte
Strukturen zu begreifen. Zum einen um die Abhängigkeit von „Vermittlern“ wie zum
Beispiel
Informatikern
oder
Systemadministratoren
zu
begrenzen
bzw.
die
Kommunikation zu verbessern, zum anderen um die Vor- und Nachteile der neuartigen
Strukturen zu verstehen und praktisch umzusetzen. Dazu muss der moderne
Medienarchivar nicht Informatik studieren. Er sollte sich aber mit spezifischen
Technologien auseinandersetzen. Ein wichtiger Teil, der verstanden werden sollte, ist
die Art der Speicherung; also in welchem Format bewegte Bilder als Bits und Bytes
vorliegen.
-6-
3 File-Formate im Videobereich
Bezeichnungen von File-Formaten im Videobereich werden mehr oder weniger
undifferenziert in der alltäglichen und beruflichen Kommunikation verwendet. Doch
gerade die Kommunikation zwischen Archivar und Informatiker muss eindeutig sein.
Der Informatiker und der Dokumentar müssen gegenseitig verstehen, was sie meinen. In
der Folge wird versucht, ein wenig Licht in die Vielzahl der Begriffe zu bringen.
Videodaten können in verschiedener Form technisch aufbereitet werden. Sie können in
reiner Form vorliegen, wobei sie, wenn digitalisiert, schon in irgendeiner Form
„beschnitten“ sind. Sie können weiterhin durch Hilfe von Codecs komprimiert werden,
um sie für den Datenaustausch und/oder die Lagerung kleiner zu machen. Und, darüber
hinaus, können sie quasi „verpackt“ werden, um sie mit anderen Daten wie Audio- oder
Metadaten zu speichern oder zu transferieren.
Grundsätzlich kann man also unterscheiden zwischen:
a) „rohen“ Videodaten,
b) durch Hilfe von sogenannten Codecs komprimierten Videodaten,
c) Videodaten die in sogenannten „Containern“ zusammen mit Audiodaten
gespeichert sind und
d) Video/Audiodaten die in sogenannten Wrappern zusammen mit Metadaten
gespeichert sind.
Diese Unterscheidung - auf die in der Folge ausführlich eingegangen wird – ist
zusätzlich unübersichtlich, weil verschiedene Videodateien, Container und Wrapper
auch noch denselben Namen bzw. File-Extension tragen können.
Die Fachzeitschrift Broadcast Engineering schreibt dazu:
The differences among elements, containers and wrappers can become confusing because some
elements and containers share the same name. For example, MEPG-2 is a compression codec for
digital video but is also a container when the audio is combined with it. [o.A. 2008:
http://broadcastengineering.com/storage_networking/digital_file_format_0217 am 15.08.2008]
Man kann und muss File-Formate im Videobereich nach ihrem (technischen) Inhalt
unterscheiden. Nur so können kompetente Entscheidung über deren Speicherung
getroffen werden.
-7-
3.1 „Rohe Bewegtbilddaten“
Um es vorweg zu nehmen: Digitale Abbildungen von bewegten Bilder, die in keiner
Weise reduziert bzw. komprimiert sind gibt es nicht. Die Datenmenge für eine
Speicherung als Datei wäre viel zu hoch.
Unsere natürliche visuelle Umgebung ist dreidimensional und ihre inhaltliche Informationen von
infinitesimal feiner Struktur. Eine Bildübertragung, die den menschlichen Sehvorgang
ökonomisch nachahmt, müsste ein Raster lichtempfindlicher Elemente aufbauen, dem als
Bildempfänger ein entsprechendes Raster Licht erzeugender Elemente entspricht. [...] Das
Problem ist allerdings, dass eine sehr feine Auflösung jedweden vertretbaren Kapazitätsrahmen
sprengen würde. [Heyna/Briede/Schmidt: 21]
Die Übertragung von Studio-Videosignalen, also der digitalen Signale, die am
treffendsten als „rohe Videodaten“ im Broadcastbetrieb zu bezeichnen sind, erfolgt über
eine spezielle Schnittstelle, dem Serial Digital Interface, kurz SDI. Über diese
Schnittstelle wird ein digitales serielles Komponentensignal (vgl. auch die
Ausführungen zu Chroma Subsampling) übertragen. Man bezeichnet das digitale
serielle Komponentensignal auch als DSK; beide Ausdrücke werden oft synonym
benutzt. Es handelt sich nicht um ein Dateiformat sondern dient ausschließlich der
Übertragung.
3.2 Codecs
Bei entsprechenden Recherchen zum Thema digitale Videoformate trifft man immer
wieder auf den Begriff Codec. Dabei handelt es sich um ein Kunstwort, dass sich aus
den Wörtern Coder und Decoder zusammensetzt. Grundsätzlich sind Codecs kleine
Programme bzw. Programmteile, deren Aufgabe es ist, Datenmaterial von einer Form in
eine andere zu überführen. Dabei kann das Dateiformat dasselbe bleiben, nur die Art der
Codierung ändert sich. Codecs dienen meist der Datenreduktion und der
Datenwiederherstellung. Sie helfen, Dateien in ihrem Umfang zu reduzieren und so
entweder für die Übertragung oder für die Speicherung klein genug zu halten. MPEG-2
zum Beispiel ist ein standardisiertes Videodateiformat, bei dem ziemlich genau
festgelegt ist, welchen Aufbau die Videodatei hat. Die Videodaten durchlaufen dabei
einen
Codier
und
Decodier-Prozess.
[vgl.
PCO
2003:
http://www.orthy.de/index.php?option=com_content&task=view&id=765&itemid=85
am 19.08.2008]
-8-
Wird ein Datenformat in ein anderes umgewandelt so nennt man das Transkodierung.
Diese Umwandlung ist normalerweise verlustbehaftet. [Vgl. Artikel Transcodierung in
http://de.wikipedia.org/wiki/transcodierung am 21.08.2008]
Aus diesem Grund ist es wichtig, solche Transformationen nach Möglichkeit gering
zuhalten.
3.3 Container-Formate und Wrapper-Formate
Container-Formate haben die Aufgabe, mehrere Dateiformate – meist Video und Audio
– zusammenzufassen.
Special file formats called containers are used to combine or hold the audio and video elements
(files) within
one file for convenient storage and transport. Some video servers store the
audio and video elements separately on their storage systems, while others use container formats
to keep these separate elements
together. All video servers store both the audio and video
clips as well as a database with information about those
clips.
[o.a.
2008:
http://broadcastengineering.com/storage_networking/digital_file_format_0217/ am 15.08.2008]
Diese Dateiformate sind meist durch einen Codec komprimiert. In einem Container
können
viele
verschiedene
Kombinationen
aus
Audio-
und
Video-Codecs,
Dateiformaten und Extensions enthalten sein. So kann zum Beispiel in einem Container
mit der Dateiendung *.avi ein Videoformat welches mit einem DV-Codec komprimiert
wurde, und ein Audioformat, das mit einem MP3-Codec komprimiert wurde, enthalten
sein. Die Möglichkeiten sind hier fast unbegrenzt.
Wrapper-Formate sind spezielle Container (meist im professionellen Umfeld), die
zusätzlich noch Metadaten beinhalten können.
When the audio/video files are transferred to another system, the data about them also needs to
be transferred — that is where metadata comes in. Metadata is the data about the data that makes
up the audio
and video elements. To join the container, with the audio and video elements
along with the metadata, a wrapper is used. A wrapper is a type of container used in professional
video to combine the elements (audio and video files) as well as the metadata. [ebd.]
Die Unterscheidung und das Verständnis verschiedener Formattypen ist wichtig, um
Entscheidungen über deren Nutzen und deren Verarbeitung treffen zu können. Dabei
geht es nicht nur um Entscheidungen, die bei der Planung einer Produktions- bzw.
Archivierungsumgebung zu treffen sind. Auch durch die „Demokratisierung“ der
Filmaufnahmetechniken
(man
denke
an
Zuschauervideos)
-9-
wird
es
der
Mediendokumentar zukünftig immer öfter mit verschiedenen Formaten zu tun haben –
zusätzlich zu dem im eigenen Haus verwendeten Standard. Schon heute kommen häufig
Datenträger von Privatpersonen ins Haus, die man nicht sofort benutzen, aber gern für
mögliche zukünftige Verwendung archivieren möchte. Daraus ergeben sich mehrere
Fragen. Kann das Material ohne weiteres in die Produktionsumgebung bzw.
Archivumgebung eingespielt werden? Ergeben sich aus der Transkodierung (weitere)
Qualitätsverluste? Sind im Originalmaterial Metadaten vorhanden, die bei der
Transkodierung wegfallen würden? Muss ich als Archivar in jedem Fall einen
Techniker aufsuchen oder kann das Material von mir selbst komplett gesichert werden?
- 10 -
4 Videokompression
Datenreduktion ist essentiell für die moderne TV-Produktion und noch mehr für die
Langzeitarchivierung. Aus diesem Grund folgt an dieser Stelle eine Einführung in die
Videokompression. Datenkompression beinhaltet immer die selben Prinzipien und ist
meist eine Mischung verschiedener Vorgehensweisen.
4.1 Grundsätzliche Prinzipien der Datenreduktion
4.1.1 Das Prinzip der Redundanz und Irrelevanz
Daten (mit Informationsgehalt im Shannon'schen Sinne) kann man in redundante und
irrelevante Daten unterteilen. Ist in einem Bild eine große Fläche grün, dann sind die
Pixel größtenteils redundant. Die Farbinformation könnte beispielsweise nur einmal
übertragen und in der Folge darauf verwiesen werden.
Daten, die zwar übertragen aber vom Menschen gar nicht wahrgenommen werden,
können im Prinzip weggelassen werden. Sie sind irrelevant. [Heyna/Briede/Schmidt:
53f.]
4.1.2 Das Prinzip der örtlichen und zeitlichen Korrelationen
Bilder die aufeinander folgen, um daraus eine Bewegtbildsequenz resultieren zu lassen
haben die Eigenschaft, sehr ähnlich zu sein. Bei einer Fußballübertragung zum Beispiel
sind große Flächen immer grün (der Rasen), das Bild verändert sich nur aufgrund der
Bewegung der Spieler. Der Rasen innerhalb eines Bildes ist also vom selben grün
(örtliche Korrelation) ebenso wie das folgende Bild (zeitliche Korrelation). „Diese
Wechselbeziehungen des Bildes mit sich selbst oder folgenden Bildern aufgrund von
Ähnlichkeiten nennt man örtliche bzw. zeitliche Korrelationen und nutzt sie zur
Verkleinerung der Datenmenge.“ [ebd.]
- 11 -
4.2 Vorgehensweise bei der Datenreduktion
4.2.1 Verlustlose Kodierung
Hierbei muss man sich loslösen von semantischen Aspekten des Informationsbegriffs
und Symbole einer Nachricht durch einen mathematischen Informationsbegriff
definieren. Dabei wird ein Symbol (z.B. 0 oder 1 oder ein Buchstabe aus dem Alphabet)
durch seinen Kontext und damit verbunden durch seinen Neuigkeitswert beschriebenen.
Dieses auf Claude Shannon zurückzuführende Prinzip der Entropie [vgl. auch Artikel
Entropie
in
http://de.wikipedia.org/wiki/Entropie_(Informationstheorie)]
ist
grundlegend für die Komprimierung. In einem Alphabet zum Beispiel existieren
Buchstaben, die häufiger oder seltener im Sprachgebrauch vorkommen. Beim Übertrag
in eine Codierung, zum Beispiel in das Morsealphabet, wird diesem Umstand Rechnung
getragen, in dem der am meisten benutzte Buchstabe (im Englischen das „e“) das
kürzeste Zeichen (im Morsealphabet ein einziger Punkt „.“) zugeordnet bekommt und
andersherum seltenere Buchstaben (im Englischen z.B. „b“) längere Zeichenketten (im
Morsealphabet die Kette “_...“) zugeordnet bekommen. Der Redundanz der Zeichen
wird so Rechnung getragen. [Heyna/Briede/Schmidt: 53f.]
In Dateien heißt das, dass bestimmte Zeichenfolgen häufiger vorkommen als andere.
Nach der ersten Übertragung einer dieser Zeichenfolgen wird diese in einer Bibliothek
abgelegt und in der Folge nur noch darauf verwiesen. Dieses Vorgehen ist in der Regel
platzsparender als das ständige Wiederholen. Bei der Videoübertragung muss ein
Standbild nicht 25x in der Sekunde übertragen werden, das grüne Pixel bei einem
Fußballspiel ebenso wenig. Diese Beseitigung von Redundanzen ist umkehrbar und
wird deshalb Redundanzreduktion oder auch verlustlose Kodierung genannt. [ebd.]
Verlustlose Komprimierung findet man außerhalb von Videokompressionen zum
Beispiel bei gängigen Pack-Programmen wie WinZip. Hier werden der Huffman-Code
und der Lempel-Ziv-Algorithmus (Deflate-Verfahren) angewandt. Wichtig im hier
betrachteten Rahmen ist der Huffman-Code. [vgl. o.A. (2007) in http://www.datacompression.com/lossless am 02.08.2008]
4.2.2 VLC – Variable Längenkodierung nach Huffman
Bei der variablen Längenkodierung wird (ähnlich wie beim Morsealphabet) ein
Alphabetwechsel vorgenommen. Symbolen im Datenstrom werden neue, kürzere
- 12 -
Symbole zugewiesen und die Länge richtet sich nach der Auftretenswahrscheinlichkeit.
Die bekannteste Kodierung ist der genannte Huffman-Code. Häufig vorkommenden
Symbolen wird eine kurze Bitfolge zugeordnet, selten vorkommenden Symbolen eine
lange Bitfolge. Die Länge der Bitfolgen ist also variabel. Durch fortlaufende
Gruppierung von Symbolen mit niedriger Auftretenswahrscheinlichkeit wird eine
Baumstruktur gebildet, solange bis nur noch zwei Zustände übrig bleiben. Anschließend
wird die Baumstruktur zurückverfolgt und entsprechend erst kurze bis zu den längsten
Codewörtern vergeben. [vgl. Heyna/Briede/Schmidt: 54f.]
4.2.3 RLC
Durch die Lauflängenkodierung (RLC – Run Length Coding) kann die Effektivität
solcher verlustfreien Kodierungen noch gesteigert werden. Folgen mehrere gleiche
Werte, so werden diese zusammengefasst und dem folgenden Wert zugeordnet. Die
Datenfolge 0 0 3 beinhaltet die Aussage „2 Nullen bis 3“ und kann zum Beispiel als
(2,3) dargestellt werden. [vgl. ebd.]
4.2.4 DPCM
Bei der Differential Puls Code Modulation erfolgt eine Messung der Differenzen
innerhalb eines Bildes. Bei einer Fußballübertragung sind weite Teile des Bildes grün.
Überträgt man nur die Differenz zum jeweils benachbarten Bildpunkt (und nicht den
Wert des Bildpunktes selber) ergibt sich eine Datenreduktion. Auch hier kann die
Effektivität gesteigert werden. Bildpunkte ähneln sich nicht nur innerhalb eines Bildes
sondern auch innerhalb einer Bildfolge. Bei der erwähnten Fußballübertragung folgt auf
einen grünen Punkt mit hoher Wahrscheinlichkeit ebenfalls ein grüner Punkt.
Entsprechend kann auch hier einfach die Differenz (und nicht der Wert selber)
übertragen werden. Dies geschieht durch eine Vorhersage (Prädiktion), entweder in dem
das vorherige Bild einberechnet wird (unidirektional, die Bilder heißen dann P-Frames)
oder das vorherige und das folgende (bidirektional, die Bilder heißen dann B-Frames).
Der
letzte
Fall
erfordert
eine
Verzögerung
auf
Enkoder-Seite.
[vgl.
Heyna/Briede/Schmidt: 55f.]
4.2.5 Intraframe und Interframe
Im Grunde wird hier das Prinzip der örtlichen und zeitlichen Korrelationen
- 13 -
konkretisiert. Grundsätzlich kann ein Video bildweise oder sequenzweise kodiert
werden. Beim Videoschnitt ist immer ein einzelnes und unabhängiges Bild nötig. Ist das
Bild von dem vorherigen oder folgenden Bild abhängig kodiert, kann es vom Programm
auch nicht unabhängig betrachtet werden. Diese Interframe-Kompression eignet sich
also nicht ganz so gut für den Videoschnitt. Bei der Intraframe-Kompression hingegen
wird jedes einzelne Bild komprimiert. Solche Bilder (oder auch Frames) werden IFrames
genannt.
[vgl.
Lichtscheidl
in
http://www.univie.ac.at/video/grundlagen/intraframe.htm am 27.07.2008]
4.2.6 DCT und Quantisierung
Die Diskrete Cosinus Transformation (DCT) ist keine Kompression sondern bereitet auf
weitere Kompressionsschritte vor. Kompressionen die eine solche Transformation
enthalten sind zum Beispiel MPEG und JPEG. Ein Bild wird hierbei in Pixelblöcke
aufgeteilt, meistens als 8x8-Matrizen. Diese Pixelblöcke werden in Frequenzbereiche
der
Grauwerte
umgesetzt.
Betrachtet
wird
hierbei
das
dreidimensionale
Frequenzspektrum (Zeit und Bildkoordinaten) eines Bildes. Diese Pixelmatrix wird
wiederum in eine Koeffizientenmatrix überführt. Das Bild wird in seine Spektralanteile
zerlegt. Bestimmte Frequenzen sind für die Wahrnehmung weitgehend irrelevant und
können im folgenden Kompressionsschritt weggelassen werden. Bisher war der
Kompressionseffekt
eher
gering
aber
vollkommen
reversibel.
[vgl.
Heyna/Briede/Schmidt: 58 ff.)
Die Quantisierung dient nach der Diskreten Cosinus Transformation der eigentlichen
Datenreduktion. Die Werte aus der Matrix werden anhand einer Quantisierungstabelle
geteilt
und
gerundet.
Die
Werte
in
der
Quantisierungstabelle
sind
durch
wahrnehmungspsychologische Tests entstanden (die u.a. vom JPEG-Komitee
durchgeführt wurden). Diese Tests definieren in Zahlen, dass das Auge schnelle
Helligkeitsänderungen
schlechter
wahrnimmt
als
langsame,
bzw.
diagonale
Helligkeitsänderungen schlechter als horizontale bzw. vertikale. Problematisch ist
dabei, dass in Abhängigkeit von den Quantisierungstabellen die ursprünglichen
Pixelblockgrenzen sichtbar werden können. Daraus entsteht dann der Blocking-Effekt.
Diese Blocking-Effekte gehören zu Kompressions-Artefakten, die sich visuell in einer
Blockbildung auf dem Bildschirm bemerkbar machen. Je höher die Kompression desto
größer ist die Gefahr dieser Block-Bildung. Bei der Quantisierung handelt es sich um
- 14 -
eine
Irrelevanzreduktion.
Die
Kompression
ist
also
verlustbehaftet.
[vgl.
Heyna/Briede/Schmidt: 60f.]
Oft wird eine Mischung zwischen DPCM (also der Differenziellen Puls Code
Modulation) und DCT verwendet. Sie ist zum Beispiel Basis für die Kodierung im
MPEG-Standard und ermöglicht Kompressionsfaktoren bis zu 100 bei guter Qualität.
Eine Bearbeitung der Videodaten, also zum Beispiel ein Schnitt, ist nur möglich, wenn
in regelmäßigen Abständen ein unabhängiges, intraframe-kodiertes Bild (I-Frame)
eingefügt ist. [vgl. ebd.]
4.2.7 Wavelet-Transformation
Die Wavelet-Transformation spielt bei bewegten Bildern heute noch keine große Rolle
und soll aus diesem Grund hier nur am Rande erwähnt werden. Anwendung findet diese
Transformation heute bereits im JPEG2000-Format. Es handelt sich um eine
Transformation, ist also zunächst einmal, wie auch die DCT, eine Überführung der
Daten in eine andere Repräsentation. Diese neue Repräsentation kann dann ebenfalls
quantisiert (S.63) und so komprimiert werden. Der Vorteil dieser Technik ist, dass es
bei der Übertragung und im Bildaufbau skalierbar ist. [vgl. Heyna/Briede/Schmidt:
61ff.]
4.2.8 Bitrate – Datenrate
Bei der Videokodierung kann die Bitrate konstant oder variabel sein. Die Bitrate ist eine
Datenrate und drückt das Verhältnis von übertragenen Bits pro Zeiteinheit aus. Dies
geschieht meist in Bits pro Sekunde. Eine hohe Bitrate (innerhalb der selben Kodierung)
steht meist für höhere Qualität als eine niedrigere.
Bei der konstanten Bitrate (CBR) wird das Videosignal mit einer konstanten Datenrate
übertragen bzw. gespeichert, unabhängig davon, wie komplex das Signal ist. Diese Art
findet man häufig bei gestreamten Dateien. Hier wird Datenvolumen teilweise
verschenkt.
Bei der variablen Datenrate (VBR) schwankt die Datenmenge je nach Komplexität des
Signals. Ist die Aktion im Bild komplex wird mehr Volumen bereitgestellt als bei
ruhigen Bilder. Die Datenrate passt sich also immer dem Geschehen an und ist deshalb
optimal.
[vgl. Artikel Bitrate in http://de.wikipedia.org/wiki/Bitrate am 27.07.2008]
- 15 -
4.2.9 Farbvideosignal / Farbunterabtastung (Chroma Subsampling)
Grundsätzlich kann man die Farben im Fernsehen wegen seiner eigenen Leuchtkraft
additiv darstellen. Es eignen sich die Farben Rot – Grün – Blau. Entsprechend werden
hochwertige Fernsehsignale auch in diese Farben unterteilt. Ein RGB-Signal ist zwar
qualitativ hochwertig, erfordert aber eine hohe Bandbreite. Um auch hier eine
Reduktion des Datenvolumens zu erreichen, wird auf das Komponentensignal
zurückgegriffen. Durch mathematische Verfahren (unter Berücksichtigung des
Spektrums der Farbwahrnehmung des menschlichen Auges) reicht es aus, nur die
Helligkeit und die Farben Rot und Blau zu übertragen. Das Leuchtdichtesignal heißt
Luminanzsignal, die Farbsignale Differenzsignale bzw. Chrominazsignal (U und V).
[vgl. Heyna/Briede/Schmidt: 26f.]
Helligkeitsunterschiede
werden
vom
menschlichen
Auge
deutlich
besser
wahrgenommen als Farbunterschiede. Aus diesem Grund muss man die Farbwerte nicht
mit dem selben hohen Datenvolumen übertragen wie das Luminanzsignal. [vgl.
Heyna/Briede/Schmidt: 31f.]
Das Verhältnis von Luminanzsignal zu den beiden Chrominanzsignalen ist je nach
Kodierung unterschiedlich. Üblich sind bei Aufzeichnungsformaten die Verhältnisse
4:2:2 (z.B. Betacam SX, DigiBeta, DVC Pro 50), 4:2:0 (DV (Pal), DV Cam), und 4:1:1
(DV (NTSC), DVC Pro 25).
4.3 Gängige Formate und Standards
4.3.1 DV-Algorithmus
DV war zunächst ein reines Heimanwender-Format, hat sich aber in letzter Zeit im
professionellen Bereich, so zum Beispiel bei den Regionalsendern der RTL-Familie,
etablieren können. Grund hierfür sind die geringeren Kosten bei
Ausrüstung und
Bändern.
DV beinhaltet eine Intraframe-Kodierung, jedes Bild ist also unabhängig und so gut
schneidbar. Auch hier kommt die DCT (Diskrete Cosinus Transformation) mit
folgender Quantisierung und variabler Längenkodierung bzw. Lauflängenkodierung
zum Einsatz. Die Datenrate ist vom Bildinhalt abhängig. Um die Datenrate konstant zu
halten, beinhaltet der Algorithmus eine sogenannte Feed-Forward-Steuerung. Dabei
wird vor der eigentlichen Reduktion die geeignete Quantisierungstabelle bestimmt.
Die Datenrate ist 25 mbit/s (Abtastrate 4:2:0), bei DVCPro 50 mbit/s (Abtastrate 4:2:2).
- 16 -
Es handelt sich um eine Mischung aus verlustfreier und verlustbehafteter Kompression.
[vgl. Heyna/Briede/Schmidt: 68]
4.3.2 MPEG
MPEG steht für „Moving Pictures Expert Group“. Diese Gruppe der ISO entwickelt
Standards zur Komprimierung von Video- und Audiosignalen. Es werden keine
Vorschriften zur Anwendung, es wurde lediglich ein Rahmen definiert, der von den
Entwicklern entsprechend gefüllt werden kann.
Die Kodierung von Mpeg-Formaten beruht auf der hybriden DCT. Neben der
Intraframe-Kodierung
kommt
auch
die
Interframe-Kodierung
zum
Einsatz.
Nachfolgend schließen sich noch die Redundanzreduktionsstufen VLC und RLC an.
[vgl. Heyna/Briede/Schmidt: 69ff]
MPEG-1 (ISO-Standard 11172) ist ursprünglich für eine kleine Datenrate (1,5 mbit/s)
konzipiert, um genügend Videomaterial auf einer konventionellen CD speichern zu
können. Das ist auch der Grund für die hohe Komprimierung, die Abtastwerte der
Bildpunkte werden vorher verringert. Die Qualität ist entsprechend gering. [vgl.
Heyna/Briede/Schmidt: 72]
Mit dem MPEG-System-Stream ist dieses Format als Streaming-Format wieder
interessant geworden. MPEG wird hierbei quasi als Datencontainer genutzt, Bild und
Ton sind miteinander verschachtelt (Multiplexstruktur). [vgl. Schmidt: 180ff.]
In der RTL-Sendergruppe wird der MPEG-1 System Stream als Previewformat (mit
VPMS) genutzt. MPEG-Systems existiert unter anderem auch für MPEG-2.
4.3.3 MPEG-2
MPEG-2 (ISO-Standard 13818) ist wohl das verbreitetste Videoformat. Es ist die Basis
für unsere Video-DVD und für SVCD. Das relativ neue Maz-Format IMX basiert
ebenso auf MPEG-2 wie die digitale Fernsehübertragung DVB (Digital Video
Broadcasting). Die Kodierung wurde bereits dargestellt. Meistens wird mit einer 4:2:0Abtastung gearbeitet. Es sind vielfältige Möglichkeiten, unter anderem bezüglich der
Bildauflösung, definiert. Um diese Vielzahl an Möglichkeiten zu strukturieren, wurden
so genannte Profiles entwickelt, die mit verschiedenen Auflösungsstufen (Levels)
- 17 -
kombiniert werden können. Damit sollte auch eine gewisse Interoperabilität geschaffen
werden. Beschrieben werden diese Kombinationen dann mit dem Ausdruck
Profil@Level (gesprochen: Profile at Level).
Anwendungen für solche Kombinationen sind zum Beispiel Mobiltelefone und PDAs
(SP@LL bzw. SP@ML), DVD (MP@ML) oder IMX (422P@ML). Das Low Level
entspricht der Auflösung von MPEG-1, erlaubt aber höhere Datenraten. Das Main Level
entspricht der Standard-Auflösung von 720 x 576 Bildpunkten. Das High Level ist für
HDTV-Anwendungen konzipiert.
Das Simple Profile beinhaltet keine B-Frames, was Vorteile bei der Dekodierung ergibt.
Das Main Profile ist quasi der Standard im Standard. Das High Profile zielt auf hoch
qualitative Anwendungen ab. [vgl. Heyna/Briede/Schmidt: 73ff.]
4.3.4 GOP - Group of Pictures
Beim MPEG-Format werden die einzelnen Frames zu Framegruppen sortiert. Die am
effizientesten kodierten Frames sind die B-Frames. Da sie aber immer vom Nachbarbild
abhängen, müssen in regelmäßigen Abständen auch P-Frames und vor allem I-Frames
auftauchen. Diese Framegruppen werden Group of Pictures (GOP) genannt. Je mehr Pund B-Frames auftauchen, desto effektiver ist die Komprimierung. Oft bestehen diese
Gruppen aus einer Folge von 12 Bildern mit einem I-Frame, drei P-Frames und vier mal
zwei B-Frames. Ist der Abstand zweier I-Frames größer als vier Frames nennt man die
Struktur Long-Gop. Je nach Coder und Decoder (wo die Gruppierung stattfindet)
können diese Gruppen fehlerhaft sein, was eine nachträgliche Bearbeitung des Videos
erschwert oder sogar unmöglich macht. [vgl. Heyna/Briede/Schmidt: 71f.]
4.3.5 MPEG-4
Grundlegend für MPEG-4 (ISO-Standard 14496) war das Apple-Format Quicktime.
Wesentliche Änderungen sind eine nochmal gesteigerte Datenreduktion und erweiterte
Funktionalität bezüglich des interaktiven Umgangs mit audiovisuellen Inhalten. Die
Funktion als Wrapper steht also im Vordergrund, wobei im Wrapper eben interaktive
Elemente möglich sind. Da die Integration aller Arten von AV-Content möglich ist,
eignet es sich für Anwendungen, die bei der Konvergenz der Medienbereiche entstehen,
vor allem bei der Zugriffssteuerung (Stichwort Copyright). Vielen Nutzern ist MPEG-4
als
Container
für
Copyright
geschützte
- 18 -
Audioinhalte
bekannt.
[vgl.
Heyna/Briede/Schmidt: 78ff.)
Die Firma Apple nutzt in ihrem Dienst „I-Tunes“ dieses Format.
Derzeit wird die Weiterentwicklung der Standards MPEG-7 (ISO-Standard 15938) und
MPEG-21
(ISO-Standard
21000)
vorangetrieben.
Diese
stellen
aber
keine
Kompressionsstandards mehr dar sondern führen die Entwicklung zu komplexen
Wrapper-Formaten fort. Interessant kann hierbei für die Archivierung die Einbettung
komplexer Metadaten, auch für multimediale Inhalte, sein. [vgl. Heyna/Briede/Schmidt:
97f.]
4.3.6 AVI
AVI bedeutet Audio Video Interleave und ist ein von der Firma Microsoft entwickeltes
Container-Format. Man trifft in der Praxis häufig auf AVI-Files. Der Grund ist seine
Einfachheit. Die AVI-Technologie lässt sich leicht implementieren. Obwohl es sehr
fehleranfällig ist, eignet es sich doch ganz gut für den Transport verschiedener kodierter
Dateien. [vgl. Heyna/Briede/Schmidt: 193 ff.]
RTL Television benutzt derzeit AVI-Container für den Transport des HiRes-Materials
(MPEG-2 und vier Tonspuren im Wav-Format).
4.3.7 IMX
IMX ist der Name einer MPEG-2-Variation der Firma Sony. Sie ist unterdessen in der
professionellen TV-Produktion weit verbreitet, unter anderem (neben anderen
Formaten) bei den öffentlich-rechtlichen Fernsehsendern. Es nutzt eine MPEG-2 IFrame-Only-Kodierung im 4:2:2P@ML-Format, in den Varianten 30/40/50 mbit/s.
Somit ist es ideal schnittfähig, da auf jedes Einzelbild problemlos zugegriffen werden
kann. Es gilt als das Folgeformat von Digibeta. IMX kann in einem Container oder
Wrapper abgelegt werden. Meistens ist das Containerformat MXF, alternativ das
Quicktime-Format MOV. IMX ist HD-fähig, kann also auch auf ein höher auflösendes
MPEG-Profil (z.B. 422P@H-14) aufbauen. [vgl. Schmidt: 528f.]
- 19 -
4.4 Austauschformate
Die heutige Fernsehproduktion arbeitet mit einer Vielzahl verschiedener Dateiformate.
Dazu gehören verschiedene Kompressionsformate im Video- und Audiobereich,
Animationen, Standbilder oder auch Metadaten. Diese Dateiformate sollten innerhalb
eines IT-basierten Fernsehbetriebs problemlos ausgetauscht werden. Auch der
Austausch nach Außen, zum Beispiel beim Programmvertrieb, sollte möglich sein. Aus
diesem
Grund
wurden
spezielle
Austauschformate
entwickelt.
[vgl.
Heyna/Briede/Schmidt: 154ff.]
4.4.1 DPX, GXF, AAF
Das Digital Picture Exchange Format (DPX / SMPTE 268M) wurde vor allem für den
Filmbereich entwickelt. Die Mediendaten werden unkomprimiert übertragen und sind
auflösungsunabhängig. DPX ist nicht streamingfähig. [vgl. Röder: 24]
Das General Exchange Format (GXF / SMPTE 360M) ist ein sehr einfach gehaltenes
Austauschformat und dient häufig nur dem Transfer (Stream) von unkomprimierten
Videodaten. Zwar können potentiell Metadaten mit transferiert werden, für eine
Übertragung und Speicherung von komplexen (auch multimedialen) Dateibündeln ist es
eher ungeeignet. [vgl. Heyna/Briede/Schmidt: 168ff]
Das Advanced Authoring Format (AAF) ist ein offener Standard für den Austausch
komplexer
Videostrukturen
inklusive
verwendeter
Effekte,
Bild-
und
Tonmanipulationen, Animationen und interaktive Elemente. Seine Struktur ist
objektorientiert
und
deshalb
leicht
erweiterbar.
Aufgrund
seines
hohen
Komplexitätsgrades ist es nicht streamingfähig. Eine Videodatei, die im Laufe ihrer
Bearbeitung
verschiedenster
Manipulationen
ausgesetzt
war,
kann
komplett
rekonstruiert werden. AAF wird vor allem bei der Postproduktion eingesetzt. AAF trägt
der zunehmenden IT-basierten und multimedialen Produktion von Videoinhalten
Rechnung. [vgl. Heyna/Briede/Schmidt: 157ff.]
- 20 -
4.4.2 MXF
Auch MXF (Material eXchange Format / SMPTE377M) trägt der Konvergenz von
Videotechnik, Computer- und Telekommunikationstechnologie Rechnung und soll als
standardisierter Wrapper für den internen und externen Datenaustausch dienen. Es ist
format-, kompressions- und plattformunabhängig. „Der primäre Verwendungszweck
wird meist im Programmaustausch zwischen File-Servern sowie Materialtransport zu
Bandlaufwerken und digitalen Archiven gesehen.“ [Heyna/Briede/Schmidt: 163]
Da bei MXF der Fokus auf die mit zu übertragenden Metadaten gelegt worden ist, ist es
gerade für die Mediendokumentation sehr interessant geworden. Technisch gesehen
handelt es sich nicht um eine eigene Kompressionsart sondern um einen definierten
Standard für den Austausch. Die AAF Association war direkt an der Entwicklung
beteiligt. Aus diesem Grund hat MXF eine ähnliche objektorientierte Struktur wie AAF
und kann daher als Untereinheit einer AAF-Struktur angesehen werden. MXF basiert
auf der Key-Length-Value-Kodierung (KLV). Der Inhalt einer MXF-Datei ist in Pakete
unterteilt. Diese Pakete können zum Beispiel Ton oder Video enthalten, geschnittene
Sequenzen, Video-Essenzen in verschiedener Auflösung oder Komprimierungen,
Audio-Essenzen in verschiedenen Sprachen etc. Jedem Datenpaket (Value) wird eine
eindeutige Bezeichnung (Key) und Länge (Length) vorangestellt, wobei innerhalb eines
Values weitere KLVs existieren können. Die Daten werden kontinuierlich nacheinander
gelesen, MXF ist also streaming-fähig. Ob und wie die Daten entschlüsselt werden
können, hängt vom empfangenden System ab. Kann ein Datenpaket nicht gelesen
werden wird es einfach übersprungen. Neben strukturellen Metadaten (im Header
Partition Pack) kann MXF auch deskriptive Metadaten (im Header Metadata) enthalten.
Selbst wenn die Videodaten nicht dekodiert werden können, kann über die Metadaten
auf den Inhalt rückgeschlossen werden. [vgl. Heyna/Briede/Schmidt: 163ff.)
4.4.3 Quicktime
Quicktime ist ein von der Firma Apple entwickeltes Format für multimediale Inhalte.
Ursprünglich für den Consumer-Bereich entwickelt, hat Apple in den letzten Jahren die
Architektur und den Funktionsumfang derart erweitert, dass es heute durchaus für den
professionellen Bereich nutzbar ist (vgl. auch MPEG-4). So produziert zum Beispiel
RTL Teile seiner Sportberichterstattung mit Apple-Produkten. Langfristig soll auch im
News-Bereich auf die Apple-Schnitt-Umgebung Final Cut Studio (FCS) umgestellt
- 21 -
werden.
Auch
RTL
Nord
wird
mit
der
kommenden
Erneuerung
der
Produktionsumgebung die Schnittplätze mit FCS ausstatten. Gründe hierfür sind unter
anderem (im Vergleich zu entsprechenden Schnitt-Programmen) der insgesamt
günstigere Preis, kürzere Renderzeiten und höhere Betriebssicherheit.
Das Quicktime-Format als Wrapper-Format basiert ähnlich wie AAF bzw. MXF auf
einer Objektstruktur. Die Daten werden sowohl sequenziell als auch hierarchisch in
sogenannten Atomen gespeichert. Insgesamt ist der Aufbau eines Quicktime-Containers
sehr komplex und seine Beschreibung würde den Rahmen dieser Arbeit sprengen. [vgl.
Heyna/Briede/Schmidt: 175ff.)
Wichtig an dieser Stelle ist, dass Quicktime im Vergleich zu MXF fast denselben
Funktionsumfang bietet. Es ist unter anderem offen und sehr gut dokumentiert, hat
unterdessen eine hohe Verbreitung, es ist zukunftssicher, benötigt keine aufwändigen
Re-Wrapvorgänge, es unterstützt Partial Restore (man muss nicht die ganze Datei laden,
sondern kann nur auf einen Teil der Datei zugreifen) und die Wiedergabe während des
Schreibvorgangs, hat einen geringen Overhead im Vergleich zur Nutzlast und
unterstützt das Einbetten sowohl technischer als auch beschreibender Metadaten. [vgl.
Thomas: 199]
4.5 Metadaten
Metadaten sind Daten über Daten und als ISO-Standard festgelegt.
Definition nach ISO:
For ISO/IEC 11179, metadata is defined to be data that defines and describes other data. This
means that metadata are data, and data become metadata when they are used in this way. This
happens under particular circumstances, for particular purposes, and with certain perspectives, as
no data are always metadata. The set of circumstances, purposes, or perspectives for which some
data are used as metadata is called the context. So, metadata are data about data in some context.
[vgl. o.A. (2006) in www.xmdr.org/standards/cmaps/ISO%2011179-1.doc, am 25.08.2008]
Die Definition aus der Informationswissenschaft besagt: „Mit Metadaten werden die
Daten bezeichnet, die semantische, strukturelle, administrative und technische Daten
über andere Daten bereitstellen.“ [Kuhlen/Seeger/Strauch: 84]
Peter Fankhauser unterscheidet außerdem zwischen abgeleiteten und assoziativen
Metadaten. Abgeleitete Metadaten sind Metadaten, die am Datensatz selber hergeleitet
werden können (also zum Beispiel technische oder zeitliche Metadaten), assoziative
Metdaten sind solche, die nicht an den Daten selber überprüft werden können (also zum
- 22 -
Beispiel
deskriptive
Metadaten).
[vgl.
Fankhauser
(2001):
www.ipsi.fraunhofer.de/~fankhaus/vorlesung/modul3-5.pdf, am 02.08.2008]
Metadaten dienen unter anderem dem gezielten Auffinden von Objekten, der
Interoperabilität, dem gezielten Benutzen der Objekte und der Archivierung. [vgl. o.A.
in http://libraries.mit.edu/metadata/role.html]
Bei digitalen Objekten können Metadaten an verschiedenen Orten auftauchen. Die
Metadaten können unter anderem in das Objekt eingebettet sein (zum Beispiel in einem
Video-Wrapperformat), sie können komplett separiert sein (zum Beispiel Buch +
Abstract) und sie können auf das Objekt verweisen (zum Beispiel ein Datenbankeintrag
der auch auf den Standort des Objekts verweist) [vgl. Childress (2003):
www.oclc.org/research/memberscouncil/2003-02/childress.ppt, am 02.08.2008]
Zu Metadaten gehören auch „Informationen über die zur Benutzung notwendigen
Systemvoraussetzungen hinsichtlich Hardware und Software und die eindeutige
Bezeichnung und Dokumentation der Datenformate, in denen die Ressource vorliegt.“
[Schwens/Liegmann: 569]
Im Rahmen der Archivierung von Videodateien ist der Ort der deskriptiven Metadaten
ein wichtiges Merkmal, er sollte in die Entscheidungsfindung für einen Archivserver
einbezogen werden.
Für eine Nutzung von Wrapper-Formaten, die deskriptive Metadaten enthalten, spricht
zum einen, dass man den Inhalt identifizieren kann, wenn keine entsprechende
Datenbank verfügbar ist. Hierbei muss beachtet werden, dass diese Daten außerhalb
einer Datenbank nicht suchbar sind. Dem inhärenten Zweck, nämlich dem gezielten
Wiederauffinden von Objekten läuft dies zuwider.
Zum zweiten kann eventuell der Inhalt interner und externer Videodateien rekonstruiert
werden. Dagegen spricht, dass normalerweise Datenbanken ein komplettes Backup
besitzen. Interne Videodateien können so deutlich einfacher rekonstruiert werden als
wenn man die Informationen aus den Mediendateien rekonstruieren müsste. Bei
Videodateien, die aus unbekannten Quellen zugeliefert wurden, können eingebettete
Metadaten allerdings ein Glücksfall sein und eine aufwändige Rekonstruierung könnte
(gerade im News-Bereich) wichtige Informationen aufdecken.
- 23 -
Zum dritten kann der Austausch nach Extern optimiert werden. Hier ist allerdings auf
eine Standardisierung des Austauschmodells mit den Vertragspartnern zu achten. [vgl.
Thomas:196ff.]
4.6 Nützliche Werkzeuge
Im Folgenden werden noch kurz zwei Werkzeuge vorgestellt, die sich bei der Arbeit in
der Mediendokumentation von RTL Nord als sehr nützlich erwiesen haben.
4.6.1 Gspot
Es handelt sich um ein Analyseprogramm für kodierte Videodateien. Solche
Analyseprogramme sind sehr wichtig, um Dateien, die von Extern zugeliefert oder
downgeloaded wurden richtig einordnen zu können. Das Programm Gspot
(http://gspot.headbands.com/index.htm) ist ein solches Analyseprogramm.
Es ist
Freeware, läuft aber leider nur auf Windows-Betriebssystemen. Es zeigt alle
verfügbaren Codecs an und analysiert außerdem das Video bis hinunter zu GOPStrukturen, verwendeter Audio- und Videocodec, Auflösung und teilweise sogar
deskriptive Metadaten
4.6.2 MPEG Streamclip Video Converter
MPEG Streamclip (http://www.squared5.com) ist ein extrem zuverlässiges Programm
zum Transkodieren von diversen Dateiformaten, also zur Umwandlung von einem
Dateiformat in ein anderes.
- 24 -
5 Unternehmensdarstellung
5.1 RTL Nord
Die RTL Nord GmbH gehört mit RTL West und RTL Hessen zu den Produzenten der
verschiedenen Ländermagazine "Guten Abend RTL" und liefert außerdem Berichte für
die RTL-Nachrichtensendungen zu. Die RTL Nord GmbH ist eine hundertprozentige
Tochter von RTL Television. Diese regionalen Fensterprogramme sollen nach Maßgabe
des jeweiligen Landesrechtes regionale Ereignisse aus den Bereichen Politik,
Wirtschaft, Kultur und dem sozialen Leben aktuell und authentisch darstellen.
Außerdem
sollen
die
Fensterprogramme
redaktionell
unabhängig
von
dem
Hauptprogrammveranstalter dargestellt werden. Die Programmverantwortlichen des
Regionalfensterprogramms müssen im Rahmen eines vorgegeben Budgets ihre
redaktionellen Entscheidungen ohne Mitwirkungs- oder Zustimmungsbefugnisse des
Hauptveranstalters treffen und eigenverantwortlich das redaktionelle Personal
einstellen. [Interne Dokumentation RTL Nord]
Derzeit gibt es bei RTL Nord noch keinen Archivserver, allerdings wird dasselbe
Dokumentationssystem („TRIP“) verwendet, das auch vom Mutterhaus und den
anderen Außenstudios im Informationsbereich eingesetzt wird. Es stellt sich also die
Frage, in wie weit RTL Nord überhaupt die Möglichkeit hat, ein eigenständiges
digitales Archivsystem zu implementieren. Die Eigenständigkeit (im redaktionellen
Sinn) ist aber medienrechtlich festgelegt und sie muss beibehalten werden. So sollte
eine zukünftige Archivlösung keine unidirektionale Anbindung an das Archiv bei RTL
Köln sein und beispielsweise inhaltlich nur auf Zweitverwertung aus den nationalen
Beständen basieren.
5.2 RTL Nord Technik Ist-Zustand
2004 wurde bei RTL Nord die Produktion insofern auf digitale Technik umgestellt, als
dass ein zentraler Speicher integriert wurde, auf dem zum einen das aktuelle Material
abgelegt wird und zum anderen die fertigen Beiträge tapeless in die Sendetechnik
überführt und ausgestrahlt werden. Der Schnitt, die Bearbeitung und das Playout sind
- 25 -
somit komplett bandlos. Ein Archivserver wurde zu diesem Zeitpunkt nicht integriert.
Die Archivierung erfolgt seit 2004 auf DV-Bändern. Die Entscheidung für ein DVbasiertes Produktionssystem (und damit auch auf die Archivierung im geeigneten
Format) erfolgte aus ökonomischen Gründen, da Kassetten, Kameras und Software zu
diesem Zeitpunkt am günstigsten waren. Die im Vergleich zu Digi-Beta niedrigere
Qualität wurde aus dem selben Grund in Kauf genommen. Die Archivierung auf Tape
als DV-Stream hatte den Vorteil, dass keine Transkodierung erfolgen musste, dass
Produktionsformat blieb also erhalten.
5.3 RTL Television
RTL Television ist heute der führende Privatsender in Deutschland. 1984 gegründet, hat
der Sender heute ca. 800 fest angestellte Mitarbeiter und erreicht einen jährlichen
Umsatz von ca. 1,3 Milliarden Euro. Seit 1988 hat RTL Television seine Zentrale in
Köln und Aussenstudios in Berlin, München, Frankfurt am Main, Essen, Bremen,
Hamburg, Hannover, Kiel, Kassel, Stuttgart, Mannheim, Leipzig sowie Auslandsstudios
in New York, London, Paris, Jerusalem, Peking und Moskau. Hervorzuheben in diesem
Netz an Zulieferbetriebe sind die Aussenstudios Hamburg (RTL Nord), Frankfurt (RTL
Hessen) sowie RTL West (in Köln ansässig) die durch ihren zusätzlichen Auftrag der
Produktion
von
Regionalfenstern
eigenständige
Firmen
darstellen.
[Interne
Dokumentation RTL Television]
In der Kölner Zentrale gibt es das Unterhaltungsarchiv, dass primär ein
Programmarchiv darstellt. Derzeit wird das Programmvermögen schrittweise archiviert.
Bis zum geplanten Umzug nach Köln-Deutz 2009 wird das komplette Archiv mit rund
150.000 Stunden Programmmaterial digital vorliegen. Das entspricht in etwa einem
Datenvolumen von 3,7 Peta Bytes. Das Material kann dann direkt am Arbeitsplatz
gesichtet und verwaltet werden. Die Verwaltung der Medieninhalte übernimmt die
IBM-Software ADMIRA. Als Dateiformat wurde das Wrapperformat MXF gewählt,
das Videoformat ist ein Mpeg-2-Format, 50m/bit (I-Frame-Only). MXF als
Austauschformat
wurde
gewählt,
um
den
hohen
Anforderungen
des
Programmaustausch nach außen optimal zu begegnen.
Das Informationsarchiv in Köln erfasst Rohmaterial, Sendungen aus den Bereichen
- 26 -
Nachrichten, Magazine, Sport, sowie ausgewähltes Agenturmaterial. Die Datenbank
„TRIP“ des Newsarchivs beinhaltet formale und inhaltliche Angaben zu mehr als einer
halben Million Beiträgen. Seit der Gründung wurde auf Band archiviert, zunächst
analog auf Betacam SP, dann digital auf Digital Betacam (sog. Digi Beta). Seit dem
Jahr 2000 wurden dann Previews im MPEG-1-Format auf einem Server gespeichert und
mit der Archivdatenbank verknüpft. Zwar konnte über diese Previewfiles noch nicht
direkt auf sendefähiges Material zugegriffen werden. Dieses musste nach wie vor lokal
am entsprechenden Schnittplatz von Band aus eingespielt werden. Dennoch war diese
Innovation ein riesen Schritt. Durch die Möglichkeit, Material vor dem eigentlichen
Zugriff optisch auswählen zu können, wurde der Workflow deutlich vereinfacht. Man
musste sich nicht mehr alleine auf eine Textbeschreibung verlassen. Durch Key-Frames
ist quasi ein visuelles Abstrakt „sichtbar“, der Inhalt wird also über das Bildmaterial
selbst verdichtet. Der Zugriff wird schneller und präziser, die Auswahl unabhängig von
Ort und Zeit.
5.4 INES
2001 startete bei RTL Television in Köln das Projekt INES. Ines steht für Integrated
News Editing System und beinhaltet im Wesentlichen ein Serversystem mit einem
Produktionserver
und
einem
Archivserver.
INES
ist
also
ein
bandloses
Produktionssytem. Die Aufzeichnung, der Zugriff aufs Archiv, der Schnitt, die
Vertonung und die Ausspielung erfolgen über einen zentralen Speicher und ein
spezielles Hochgeschwindigkeitsnetzwerk. Die Vorteile liegen zunächst einmal in dem
integrierten Workflow und in der schnelleren und effizienteren Herstellung von
Beiträgen. Das archivierte Material wurde nun nicht mehr nur als Preview gespeichert
sondern auch als hochauflösende, sendefähige Datei. Auch das aktuell einlaufende
Material (RTL eigenes Rohmaterial, Agenturmaterial, aktuelle Sendungsbeiträge)
wurde in der Art gespeichert. Durch den Ingest-Prozess (vgl. auch ISO 14721) wird
Material in den Server „aufgenommen (Ingest bedeutet soviel wie „in sich
aufnehmen“), also aufgezeichnet, digitalisiert und in Audio- und Videosequenzen
eingeteilt. Die Codierung des auflaufenden Materials erfolgt durch diverse Rechner, so
genannte Encoding Units.
Von dem einlaufenden Bildern werden jeweils hochauflösende (HiRes) Dateien und
Dateien in Vorschauqualität (Preview oder auch LoRes) erzeugt.
- 27 -
Derzeit
ist das LoRes-Material ein Mpeg-File. Die MPEG-1-Kodierung hat eine
Datenrate von 1,5 Mbit/s. Im Gegensatz zum HiRes-Material wird hier Bild und Ton
miteinander verschränkt in einer Datei gespeichert und bildet so ein Containerformat.
(vgl. Multiplexing bei Mpeg-Systems).
Das derzeitige HiRes-Material besteht aus einem AVI-File und vier WAV-Files für den
Ton. Das AVI-File (als Container) beinhaltet eine mit MPEG-2 kodierte Datei. Die
konkrete Variante ist 4:2:2Profile@MainLevel, I-Frame only. Wie wir gesehen haben,
ist dies ein so genanntes Intraframe-Verfahren, bei dem die Einzelbilder unabhängig
von einander komprimiert werden. Die Auflösung beträgt 720 x 576 Pixel bei einer
Datenrate von 25 Mbit/s.
In das INES-System eingebunden ist das System VPMS. VPMS bedeutet „Video
Production Management System“ und ist ein komplexes, modular aufgebautes
Programm zum Sichten und Schneiden von Videomaterial. Mit VPMS kann der
Redakteur Material am Arbeitsplatz sichten und vorschneiden. Die entstandene
Schnittliste (Cutliste) kann dann an den Schnittplatz übergeben werden. Sie liegt dann
im Schnitt im Produktionsformat (MPEG-2, 25 Mbit/s, I-Frame) vor. Im Archiv wird
das zu archivierende Material ebenso als Cutliste mit VPMS angelegt. Voraussetzung
ist eben, dass das Material auf dem Produktionsserver als File (Preview und HiRes)
vorliegt. Mit VPMS wird das Material vorstrukturiert und mit entsprechenden
Metadaten versehen. Zurzeit enthält VPMS deutlich weniger Felder als potentiell in der
eigentlichen Archivdatenbank TRIP angelegt. Es herrscht noch keine Konsistenz.
Deshalb ist der Übertrag der Daten noch nicht zu 100% möglich und es muss teilweise
direkt in TRIP nachgearbeitet werden. Beim News-Archiv-Export werden dann die
TRIP-ID und weitere formale Daten wie Moderator oder Bearbeiter vergeben. Der
Datensatz wird dann in die TRIP-Datenbank überführt und die entsprechenden VideoFiles auf den Archivserver kopiert.
5.5 Anbindung an Aussenstudios
Fast alle Aussenstudios sind über eine Video-over-IP Anbindung miteinander und mit
Köln verbunden. Material kann als Stream über ein IP-Protokoll übertragen werden. Die
Aussenstudios in Berlin und München haben unterdessen eine ähnliche Serverstruktur
- 28 -
wie Köln. Außerdem wird dort mit den selben File-Formaten gearbeitet. Hier ist es
möglich, per Filetransfer-over-IP Dateien direkt auf die lokalen Server zu transferieren.
Per VPMS können dann alle Server direkt genutzt werden. Ziel ist es mittelfristig, alle
Zulieferstudios in das Netzwerk entsprechend einzubinden. Lange Überspielzeiten
entfallen, Support-Abteilungen wie das Archiv könnten zentral geführt werden.
Bei RTL Nord (sowie bei RTL Hessen) wird derzeit noch mit anderen File-Formaten
gearbeitet. Das heißt, dass Material zwar grundsätzlich per Filetransfer übermittelt
werden kann. Es landet aber nicht direkt auf dem Produktionsserver sondern muss noch
aufwändig (und von Hand) transkodiert werden. Dazu wird die Datei (in Form des
bereits beschriebenen AVI-Files (mpeg-2) und den Tonspuren) von einem FTP-Server
in ein Schnittprogramm importiert, transkodiert und dann auf den eigentlichen
Produktionsserver exportiert.
- 29 -
6 Fazit
Wie gezeigt wurde, sollte sich der moderne Mediendokumentar intensiv mit der
technischen Struktur eines (seines) Archivservers auseinandersetzen. Dazu gehört vor
allem die Kenntnis seines Werkzeugs, dem Dateiformat. Dieses Wissen dient zum einen
der Kommunikation mit Technikern und Informatikern. Diese Kommunikation sollte
optimiert werden, um bei Planungsentscheidungen und anwendungsbezogenen
Problemen effektiv vorgehen zu können. Zum zweiten ist es wichtig, ein Verständnis
für die Qualität seines Mediums zu haben. Das betrifft die Datenreduktion. Die
Kompression von Daten kann sowohl verlustfrei als auch verlustbehaftet geschehen.
Falls irgendwie machbar, sollte der Dokumentar möglichst nah am Originalmaterial
bleiben und wenn durchführbar bei der Archivierung auf verlustfreie Kompressionen
zurückgreifen.
Mediendokumentare haben es in der Praxis nicht nur mit dem internen Dateistandard zu
tun sondern begegnen auch zunehmend sehr unterschiedlichen anderen Formaten
(Codecs, Containern, Wrappern), sei es in der Materialakquise oder in der
Materialdistribution. An dieser Stelle ist es wichtig, diese Formate exakt definieren zu
können und die entsprechende Weiterverarbeitung kompetent initiieren zu können.
Bei der Konzeption eines Archivservers spielt der Speicherort der Metadaten eine große
Rolle. Unterdessen gibt es Wrapperformate, die eine Speicherung, auch von
deskriptiven Metadaten direkt an der Datei erlauben. Solche Konzepte sollten aber wohl
überlegt sein. Nicht jedes Verfahren, dass gerade in Mode ist (MXF ist ein Beispiel
dafür) ist letztlich für jedes Dokumentationsumfeld geeignet.
Grundsätzlich sollte der Fokus auf dem Bewahren der Bits und Bytes liegen. Für eine
echte
Langzeitarchivierung muss
daher langfristig die Unabhängigkeit
vom
Speichermedium erreicht werden – ständige Migration der Dateien sollte also
eingeplant werden.
RTL Nord plant derzeit die Einführung eines Archivservers. Für die Produktion wurde
bereits die Entscheidung für eine neue Schnittumgebung, nämlich für Final Cut Studio
von Apple, getroffen. Auch die Kameratechnik wird umgestellt, hier soll auf die
XDCam der Firma Sony eingeführt werden. XDCam kann entweder im IMX oder im
DV-Modus aufzeichnen und die Videodaten file-basiert ausgeben.
RTL Television hat sich im Zusammenhang mit dem Umzug nach Köln-Deutz schon
- 30 -
für
ein
neues
Produktionsformat
bzw.
Archivformat
entschieden.
Im
Unterhaltungsarchiv wird es ein Austauschformat, nämlich MXF mit einem HDtauglichen MPEG-2, 50 mbit/s, I-Frame Only, geben. Das macht hier auch Sinn, da hier
oft zusätzliche Daten, wie zum Beispiel sprachlich synchronisierte Tonspuren, mit
transferiert werden. Austauschstandards mit den Vertragspartnern werden ausgebaut.
Der Informationsbereich wird verstärkt Apple-Produkte nutzen, zum Beispiel die
Schnitt-Umgebung Final Cut Studio. Als Format wird ein IMX30-Format (MPEG-2 IFrame-Only-Kodierung im 4:2:2P@ML-Format) eingeführt. Als Container wird ein
Quicktime-Container verwendet, um eine gute Kompatibilität mit den Apple-Produkten
zu gewährleisten.
Um aufwändige Transkodierprozesse zu vermeiden, sollte das Archiv-Format bei RTL
Nord dasselbe sein wie das Produktionsformat. Es zeichnet sich ab, dass RTL Nord
ebenso wie RTL Television auf das erwähnte IMX30-Format setzen wird. Da dadurch
keine medienrechtlichen Einschränkungen zu erwarten sind, spricht auch nichts
dagegen. Der filebasierte Austausch mit dem Mutterhaus und Aussenstudios würde so
optimiert. Man sollte sich aber überlegen, ob man nicht zusätzlichen Speicherplatz für
externes Material anderer Kodierung schaffen sollte. Gerade bei Wrapper-Formaten, die
potentiell deskriptive Metadaten enthalten könnten, wäre ein (zumindest mittelfristiges)
Vorhalten dieser Originaldateien sinnvoll.
- 31 -
7 Literaturverzeichnis
Bücher
Heyna, Arne/Briede, Marc/Schmidt, Ulrich: Datenformate im Medienbereich.
München, Wien 2003
Kuhlen, Rainer/Seeger, Thomas/Strauch, Dietmar [Hrsg.] (2004): Grundlagen der
praktischen Information und Dokumentation. K.G.Saur, München, Glossar
Peters, Günter (2004): Medien, Medienwirtschaft. In: Kuhlen, Rainer/Seeger,
Thomas/Strauch, Dietmar [Hrsg.] (2004): Grundlagen der praktischen Information und
Dokumentation. K.G.Saur, München 515 – 523
Schmidt, Ulrich: Professionelle Videotechnik. Heidelberg 2005
Schwens, Ute/Liegmann, Hans (2004): Langzeitarchivierung digitaler Ressourcen. In:
Kuhlen, Rainer/Seeger, Thomas/Strauch, Dietmar [Hrsg.] (2004): Grundlagen der
praktischen Information und Dokumentation. K.G.Saur, München 567 – 578
Zeitschriftenartikel
Altmeier, Frank/Heitmann, Jürgen (2005): TV-Archivierung, Neue Entwicklungen durch
skalierbare NAS-Speichersysteme. In: FKT 7/2005, 347 – 350
Röder, Jan (2007): Das Material Exchange Format (MXF) im netzwerkbasierten TVStudio. In: FKT 1-2/2007, 23 – 27
Thomas, Peter (2008): Dateiformate für Archivierung und Programmaustausch. In:
FKT 4/2008, 196 - 200
- 32 -
Webseiten
Artikel Bitrate. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 4. April
2008, 22:32 UTC. URL:
http://de.wikipedia.org/w/index.php?title=Bitrate&oldid=44532216 (Abgerufen: 27. Juli
2008)
Artikel Entropie (Informationstheorie). In: Wikipedia, Die freie Enzyklopädie.
Bearbeitungsstand: 12. August 2008, 10:46 UTC. URL:
http://de.wikipedia.org/w/index.php?title=Entropie_(Informationstheorie)&oldid=49459
367 (Abgerufen: 21. August 2008)
Artikel Transcodierung. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 16.
August 2008, 04:16 UTC. URL:
http://de.wikipedia.org/w/index.php?title=Transcodierung&oldid=49604183
(Abgerufen: 21. 08. 2008)
Childress, Eric (2003): Non-Marc Cataloging Standards Overview. In:
http://www.oclc.org/research/memberscouncil/2003-02/childress.ppt (02.08.2008)
Fankhauser, Peter (2001): Grundlagen des Datenmanagements im World Wide Web. In:
http://www.ipsi.fraunhofer.de/~fankhaus/vorlesung/modul3-5.pdf (02.08.2008)
Lichtscheidl, Irene K. o.J.: Intraframe und Interframe-Kompression. In:
http://www.univie.ac.at/video/grundlagen/intraframe.htm (27.07.2008)
o.A. (2008): Digital File Formats. In:
http://broadcastengineering.com/storage_networking/digital_file_format_0217/
(15.08.2008)
o.A. (2007): Lossless Data Compression. In: http://www.datacompression.com/lossless.html (02.08.2008)
- 33 -
o.A. (2006): Review of Content Standard ISO 11179-1. In:
http://www.xmdr.org/standards/cmaps/ISO%2011179-1.doc (25.08.2008)
o.A.: The Role of Metadata in Digital Production Projects. In:
http://libraries.mit.edu/metadata/role.html (25.08.2008)
PCO (2003): Das Geheimnis des Codecs. In:
http://www.orthy.de/index.php?option=com_content&task=view&id=765&Itemid=85
(19.08.2008)
- 34 -
Eidesstattliche Erklärung
Hiermit versichere ich an Eides statt, die vorliegende Abschlussarbeit selbstständig
verfasst zu haben
und keine anderen
als die angegebenen
Hilfsmittelbenutzt zu haben.
Berlin, den 31.08.2008
Oliver Hirsch
- 35 -
Quellen und

Documentos relacionados