Kopie von Archivserver für digitale Videoformate_oFormat
Transcrição
Kopie von Archivserver für digitale Videoformate_oFormat
Archivserver für digitale Videoformate - Langzeitarchivierung von Videodaten im Fernsehen unter besonderer Berücksichtigung verschiedener Dateiformate und der strukturellen Situation bei RTL Nord Hausarbeit im Rahmen der Fortbildung zum Wissenschaftlichen Dokumentar / Information Specialist am Institut für Information und Dokumentation in Potsdam Thematischer Schwerpunkt: „Wirtschaftsinformatik – Grundlagen für Informationsspezialisten“ Betreuer: Sven Hirsch Vorgelegt von Oliver Hirsch 31.08.2008 Abstract In dieser Arbeit werden Dateiformate als wichtiger Teil von Archivservern und damit der Langzeitarchivierung analysiert. Nach einer Einordnung des Begriffs „Digitalisierung“, und damit verbunden der aktuelle Stand dieser Umwälzung der Mediendokumentation, werden zunächst kurz die wichtigsten Kriterien der Unterscheidung von Videoformaten dargestellt. Darauf folgend werden die Grundlagen der Datenkompression Austauschformate vorgestellt erklärt. Nach und die einer wichtigsten technischen Kompressionsund und strukturellen Unternehmensdarstellung von RTL Television und RTL Nord werden allgemeine Kriterien zum Umgang mit Dateiformaten aufgezeigt und Hinweise für die Einführung eines Archivservers bei RTL Nord gegeben. -3- Inhaltsverzeichnis 1 2 3 4 5 6 7 Einleitung ................................................................................................................. 3 Phasen der Digitalisierung........................................................................................ 5 File-Formate im Videobereich ................................................................................. 7 3.1 „Rohe Bewegtbilddaten“ .................................................................................. 8 3.2 Codecs .............................................................................................................. 8 3.3 Container-Formate und Wrapper-Formate ....................................................... 9 Videokompression .................................................................................................. 11 4.1 Grundsätzliche Prinzipien der Datenreduktion .............................................. 11 4.1.1 Das Prinzip der Redundanz und Irrelevanz ............................................ 11 4.1.2 Das Prinzip der örtlichen und zeitlichen Korrelationen ......................... 11 4.2 Vorgehensweise bei der Datenreduktion........................................................ 12 4.2.1 Verlustlose Kodierung............................................................................ 12 4.2.2 VLC – Variable Längenkodierung nach Huffman ................................. 12 4.2.3 RLC ........................................................................................................ 13 4.2.4 DPCM..................................................................................................... 13 4.2.5 Intraframe und Interframe ...................................................................... 13 4.2.6 DCT und Quantisierung ......................................................................... 14 4.2.7 Wavelet-Transformation......................................................................... 15 4.2.8 Bitrate – Datenrate.................................................................................. 15 4.2.9 Farbvideosignal / Farbunterabtastung (Chroma Subsampling) .............. 16 4.3 Gängige Formate und Standards .................................................................... 16 4.3.1 DV-Algorithmus..................................................................................... 16 4.3.2 MPEG ..................................................................................................... 17 4.3.3 MPEG-2.................................................................................................. 17 4.3.4 GOP - Group of Pictures ........................................................................ 18 4.3.5 MPEG-4.................................................................................................. 18 4.3.6 AVI ......................................................................................................... 19 4.3.7 IMX ........................................................................................................ 19 4.4 Austauschformate ........................................................................................... 20 4.4.1 DPX, GXF, AAF .................................................................................... 20 4.4.2 MXF ....................................................................................................... 21 4.4.3 Quicktime ............................................................................................... 21 4.5 Metadaten ....................................................................................................... 22 4.6 Nützliche Werkzeuge ..................................................................................... 24 4.6.1 Gspot....................................................................................................... 24 4.6.2 MPEG Streamclip Video Converter ....................................................... 24 Unternehmensdarstellung ....................................................................................... 25 5.1 RTL Nord ....................................................................................................... 25 5.2 RTL Nord Technik Ist-Zustand ...................................................................... 25 5.3 RTL Television............................................................................................... 26 5.4 INES ............................................................................................................... 27 5.5 Anbindung an Aussenstudios ......................................................................... 28 Fazit ........................................................................................................................ 30 Literaturverzeichnis ................................................................................................ 32 1 Einleitung Archivierung im Fernsehbereich hat sich in den letzten Jahren durch die Digitalisierung grundlegend geändert. Erfolgte der Zugriff auf das Material bis vor kurzer Zeit noch ausschließlich über ausgespielte Videobänder, so wird das Material heute zunehmend auf Archivservern als Dateien gespeichert. Das hat verschiedene Vorteile. Der Platzbedarf ist deutlich geringer, der Zugriff wird vereinfacht und die Recherche kann durch Vorschauvideos unabhängiger von deskriptiven Metadaten erfolgen. Um den Begriff Archivierung von Vorgehensweisen wie dem kurzfristigen Zwischenspeichern auf anderen Medien abzugrenzen, spricht man bei der Bestandserhaltung im Fernsehbereich besser von Langzeitarchivierung. Diese Veränderung des Arbeitsumfelds von Fernsehdokumentaren erfordert teilweise ein Umdenken in Bezug auf die Arbeitsprozesse, in jedem Fall aber muss sich der Dokumentar mit den neuen Techniken auseinandersetzen Günter Peters schreibt dazu: Die Umstellung von konventioneller Ablage zu elektronischen Datenbanken führte zu signifikanten Veränderungen bei der Arbeitsweise der Dokumentationen und Dokumentare, nicht aber zur Veränderung ihrer wesentlichen Aufgaben. [...] Allerdings bedeutet die elektronische und digitale Speicherung den Einstieg in neue Strukturen, eine einfache Übertragung von Systematiken und Arbeitsabläufen von konventionellen auf das elektronische Archiv würde Möglichkeiten verschenken. [Peters 2004:516] Die Archivierung von digitalen Daten in Form von Dateien wirft also einige neue Fragen auf. Welche Dateiformate bieten sich aus welchem Grund zur Archivierung an? Sollen archivierte Dateiformate automatisch dasselbe Format haben wie die Formate der Produktion? Wie kann ich die langfristige Bestandssicherung garantieren? Gibt es das ideale Dateiformat? Solche Fragen lassen sich teilweise nur in spezifischen Kontexten klären. Die übergeordneten Strukturen bestimmen die Auswahl, sei es aus ökonomischen, rechtlichen oder aus infrastrukturellen Gründen. Da der Autor Mitarbeiter von RTL Nord in Hamburg ist und weil dort eine technische Neustrukturierung angestrebt wird, sollen die betrieblichen Strukturen von RTL Nord einen Rahmen für diese Arbeit geben. Um dem gegebenen Umfang zu entsprechen, konzentriert sich die Arbeit auf Videodateiformate und deren Speicherung; auf Audio wird nur am Rande eingegangen. Auch auf Transferprozesse und spezifische Speichermedien wird nur marginal -3- eingegangen, diese Themen würden sich gut für eine Fortsetzung der Arbeit anbieten. Im ersten Teil der Arbeit wird allgemein der Stand der Digitalisierung im fernsehdokumentarischen Bereich beschrieben. Im zweiten Teil werden relevante Datenformate und die Grundlagen der Videokompression erläutert. Im dritten Teil wird auf die Struktur von RTL Nord und RTL Television eingegangen sowie der heutige Stand der Technik dargestellt. Letztlich analysiert diese Arbeit einen wichtigen Teil der Arbeitsumgebung eines Fernseh-Dokumentars und führt zu Empfehlungen zur Nutzung von Dateiformaten in Archivservern. -4- 2 Phasen der Digitalisierung Die Entwicklung der Digitalisierung entspricht mehreren Phasen. Ulrich Schmidt spricht von zwei Phasen der Digitalisierung. Ihre Unterteilung ist allgemein auf die TVProduktion bezogen. [vgl. Heyna/Briede/Schmidt 2003: 13ff.] Die erste Phase ist davon geprägt, dass die Arbeitsabläufe in der TV-Produktion im Wesentlichen dieselben sind wie bei der analogen Verarbeitung, nur dass Digitalgeräte verwendet werden. Außerdem fällt die Neuerung hin zu nichtlinearen Schnittsystemen in diese Phase. Die zweite Phase der Digitalisierung „ist nun geprägt durch die ständig gestiegene Leistung von Informations- und Telekommunikations-Technologien (...), die zudem durch die Nähe zum Massenmarkt der Standard-Computertechnologien relativ preiswert sind.“ [ebd.:18] Jürgen Heitmann und Frank Altmeier sprechen von drei Phasen (hier „Revolutionen“ genannt). [vgl. Altmeier/Heitmann 2005: 347] Ihre Unterteilung geht spezifisch auf die digitalen Veränderungen im Archivbereich ein. Die erste „Revolution“ wird auf einen Report der SMPTE-Arbeitsgruppe „Automated Storage & Retrieval“ von 1997 zurückgeführt und besagt: „Bewahre Bits und Bytes und nicht den Datenträger (alle Speichermedien haben eine begrenzte Lebensdauer)“ und „benutze Automatisierung, um den Erhaltungszustand der Datenträger zu überprüfen“. [ebd.] Die zweite „Revolution“ beinhaltet, dass technischer Fortschritt das einzige Mittel sei, um den steigenden Raumbedarf von Archiven konstant zu halten und dass technischer Fortschritt stets Hard- und Software (die zum Bewahren von Content genutzt werden) hinfällig macht. Daraus folgt nach den Autoren das „Prinzip der ständigen Migration von archiviertem Content.“ [ebd.] Die dritte „Revolution“ ist für die Autoren gerade voll im Gange und bezieht sich explizit auf die Speicherung auf Festplatten, also auf „den Übergang auf einen Datenträger, der weder transportabel und vom Aufzeichnungsgerät trennbar ist, noch einem bestimmten Programm mehr eindeutig zugeordnet werden kann.“ [ebd.] Das zu archivierende Produkt wird also aus verschiedenen Gründen entmaterialisiert. Ulrich Schmidt drückt das so aus: „Dabei wird die allgemeine Entwicklung weg vom physikalisch Wahrnehmbaren, hin zu immer mehr Abstraktion weiter vorangetrieben.“ [Heyna/Briede/Schmidt: 18] -5- Der Medienarchivar hat bis heute immer mit einer Kassette oder einer Filmrolle, die in einem Regal in einem spezifischen Raum standen, zu tun gehabt. Die heutigen Entwicklungen bewirken zum Beispiel, dass dem Archivar zunächst die Fähigkeit genommen wird, den Verlust von Content zu begreifen. Fehlt ein Band aus einem Archivregal, so ist die Situation eindeutig. Wird dem Archivar eine Video-Datei in seinem System nicht angezeigt, so kann das vielerlei Gründe haben (Gelöscht, Verschoben, Interface defekt, Serveranbindung defekt, eigene Software erkennt das Dateiformat nicht, etc.). Es ist deshalb von hoher Wichtigkeit, neue entmaterialisierte Strukturen zu begreifen. Zum einen um die Abhängigkeit von „Vermittlern“ wie zum Beispiel Informatikern oder Systemadministratoren zu begrenzen bzw. die Kommunikation zu verbessern, zum anderen um die Vor- und Nachteile der neuartigen Strukturen zu verstehen und praktisch umzusetzen. Dazu muss der moderne Medienarchivar nicht Informatik studieren. Er sollte sich aber mit spezifischen Technologien auseinandersetzen. Ein wichtiger Teil, der verstanden werden sollte, ist die Art der Speicherung; also in welchem Format bewegte Bilder als Bits und Bytes vorliegen. -6- 3 File-Formate im Videobereich Bezeichnungen von File-Formaten im Videobereich werden mehr oder weniger undifferenziert in der alltäglichen und beruflichen Kommunikation verwendet. Doch gerade die Kommunikation zwischen Archivar und Informatiker muss eindeutig sein. Der Informatiker und der Dokumentar müssen gegenseitig verstehen, was sie meinen. In der Folge wird versucht, ein wenig Licht in die Vielzahl der Begriffe zu bringen. Videodaten können in verschiedener Form technisch aufbereitet werden. Sie können in reiner Form vorliegen, wobei sie, wenn digitalisiert, schon in irgendeiner Form „beschnitten“ sind. Sie können weiterhin durch Hilfe von Codecs komprimiert werden, um sie für den Datenaustausch und/oder die Lagerung kleiner zu machen. Und, darüber hinaus, können sie quasi „verpackt“ werden, um sie mit anderen Daten wie Audio- oder Metadaten zu speichern oder zu transferieren. Grundsätzlich kann man also unterscheiden zwischen: a) „rohen“ Videodaten, b) durch Hilfe von sogenannten Codecs komprimierten Videodaten, c) Videodaten die in sogenannten „Containern“ zusammen mit Audiodaten gespeichert sind und d) Video/Audiodaten die in sogenannten Wrappern zusammen mit Metadaten gespeichert sind. Diese Unterscheidung - auf die in der Folge ausführlich eingegangen wird – ist zusätzlich unübersichtlich, weil verschiedene Videodateien, Container und Wrapper auch noch denselben Namen bzw. File-Extension tragen können. Die Fachzeitschrift Broadcast Engineering schreibt dazu: The differences among elements, containers and wrappers can become confusing because some elements and containers share the same name. For example, MEPG-2 is a compression codec for digital video but is also a container when the audio is combined with it. [o.A. 2008: http://broadcastengineering.com/storage_networking/digital_file_format_0217 am 15.08.2008] Man kann und muss File-Formate im Videobereich nach ihrem (technischen) Inhalt unterscheiden. Nur so können kompetente Entscheidung über deren Speicherung getroffen werden. -7- 3.1 „Rohe Bewegtbilddaten“ Um es vorweg zu nehmen: Digitale Abbildungen von bewegten Bilder, die in keiner Weise reduziert bzw. komprimiert sind gibt es nicht. Die Datenmenge für eine Speicherung als Datei wäre viel zu hoch. Unsere natürliche visuelle Umgebung ist dreidimensional und ihre inhaltliche Informationen von infinitesimal feiner Struktur. Eine Bildübertragung, die den menschlichen Sehvorgang ökonomisch nachahmt, müsste ein Raster lichtempfindlicher Elemente aufbauen, dem als Bildempfänger ein entsprechendes Raster Licht erzeugender Elemente entspricht. [...] Das Problem ist allerdings, dass eine sehr feine Auflösung jedweden vertretbaren Kapazitätsrahmen sprengen würde. [Heyna/Briede/Schmidt: 21] Die Übertragung von Studio-Videosignalen, also der digitalen Signale, die am treffendsten als „rohe Videodaten“ im Broadcastbetrieb zu bezeichnen sind, erfolgt über eine spezielle Schnittstelle, dem Serial Digital Interface, kurz SDI. Über diese Schnittstelle wird ein digitales serielles Komponentensignal (vgl. auch die Ausführungen zu Chroma Subsampling) übertragen. Man bezeichnet das digitale serielle Komponentensignal auch als DSK; beide Ausdrücke werden oft synonym benutzt. Es handelt sich nicht um ein Dateiformat sondern dient ausschließlich der Übertragung. 3.2 Codecs Bei entsprechenden Recherchen zum Thema digitale Videoformate trifft man immer wieder auf den Begriff Codec. Dabei handelt es sich um ein Kunstwort, dass sich aus den Wörtern Coder und Decoder zusammensetzt. Grundsätzlich sind Codecs kleine Programme bzw. Programmteile, deren Aufgabe es ist, Datenmaterial von einer Form in eine andere zu überführen. Dabei kann das Dateiformat dasselbe bleiben, nur die Art der Codierung ändert sich. Codecs dienen meist der Datenreduktion und der Datenwiederherstellung. Sie helfen, Dateien in ihrem Umfang zu reduzieren und so entweder für die Übertragung oder für die Speicherung klein genug zu halten. MPEG-2 zum Beispiel ist ein standardisiertes Videodateiformat, bei dem ziemlich genau festgelegt ist, welchen Aufbau die Videodatei hat. Die Videodaten durchlaufen dabei einen Codier und Decodier-Prozess. [vgl. PCO 2003: http://www.orthy.de/index.php?option=com_content&task=view&id=765&itemid=85 am 19.08.2008] -8- Wird ein Datenformat in ein anderes umgewandelt so nennt man das Transkodierung. Diese Umwandlung ist normalerweise verlustbehaftet. [Vgl. Artikel Transcodierung in http://de.wikipedia.org/wiki/transcodierung am 21.08.2008] Aus diesem Grund ist es wichtig, solche Transformationen nach Möglichkeit gering zuhalten. 3.3 Container-Formate und Wrapper-Formate Container-Formate haben die Aufgabe, mehrere Dateiformate – meist Video und Audio – zusammenzufassen. Special file formats called containers are used to combine or hold the audio and video elements (files) within one file for convenient storage and transport. Some video servers store the audio and video elements separately on their storage systems, while others use container formats to keep these separate elements together. All video servers store both the audio and video clips as well as a database with information about those clips. [o.a. 2008: http://broadcastengineering.com/storage_networking/digital_file_format_0217/ am 15.08.2008] Diese Dateiformate sind meist durch einen Codec komprimiert. In einem Container können viele verschiedene Kombinationen aus Audio- und Video-Codecs, Dateiformaten und Extensions enthalten sein. So kann zum Beispiel in einem Container mit der Dateiendung *.avi ein Videoformat welches mit einem DV-Codec komprimiert wurde, und ein Audioformat, das mit einem MP3-Codec komprimiert wurde, enthalten sein. Die Möglichkeiten sind hier fast unbegrenzt. Wrapper-Formate sind spezielle Container (meist im professionellen Umfeld), die zusätzlich noch Metadaten beinhalten können. When the audio/video files are transferred to another system, the data about them also needs to be transferred — that is where metadata comes in. Metadata is the data about the data that makes up the audio and video elements. To join the container, with the audio and video elements along with the metadata, a wrapper is used. A wrapper is a type of container used in professional video to combine the elements (audio and video files) as well as the metadata. [ebd.] Die Unterscheidung und das Verständnis verschiedener Formattypen ist wichtig, um Entscheidungen über deren Nutzen und deren Verarbeitung treffen zu können. Dabei geht es nicht nur um Entscheidungen, die bei der Planung einer Produktions- bzw. Archivierungsumgebung zu treffen sind. Auch durch die „Demokratisierung“ der Filmaufnahmetechniken (man denke an Zuschauervideos) -9- wird es der Mediendokumentar zukünftig immer öfter mit verschiedenen Formaten zu tun haben – zusätzlich zu dem im eigenen Haus verwendeten Standard. Schon heute kommen häufig Datenträger von Privatpersonen ins Haus, die man nicht sofort benutzen, aber gern für mögliche zukünftige Verwendung archivieren möchte. Daraus ergeben sich mehrere Fragen. Kann das Material ohne weiteres in die Produktionsumgebung bzw. Archivumgebung eingespielt werden? Ergeben sich aus der Transkodierung (weitere) Qualitätsverluste? Sind im Originalmaterial Metadaten vorhanden, die bei der Transkodierung wegfallen würden? Muss ich als Archivar in jedem Fall einen Techniker aufsuchen oder kann das Material von mir selbst komplett gesichert werden? - 10 - 4 Videokompression Datenreduktion ist essentiell für die moderne TV-Produktion und noch mehr für die Langzeitarchivierung. Aus diesem Grund folgt an dieser Stelle eine Einführung in die Videokompression. Datenkompression beinhaltet immer die selben Prinzipien und ist meist eine Mischung verschiedener Vorgehensweisen. 4.1 Grundsätzliche Prinzipien der Datenreduktion 4.1.1 Das Prinzip der Redundanz und Irrelevanz Daten (mit Informationsgehalt im Shannon'schen Sinne) kann man in redundante und irrelevante Daten unterteilen. Ist in einem Bild eine große Fläche grün, dann sind die Pixel größtenteils redundant. Die Farbinformation könnte beispielsweise nur einmal übertragen und in der Folge darauf verwiesen werden. Daten, die zwar übertragen aber vom Menschen gar nicht wahrgenommen werden, können im Prinzip weggelassen werden. Sie sind irrelevant. [Heyna/Briede/Schmidt: 53f.] 4.1.2 Das Prinzip der örtlichen und zeitlichen Korrelationen Bilder die aufeinander folgen, um daraus eine Bewegtbildsequenz resultieren zu lassen haben die Eigenschaft, sehr ähnlich zu sein. Bei einer Fußballübertragung zum Beispiel sind große Flächen immer grün (der Rasen), das Bild verändert sich nur aufgrund der Bewegung der Spieler. Der Rasen innerhalb eines Bildes ist also vom selben grün (örtliche Korrelation) ebenso wie das folgende Bild (zeitliche Korrelation). „Diese Wechselbeziehungen des Bildes mit sich selbst oder folgenden Bildern aufgrund von Ähnlichkeiten nennt man örtliche bzw. zeitliche Korrelationen und nutzt sie zur Verkleinerung der Datenmenge.“ [ebd.] - 11 - 4.2 Vorgehensweise bei der Datenreduktion 4.2.1 Verlustlose Kodierung Hierbei muss man sich loslösen von semantischen Aspekten des Informationsbegriffs und Symbole einer Nachricht durch einen mathematischen Informationsbegriff definieren. Dabei wird ein Symbol (z.B. 0 oder 1 oder ein Buchstabe aus dem Alphabet) durch seinen Kontext und damit verbunden durch seinen Neuigkeitswert beschriebenen. Dieses auf Claude Shannon zurückzuführende Prinzip der Entropie [vgl. auch Artikel Entropie in http://de.wikipedia.org/wiki/Entropie_(Informationstheorie)] ist grundlegend für die Komprimierung. In einem Alphabet zum Beispiel existieren Buchstaben, die häufiger oder seltener im Sprachgebrauch vorkommen. Beim Übertrag in eine Codierung, zum Beispiel in das Morsealphabet, wird diesem Umstand Rechnung getragen, in dem der am meisten benutzte Buchstabe (im Englischen das „e“) das kürzeste Zeichen (im Morsealphabet ein einziger Punkt „.“) zugeordnet bekommt und andersherum seltenere Buchstaben (im Englischen z.B. „b“) längere Zeichenketten (im Morsealphabet die Kette “_...“) zugeordnet bekommen. Der Redundanz der Zeichen wird so Rechnung getragen. [Heyna/Briede/Schmidt: 53f.] In Dateien heißt das, dass bestimmte Zeichenfolgen häufiger vorkommen als andere. Nach der ersten Übertragung einer dieser Zeichenfolgen wird diese in einer Bibliothek abgelegt und in der Folge nur noch darauf verwiesen. Dieses Vorgehen ist in der Regel platzsparender als das ständige Wiederholen. Bei der Videoübertragung muss ein Standbild nicht 25x in der Sekunde übertragen werden, das grüne Pixel bei einem Fußballspiel ebenso wenig. Diese Beseitigung von Redundanzen ist umkehrbar und wird deshalb Redundanzreduktion oder auch verlustlose Kodierung genannt. [ebd.] Verlustlose Komprimierung findet man außerhalb von Videokompressionen zum Beispiel bei gängigen Pack-Programmen wie WinZip. Hier werden der Huffman-Code und der Lempel-Ziv-Algorithmus (Deflate-Verfahren) angewandt. Wichtig im hier betrachteten Rahmen ist der Huffman-Code. [vgl. o.A. (2007) in http://www.datacompression.com/lossless am 02.08.2008] 4.2.2 VLC – Variable Längenkodierung nach Huffman Bei der variablen Längenkodierung wird (ähnlich wie beim Morsealphabet) ein Alphabetwechsel vorgenommen. Symbolen im Datenstrom werden neue, kürzere - 12 - Symbole zugewiesen und die Länge richtet sich nach der Auftretenswahrscheinlichkeit. Die bekannteste Kodierung ist der genannte Huffman-Code. Häufig vorkommenden Symbolen wird eine kurze Bitfolge zugeordnet, selten vorkommenden Symbolen eine lange Bitfolge. Die Länge der Bitfolgen ist also variabel. Durch fortlaufende Gruppierung von Symbolen mit niedriger Auftretenswahrscheinlichkeit wird eine Baumstruktur gebildet, solange bis nur noch zwei Zustände übrig bleiben. Anschließend wird die Baumstruktur zurückverfolgt und entsprechend erst kurze bis zu den längsten Codewörtern vergeben. [vgl. Heyna/Briede/Schmidt: 54f.] 4.2.3 RLC Durch die Lauflängenkodierung (RLC – Run Length Coding) kann die Effektivität solcher verlustfreien Kodierungen noch gesteigert werden. Folgen mehrere gleiche Werte, so werden diese zusammengefasst und dem folgenden Wert zugeordnet. Die Datenfolge 0 0 3 beinhaltet die Aussage „2 Nullen bis 3“ und kann zum Beispiel als (2,3) dargestellt werden. [vgl. ebd.] 4.2.4 DPCM Bei der Differential Puls Code Modulation erfolgt eine Messung der Differenzen innerhalb eines Bildes. Bei einer Fußballübertragung sind weite Teile des Bildes grün. Überträgt man nur die Differenz zum jeweils benachbarten Bildpunkt (und nicht den Wert des Bildpunktes selber) ergibt sich eine Datenreduktion. Auch hier kann die Effektivität gesteigert werden. Bildpunkte ähneln sich nicht nur innerhalb eines Bildes sondern auch innerhalb einer Bildfolge. Bei der erwähnten Fußballübertragung folgt auf einen grünen Punkt mit hoher Wahrscheinlichkeit ebenfalls ein grüner Punkt. Entsprechend kann auch hier einfach die Differenz (und nicht der Wert selber) übertragen werden. Dies geschieht durch eine Vorhersage (Prädiktion), entweder in dem das vorherige Bild einberechnet wird (unidirektional, die Bilder heißen dann P-Frames) oder das vorherige und das folgende (bidirektional, die Bilder heißen dann B-Frames). Der letzte Fall erfordert eine Verzögerung auf Enkoder-Seite. [vgl. Heyna/Briede/Schmidt: 55f.] 4.2.5 Intraframe und Interframe Im Grunde wird hier das Prinzip der örtlichen und zeitlichen Korrelationen - 13 - konkretisiert. Grundsätzlich kann ein Video bildweise oder sequenzweise kodiert werden. Beim Videoschnitt ist immer ein einzelnes und unabhängiges Bild nötig. Ist das Bild von dem vorherigen oder folgenden Bild abhängig kodiert, kann es vom Programm auch nicht unabhängig betrachtet werden. Diese Interframe-Kompression eignet sich also nicht ganz so gut für den Videoschnitt. Bei der Intraframe-Kompression hingegen wird jedes einzelne Bild komprimiert. Solche Bilder (oder auch Frames) werden IFrames genannt. [vgl. Lichtscheidl in http://www.univie.ac.at/video/grundlagen/intraframe.htm am 27.07.2008] 4.2.6 DCT und Quantisierung Die Diskrete Cosinus Transformation (DCT) ist keine Kompression sondern bereitet auf weitere Kompressionsschritte vor. Kompressionen die eine solche Transformation enthalten sind zum Beispiel MPEG und JPEG. Ein Bild wird hierbei in Pixelblöcke aufgeteilt, meistens als 8x8-Matrizen. Diese Pixelblöcke werden in Frequenzbereiche der Grauwerte umgesetzt. Betrachtet wird hierbei das dreidimensionale Frequenzspektrum (Zeit und Bildkoordinaten) eines Bildes. Diese Pixelmatrix wird wiederum in eine Koeffizientenmatrix überführt. Das Bild wird in seine Spektralanteile zerlegt. Bestimmte Frequenzen sind für die Wahrnehmung weitgehend irrelevant und können im folgenden Kompressionsschritt weggelassen werden. Bisher war der Kompressionseffekt eher gering aber vollkommen reversibel. [vgl. Heyna/Briede/Schmidt: 58 ff.) Die Quantisierung dient nach der Diskreten Cosinus Transformation der eigentlichen Datenreduktion. Die Werte aus der Matrix werden anhand einer Quantisierungstabelle geteilt und gerundet. Die Werte in der Quantisierungstabelle sind durch wahrnehmungspsychologische Tests entstanden (die u.a. vom JPEG-Komitee durchgeführt wurden). Diese Tests definieren in Zahlen, dass das Auge schnelle Helligkeitsänderungen schlechter wahrnimmt als langsame, bzw. diagonale Helligkeitsänderungen schlechter als horizontale bzw. vertikale. Problematisch ist dabei, dass in Abhängigkeit von den Quantisierungstabellen die ursprünglichen Pixelblockgrenzen sichtbar werden können. Daraus entsteht dann der Blocking-Effekt. Diese Blocking-Effekte gehören zu Kompressions-Artefakten, die sich visuell in einer Blockbildung auf dem Bildschirm bemerkbar machen. Je höher die Kompression desto größer ist die Gefahr dieser Block-Bildung. Bei der Quantisierung handelt es sich um - 14 - eine Irrelevanzreduktion. Die Kompression ist also verlustbehaftet. [vgl. Heyna/Briede/Schmidt: 60f.] Oft wird eine Mischung zwischen DPCM (also der Differenziellen Puls Code Modulation) und DCT verwendet. Sie ist zum Beispiel Basis für die Kodierung im MPEG-Standard und ermöglicht Kompressionsfaktoren bis zu 100 bei guter Qualität. Eine Bearbeitung der Videodaten, also zum Beispiel ein Schnitt, ist nur möglich, wenn in regelmäßigen Abständen ein unabhängiges, intraframe-kodiertes Bild (I-Frame) eingefügt ist. [vgl. ebd.] 4.2.7 Wavelet-Transformation Die Wavelet-Transformation spielt bei bewegten Bildern heute noch keine große Rolle und soll aus diesem Grund hier nur am Rande erwähnt werden. Anwendung findet diese Transformation heute bereits im JPEG2000-Format. Es handelt sich um eine Transformation, ist also zunächst einmal, wie auch die DCT, eine Überführung der Daten in eine andere Repräsentation. Diese neue Repräsentation kann dann ebenfalls quantisiert (S.63) und so komprimiert werden. Der Vorteil dieser Technik ist, dass es bei der Übertragung und im Bildaufbau skalierbar ist. [vgl. Heyna/Briede/Schmidt: 61ff.] 4.2.8 Bitrate – Datenrate Bei der Videokodierung kann die Bitrate konstant oder variabel sein. Die Bitrate ist eine Datenrate und drückt das Verhältnis von übertragenen Bits pro Zeiteinheit aus. Dies geschieht meist in Bits pro Sekunde. Eine hohe Bitrate (innerhalb der selben Kodierung) steht meist für höhere Qualität als eine niedrigere. Bei der konstanten Bitrate (CBR) wird das Videosignal mit einer konstanten Datenrate übertragen bzw. gespeichert, unabhängig davon, wie komplex das Signal ist. Diese Art findet man häufig bei gestreamten Dateien. Hier wird Datenvolumen teilweise verschenkt. Bei der variablen Datenrate (VBR) schwankt die Datenmenge je nach Komplexität des Signals. Ist die Aktion im Bild komplex wird mehr Volumen bereitgestellt als bei ruhigen Bilder. Die Datenrate passt sich also immer dem Geschehen an und ist deshalb optimal. [vgl. Artikel Bitrate in http://de.wikipedia.org/wiki/Bitrate am 27.07.2008] - 15 - 4.2.9 Farbvideosignal / Farbunterabtastung (Chroma Subsampling) Grundsätzlich kann man die Farben im Fernsehen wegen seiner eigenen Leuchtkraft additiv darstellen. Es eignen sich die Farben Rot – Grün – Blau. Entsprechend werden hochwertige Fernsehsignale auch in diese Farben unterteilt. Ein RGB-Signal ist zwar qualitativ hochwertig, erfordert aber eine hohe Bandbreite. Um auch hier eine Reduktion des Datenvolumens zu erreichen, wird auf das Komponentensignal zurückgegriffen. Durch mathematische Verfahren (unter Berücksichtigung des Spektrums der Farbwahrnehmung des menschlichen Auges) reicht es aus, nur die Helligkeit und die Farben Rot und Blau zu übertragen. Das Leuchtdichtesignal heißt Luminanzsignal, die Farbsignale Differenzsignale bzw. Chrominazsignal (U und V). [vgl. Heyna/Briede/Schmidt: 26f.] Helligkeitsunterschiede werden vom menschlichen Auge deutlich besser wahrgenommen als Farbunterschiede. Aus diesem Grund muss man die Farbwerte nicht mit dem selben hohen Datenvolumen übertragen wie das Luminanzsignal. [vgl. Heyna/Briede/Schmidt: 31f.] Das Verhältnis von Luminanzsignal zu den beiden Chrominanzsignalen ist je nach Kodierung unterschiedlich. Üblich sind bei Aufzeichnungsformaten die Verhältnisse 4:2:2 (z.B. Betacam SX, DigiBeta, DVC Pro 50), 4:2:0 (DV (Pal), DV Cam), und 4:1:1 (DV (NTSC), DVC Pro 25). 4.3 Gängige Formate und Standards 4.3.1 DV-Algorithmus DV war zunächst ein reines Heimanwender-Format, hat sich aber in letzter Zeit im professionellen Bereich, so zum Beispiel bei den Regionalsendern der RTL-Familie, etablieren können. Grund hierfür sind die geringeren Kosten bei Ausrüstung und Bändern. DV beinhaltet eine Intraframe-Kodierung, jedes Bild ist also unabhängig und so gut schneidbar. Auch hier kommt die DCT (Diskrete Cosinus Transformation) mit folgender Quantisierung und variabler Längenkodierung bzw. Lauflängenkodierung zum Einsatz. Die Datenrate ist vom Bildinhalt abhängig. Um die Datenrate konstant zu halten, beinhaltet der Algorithmus eine sogenannte Feed-Forward-Steuerung. Dabei wird vor der eigentlichen Reduktion die geeignete Quantisierungstabelle bestimmt. Die Datenrate ist 25 mbit/s (Abtastrate 4:2:0), bei DVCPro 50 mbit/s (Abtastrate 4:2:2). - 16 - Es handelt sich um eine Mischung aus verlustfreier und verlustbehafteter Kompression. [vgl. Heyna/Briede/Schmidt: 68] 4.3.2 MPEG MPEG steht für „Moving Pictures Expert Group“. Diese Gruppe der ISO entwickelt Standards zur Komprimierung von Video- und Audiosignalen. Es werden keine Vorschriften zur Anwendung, es wurde lediglich ein Rahmen definiert, der von den Entwicklern entsprechend gefüllt werden kann. Die Kodierung von Mpeg-Formaten beruht auf der hybriden DCT. Neben der Intraframe-Kodierung kommt auch die Interframe-Kodierung zum Einsatz. Nachfolgend schließen sich noch die Redundanzreduktionsstufen VLC und RLC an. [vgl. Heyna/Briede/Schmidt: 69ff] MPEG-1 (ISO-Standard 11172) ist ursprünglich für eine kleine Datenrate (1,5 mbit/s) konzipiert, um genügend Videomaterial auf einer konventionellen CD speichern zu können. Das ist auch der Grund für die hohe Komprimierung, die Abtastwerte der Bildpunkte werden vorher verringert. Die Qualität ist entsprechend gering. [vgl. Heyna/Briede/Schmidt: 72] Mit dem MPEG-System-Stream ist dieses Format als Streaming-Format wieder interessant geworden. MPEG wird hierbei quasi als Datencontainer genutzt, Bild und Ton sind miteinander verschachtelt (Multiplexstruktur). [vgl. Schmidt: 180ff.] In der RTL-Sendergruppe wird der MPEG-1 System Stream als Previewformat (mit VPMS) genutzt. MPEG-Systems existiert unter anderem auch für MPEG-2. 4.3.3 MPEG-2 MPEG-2 (ISO-Standard 13818) ist wohl das verbreitetste Videoformat. Es ist die Basis für unsere Video-DVD und für SVCD. Das relativ neue Maz-Format IMX basiert ebenso auf MPEG-2 wie die digitale Fernsehübertragung DVB (Digital Video Broadcasting). Die Kodierung wurde bereits dargestellt. Meistens wird mit einer 4:2:0Abtastung gearbeitet. Es sind vielfältige Möglichkeiten, unter anderem bezüglich der Bildauflösung, definiert. Um diese Vielzahl an Möglichkeiten zu strukturieren, wurden so genannte Profiles entwickelt, die mit verschiedenen Auflösungsstufen (Levels) - 17 - kombiniert werden können. Damit sollte auch eine gewisse Interoperabilität geschaffen werden. Beschrieben werden diese Kombinationen dann mit dem Ausdruck Profil@Level (gesprochen: Profile at Level). Anwendungen für solche Kombinationen sind zum Beispiel Mobiltelefone und PDAs (SP@LL bzw. SP@ML), DVD (MP@ML) oder IMX (422P@ML). Das Low Level entspricht der Auflösung von MPEG-1, erlaubt aber höhere Datenraten. Das Main Level entspricht der Standard-Auflösung von 720 x 576 Bildpunkten. Das High Level ist für HDTV-Anwendungen konzipiert. Das Simple Profile beinhaltet keine B-Frames, was Vorteile bei der Dekodierung ergibt. Das Main Profile ist quasi der Standard im Standard. Das High Profile zielt auf hoch qualitative Anwendungen ab. [vgl. Heyna/Briede/Schmidt: 73ff.] 4.3.4 GOP - Group of Pictures Beim MPEG-Format werden die einzelnen Frames zu Framegruppen sortiert. Die am effizientesten kodierten Frames sind die B-Frames. Da sie aber immer vom Nachbarbild abhängen, müssen in regelmäßigen Abständen auch P-Frames und vor allem I-Frames auftauchen. Diese Framegruppen werden Group of Pictures (GOP) genannt. Je mehr Pund B-Frames auftauchen, desto effektiver ist die Komprimierung. Oft bestehen diese Gruppen aus einer Folge von 12 Bildern mit einem I-Frame, drei P-Frames und vier mal zwei B-Frames. Ist der Abstand zweier I-Frames größer als vier Frames nennt man die Struktur Long-Gop. Je nach Coder und Decoder (wo die Gruppierung stattfindet) können diese Gruppen fehlerhaft sein, was eine nachträgliche Bearbeitung des Videos erschwert oder sogar unmöglich macht. [vgl. Heyna/Briede/Schmidt: 71f.] 4.3.5 MPEG-4 Grundlegend für MPEG-4 (ISO-Standard 14496) war das Apple-Format Quicktime. Wesentliche Änderungen sind eine nochmal gesteigerte Datenreduktion und erweiterte Funktionalität bezüglich des interaktiven Umgangs mit audiovisuellen Inhalten. Die Funktion als Wrapper steht also im Vordergrund, wobei im Wrapper eben interaktive Elemente möglich sind. Da die Integration aller Arten von AV-Content möglich ist, eignet es sich für Anwendungen, die bei der Konvergenz der Medienbereiche entstehen, vor allem bei der Zugriffssteuerung (Stichwort Copyright). Vielen Nutzern ist MPEG-4 als Container für Copyright geschützte - 18 - Audioinhalte bekannt. [vgl. Heyna/Briede/Schmidt: 78ff.) Die Firma Apple nutzt in ihrem Dienst „I-Tunes“ dieses Format. Derzeit wird die Weiterentwicklung der Standards MPEG-7 (ISO-Standard 15938) und MPEG-21 (ISO-Standard 21000) vorangetrieben. Diese stellen aber keine Kompressionsstandards mehr dar sondern führen die Entwicklung zu komplexen Wrapper-Formaten fort. Interessant kann hierbei für die Archivierung die Einbettung komplexer Metadaten, auch für multimediale Inhalte, sein. [vgl. Heyna/Briede/Schmidt: 97f.] 4.3.6 AVI AVI bedeutet Audio Video Interleave und ist ein von der Firma Microsoft entwickeltes Container-Format. Man trifft in der Praxis häufig auf AVI-Files. Der Grund ist seine Einfachheit. Die AVI-Technologie lässt sich leicht implementieren. Obwohl es sehr fehleranfällig ist, eignet es sich doch ganz gut für den Transport verschiedener kodierter Dateien. [vgl. Heyna/Briede/Schmidt: 193 ff.] RTL Television benutzt derzeit AVI-Container für den Transport des HiRes-Materials (MPEG-2 und vier Tonspuren im Wav-Format). 4.3.7 IMX IMX ist der Name einer MPEG-2-Variation der Firma Sony. Sie ist unterdessen in der professionellen TV-Produktion weit verbreitet, unter anderem (neben anderen Formaten) bei den öffentlich-rechtlichen Fernsehsendern. Es nutzt eine MPEG-2 IFrame-Only-Kodierung im 4:2:2P@ML-Format, in den Varianten 30/40/50 mbit/s. Somit ist es ideal schnittfähig, da auf jedes Einzelbild problemlos zugegriffen werden kann. Es gilt als das Folgeformat von Digibeta. IMX kann in einem Container oder Wrapper abgelegt werden. Meistens ist das Containerformat MXF, alternativ das Quicktime-Format MOV. IMX ist HD-fähig, kann also auch auf ein höher auflösendes MPEG-Profil (z.B. 422P@H-14) aufbauen. [vgl. Schmidt: 528f.] - 19 - 4.4 Austauschformate Die heutige Fernsehproduktion arbeitet mit einer Vielzahl verschiedener Dateiformate. Dazu gehören verschiedene Kompressionsformate im Video- und Audiobereich, Animationen, Standbilder oder auch Metadaten. Diese Dateiformate sollten innerhalb eines IT-basierten Fernsehbetriebs problemlos ausgetauscht werden. Auch der Austausch nach Außen, zum Beispiel beim Programmvertrieb, sollte möglich sein. Aus diesem Grund wurden spezielle Austauschformate entwickelt. [vgl. Heyna/Briede/Schmidt: 154ff.] 4.4.1 DPX, GXF, AAF Das Digital Picture Exchange Format (DPX / SMPTE 268M) wurde vor allem für den Filmbereich entwickelt. Die Mediendaten werden unkomprimiert übertragen und sind auflösungsunabhängig. DPX ist nicht streamingfähig. [vgl. Röder: 24] Das General Exchange Format (GXF / SMPTE 360M) ist ein sehr einfach gehaltenes Austauschformat und dient häufig nur dem Transfer (Stream) von unkomprimierten Videodaten. Zwar können potentiell Metadaten mit transferiert werden, für eine Übertragung und Speicherung von komplexen (auch multimedialen) Dateibündeln ist es eher ungeeignet. [vgl. Heyna/Briede/Schmidt: 168ff] Das Advanced Authoring Format (AAF) ist ein offener Standard für den Austausch komplexer Videostrukturen inklusive verwendeter Effekte, Bild- und Tonmanipulationen, Animationen und interaktive Elemente. Seine Struktur ist objektorientiert und deshalb leicht erweiterbar. Aufgrund seines hohen Komplexitätsgrades ist es nicht streamingfähig. Eine Videodatei, die im Laufe ihrer Bearbeitung verschiedenster Manipulationen ausgesetzt war, kann komplett rekonstruiert werden. AAF wird vor allem bei der Postproduktion eingesetzt. AAF trägt der zunehmenden IT-basierten und multimedialen Produktion von Videoinhalten Rechnung. [vgl. Heyna/Briede/Schmidt: 157ff.] - 20 - 4.4.2 MXF Auch MXF (Material eXchange Format / SMPTE377M) trägt der Konvergenz von Videotechnik, Computer- und Telekommunikationstechnologie Rechnung und soll als standardisierter Wrapper für den internen und externen Datenaustausch dienen. Es ist format-, kompressions- und plattformunabhängig. „Der primäre Verwendungszweck wird meist im Programmaustausch zwischen File-Servern sowie Materialtransport zu Bandlaufwerken und digitalen Archiven gesehen.“ [Heyna/Briede/Schmidt: 163] Da bei MXF der Fokus auf die mit zu übertragenden Metadaten gelegt worden ist, ist es gerade für die Mediendokumentation sehr interessant geworden. Technisch gesehen handelt es sich nicht um eine eigene Kompressionsart sondern um einen definierten Standard für den Austausch. Die AAF Association war direkt an der Entwicklung beteiligt. Aus diesem Grund hat MXF eine ähnliche objektorientierte Struktur wie AAF und kann daher als Untereinheit einer AAF-Struktur angesehen werden. MXF basiert auf der Key-Length-Value-Kodierung (KLV). Der Inhalt einer MXF-Datei ist in Pakete unterteilt. Diese Pakete können zum Beispiel Ton oder Video enthalten, geschnittene Sequenzen, Video-Essenzen in verschiedener Auflösung oder Komprimierungen, Audio-Essenzen in verschiedenen Sprachen etc. Jedem Datenpaket (Value) wird eine eindeutige Bezeichnung (Key) und Länge (Length) vorangestellt, wobei innerhalb eines Values weitere KLVs existieren können. Die Daten werden kontinuierlich nacheinander gelesen, MXF ist also streaming-fähig. Ob und wie die Daten entschlüsselt werden können, hängt vom empfangenden System ab. Kann ein Datenpaket nicht gelesen werden wird es einfach übersprungen. Neben strukturellen Metadaten (im Header Partition Pack) kann MXF auch deskriptive Metadaten (im Header Metadata) enthalten. Selbst wenn die Videodaten nicht dekodiert werden können, kann über die Metadaten auf den Inhalt rückgeschlossen werden. [vgl. Heyna/Briede/Schmidt: 163ff.) 4.4.3 Quicktime Quicktime ist ein von der Firma Apple entwickeltes Format für multimediale Inhalte. Ursprünglich für den Consumer-Bereich entwickelt, hat Apple in den letzten Jahren die Architektur und den Funktionsumfang derart erweitert, dass es heute durchaus für den professionellen Bereich nutzbar ist (vgl. auch MPEG-4). So produziert zum Beispiel RTL Teile seiner Sportberichterstattung mit Apple-Produkten. Langfristig soll auch im News-Bereich auf die Apple-Schnitt-Umgebung Final Cut Studio (FCS) umgestellt - 21 - werden. Auch RTL Nord wird mit der kommenden Erneuerung der Produktionsumgebung die Schnittplätze mit FCS ausstatten. Gründe hierfür sind unter anderem (im Vergleich zu entsprechenden Schnitt-Programmen) der insgesamt günstigere Preis, kürzere Renderzeiten und höhere Betriebssicherheit. Das Quicktime-Format als Wrapper-Format basiert ähnlich wie AAF bzw. MXF auf einer Objektstruktur. Die Daten werden sowohl sequenziell als auch hierarchisch in sogenannten Atomen gespeichert. Insgesamt ist der Aufbau eines Quicktime-Containers sehr komplex und seine Beschreibung würde den Rahmen dieser Arbeit sprengen. [vgl. Heyna/Briede/Schmidt: 175ff.) Wichtig an dieser Stelle ist, dass Quicktime im Vergleich zu MXF fast denselben Funktionsumfang bietet. Es ist unter anderem offen und sehr gut dokumentiert, hat unterdessen eine hohe Verbreitung, es ist zukunftssicher, benötigt keine aufwändigen Re-Wrapvorgänge, es unterstützt Partial Restore (man muss nicht die ganze Datei laden, sondern kann nur auf einen Teil der Datei zugreifen) und die Wiedergabe während des Schreibvorgangs, hat einen geringen Overhead im Vergleich zur Nutzlast und unterstützt das Einbetten sowohl technischer als auch beschreibender Metadaten. [vgl. Thomas: 199] 4.5 Metadaten Metadaten sind Daten über Daten und als ISO-Standard festgelegt. Definition nach ISO: For ISO/IEC 11179, metadata is defined to be data that defines and describes other data. This means that metadata are data, and data become metadata when they are used in this way. This happens under particular circumstances, for particular purposes, and with certain perspectives, as no data are always metadata. The set of circumstances, purposes, or perspectives for which some data are used as metadata is called the context. So, metadata are data about data in some context. [vgl. o.A. (2006) in www.xmdr.org/standards/cmaps/ISO%2011179-1.doc, am 25.08.2008] Die Definition aus der Informationswissenschaft besagt: „Mit Metadaten werden die Daten bezeichnet, die semantische, strukturelle, administrative und technische Daten über andere Daten bereitstellen.“ [Kuhlen/Seeger/Strauch: 84] Peter Fankhauser unterscheidet außerdem zwischen abgeleiteten und assoziativen Metadaten. Abgeleitete Metadaten sind Metadaten, die am Datensatz selber hergeleitet werden können (also zum Beispiel technische oder zeitliche Metadaten), assoziative Metdaten sind solche, die nicht an den Daten selber überprüft werden können (also zum - 22 - Beispiel deskriptive Metadaten). [vgl. Fankhauser (2001): www.ipsi.fraunhofer.de/~fankhaus/vorlesung/modul3-5.pdf, am 02.08.2008] Metadaten dienen unter anderem dem gezielten Auffinden von Objekten, der Interoperabilität, dem gezielten Benutzen der Objekte und der Archivierung. [vgl. o.A. in http://libraries.mit.edu/metadata/role.html] Bei digitalen Objekten können Metadaten an verschiedenen Orten auftauchen. Die Metadaten können unter anderem in das Objekt eingebettet sein (zum Beispiel in einem Video-Wrapperformat), sie können komplett separiert sein (zum Beispiel Buch + Abstract) und sie können auf das Objekt verweisen (zum Beispiel ein Datenbankeintrag der auch auf den Standort des Objekts verweist) [vgl. Childress (2003): www.oclc.org/research/memberscouncil/2003-02/childress.ppt, am 02.08.2008] Zu Metadaten gehören auch „Informationen über die zur Benutzung notwendigen Systemvoraussetzungen hinsichtlich Hardware und Software und die eindeutige Bezeichnung und Dokumentation der Datenformate, in denen die Ressource vorliegt.“ [Schwens/Liegmann: 569] Im Rahmen der Archivierung von Videodateien ist der Ort der deskriptiven Metadaten ein wichtiges Merkmal, er sollte in die Entscheidungsfindung für einen Archivserver einbezogen werden. Für eine Nutzung von Wrapper-Formaten, die deskriptive Metadaten enthalten, spricht zum einen, dass man den Inhalt identifizieren kann, wenn keine entsprechende Datenbank verfügbar ist. Hierbei muss beachtet werden, dass diese Daten außerhalb einer Datenbank nicht suchbar sind. Dem inhärenten Zweck, nämlich dem gezielten Wiederauffinden von Objekten läuft dies zuwider. Zum zweiten kann eventuell der Inhalt interner und externer Videodateien rekonstruiert werden. Dagegen spricht, dass normalerweise Datenbanken ein komplettes Backup besitzen. Interne Videodateien können so deutlich einfacher rekonstruiert werden als wenn man die Informationen aus den Mediendateien rekonstruieren müsste. Bei Videodateien, die aus unbekannten Quellen zugeliefert wurden, können eingebettete Metadaten allerdings ein Glücksfall sein und eine aufwändige Rekonstruierung könnte (gerade im News-Bereich) wichtige Informationen aufdecken. - 23 - Zum dritten kann der Austausch nach Extern optimiert werden. Hier ist allerdings auf eine Standardisierung des Austauschmodells mit den Vertragspartnern zu achten. [vgl. Thomas:196ff.] 4.6 Nützliche Werkzeuge Im Folgenden werden noch kurz zwei Werkzeuge vorgestellt, die sich bei der Arbeit in der Mediendokumentation von RTL Nord als sehr nützlich erwiesen haben. 4.6.1 Gspot Es handelt sich um ein Analyseprogramm für kodierte Videodateien. Solche Analyseprogramme sind sehr wichtig, um Dateien, die von Extern zugeliefert oder downgeloaded wurden richtig einordnen zu können. Das Programm Gspot (http://gspot.headbands.com/index.htm) ist ein solches Analyseprogramm. Es ist Freeware, läuft aber leider nur auf Windows-Betriebssystemen. Es zeigt alle verfügbaren Codecs an und analysiert außerdem das Video bis hinunter zu GOPStrukturen, verwendeter Audio- und Videocodec, Auflösung und teilweise sogar deskriptive Metadaten 4.6.2 MPEG Streamclip Video Converter MPEG Streamclip (http://www.squared5.com) ist ein extrem zuverlässiges Programm zum Transkodieren von diversen Dateiformaten, also zur Umwandlung von einem Dateiformat in ein anderes. - 24 - 5 Unternehmensdarstellung 5.1 RTL Nord Die RTL Nord GmbH gehört mit RTL West und RTL Hessen zu den Produzenten der verschiedenen Ländermagazine "Guten Abend RTL" und liefert außerdem Berichte für die RTL-Nachrichtensendungen zu. Die RTL Nord GmbH ist eine hundertprozentige Tochter von RTL Television. Diese regionalen Fensterprogramme sollen nach Maßgabe des jeweiligen Landesrechtes regionale Ereignisse aus den Bereichen Politik, Wirtschaft, Kultur und dem sozialen Leben aktuell und authentisch darstellen. Außerdem sollen die Fensterprogramme redaktionell unabhängig von dem Hauptprogrammveranstalter dargestellt werden. Die Programmverantwortlichen des Regionalfensterprogramms müssen im Rahmen eines vorgegeben Budgets ihre redaktionellen Entscheidungen ohne Mitwirkungs- oder Zustimmungsbefugnisse des Hauptveranstalters treffen und eigenverantwortlich das redaktionelle Personal einstellen. [Interne Dokumentation RTL Nord] Derzeit gibt es bei RTL Nord noch keinen Archivserver, allerdings wird dasselbe Dokumentationssystem („TRIP“) verwendet, das auch vom Mutterhaus und den anderen Außenstudios im Informationsbereich eingesetzt wird. Es stellt sich also die Frage, in wie weit RTL Nord überhaupt die Möglichkeit hat, ein eigenständiges digitales Archivsystem zu implementieren. Die Eigenständigkeit (im redaktionellen Sinn) ist aber medienrechtlich festgelegt und sie muss beibehalten werden. So sollte eine zukünftige Archivlösung keine unidirektionale Anbindung an das Archiv bei RTL Köln sein und beispielsweise inhaltlich nur auf Zweitverwertung aus den nationalen Beständen basieren. 5.2 RTL Nord Technik Ist-Zustand 2004 wurde bei RTL Nord die Produktion insofern auf digitale Technik umgestellt, als dass ein zentraler Speicher integriert wurde, auf dem zum einen das aktuelle Material abgelegt wird und zum anderen die fertigen Beiträge tapeless in die Sendetechnik überführt und ausgestrahlt werden. Der Schnitt, die Bearbeitung und das Playout sind - 25 - somit komplett bandlos. Ein Archivserver wurde zu diesem Zeitpunkt nicht integriert. Die Archivierung erfolgt seit 2004 auf DV-Bändern. Die Entscheidung für ein DVbasiertes Produktionssystem (und damit auch auf die Archivierung im geeigneten Format) erfolgte aus ökonomischen Gründen, da Kassetten, Kameras und Software zu diesem Zeitpunkt am günstigsten waren. Die im Vergleich zu Digi-Beta niedrigere Qualität wurde aus dem selben Grund in Kauf genommen. Die Archivierung auf Tape als DV-Stream hatte den Vorteil, dass keine Transkodierung erfolgen musste, dass Produktionsformat blieb also erhalten. 5.3 RTL Television RTL Television ist heute der führende Privatsender in Deutschland. 1984 gegründet, hat der Sender heute ca. 800 fest angestellte Mitarbeiter und erreicht einen jährlichen Umsatz von ca. 1,3 Milliarden Euro. Seit 1988 hat RTL Television seine Zentrale in Köln und Aussenstudios in Berlin, München, Frankfurt am Main, Essen, Bremen, Hamburg, Hannover, Kiel, Kassel, Stuttgart, Mannheim, Leipzig sowie Auslandsstudios in New York, London, Paris, Jerusalem, Peking und Moskau. Hervorzuheben in diesem Netz an Zulieferbetriebe sind die Aussenstudios Hamburg (RTL Nord), Frankfurt (RTL Hessen) sowie RTL West (in Köln ansässig) die durch ihren zusätzlichen Auftrag der Produktion von Regionalfenstern eigenständige Firmen darstellen. [Interne Dokumentation RTL Television] In der Kölner Zentrale gibt es das Unterhaltungsarchiv, dass primär ein Programmarchiv darstellt. Derzeit wird das Programmvermögen schrittweise archiviert. Bis zum geplanten Umzug nach Köln-Deutz 2009 wird das komplette Archiv mit rund 150.000 Stunden Programmmaterial digital vorliegen. Das entspricht in etwa einem Datenvolumen von 3,7 Peta Bytes. Das Material kann dann direkt am Arbeitsplatz gesichtet und verwaltet werden. Die Verwaltung der Medieninhalte übernimmt die IBM-Software ADMIRA. Als Dateiformat wurde das Wrapperformat MXF gewählt, das Videoformat ist ein Mpeg-2-Format, 50m/bit (I-Frame-Only). MXF als Austauschformat wurde gewählt, um den hohen Anforderungen des Programmaustausch nach außen optimal zu begegnen. Das Informationsarchiv in Köln erfasst Rohmaterial, Sendungen aus den Bereichen - 26 - Nachrichten, Magazine, Sport, sowie ausgewähltes Agenturmaterial. Die Datenbank „TRIP“ des Newsarchivs beinhaltet formale und inhaltliche Angaben zu mehr als einer halben Million Beiträgen. Seit der Gründung wurde auf Band archiviert, zunächst analog auf Betacam SP, dann digital auf Digital Betacam (sog. Digi Beta). Seit dem Jahr 2000 wurden dann Previews im MPEG-1-Format auf einem Server gespeichert und mit der Archivdatenbank verknüpft. Zwar konnte über diese Previewfiles noch nicht direkt auf sendefähiges Material zugegriffen werden. Dieses musste nach wie vor lokal am entsprechenden Schnittplatz von Band aus eingespielt werden. Dennoch war diese Innovation ein riesen Schritt. Durch die Möglichkeit, Material vor dem eigentlichen Zugriff optisch auswählen zu können, wurde der Workflow deutlich vereinfacht. Man musste sich nicht mehr alleine auf eine Textbeschreibung verlassen. Durch Key-Frames ist quasi ein visuelles Abstrakt „sichtbar“, der Inhalt wird also über das Bildmaterial selbst verdichtet. Der Zugriff wird schneller und präziser, die Auswahl unabhängig von Ort und Zeit. 5.4 INES 2001 startete bei RTL Television in Köln das Projekt INES. Ines steht für Integrated News Editing System und beinhaltet im Wesentlichen ein Serversystem mit einem Produktionserver und einem Archivserver. INES ist also ein bandloses Produktionssytem. Die Aufzeichnung, der Zugriff aufs Archiv, der Schnitt, die Vertonung und die Ausspielung erfolgen über einen zentralen Speicher und ein spezielles Hochgeschwindigkeitsnetzwerk. Die Vorteile liegen zunächst einmal in dem integrierten Workflow und in der schnelleren und effizienteren Herstellung von Beiträgen. Das archivierte Material wurde nun nicht mehr nur als Preview gespeichert sondern auch als hochauflösende, sendefähige Datei. Auch das aktuell einlaufende Material (RTL eigenes Rohmaterial, Agenturmaterial, aktuelle Sendungsbeiträge) wurde in der Art gespeichert. Durch den Ingest-Prozess (vgl. auch ISO 14721) wird Material in den Server „aufgenommen (Ingest bedeutet soviel wie „in sich aufnehmen“), also aufgezeichnet, digitalisiert und in Audio- und Videosequenzen eingeteilt. Die Codierung des auflaufenden Materials erfolgt durch diverse Rechner, so genannte Encoding Units. Von dem einlaufenden Bildern werden jeweils hochauflösende (HiRes) Dateien und Dateien in Vorschauqualität (Preview oder auch LoRes) erzeugt. - 27 - Derzeit ist das LoRes-Material ein Mpeg-File. Die MPEG-1-Kodierung hat eine Datenrate von 1,5 Mbit/s. Im Gegensatz zum HiRes-Material wird hier Bild und Ton miteinander verschränkt in einer Datei gespeichert und bildet so ein Containerformat. (vgl. Multiplexing bei Mpeg-Systems). Das derzeitige HiRes-Material besteht aus einem AVI-File und vier WAV-Files für den Ton. Das AVI-File (als Container) beinhaltet eine mit MPEG-2 kodierte Datei. Die konkrete Variante ist 4:2:2Profile@MainLevel, I-Frame only. Wie wir gesehen haben, ist dies ein so genanntes Intraframe-Verfahren, bei dem die Einzelbilder unabhängig von einander komprimiert werden. Die Auflösung beträgt 720 x 576 Pixel bei einer Datenrate von 25 Mbit/s. In das INES-System eingebunden ist das System VPMS. VPMS bedeutet „Video Production Management System“ und ist ein komplexes, modular aufgebautes Programm zum Sichten und Schneiden von Videomaterial. Mit VPMS kann der Redakteur Material am Arbeitsplatz sichten und vorschneiden. Die entstandene Schnittliste (Cutliste) kann dann an den Schnittplatz übergeben werden. Sie liegt dann im Schnitt im Produktionsformat (MPEG-2, 25 Mbit/s, I-Frame) vor. Im Archiv wird das zu archivierende Material ebenso als Cutliste mit VPMS angelegt. Voraussetzung ist eben, dass das Material auf dem Produktionsserver als File (Preview und HiRes) vorliegt. Mit VPMS wird das Material vorstrukturiert und mit entsprechenden Metadaten versehen. Zurzeit enthält VPMS deutlich weniger Felder als potentiell in der eigentlichen Archivdatenbank TRIP angelegt. Es herrscht noch keine Konsistenz. Deshalb ist der Übertrag der Daten noch nicht zu 100% möglich und es muss teilweise direkt in TRIP nachgearbeitet werden. Beim News-Archiv-Export werden dann die TRIP-ID und weitere formale Daten wie Moderator oder Bearbeiter vergeben. Der Datensatz wird dann in die TRIP-Datenbank überführt und die entsprechenden VideoFiles auf den Archivserver kopiert. 5.5 Anbindung an Aussenstudios Fast alle Aussenstudios sind über eine Video-over-IP Anbindung miteinander und mit Köln verbunden. Material kann als Stream über ein IP-Protokoll übertragen werden. Die Aussenstudios in Berlin und München haben unterdessen eine ähnliche Serverstruktur - 28 - wie Köln. Außerdem wird dort mit den selben File-Formaten gearbeitet. Hier ist es möglich, per Filetransfer-over-IP Dateien direkt auf die lokalen Server zu transferieren. Per VPMS können dann alle Server direkt genutzt werden. Ziel ist es mittelfristig, alle Zulieferstudios in das Netzwerk entsprechend einzubinden. Lange Überspielzeiten entfallen, Support-Abteilungen wie das Archiv könnten zentral geführt werden. Bei RTL Nord (sowie bei RTL Hessen) wird derzeit noch mit anderen File-Formaten gearbeitet. Das heißt, dass Material zwar grundsätzlich per Filetransfer übermittelt werden kann. Es landet aber nicht direkt auf dem Produktionsserver sondern muss noch aufwändig (und von Hand) transkodiert werden. Dazu wird die Datei (in Form des bereits beschriebenen AVI-Files (mpeg-2) und den Tonspuren) von einem FTP-Server in ein Schnittprogramm importiert, transkodiert und dann auf den eigentlichen Produktionsserver exportiert. - 29 - 6 Fazit Wie gezeigt wurde, sollte sich der moderne Mediendokumentar intensiv mit der technischen Struktur eines (seines) Archivservers auseinandersetzen. Dazu gehört vor allem die Kenntnis seines Werkzeugs, dem Dateiformat. Dieses Wissen dient zum einen der Kommunikation mit Technikern und Informatikern. Diese Kommunikation sollte optimiert werden, um bei Planungsentscheidungen und anwendungsbezogenen Problemen effektiv vorgehen zu können. Zum zweiten ist es wichtig, ein Verständnis für die Qualität seines Mediums zu haben. Das betrifft die Datenreduktion. Die Kompression von Daten kann sowohl verlustfrei als auch verlustbehaftet geschehen. Falls irgendwie machbar, sollte der Dokumentar möglichst nah am Originalmaterial bleiben und wenn durchführbar bei der Archivierung auf verlustfreie Kompressionen zurückgreifen. Mediendokumentare haben es in der Praxis nicht nur mit dem internen Dateistandard zu tun sondern begegnen auch zunehmend sehr unterschiedlichen anderen Formaten (Codecs, Containern, Wrappern), sei es in der Materialakquise oder in der Materialdistribution. An dieser Stelle ist es wichtig, diese Formate exakt definieren zu können und die entsprechende Weiterverarbeitung kompetent initiieren zu können. Bei der Konzeption eines Archivservers spielt der Speicherort der Metadaten eine große Rolle. Unterdessen gibt es Wrapperformate, die eine Speicherung, auch von deskriptiven Metadaten direkt an der Datei erlauben. Solche Konzepte sollten aber wohl überlegt sein. Nicht jedes Verfahren, dass gerade in Mode ist (MXF ist ein Beispiel dafür) ist letztlich für jedes Dokumentationsumfeld geeignet. Grundsätzlich sollte der Fokus auf dem Bewahren der Bits und Bytes liegen. Für eine echte Langzeitarchivierung muss daher langfristig die Unabhängigkeit vom Speichermedium erreicht werden – ständige Migration der Dateien sollte also eingeplant werden. RTL Nord plant derzeit die Einführung eines Archivservers. Für die Produktion wurde bereits die Entscheidung für eine neue Schnittumgebung, nämlich für Final Cut Studio von Apple, getroffen. Auch die Kameratechnik wird umgestellt, hier soll auf die XDCam der Firma Sony eingeführt werden. XDCam kann entweder im IMX oder im DV-Modus aufzeichnen und die Videodaten file-basiert ausgeben. RTL Television hat sich im Zusammenhang mit dem Umzug nach Köln-Deutz schon - 30 - für ein neues Produktionsformat bzw. Archivformat entschieden. Im Unterhaltungsarchiv wird es ein Austauschformat, nämlich MXF mit einem HDtauglichen MPEG-2, 50 mbit/s, I-Frame Only, geben. Das macht hier auch Sinn, da hier oft zusätzliche Daten, wie zum Beispiel sprachlich synchronisierte Tonspuren, mit transferiert werden. Austauschstandards mit den Vertragspartnern werden ausgebaut. Der Informationsbereich wird verstärkt Apple-Produkte nutzen, zum Beispiel die Schnitt-Umgebung Final Cut Studio. Als Format wird ein IMX30-Format (MPEG-2 IFrame-Only-Kodierung im 4:2:2P@ML-Format) eingeführt. Als Container wird ein Quicktime-Container verwendet, um eine gute Kompatibilität mit den Apple-Produkten zu gewährleisten. Um aufwändige Transkodierprozesse zu vermeiden, sollte das Archiv-Format bei RTL Nord dasselbe sein wie das Produktionsformat. Es zeichnet sich ab, dass RTL Nord ebenso wie RTL Television auf das erwähnte IMX30-Format setzen wird. Da dadurch keine medienrechtlichen Einschränkungen zu erwarten sind, spricht auch nichts dagegen. Der filebasierte Austausch mit dem Mutterhaus und Aussenstudios würde so optimiert. Man sollte sich aber überlegen, ob man nicht zusätzlichen Speicherplatz für externes Material anderer Kodierung schaffen sollte. Gerade bei Wrapper-Formaten, die potentiell deskriptive Metadaten enthalten könnten, wäre ein (zumindest mittelfristiges) Vorhalten dieser Originaldateien sinnvoll. - 31 - 7 Literaturverzeichnis Bücher Heyna, Arne/Briede, Marc/Schmidt, Ulrich: Datenformate im Medienbereich. München, Wien 2003 Kuhlen, Rainer/Seeger, Thomas/Strauch, Dietmar [Hrsg.] (2004): Grundlagen der praktischen Information und Dokumentation. K.G.Saur, München, Glossar Peters, Günter (2004): Medien, Medienwirtschaft. In: Kuhlen, Rainer/Seeger, Thomas/Strauch, Dietmar [Hrsg.] (2004): Grundlagen der praktischen Information und Dokumentation. K.G.Saur, München 515 – 523 Schmidt, Ulrich: Professionelle Videotechnik. Heidelberg 2005 Schwens, Ute/Liegmann, Hans (2004): Langzeitarchivierung digitaler Ressourcen. In: Kuhlen, Rainer/Seeger, Thomas/Strauch, Dietmar [Hrsg.] (2004): Grundlagen der praktischen Information und Dokumentation. K.G.Saur, München 567 – 578 Zeitschriftenartikel Altmeier, Frank/Heitmann, Jürgen (2005): TV-Archivierung, Neue Entwicklungen durch skalierbare NAS-Speichersysteme. In: FKT 7/2005, 347 – 350 Röder, Jan (2007): Das Material Exchange Format (MXF) im netzwerkbasierten TVStudio. In: FKT 1-2/2007, 23 – 27 Thomas, Peter (2008): Dateiformate für Archivierung und Programmaustausch. In: FKT 4/2008, 196 - 200 - 32 - Webseiten Artikel Bitrate. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 4. April 2008, 22:32 UTC. URL: http://de.wikipedia.org/w/index.php?title=Bitrate&oldid=44532216 (Abgerufen: 27. Juli 2008) Artikel Entropie (Informationstheorie). In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 12. August 2008, 10:46 UTC. URL: http://de.wikipedia.org/w/index.php?title=Entropie_(Informationstheorie)&oldid=49459 367 (Abgerufen: 21. August 2008) Artikel Transcodierung. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 16. August 2008, 04:16 UTC. URL: http://de.wikipedia.org/w/index.php?title=Transcodierung&oldid=49604183 (Abgerufen: 21. 08. 2008) Childress, Eric (2003): Non-Marc Cataloging Standards Overview. In: http://www.oclc.org/research/memberscouncil/2003-02/childress.ppt (02.08.2008) Fankhauser, Peter (2001): Grundlagen des Datenmanagements im World Wide Web. In: http://www.ipsi.fraunhofer.de/~fankhaus/vorlesung/modul3-5.pdf (02.08.2008) Lichtscheidl, Irene K. o.J.: Intraframe und Interframe-Kompression. In: http://www.univie.ac.at/video/grundlagen/intraframe.htm (27.07.2008) o.A. (2008): Digital File Formats. In: http://broadcastengineering.com/storage_networking/digital_file_format_0217/ (15.08.2008) o.A. (2007): Lossless Data Compression. In: http://www.datacompression.com/lossless.html (02.08.2008) - 33 - o.A. (2006): Review of Content Standard ISO 11179-1. In: http://www.xmdr.org/standards/cmaps/ISO%2011179-1.doc (25.08.2008) o.A.: The Role of Metadata in Digital Production Projects. In: http://libraries.mit.edu/metadata/role.html (25.08.2008) PCO (2003): Das Geheimnis des Codecs. In: http://www.orthy.de/index.php?option=com_content&task=view&id=765&Itemid=85 (19.08.2008) - 34 - Eidesstattliche Erklärung Hiermit versichere ich an Eides statt, die vorliegende Abschlussarbeit selbstständig verfasst zu haben und keine anderen als die angegebenen Hilfsmittelbenutzt zu haben. Berlin, den 31.08.2008 Oliver Hirsch - 35 - Quellen und