Leseprobe: Farblichtmusik

Transcrição

Leseprobe: Farblichtmusik
1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio
437
1.6.6 Ton-Bild-Kunst oder Visuelle Musik: VJing und Musikvideos
Am Anfang dieses Themenabschnitts soll als Kontrapunkt ein Zitat von Udo Lindenberg stehen:
„Singen kann ich nicht, dafür kann ich auch nicht malen.“ (aus Farbenhören. Das musikalische
in der Kunst. ars momentum (2006) von J.-P. Braun). Eingangs des Themas Aufgaben- und
Anwendungsbereiche für das PC-Tonstudio wurde ja bereits darauf hingewiesen, dass die
Beziehung zwischen Bild und Ton wechselseitig ist. Dafür steht beispielsweise nicht nur die
verkaufsfördernde Begleitung von Musikproduktionen durch Videoclips oder die Produktion
von speziellen Musikvideos begleitend zur Vermarktung von neuen CD-Produktionen. Relativ
neu ist in im Zusammenhang mit dem Thema Musik und Bild das Stichwort VJing, ein
Kunstwort aus der Clubszene, zusammengesetzt aus den Worten Visual und Jockeying, analog
zum Begriff DJing von DiscJockeying. Letztendlich entstand das Kunstwort aus der Mischung
von Videokunst, Musikvideo, Design und der Arbeit eines DJs etwa Ende der 1980er Jahre. Im
Verlauf der letzten 20 Jahre hat sich VJing zu einer etablierten Kunstform der visuellen Musik
entwickelt. Inzwischen gibt es sogar spezielle Programme für den PC, die den Videokünstler bei
seiner Performance unterstützen sollen. Im Zusammenhang mit dem Thema soll hier auch kurz
noch auf die Produktion von Musikvideos eingegangen werden, obwohl das Thema Film und
Ton erst in Band 3 unter der Überschrift Filmton und Surround-Produktion etwas ausführlicher
behandelt wird. Vor den Themen VJing und Musikvideo soll allerdings noch auf ein eher
historisches aber im Zusammenhang mit der Videokunst durchaus interessantes Thema
eingegangen werden, für das die Stichworte Farblichtmusik und Farbklavier stehen.
DJing
In der Zeit zwischen 1979 bis 1980 entwickelte sich in den USA eine neue Spielart der Dance
Music, der Hip Hop, der sich zwar bei Funk- Soul- und Rhythm-and Blues-Musik bediente, aber
eine neue Musikform schuf. Ein wichtiger Bestandteil dieses Musikstils ist der rhythmische
Vortrag eines Textes. Die Macher des Hip Hop entwickelten und perfektionierten zugleich das
DJing, bei dem ein neuer Track, später auch als Compilation bezeichnet, durch kreatives
Zusammenmischen von Ausschnitten aus von schon vorhandenen Tracks entsteht. Dazu werden
zwei Plattenspieler und ein Mischpult eingesetzt, wobei zur Anpassung von zwei völlig
verschiedenen Tracks die Abspielgeschwindigkeit verändert wird. Ein weiteres Stilelement
beim DJing ist das Scratching, das Vor- und Zurückdrehen der Schallplatte, um besondere
Klang- und Rhythmuseffekte zu erzeugen (mehr zum Thema findet der Leser in Anhang 1 in
Band 5).
Bereits am Dekor gerade alter Musikinstrumente kann man erkennen, dass Musiker und Maler
wussten, wie stark der Musiker die optische und akustische Aufmerksamkeit des Zuhörers
benötigt, um seine Konzentration auf die Darbietung zu stimulieren. Auch aus der bildlichen
Darstellung von Tanzszenen lässt sich entnehmen, dass der Sinn von choreografischen
Arrangements und Kostümierung der Tänzer darin bestand, akustische Darbietungen zu
illustrieren. Selbst schon in der Frühgeschichte aller Völker bildeten Farben und Töne einen
Teil ihrer Symbolphilosophien und Schöpfungsmythen. Mit den ihnen damals bekannten
Elementen Wasser, Feuer, Erde und Licht sowie den Planeten und Jahreszeiten entwickelten sie
welterklärende Analogien, die häufig in engem Bezug zur Astrologie standen, man denke nur an
die zu diesem Zweck noch heute benutzten Sternbilder. Die auf reinen Verhältnissen beruhende
Zahlensymbolik der im 6. Jahrhundert v. Chr. lebenden Pythagoräer beherrschte bis ins 17.
Jahrhundert hinein die Vorstellung und das Verständnis über die Welt.
1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio
438
Auf der Basis seiner Zahlensymbolik entwickelte Pythagoras auch die Grundlagen der
musikalischen Harmonielehre. Dabei setzte er sich intensiv mit der Sphärenmusik auseinander,
die aus rein mathematischen Tönen bestand und nach dem Verständnis der Pythagoräer die
kosmische Ordnung widerspiegelte. Solche Töne hatten zudem ein sichtbares Äquivalent auf
der Skala des damals bekannten Farbspektrums. Die Basis dieses Analogiesystems wurde durch
die Siebenzahl der damals bekannten Planeten gebildet. Diese Siebenzahl wurde 200 Jahre nach
Pythagoras von Aristoteles, entsprechend den sieben Tönen der Oktave, auf die Farben
übertragen, wobei er ihnen mithilfe einfacher Zahlenverhältnisse Tonintervalle zuordnete (mehr
zu der auf den Zahlenverhältnissen beruhenden Harmonielehre findet der Leser in Band 4).
Damit schuf Aristoteles die Basis der antiken Farbe-Ton-Beziehung. Diese Farbenlehre behielt
sogar noch ihre Gültigkeit, als im Mittelalter neue Farbenlehren auftauchten, die sich in den
meisten Fällen an der bekannten Zahlensymbolik orientierten. So verglich Thomas von Aquin
Mitte des 13. Jahrhunderts Farben und Töne zwar nicht direkt, aber er betonte, dass sie jeweils
Harmonien bilden und somit zur „delectatio“, also zur Labung der Seele betragen. Auch die
durch Quellen belegten Farbe-Ton-Theorien des 17. Jahrhunderts sind noch von der
griechischen Antike beeinflusst.
Anfang des 18. Jahrhunderts erzielte aus dem Blickwinkel des Physikers der Engländer Newton
mit seinen Versuchen und der Publikation seiner gesammelten Erkenntnisse in der Schrift
„Opticks“ einen Durchbruch bei der Farbe-Ton-Theorie. Durch seine optischen Versuche mit
Prismen bewies Newton die Zusammensetzung von weißem Licht aus den damals
nachweisbaren sieben Spektralfarben und die rechnerische Übereinstimmung mit den sieben
Intervallen einer Tonleiter. Damit konnte nun eine Farbe-Ton-Beziehung physikalisch und
somit naturwissenschaftlich begründet werden. 1675 transferierte Newton die
Solmisationssilben sol-la-fa-sol-la-mi-fa-sol auf das Farbspektrum, und konnte auf diese Weise
die Tonintervalle und die Farbbreiten einander zuordnen. In dem 1704 veröffentlichten Buch
Opticks (siehe Bild 1.280) ordnete Newton die Farben kreisförmig an und die Tonintervalle
einer dorischen Skala zu. Er benannte die Töne allerdings noch nicht im modernen Dur und
Moll, sondern in Hexachorden. Zudem setzte er die sieben Farben in ein Verhältnis zu den
sieben damals bekannten Planeten.
Neben dem physikalischen Ansatz von Newton gab es in der zweiten Hälfte des 17.
Jahrhunderts zwei weitere Haupttheorien: die universelle Harmonie des ab 1633 in Italien
wirkenden Athanasius Kircher und die Ansätze der französischen Kunsttheorie. Beispielsweise
ordnete Kircher in einer 1650 veröffentlichten Tabelle Tonintervalle und Farben einander zu.
Die Oktave in der aristotelischen Mittelposition wurde mit Grün gleichgesetzt. In Richtung auf
das Weiß erschienen die Konsonanzen, in Richtung auf das Schwarz die Dissonanzen, während
Cureau de la Chambre 1650 weitgehend das Farbsystem des Aristoteles übernahm und Quarten,
Quinten und Oktaven auf Farbenpaare übertrug.
Aber bereits im Verlaufe des 18. Jahrhunderts tauchten die ersten Zweifel auf. Castels
entwickelte die Farbe-Tonintervall-Beziehung Newtons zu einer Farbe-Ton-Beziehung weiter,
denn für ihn war nicht die Siebenzahl von Farben und Tönen die Basis seines Vergleiches,
sondern die Dreizahl durch die Farbentrias Rot-Gelb-Blau. So ordnete er auf der Basis seiner
theoretischen Überlegungen erstmals in der Geschichte der Farbe-Ton-Beziehung einzelnen
Farben einzelne Töne zu. 1740 veröffentlichte Castels, der auch das „Clavecin oculaire“ gebaut
hatte (siehe weiter unten) sein Werk „Optique des couleurs“ als Gegenpol zu Newtons Opticks.
(In einer deutschen Übersetzung erschien das Werk 1747 unter der Überschrift „FarbenOptick“.)
1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio
439
Newton bestimmte in seinem Werk Blau als Grundfarbe, da es dem Schwarz am nahesten sei,
und erhielt die Farbentrias Blau-Rot-Gelb in aufsteigender Helligkeit. Durch Zwischentöne und
Zwischenfarben konnte er einer mit dem Ton c beginnenden chromatischen Tonleiter die
folgenden Farbenkreis zuteilen: c – Blau, cis – Celadon, d – Grün, dis – Olive, e – Gelb, f –
Goldgelb, fis – Incarnat, g – Rot, gis – Cramoisin, a – Violett, ais – Agathe und h - Blau-violett.
Bild 1.279: Hier kann man in der Originalausgabe lesen.
Etwa Mitte des 18. Jahrhunderts stellt Jean-Jacques d' Ortous eine Liste mit Gegenargumenten
zur Farb-Ton-Theorie von Castels auf:
•
Eine Farbenharmonie sei von der Gewohnheit und der Mode abhängig, die Definition
von Konsonanzen in der Musik aber zu allen Zeiten konstant.
•
Die Wirkung einer Farbdissonanz, wie z. B. Rot und Orange, hinterlasse einen weniger
unangenehmen Eindruck als die Dissonanz in der Musik, wie z. B. ein Halbton.
•
Die Farben mischen sich zu einer nicht analysierbaren Einheit, z. B. Gelb und Blau zu
Grün, zwei Töne bilden jedoch nicht den zwischen ihnen liegenden Ton, z. B. c und d
nicht dis.
•
Die Empfindung jeder Farbe sei absolut, im Unterschied dazu beziehen sich Töne immer
auf einen Grundton.
•
Der Übertragung der Oktaven auf die Farben sei falsch, denn die Oktave wird durch eine
Verdopplung der Schwingung definiert und die doppelte Schwingung der Farbe Rot
hätte noch niemand gesehen.
•
Der raumzeitliche Gegensatz von Musik und Malerei kann nicht wegdiskutiert werden.
1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio
440
Im Verlauf der nächsten Jahrzehnte kamen weitere Zweifel hinzu. So wurden 50 Jahre später
eine Anzahl neuer Gründe genannt, die die Existenz einer Farbenmusik widerlegen sollten:
•
Beispielsweise würde Schall nie einen neutralen Zustand einnehmen, sondern immer als
Ton erscheinen, während Licht zunächst weiß, also neutral sei und erst durch das Prisma
in seine Farben zerlegt wird.
•
Wenn die Zerlegung des Lichtes in seine einzelnen Farben einer Zerlegung des Tones in
eine Obertonreihe entspricht, so ist die natürliche Abfolge der Farben kontinuierlich und
die der Töne in Abständen.
•
Farben bilden keine Oktaven, denn die Blässe der Farben entspricht der Schwäche des
Tones und damit einem leiseren Ton. Somit sei eine Wiederholung der Farben in
gewissermaßen verdünnten Oktaven nur ein in piano wiederholter Satz in der Musik.
•
Die Kreisstruktur und das Zurücklaufen der Farben sind in der Musik nicht vorhanden,
bei der kein tiefer Ton je der tiefste und kein hoher Ton je der höchste sei.
Als weiteres Gegengewicht zu Newtons physikalischer Sichtweise der Farben veröffentlicht
Johann Wolfgang von Goethe 1810 seine Farbenlehre, in der er versucht, eine Physiologie und
Psychologie des Sehens zu begründen. Ebenso wie in seiner Farbenlehre steht Goethe in seiner
Tonlehre, in der er eine Psycho-Physiologie des Hörens entwickelt, in Opposition zur
dominierenden rein physikalisch begründeten Theorie. Für ihn sind in der Frage der
Tongeschlechter nicht die Zahlenverhältnisse untereinander maßgebend, sondern ihre
unterschiedlichen Wirkungen auf das menschliche Ohr und Gemüt. Allerdings hebt er die
Ähnlichkeit der Schematisierung in der Tonlehre mit dem Schema der Farbenlehre hervor:
“Hier steht das Subjektiv-Organische wieder voraus, das Objektiv-Physische, Mathematische
ihm entgegen.” In Goethes Augen ist Newtons Optik eine Farbenlehre für Blinde, weil Farben
ihr zufolge eine vom Auge unabhängige, objektiv dem Licht zugehörende Realität sind, und
analog dazu die rein physikalische Akustik für ihn eine Tonlehre für Taube.
Literatur: [1.372]
Trotz der beginnenden Zweifel an der tatsächlichen Existenz einer Farbe-Ton-Analogie wurden
weitere Theorien entwickelt, die sich entweder an physikalisch-naturwissenschaftlichen
Grundsätzen orientierten oder die Untersuchungen, wie in der Romantik, auf den Bereich der
Empfindsamkeit und physiologische und psychologische Prozesse verlagerten. Hinzu kam, dass
ab dem beginnenden 19. Jahrhundert die Messtechnik stetig verbessert werden konnte, was zu
neuen Erkenntnissen führte. Kant fasste das wie folgt zusammen: „Nicht sehen trennt den
Menschen von den Dingen. Nicht hören trennt den Mensch vom Menschen“.
1801 wurde die Wellenlänge des Lichts von Thomas Young berechnet. Er verglich den Umfang
mit einer Sexte in der Musik und verdoppelte die Frequenzen der Töne so oft, bis er den
Wellenlängenbereich des Lichtes erreichte. Damit konnte er eine Analogie von C und der Farbe
Gelbgrün aufzeigen. Ab 1839 wurden dann in Deutschland Schwingungsberechnungen zum
Nachweis der Farbe-Ton-Beziehung durchgeführt. Im Verlauf der folgenden Jahrzehnte zeigte
sich, dass mit der Verbesserung von optischen Geräten der Umfang des sichtbaren Spektrums
immer größer wurde. Während Newtons Spektrum noch den Umfang einer Quinte hatte, konnte
1855 Helmholtz, der weitere Unterschiede zwischen Farben und Tönen feststellte,
messtechnisch ein Spektrum untersuchen, das dem Umfang einer Duodezime (Quarte über einer
Oktave) entsprach. Zudem können die Grenzen des sichtbaren Lichtes ohnehin nicht eindeutig
festgelegt werden. 1860 listete Fechner neun Übereinstimmungen, aber auch 24 Unterschiede
von Farben und Tönen auf.
1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio
Bild 1.280: Was Goethe zum Verhältnis zwischen Farben und Tönen schreibt.
Bild 1.281: Historisches Farbklavier.
441
1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio
442
Es war wohl der Komponist Alexander Nikolaevitsch Skrjabin (1872–1915), der in seiner
Partitur Prométhee op. 60 als erster den Versuch unternimmt, Musik und Farblicht in einer Art
von Gesamtkunstwerk zu verbinden. Diese symphonische Komposition, „Poème du feu“,
komponierte er in den Jahren zwischen 1908–1910. In der Partitur gibt es neben den üblichen
Orchesterstimmen auch eine „Luce“ genannte Stimme, die Spielanweisungen für ein
Farbenklavier vorgibt, das auf eine Leinwand farbiges Licht projizieren soll. Sie sind in Form
von Noten zweistimmig notiert. Die Angaben dazu, welche Note welcher Farbe entspricht,
stammen von Skrjabins engem Vertrauten und späteren ersten Biografen Leonid Sabaneev,
siehe [1.373].
Farbklavier
Trotz aller Zweifel hat selbst heute noch die auf Zahlensymbolik beruhende Weltanschauung
ihre Anhänger (siehe unter dem Stichwort Pythagoräer in Band 4). So ist es nicht
verwunderlich, dass im Verlauf der letzten Jahrhunderte immer wieder versucht wurde, die
gemeinsamen Beziehungen von Farbe und Ton musikalisch umzusetzen. In [1.374] kann man
die Vermutung nachlesen, dass das Universalgenie Leonardo da Vinci um 1500 einer der Ersten
gewesen sein soll, der farbige Lichter projizierte. In den folgenden Jahren, Jahrzehnten und
Jahrhunderten wurde immer wieder versucht, spezielle Instrumente anzufertigen, die in der
Lage waren, gleichzeitig zu den Tönen farbiges Licht zu produzieren. In manchen
Literaturquellen wird als erster Erbauer eines Farbklaviers Giuseppe Arcimboldi (1527–1593)
genannt, der wohl hauptberuflich alchemistische Studien am Prager Hof des habsburgischen
Kaisers Rudolf II. betrieb. Allerdings ist die Existenz seines Instruments nicht eindeutig
nachweisbar. Hingegen nennen andere als erste praktische Umsetzung von Farbe-TonBeziehungen die Arbeit Louis Bertrand Castels in der ersten Hälfte des 18. Jahrhunderts. Dieser
Instrumentenbauer entwickelte die Idee zu einem „Clavecin oculaire“. Die Existenz dieses
Instruments ist durch einen Brief von Georg Philipp Telemann überliefert: Beschreibung der
Augenorgel, oder des Augen-clavicimbels, so der berühmte Mathematicus und Jesuit zu Paris,
Herr Pater Castel, erfunden und ins Werck gerichtet hat; aus dem Französischen Briefe
übersetzet von Telemann, Hamburg 1739.
Bei dem Instrument von Castel soll es sich um ein Farbklavier handeln, bei dem gleichzeitig zur
Musik ein Farbenspiel dargeboten werden konnte, denn jeder Tastendruck öffnete den Schacht
zu einem farbigen Licht. Aber auch bei diesem Instrument ist nicht eindeutig gesichert, ob es
jemals gebaut und gespielt wurde. Aus der Geschichte sind weitere Beispiele bekannt, wo
versucht wurde, optische Musikinstrumente zu bauen, die manchmal auch als Farborgeln
bezeichnet werden [1.374 und 1.375]: Beispielsweise das „Ocular Harpsichord“ eines dem
Namen nach unbekannten Instrumentenbauers, das „Musique oculaire“ von Edme-Gilles Guyot,
der „Farbenleyer“ von Johann Samuel Halle und die „Farborgel“ von Karl von Eckartshausen.
Im Zuge dieser Entwicklung im Bereich des Instrumentenbaus wurde gegen Ende des 18.
Jahrhunderts zunehmend die Idee einer emotionalen Wirkung der Farben diskutiert. So kann
man beispielsweise in der Beschreibungen seines Instruments durch J. S. Halle ähnliche Ideen
wie in Moses Mendelssohns Schriften „Über die Empfindungen“ (1755) finden. Der Mystiker
Eckartshausen sieht sein Farbenklavier eher in einem musiktherapeutischen Kontext. Über
Goethes die Psycho-Physiologie betreffenden Gedanken über Farben und Tonarten wurde ja
schon weiter oben berichtet.
1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio
443
In [1.376] findet man dazu die folgende Aufzählung historisch gut belegter Instrumente:
•
Um 1790 füllt K. v. Eckartshausen Gläser mit farbigen Flüssigkeiten, die beim Betätigen
der zugehörigen Klavichord-Taste von hinten beleuchtet werden.
•
Um 1840 benutzt D. Jameson einen ähnlichen Mechanismus wie v. Eckartshausen.
•
Um 1870 erzeugte ein von F. Kastner entwickeltes Instrument durch Gasentzündung in
kleinen Röhrchen gleichzeitig Farben und Töne.
•
Um 1880 benutzt B. Bishop konzentriertes Tageslicht, um in Abhängigkeit von der
gedrückten Orgeltaste gefärbte Glasscheiben zu beleuchten.
•
Um 1890 entwickelte Al. W. Rimington eine Color Organ mit elektrisch erzeugten
Farbprojektionen. Rimingtons Versuche reichten von der Zuordnung von je einer Farbe
zu einer Taste bis hin zu schließlich von der Musik unabhängigen Lichtspielen, bei
denen die Klaviatur keine Töne mehr produzierte, sondern ausschließlich der Steuerung
der Lichtquellen diente.
•
Um 1900 löste Alexander B. Hector durch zwölf geschickt auf der Bühne aufgestellte
Tonlichter und einem Wechsel von schwachem und konzentriertem Licht das
Analogieverhältnis zwischen musikalischen Tönen und Farbwertigkeit.
Darüber hinaus sollen zum Stichwort Farbmusik noch die folgenden Instrumente aus dem 19.
und 20. Jahrhundert genannt werden: Pyrophone um (1870) und Device for Painting Music
(1877), siehe [1.377], Musical Chromoscope um 1900, ein „Apparatus for Producing Color
Music“ (1912), Sarabet, Clavilux und Optophonic Piano (um 1920), Sonochromatoscope (um
1925), Optophon (um 1925), Licht-Raum-Modulator (um 1930), MobilColor Projector (um
1940), Lumigraph (um 1950) und Synchromous Kscope (um 1960). Besonders das Optophonic
Piano war der Vorläufer von opto-elektronischen Instrumenten, die ebenfalls rotierende
Glasscheiben und Fotozellen zur Klangformung einsetzten. Hier nur noch ein paar Namen:
Celuphone, Photona, die „Radio-Organ Of A Trillion Tones“, Welte Licht-Ton-Orgel, Vako
Orchestron und das Mattel Optigan, das in den 1970er Jahren sogar als Heimorgel vermarktet
wurde. Aber auch nach der Jahrtausendwende wurde noch mindestens ein Farblichtflügel durch
N. Sidler gebaut (2001).
Nach dieser Aufzählung kann man besonders im ersten Drittel des 20. Jahrhunderts eine starke
Zunahme bei der Entwicklung und dem Bau von Farbenklavieren beobachten, die sich durch
verschiedene Aspekte begründen lässt. Beispielsweise hatte man jetzt auf der technischen Seite
neue Alternativen, die durch den Einsatz elektrischer Verfahren möglich wurden, sowohl für die
Koppelung der Klaviatur mit den verschiedenen Farblampen als auch für den Einsatz der
Lampen selbst. Aber auch auf der theoretischen Seite gab es seit dem letzten Drittel des 19.
Jahrhunderts eine interessante Entwicklung, denn im Fachgebiet der Sinnesphysiologie kam es
zu einer verstärkten Beschäftigung mit der Synästhesie (das ist eine sprachlich ausgedrückte
Verschmelzung mehrerer Sinneseindrücke wie zum Beispiel ein „schreiendes Rot“), die die
Entwicklung von Farbenklavieren beeinflusste. So wurde die Idee weiterentwickelt, dass die
Synästhesie ein weiterer Beleg für die dem Menschen innewohnende Eigenschaft ist, Farben
und Töne als Einheit zu betrachteten. Aber an der Schwelle zum 20. Jahrhundert lebte auch die
pythagoreische Idee einer Weltenharmonie wieder auf. Auf der Basis von Zahlenproportionen
als kosmischen Normen sollten die verborgenen Geheimnisse der Natur erforscht werden. Mit
den Ideen und Vorstellungen von Rimington und anderen über eine neue Kunstform begann
eine Entwicklung, die von den musikabhängigen Farbenklavieren des 18. und 19. Jahrhunderts
zur autonomen Lichtkinetik im 20. Jahrhundert bis hin zur VJing des 21. Jahrhunderts führte.
1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio
444
Synästhesie
Synästhesie stammt aus dem Altgriechischen und bedeutet soviel wie eine gemeinsame
Empfindung. In der menschlichen Sinnesforschung versteht man darunter die Miterregung eines
Sinnesorgans bei der Reizung eines anderen. Eine solche Verknüpfung muss sich aber
keinesfalls auf zwei Sinne beschränken, es können auch mehrere Sinne beteiligt sein. Die
häufigste Form der Synästhesie ist die Auslösung von visuellen Farbreizen durch eine
akustische Anregung. Obwohl die visuelle und die auditive Wahrnehmung physikalisch
betrachtet getrennte Phänomene sind, entsteht im Gehirn des Rezipienten eine Synthese von
Bild und Ton. Die häufigste Form der zwangsmäßigen Mitempfindung ist nach Lehrmeinung
das Farbenhören, dem Farbempfinden beim Hören von Tönen und Geräuschen, das im
Gegensatz zum Tönesehen, dem auditiven Empfinden beim Sehen von Farben, steht. Das
Farbehören tritt bei Synästhetikern unwillkürlich auf, wobei jede Person ein individuelles
Schema der Zuordnung aufweist, das während ihres gesamten Lebens konstant und vom
Kontext der Wahrnehmung, d. h. von der Situation unabhängig ist. Während man im Englischen
vom „colour hearing“ spricht, hat sich im Deutschen daneben auch der Begriff analytische
Synopsie etabliert; wobei die beobachteten Sichterscheinungen als Photismen bezeichnet
werden. Die absolute Koppelung von Farbwahrnehmungen an bestimmte Töne oder
Geräuschattribute bei einem Farbenhörer kann man mit der Fähigkeit des absoluten
musikalischen Gehörs vergleichen, also der Fähigkeit, den wahrgenommenen Tonfrequenzen
eine absolute Tonhöhe zuordnen zu können.
Bild 1.282: Chromatische Skala nach Rimington.
Optophonic Piano
Dieses vom futuristischen Maler Vladimir Baranoff Rossiné entwickelte Instrument
verwendetet zum ersten mal eine optisch-elektrische Tonerzeugung. Das Instrument wurde wohl
hauptsächlich zur Erzeugung von optischen Effekten gebaut, aber es ist insofern interessant,
weil das optisch-akustische Effektgerät technische Verfahren verwendet, die in den folgenden
Jahrzehnten bis zur Perfektion verfeinert in vielen weiteren opto-elektronischen
Musikinstrumenten angewendet wurden. Das Gerät hatte eine 3-Oktaven-Klaviertastatur, über
die aber nicht die Töne, sondern Farben und Bilder kontrolliert wurden. Aus der Bild-FarbenKombination wurden dann in einem zweiten Schritt automatisch die Töne erzeugt. In dem Gerät
befanden sich eine starke Lichtquelle, verschiedene Spiegel, FarbUlter und rotierende
Glasscheiben, die vom Entwickler des Instruments bemalt worden waren. Die Tastatur des
Pianos steuerte und kombinierte die ganzen Elemente. Die so erzeugten Bilder konnten mit
einem Objektiv auf eine Leinwand projiziert werden. Gleichzeitig wurde die schwankende
Bildhelligkeit innerhalb des Gerätes von einer Fotozelle aufgenommen, die die Frequenz eines
1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio
445
Oszillators steuerte und dadurch einen sich ständig verändernden Dauerton erzeugte. Zusammen
entstand eine multimediale Performance, die im Prinzip immer einzigartig, also nicht
wiederholbar war. Die genaue Konstruktion des Tongenerators ist nach den bisher vorliegenden
Quellen nicht überliefert. Gesichert ist einzig, dass die Tonhöhe über Helligkeitsinformationen
aus den erzeugten Bildern abgeleitet wurde, sodass der Klang des Instrumentes wahrscheinlich
von Sinustönen mit gleitender Tonhöhe bis hin zu weniger wahrscheinlichen, scharfen und
rauen Tönen auf der Basis von Frequenzmodulation oder Ringmodulation gereicht haben
könnte.
Bild 1.283: Mehr Informationen zur Optophonic.
Überliefert sind die Farblichtkonzerte von Alexander László in Deutschland, der zum ersten mal
im März 1925 seine Theorie zur Farblichtmusik in einem kleinen Buch mit dem Titel die
„Farblichtmusik“ veröffentlichte. Dieser ausgebildete Konzertpianist hatte das Ziel, Malerei und
Musik als Künste eng miteinander zu verbinden. Dabei ging er von seinen persönlichen
synästhetischen Empfindungen aus, anstatt wie oftmals in der Geschichte der Farbton-Musik,
die Beziehung zwischen Farbe und Musik physikalisch zu berechnen. Während die
Zahlengläubigen seit Jahrhunderten versuchten, den Tönen bestimmte Farben zuzuordnen,
setzte László Klänge und Farben zueinander in Beziehung, er war also mehr Goethe als
Pythagoras. Das von ihm für Konzerte entwickelte Sonchromatoskop schuf parallel zu der am
Piano gespielten Musik mittels einer Vierfachprojektion dreiteilige Bilder, über die zusätzlich
als vierte Ebene komplexe Farben und Formen projiziert wurden. Dazu wurden Diapositive,
bewegliche abstrakte Formen und farbiges Licht eingesetzt. Diese Projektionen waren nicht frei
improvisiert, sondern sie folgten Spielanweisungen, die vorher passend zur Musik festgelegt
wurden.
Das Sonchromatoskop bestand aus einem Schalttisch mit den Bedienelementen, im Aufbau
ähnlich einem Harmonium, und aus vier großen und vier kleinen Projektoren, die miteinander
gekoppelt waren. Das Sonchromatoskop wurde am Saalende gegenüber der Bühne aufgestellt,
sodass die Bilder auf eine Leinwand projiziert werden konnten, die an der Rückwand der Bühne
1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio
446
angebracht war. Der Schalttisch wurde eingerahmt von zwei Projektoren, Hauptwerk I und II,
die nach den Angaben des Erfinders das Wesentliche, das Elementare, das Geschehnis, das Bild
projizierten. Neben jedem Hauptwerk-Projektor stand jeweils ein sogenannter NebenwerkProjektor, die zusammen die nebensächlichen Motive wiedergaben. Diese vier großen
Projektoren waren weiterhin mit vier kleineren Rampenwerken verbunden, die als Träger der
eigentlichen Bildmotive nach dem Lichtbildvorführungsverfahren ruckweise verschoben, einund ausgeschaltet wurden. Leider gibt es keine Aufnahmen der wenigen Aufführungen, denn
die Farblichtmusik-Karriere von Alexander László war bereits nach zwei Jahren zu Ende, weil
der Künstler nach zeitgenössischen Berichten an seinem eigenen hohen Anspruch scheiterte,
denn eine Synthese zweier gleichberechtigter Künste zu einem neuen Gesamtkunstwerk habe
nach Meinung der Kritiker nicht stattgefunden.
Bild 1.284: Farbmusikalische Aufführung von Alexander László, ein Aquarell von Matthias Holl aus dem Buch von
Alexander László: Die Farblichtmusik, Leipzig 1925.
Zu Beginn der 1930er Jahre ebbte so nach und nach das Interesse an Farbinstrumenten ab. Dafür
begann der Siegeszug des vertonten Experimentalfilms, denn ein häufiger Kritikpunkt an der
Farblichtmusik war das Fehlen einer tiefer gehenden Beziehung zwischen den projizierten
Formen und der Begleitmusik. Kritiker stellten die Zusammenhanglosigkeit zwischen Musik
und Farbe bei der Aufführung infrage. Um der Beliebigkeit der Umsetzung von Musik in Farbe
zu entgehen, entwickelte Raoul Hausmann das sogenannte Optophon, ein Gerät, mit dem Licht
in Klänge umgesetzt wurde. Allerdings waren der Farblichtmusik bei diesem Gerät enge
Grenzen gesetzt, denn es kam bei den Effekten, wie z. B. die Änderungen der Farbe und der
Leuchtkraft zu häufigen Wiederholungen und es bildeten sich dadurch vorhersehbare Muster,
die das Publikum schnell langweilten. Insofern sahen viele Künstler im Medium Film einen
Ausweg, denn bereits seit Anfang des 20. Jahrhunderts arbeiteten Künstler wie z. B. Leopold
Survage auch mit kinematografischen Verfahren, um musikalische Phänomene zu visualisieren.
Survage versuchte, Farbrhythmen als reale Bewegung zu komponieren. Er entwarf bereits 1913
1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio
447
über siebzig Studien zu einem Filmprojekt (Rhythme coloré), die allerdings alle mit den damals
zur Verfügung stehenden Techniken noch nicht realisiert werden konnten. In Deutschland
waren es Richter und Eggeling, die den Film als Erweiterung des künstlerischen Spektrums
betrachteten und in den frühen 1920er Jahren dieses Medium benutzten, um ihre Ideen von
Abstraktion in Musik und Farbe umzusetzen. Zusammen mit Ruttmann kann man die beiden
Künstler zu den Wegbereitern des abstrakten Films zählen.
Am 3. Mai 1925 wurde in Berlin die Matinée „Der Absolute Film“ veranstaltet, bei denen die
Werke von Eggeling „Symphonie Diagonale“, Richter „Film ist Rhythmus“, Ruttmann „Opus
II-IV“, Murphy und Leger „Images mobiles“ Picabia und Clair „Entr’ Acte“ sowie HirschfeldMack „Dreiteilige Farbensonatine“ gezeigt wurden, Werke, die damals beispielhaft für die
unterschiedlichsten Strömungen in der zeitgenössischen Filmavantgarde waren. Interessant
dabei ist, dass, obwohl die abstrakten Filme in ihrem Bildrhythmus an sich durchaus schon eine
musikalische Wirkung erzielen konnten, die Filmemacher nicht auf Musik verzichten wollten.
Sie wussten, dass Musik ein wichtiges emotionalisierendes Mittel ist, um die visuellen Abläufe
zu unterstützen bzw. zu verstärken. Wie bei Vorführungen von StummUlmen üblich, wurden die
Filme durch Darbietungen von lebendigen Musikern untermalt, denn der Tonfilm war noch
nicht einsatzbereit. Waren die ersten Filmversuche von Ruttmann, Richter oder Eggeling in den
1920er Jahren vor allem für ein spezielles Publikum bestimmt, so feierten die Animationsfilme
von Fischinger in den 1930er Jahren große Erfolge, denn seine beim Publikum außerordentlich
beliebten Werbefilme wurden sogar als Vorprogramme in den Kinos gezeigt.
Berlin. Die Sinfonie der Großstadt
1926 entstand ein auch heute noch immer einmal wieder vorgeführter Film „Berlin. Die
Sinfonie der Großstadt“, in dem ein Tag in Berlin vom frühen Morgen bis Mitternacht gezeigt
wird (Ruttmann). Schon bei der Uraufführung 1927 war der Film ein großer Publikumserfolg.
Er ist ein Beweis dafür, dass auch mit Realaufnahmen abstrakte, also nicht erzählende Filme
produziert werden können. Mittels einer gekonnten Montagetechnik ist es durchaus möglich,
durch Überblendungen von dokumentarischen Aufnahmen eine neue Realität zu erschaffen. Die
Abstraktion wurde durch die Manipulation der Wirklichkeit erzeugt. In erster Linie ist hier die
Beziehung von Tönen und Bildern zur Wirklichkeit abstrakt. Dieser Film ist also weniger ein
DokumentarUlm über das damals pulsierende Leben in einer Großstadt, sondern eher eine
Bewegungsstudie mit Realaufnahmen. Ruttmann interessierte sich bei seinen Filmaufnahmen
nur für die Bildästhetik. Für ihn hatten die Bilder keine erklärende Funktion. Er benutzte sie wie
Töne, um die Geschwindigkeit und Vielfältigkeit des Großstadtlebens zu zeigen.
In den 1930er waren es zum großen Teil die an der amerikanischen Westküste beheimateten
experimentellen Filmemacher, die mit ihrer filmischen Darstellung von visueller Musik die
nachfolgenden Künstlergenerationen stark beeinflussten. Zu dieser Entwicklung hat nicht
unwesentlich die Austrocknung der Kunstavantgarde in Deutschland durch die spezielle
Kulturpolitik der Nationalsozialisten beigetragen, Stichwort „Entartete Kunst“. Nachdem der
Zweiten Weltkrieg zu Ende war, stieg auch das Interesse an der Farblichtmusik wieder an. So
wurde 1960 in Moskau ein Labor für Farblichtmusik gegründet und eine programmierbare
Maschine entwickelt, die wie z. B. der 1963 gebaute Synthesator ANS (steht für den russischen
Vater der Farbenmusik Anton Nikolajewitsch Skrjabin), automatisch Musik in farbiges Licht
umsetzte. Dabei wurden die y-Achse zur Abbildung der Tonhöhe und die x-Achse zur
Abbildung der Zeit benutzt. Diese eher mechanistische Form von Farbenmusik eroberte später
1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio
448
den Eingang in die Tanzsäle, die durch den Einsatz von sogenannten Lichtorgeln zu
Diskotheken wurden. Beispielsweise arbeitet der 1983 vorgestellte Projektor Disco wie eine
vierkanalige Lichtorgel, aber er liefert mithilfe zweier gegenläufigen Effektscheiben fließende
Farbschlieren an die Decke und Wände des Raums.
Im Verlauf und parallel zur Entwicklung von elektronischen Technologien verlagerte sich in
den letzten Jahrzehnten des 20. Jahrhunderts die Auseinandersetzung mit audiovisuellen
Darstellungsformen vom Film zum Video. Mit dem Einzug der Elektronik verschob sich zudem
der Schwerpunkt auf ein Zusammenspiel von Kunst und Musik, zu einer Fusion der Medien auf
der Grundlage von Intertextualität, Intermedialität und Interaktion, denn zuvor hatte sich die
Visualisierung von Musik auf das Zusammenwirken der Elemente Klang und Bild als Analogie
oder als synchroner Ablauf beider Medien konzentriert. Im Zuge dieser Entwicklung ist sogar
im Umfeld der Clubkultur eine neue Form der Musikvisualisierung entstanden: das sogenannte
VJing mit den VideoJockeys (VJ) als Hauptakteuren. Wie man inzwischen feststellen konnte,
beeinflussen die VJs mit ihrer Kreativität auch die Bildästhetik in künstlerischen Bereichen.
VJing
Das audiovisuelle VJing verbindet in der Regel elektronisch erzeugte Musik und bewegte
Bilder. Ähnlich wie der DiscJokey mixt der VideoJokey mittels moderner Technik live und in
Echtzeit, in einer spontanen und rhythmisch interpretierenden Reaktion auf die laufende Musik,
Bewegtbilder, die sogenannten Visuals, und projiziert sie auf Monitore und/oder Leinwände.
Die rhythmische Struktur der bewegten Bilder ist durch den Musik-Mix des DJs vorgegeben.
VJing ist Teil der aktuellen Club-Kultur und ist damit auch ein Teil des zeitgenössischen
kulturellen Lebens, der über den Club hinaus Beziehungen zu anderen Bereichen wie
Architektur, Kunst und Design im Allgemeinen aufweist. VJing ist allerdings nicht aus dem
Nichts entstanden, sondern es steht ästhetisch und technisch in der Tradition der traditionellen
audiovisuellen Kunstformen. Aus der Technobewegung der achtziger Jahre entwickelten sich –
auch bedingt durch die technische Fortentwicklung – unzählige verschiedene Stile und
Spielarten der elektronischen Tanzmusik, die zugleich den visuellen Ausdruck revolutionierten.
Dieser Musikstil kommt mit wenigen textlichen Aussagen aus, sodass der VJ zumeist die
Freiheit hat, seine Clips frei zu assoziieren, um seine Bildwelten aufzubauen, die dann parallel
zur musikalischen Ebene existieren. Atmosphäre und Stimmung, sowie dem Transport von
Messages, so nennt man in der Szene Botschaften, und Codes kommen mehr Bedeutung zu, als
einer Verbildlichung inhaltlicher Aussagen, also dem Erzählen von Geschichten. Das VJing ist
gewissermaßen ein visuelles Pendant der elektronischen Tanzmusik. Beide Kunstformen haben
sich seit den 1980er Jahren nebeneinander entwickelt, aber sie finden jederzeit zueinander, weil
sie aus ein und derselben Kulturszene entstammen.
Wegen der Vielfalt der Stile kann man auch keinen wirklichen Zeitpunkt für den Start der VJSzene nennen, aber in diesem Kontext sind die Liveshows in den frühen neunziger Jahren von
Emergency Broadcast Network (EBN) ein wichtiges Ereignis. Bei diesen Shows wurde ein
spezielles Telepodium verwendet, auf dem die TV-Monitore sowie Laser- und Lichtquellen
montiert waren. Im Zusammenspiel mit Video-Samplern improvisierte die Gruppe während
ihrer Performance unter Einsatz der verschiedenster Videos und Sounds, um damit eine
vielschichtige und politisch orientierte Sound/Bild-Mischung zu kreieren. Diese
Veranstaltungen hatten nachhaltige Auswirkungen, denn die Gruppe inspirierte Videokünstler
und -künstlerinnen das Video Mixing und die oft als Visuals bezeichneten Ergebnisse dieses
Prozesses als eigene Kunstform zu sehen. Auch in Japan gab es einige Vorreiter des VJing. In
1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio
449
manchen Literaturquellen wird auch Peter Rubin als erster klassischer VJ genannt, der in der
Zeit von 1979 bis 1988 im Amsterdamer Club Mazzo ein sogenanntes „ultra hi-tech multimedia environment“ entwickelte. Heutzutage gibt es nur wenige angesagte Clubs, die wirklich
ohne elektronisch-visuelle Gestaltungsmittel auskommen. Während in den 1980er und 1990er
Jahren die Projektionsfläche Club vor allem als Chance gesehen wurde, politische Statements
möglichst direkt und unverblümt an ein großes Publikum zu senden, muss man feststellen, dass
heutzutage eine Übermittlung von politischen Botschaften in Clubs eher vermieden wird. Das
Ziel ist eher eine künstlerisch ästhetische Produktion.
Club & Culture
Clubs im Kontext der zeitgenössischen Popkultur haben bei der jungen Generation den Ballsaal
ihrer Großeltern und die Tanzdielen der Eltern ersetzt. Heute treffen sich die jungen Leute in
den Diskotheken, die sich oft mit der aus dem Englischen entliehenen Bezeichnung Club oder
Klub schmücken. Einen solchen Club kann man als einen Mikrokosmos betrachten, der
weltumspannend in ähnlicher Art und Weise funktioniert. Im heimatlichen Club kennt der
Besucher gewöhnlich die Szene, man trifft sich, um vor allen Dingen gemeinsam zu tanzen. In
einem fremden Club, in dem man die Menschen nicht kennt, fühlt man sich mit ihnen auch
verbunden, nicht nur durch die dargebotene Musik, sondern auch durch internationale zur Szene
gehörende Codes und unausgesprochene Grundsätze, die auf der gesamten Welt verstanden
werden. Insofern spricht man auch von einer Club Culture. Dieser Begriff steht für eine
funktionierende Kommunikation zwischen Kunst und Gesellschaft. Aus diesem Blickwinkel
betrachtet ist der Club ein Ort, an dem gewissermaßen Kultur für die Kultur stattfindet. Die
Club Culture überschreitet dabei die Grenzen von Stamm, Familie, Clan, Nation oder Ethnie,
denn sie steht für die Notwendigkeit einer Kommunikation zwischen Menschen
unterschiedlicher Herkunft und aus verschiedenen Kulturkreisen, obwohl die sich global
entwickelnden Club-Kulturen jeder Kultur ihren eigenen Weg gehen lassen. Clubs in aller Welt
haben als alternatives Forum der Jugendkultur für die Entwicklung radikaler Kunstformen wie
Performance, Installation oder neuer Musik einen nicht zu unterschätzenden Beitrag geleistet.
Es gibt Stimmen, die voraussagen, dass der Club längst zu einem multimedialen
Gesamtkunstwerk geworden ist, der sich weiter zu einer Art digitalem Showroom entwickeln
wird, und dabei ist, Konkurrenz und Erweiterung des tradierten Kunstraumes zu werden, wenn
nicht gar ihn ganz abzulösen.
VJing ist eine Kunstform, die allein, also ohne einen Bezug zur Musik nicht existieren kann.
Dabei ist allerdings ein charakteristisches Merkmal für VJs, dass sie bei der Produktion ihrer
Visuals unabhängig von Musik und Musikern agieren. Der Ton- und der Bildkünstler erarbeiten
in der Regel nicht ein gemeinsames Konzept, sondern sie treffen bei einzelnen Performances
spontan aufeinander. Deshalb schaffen sich VJs in der Regel einen Bildervorrat an, der auf die
Identität und die Lebensentwürfe eines spezifischen Szene(Club)publikums zielt oder sich etwas
spezieller auf bestimmte musikalische Stile bezieht. VJing ist also eher eine künstlerische
Ausübung, die die spezifische Zielsetzung eines Clubs und seines Umfeldes und dessen
ästhetische Strategien widerspiegelt, als eine Kunstform, die eine formal-strukturelle
Auseinandersetzung mit der dargebotenen Musik sucht. VJing funktioniert in diesem Sinne am
Besten im Zusammenspiel mit Musik, die sich weniger mit Fragen der Organisation des Tons
beschäftigt als mit der Einbeziehung von Image, Identität und Repräsentation innerhalb eines
popkulturellen Bezugssystems.
1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio
450
Der eher monoton gehaltene Aufbau elektronischer Musik ermöglicht zudem eine ganz spezielle
Form der audiovisuellen Kombination. Anstelle des logischen Erzählens von Geschichten
kommt es zum Sampling und Remixing einer nur vom Vorrat des VJs beschränkten Masse an
visuellem Material. Gewissermaßen werden die täglichen Sehgewohnheiten, das vom Fernsehen
geübte Zapping, das ständige Umgebensein von visuellen Reizen, übersteigert und mit
passenden Inhalten gefüllt. Dabei stammen die oft für Außenstehenden schwer zu verstehenden
typischen Codes aus einem subkulturellen kollektiven Gedächtnis der Szene und drücken sich in
der elektronischen Musik, den Visuals, in Street Art und Mode aus. Es ist in diesem
Zusammenhang bemerkenswert, dass VJs die Palette der formalen Gestaltungsmittel gegenüber
dem herkömmlichen Erzählkino radikal erweitert haben und darin dem Medium Musikvideo
gleichen. Viele VJs haben eine Ausbildung in Grafik- oder Mediendesign absolviert. Bei ihren
Performances versuchen sie, ihre persönlichen Wahrnehmungen und die Erfahrungen des
modernen urbanen Menschen wiederzugeben. Ihre Bilder sollen stimulieren und der
Selbstvergewisserung und Selbststilisierung dienen, ähnlich wie die mit Slogans oder Icons
bedruckten T-Shirts, denn beide sind Kommunikationsmedien, die bestimmte Einstellungen in
ihre Umgebung spiegeln.
Bild 1.285: Videoklavier.
VJs produzieren gewissermaßen eine Art Live-Anti-Kino. Es gibt keine festen Vorführzeiten
und auf der Seite des Betrachters ist ein freies Ein- oder Ausklinken in den Bildfluss möglich.
Die dramaturgischen Möglichkeiten des VJs sind deshalb sehr begrenzt und außerdem an die
Dauer sowie den Charakter der Musik gebunden. Vermutlich gibt es aus diesem Grund so wenig
Geschichten erzählende VJs. Die eher gestreute Wahrnehmungssituation macht es dem
Betrachter schwer, Erzählungen kontinuierlich zu folgen. Bei Club-Performances gibt es ein
weiteres Problem. VJs agieren gemeinsam mit dem DJ, werden dabei allerdings in die Pflicht
genommen, nicht zu eigenwertig zu arbeiten, weil sonst die Hauptfunktion eines Clubs, das
1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio
451
Tanzen, zu kurz kommen könnte. Es hat sich gezeigt, dass, sobald die Aufmerksamkeit der
Besucher sich von der Musik auf zu interessante und deshalb tanzhemmende Visuals verschiebt,
der VJ vom DJ oder auch dem Veranstalter dazu gebracht wird, solche Bildsequenzen
einzuschieben, die beim Publikum den Grad der Aufmerksamkeit reduzieren. Das ist vielleicht
ein Grund dafür, dass VJs inzwischen ihre traditionellen Veranstaltungsorte wie Rave, Club
oder Party verlassen und andere öffentliche Räume wie Galerien und Museen für die Darbietung
ihrer Visuals wählen, in denen sie eher die gewünschte Aufmerksamkeit bekommen. Es gab und
gibt aber auch spezielle audiovisuelle Clubs, bei denen Visuals Programm sind, beispielsweise
das „Before 45“ in London, die „Remote Lounge“ in New York, der „WMF 4-Club“ in Berlin
oder der „Väths Cocoon Club“ in Frankfurt. Manche VJs haben die Live-Szene gleich ganz
verlassen und produzieren Studiovisuals auf DVDs, die deshalb auch in einem völlig
ungestörten Umfeld betrachtet werden können.
Mit Blick auf den DJ gibt es eine formale Gemeinsamkeit zwischen VJs und DJs. Beide
versuchen aus vielen unterschiedlichen Sequenzen oder Tracks einen neuen, in sich
zusammenhängenden, kontinuierlichen Strom der Bilder oder Klänge zu erzeugen. Das ist
allerdings schon alles, denn VJs benutzen in der Regel eigenes, selbst produziertes Material.
Selbst wenn sie gewissermaßen auf Samplingtechniken zurückgreifen, weil sie sich z. B. der
Archive auch der Unterhaltungsindustrie bedienen, so interpretieren sie das Material durch ihre
aufwendige Bearbeitung teilweise völlig neu. Dabei wird das Fremdmaterial unterschiedlich
verwendet. Währen der DJ meistens Audiomaterial abspielt, das für diesen Zweck produziert
wurde, dabei können sie auf gut sortierte Plattenläden zurückgreifen, so benutzt der VJ das für
andere Zwecke wie Werbung, Fernsehen, Kino oder Wissenschaft erstellte Material entgegen
seinem ursprünglichen Verwendungszweck. VJs können noch nicht in einem Clip-Laden
Videosequenzen einkaufen. Für den VJ gibt es bisher noch keine speziell für seine Arbeit
zugeschnittenen Produkte wie CD und Schallplatte. Er kann auf die Projektionen anderer VJs
oder Videoproduzenten zurückgreifen, wenn diese ihm ihre Arbeit frei oder als kommerzielle
Angebote zur Verfügung stellen. Das bedeutet zugleich, es muss ein austauschbares Format für
die verschiedenen Anwendungsprogramme für den PC zur Verfügung stehen. Und damit
schließt sich der Kreis zum PC-Tonstudio, denn bedingt durch die rasante Entwicklung von
Video-Hardware und -Software in den letzten Jahren, ist die Produktion und Bearbeitung von
digitalem Video nicht nur für Künstler erheblich leichter worden. Im Jahr 2010 ist jeder gut
ausgestattete PC in der Lage, digitales Video in nahezu verlustfreier Qualität zu bearbeiten und
in akzeptablen Rendering-Zeiten zu erzeugen. Qualitätsbeschränkungen bestehen nur in der
technischen und gestalterischen Kreativität des Anwenders und mit Einschränkungen durch die
von der Video-Industrie vorgegebenen Formate und Normen, aber auch der Leistungsfähigkeit
der einzelnen Komponenten. So ist beispielsweise nicht jedes Notebook entsprechend
ausgestattet. Insofern sollte man vorher die Grafikleistung seines PCs möglichst vorher prüfen,
dazu gibt es diverse und teilweise auch kostenlose Programme (Bild 1.287, oben), damit man
nicht zum unrechten Zeitpunkt die Meldung von Bild 1.287 (unten) bekommt.
Die Geschichte der Visualisierung der Musik wie auch die aktuelle Praxis des VJing zeigen,
dass es grundsätzlich zwei Strategien der Synchronisierung von Ton und Bild gibt, die auch
parallel verfolgt werden. Zum einen wird eine technische Apparatur entwickelt, die die Musik
automatisch in Bilder bzw. in Steuersignale für Bilder umwandelt, zum anderen ist es der
Mensch, der intuitiv und steuernd in den Prozess der Bilderzeugung eingreift. Beide
Herangehensweisen haben spezifische Vorteile: Die Synchronisierung mittels einer Technik
ermöglicht die notwendige Präzision, während die Zuweisung von Bedeutung, also semantische
Eingriffe, nur der Mensch vornehmen kann. Diese gewünschten Eingriffe und Abläufe können
VJs heutzutage mit speziellen PC-Programmen durchführen. Das sind Werkzeuge, die es
1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio
452
ermöglichen, die verschiedenen Quellen miteinander zu kombinieren, den Schnitt zwischen den
Quellen zu organisieren und gegebenenfalls die ursprünglichen Eigenschaften der Quellen zu
manipulieren, wie z. B. die Abspielgeschwindigkeit oder eine Kolorierung. Die verschiedenen
Formen von Digital Video aus der eigenen Video-Bibliothek können in Echtzeit manipuliert
werden und sind nur durch den starren Ablauf der Schleifen und durch notwendige
Rechenleistung zur Verarbeitung der Videodaten beschränkt.
Bild 1.286: Wenn diese Meldung erscheint, muss der PC ausgetauscht werden.
Bei der Software hat bereits eine hohe Spezialisierung stattgefunden. Durch die heute
verfügbaren Multimedia-Entwicklungsumgebungen wie z. B. dem Macromedia Director, ist es
auch für Einsteiger möglich, nach eingehender Beschäftigung mit Handbuch und Programm,
ihre Ideen multimedial umsetzen zu können. Aber es werden von manchen Spezialisten auch auf
die eigenen Bedürfnisse zugeschnittene VJ-Tools entwickelt, die dann mitunter anderen
Interessenten zum Download angeboten werden. Fertige und kostenpflichtige Softwareprodukte
für den VJ werden ebenfalls angeboten, wobei es starke Unterschiede bei Bedienung und
Leistung gibt. Hier eine kleine Aufzählung: AVmixer Pro, Motion Dive, Modul8, Flow Motion,
Resolume, MotionDive, VJamm, VDMX, Arkaos Grand VJ und Mabuse. Manche VJs setzen
1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio
453
aber auch modulare Software wie Pure Data, Jitter usw., oder Software, die, wie z. B. Mabuse,
auf modulare Software wie MAX/MSP aufsetzt, ein. Es gibt sogar kleine Programme, die
Pixelbilder in Klänge umsetzen können (siehe Band 6 unter Kompositionshilfen). Dazu nur
noch ein Hinweis, vor dem Kauf sollte man sich sehr genau über die Anforderungen der
Software and den Rechner informieren, denn viele Programme verlangen von der Hardware
bestimmte Eigenschaften (Bild 1.287).
Bild 1.287: Dieser Kasten kann 2010 schon wieder durch Software ersetzt werden.
Natürlich wird neben dem Computer noch weitere spezielle Hardware benötigt. Heutzutage
setzen VJs neben zwei Notebooks, mit deren Hilfe mittels spezieller Software die einzelnen
Videosequenzen live und in Echtzeit während des Auftritts modifiziert und getriggert werden,
einen Videomixer, einen DVD-Player, mehrere Vorschaumonitore und einen MIDI-Controller
ein. Hinzu kommen Kameras jeglicher Art, die in erster Linie dazu dienen, Live-Szenen vom
Veranstaltungsort in den Mix zu integrieren. Immer wichtiger für die Arbeit eines VJ werden
MIDI-Controller und selbst entwickelte Komponenten beispielsweise mit Hilfe von MAX/MSP
oder Arduino, einer Open Source Electronics Prototyping Platform, die Hard- und Software zur
Entwicklung von Lösungen zur Kontrolle von Geräten wie z. B. Lampen, Leuchten usw.
anbietet. Auch die Hardware-Hersteller haben inzwischen erkannt, dass es auf diesem Sektor
Marktlücken zu füllen gibt. So wurde bereits 2005 von Pioneer der DVJ-X118 Mixer auf dem
Markt gebracht, mit dem ein VJ DVDs wie Vinyl-Schallplatten scratchen kann. Dieses Gerät
verrät schon durch seinen Namen DVJ-Mixer die Zielsetzung: Hier wurden DJ und VJ
zusammengefügt,. Das Gerät ist ein echter digitaler Audio- und Video-Plattenspieler, mit dem
Manipulationen von Ton und Bildern in Echtzeit möglich sind, weil Audio-CDs und VideoDVDs prinzipiell gleichbehandelt werden. Man kann das auf den optischen Platten gespeicherte
Material mixen. Deshalb sind live Schnitt-, Montage- und Bearbeitungsprozesse möglich, für
1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio
454
die vor einigen Jahren noch eine aufwendige und zeitintensive Postproduktion notwendig
gewesen wäre. Weitere technisch interessante Geräte sind Edirols V4 und das Kaoss Pad von
Korg mit deren Hilfe Musik und Video simultan live gemischt werden können. Generell gilt:
Die doch recht hohe Frequenz der notwendigen Interaktionen während des Live-VJing stellt
höchste Anforderungen an alle beteiligten Komponenten der Hardware, der Software und
natürlich auch den VJ.
Literatur [1.378 bis 1.384]
Musikvideo
In einer anderen, in der ersten Hälfte des 20. Jahrhundert entwickelten Kunstrichtung, die Bild
und Ton verarbeitet, werden Musikvideos produziert. Obwohl man solche Videos auch als
kurze Tonfilme einordnen könnte, gibt es einen wesentlichen Unterschied bei der Produktion.
Während beim Tonfilm in der Regel zunächst die Bildgeschichte vorhanden ist, die dann
vertont wird, beginnt man bei der Produktion eines Musikvideos mit dem Ton, der dann mit
Bildern oder Bildgeschichten unterlegt wird. Der Ton wird durch das Bild bedient. Bei der
Gestaltung eines Musikvideos versuchen die Beteiligten, eine visuelle Umsetzung für den
vorhandenen Song zu finden. Wurde alles richtig gemacht, dann entsteht beim Betrachten eines
Musikvideos neben dem visuellen Wahrnehmungsraum durch das Hören auch ein akustischer
Raum, wobei sich beide Räume addieren. Die visuelle und die akustische Wahrnehmung sollen
zu einer Einheit verschmelzen, damit ein bleibender Eindruck als Kaufanreiz erhalten bleibt.
Die audiovisuelle Wahrnehmung für das Massenpublikum ist im Laufe des letzten Jahrhunderts
besonders durch das Kino und später das Fernsehen geprägt worden. So ist inzwischen die
große Masse der Menschen schon so daran gewöhnt, Bild und Ton synchron wahrzunehmen,
dass das Fehlen einer akustischen Information während der Bildwiedergabe Irritation beim
Zuschauer auslösen kann. Das kann man wiederum ausnutzen, um mehr Aufmerksamkeit zu
erzeugen.
Wenn man will, kann man die Anfänge des Musikvideos bis Ende des 19. Jahrhunderts
zurückverfolgen, denn zu dieser Zeit wurden in amerikanischen Theatersälen erstmals
sogenannte illustrierte Lieder gezeigt. Für die Sound Slides-Darbietungen, die sich damals
größter Beliebtheit erfreuten, wurden von Hand kolorierte Bilder auf Glasplatten gedruckt.
Diese projizierte man dann während der Live-Darbietung des Songs durch den Künstler auf eine
Leinwand. Solche Aufführungen waren schon damals eine Werbestrategie der Musikindustrie,
um ihre Lieder bekannt zu machen, dazu die Stichworte Song Pluggers und Tin Pan Alley.
Später, in den Jahren zwischen 1941 bis 1947, wurden in den USA zahlreiche sogenannte
Soundies produziert, die man wohl als die ersten wirklichen Musikclips betrachten kann. Solche
Soundies waren mit Musik unterlegte Kurzfilme, die der Interessierte in Restaurants und Bars
wie bei einer Musikbox nach dem Einwurf von Münzen ansehen und anhören konnte. Die
musikalische Bandbreite der Soundies war relativ abwechslungsreich. Sie reichte von irischer
Folklore über die verschiedenen Spielarten der Country-Music bis hin zum Mainstream Jazz. Im
Mittelpunkt der kurzen Musikclips stand vor allem die Aufführungen der Musik. Erst später
kamen auch kleine meist amüsante Filmszenen und, vor allen Dingen während des Zweiten
Weltkriegs, Abschnitte mit patriotischen Aussagen hinzu. Mit dem Start des Fernsehens kam es
zu vermehrten Auftritten von Popmusikern und anderen Schlagerstars im Fernsehen, für die
auch die sogenannten Promo-Filme, das sind trailerartigen Werbevideos, produziert wurden.
1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio
455
Bekannt geworden sind die Promo-Filme der Beatles in den Jahren 1966/67, die passend zu
ihren Songs gedreht wurden, beispielsweise zu „Strawberry Fields Forever“, „Penny Lane“ usw.
Hierbei agierten die einzelnen Musiker der Band an ihren Instrumenten wie Schauspieler.
Typische für ein Musikvideo kennzeichnende Merkmale weist auch ein Promo-Film der Kinks
auf, mit dem sie 1966 ihren Song „Dead End Street“ vorstellten. Bei diesem Film wurden nicht
wie üblich, die Musiker nur beim Bedienen ihrer Instrumente gezeigt, sondern der Inhalt des
Textes wurde inszeniert. Von manchem Kenner der Szene wird allerdings der erst 1975
gedrehte Promo-Film „Bohemian Rhapsody“ von Queen als erstes wirkliches Musikvideo
genannt, weil. hier die für diese Form charakteristischen Techniken angewendet wurden: die
Heroisierung der Musiker, unterschiedliche Schnittfrequenzen für bestimmte Formabschnitte
des Songs sowie spezifische Ein-, Aus- und Überblendetechniken. Ab Ende der 1970er bis
Mitte der 1980er Jahre wurden dann die spezifischen Techniken entwickelt, die für das Genre
Musikvideo typisch sind. Mit dazu beigetragen hat, dass in dieser Zeit in der Popmusik viele
neue Stilrichtungen entstanden, die sich auf einem Markt mit einem immer größer werdenden
Angebot durchsetzen wollten. Nach Meinung von Fachleuten ist das 1979 veröffentlichte
Musikvideo „Single Hell on Wheels“ von Cher das erste, das im MTV-Stil produziert wurde,
obwohl es MTV überhaupt noch nicht gab. Wie das Bild 1.289 zeigt, bietet die Internetseite von
MTV Mitte 2010 über 30.000 Videoclips zum Download an.
Bild 1.288: Starkes Angebot auch im Internet.
In den 1980er Jahren wurde mit MTV ein Fernsehsender etabliert, der zunächst nur
Musikvideos ausstrahlte. Bemerkenswert ist in diesem Zusammenhang, dass MTV zum USSendestart als erstes Musikvideo „Video Killed the Radio Star“ des Trevor-Horn-Projektes The
Buggles sendete. 1984 startete MTV Europe sein Programm. Ein Musikvideo konnte seit dem
Start von MTV Hunderte von Millionen Haushalte erreichen. Im selben Jahr wurden die ersten
MTV Video Music Awards (VMAs) vergeben [1.385]. In den damals öffentlich/rechtlichen
1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio
456
Sendeanstalten in Deutschland führten reine Musikvideo-Formate bis zur Mitte der 80er-Jahre
eher ein Nischendasein. Erst 1983 startete die ARD mit ihrer Sendung Formel Eins, die erste
weitgehend videoclipbasierte Musiksendung im deutschen Fernsehen. 1984 ging der
deutschsprachige Musik-Fernsehsender Musicbox auf Sendung; er war aber mit Ausnahmen nur
über Kabel und Satellit erreichbar, sodass er zu dieser Zeit nur von wenigen empfangen werden
konnte. Nach einer kurzen Durststrecke Ende der 1980er Jahre erlebte der Videoclip Anfang der
1990er Jahre seine Renaissance. In Deutschland konnte MTV Europe seinen Sendebereich
ausdehnen und ab Ende 1993 ging als erster deutschsprachiger Videoclip-Kanal VIVA auf
Sendung. Das trug in Deutschland wesentlich zum Entstehen einer ausgedehnten nationalen
Videoclip-Szene bei, denn VIVA wollte sich gegenüber seinem Konkurrenten MTV durch die
Ausstrahlung von nationalen Videoclips profilieren und unterstützte aus diesem Grund gezielt
lokale Künstler.
Mitte der 1990 Jahre wurden perfekt durchdachte und inszenierte Musikvideos produziert, deren
Ästhetik sich sehr von der klassischen Popästhetik der 1980er unterschied. Die Produktionen
wurden aufwendiger. Dabei trifft man mitunter auf Techniken und Effekte, die zuvor nur bei der
Produktion von Hollywoodfilmen eingesetzt wurden. Zu dieser Entwicklung hat auch der
Fortschritt in der digitalen Bild- und Videobearbeitung beigetragen. Mithilfe professioneller
Videomix-Programme konnten interessierte und auf diesem Gebiet begabte Musiker zunehmend
selbst ihre eigenen Videoclips erstellen. Die in der Vereinigung der deutschen
Musikvideoproduzenten organisierten Macher sind davon überzeugt, dass sie im Laufe der Zeit
ein eigenes Film-Genre geschaffen haben, denn teilweise wurden ja richtige kleine Spielfilme
gedreht. Alle Fachleute sind sich einig: Ein Musikvideo kann unter Umständen einen Musiktitel
zum Durchbruch verhelfen, es muss es aber nicht. Der Erfolg ist trotz des hohen Aufwands
nicht garantiert. Andererseits kennt man Beispiele für die Wiederentdeckung älterer Musiktitel
durch die Einbindung in einen Werbespot. Musikvideos sind auf das Medium Fernsehen
angewiesen und müssen vor der Ausstrahlung u.a. erst einmal die Auswahlprüfung bei einem
Musik-TV-Sender bestehen. In Deutschland stehen zwei spezielle Musikkanäle zur Verfügung
(MTV und VIVA). Weitere Podien für den Einsatz des Videos sind spezielle Musiksendungen
der anderen Sender, das Internet oder die CD-Extra sowie die DVD.
Die angeblich von Raubkopierern verursachte kommerzielle Krise der Musikindustrie führte in
Deutschland seit 2002 zu massiven Einschränkungen beim Budget zur Produktion von
Musikvideos. Musikvideos werden seit dieser Zeit mit deutlich weniger Aufwand produziert. Es
ist nur folgerichtig, dass in [1.386] bezweifelt wird, ob das Musikfernsehen überhaupt noch eine
Zukunft hat. Der Anlass des Artikels war die letzte Sendung der BBC-Sendereihe „Top of the
Pops“, die am Neujahrstag 1964 gestartet wurde. Man kann auch sagen: Der Zeitgeist, die
Avantgarde, ist in das Internet umgezogen. Insofern hat sich die Verbreitung von Musikvideos
erweitert, denn als Gegenpol zu den großen Musiksendern sind im Verlauf des 21. Jahrhunderts
eine Vielzahl von Angeboten im Internet rund ums Thema Musikvideo hinzugekommen. Es gibt
Quellen, von denen man Musikvideos als Livestream empfangen oder herunterladen kann.
Möglicherweise beruht die Popularität von Multimediaplattformen wie YouTube zu einem nicht
geringen Teil auf dem Angebot von kommerziellen Musikvideos, die dort von privaten
Benutzern teilweise unter Missachtung des Urheberrechts zum Download bereitgestellt werden,
was letztendlich zu einem im Jahr 2010 aktuellen Streit mit der GEMA führte.
Ähnlich wie zum Start vor 30 Jahren hat sich der ehemalige Vorreiter des Musikvideos MTV in
der Silvesternacht von 2010 nach 2011 wiederum gewissermaßen mit einem Witz aus dem
deutschen Gratisfernsehen verabschiedet. Als letzter Umsonstbeitrag wurde der Song der Spice
Girls „Viva Forever“ gesendet. Dazu muss man wissen, dass der ehemalige Konkurrenzsender
VIVA 2005 in den MTV-Konzern Vivacom eingegliedert wurde und ähnlich wie MTV von
1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio
457
einem Sender mit einem zunächst progressiven Programm zu einem Sender mutierte, dessen
Programm aus Billigserien, Klingeltonwerbung und Ähnlichem besteht, kein wirkliches
Anzeichen mehr von dem ehemaligen Sender für die deutsche Popkultur. Die gleiche
Entwicklung hat MTV durchgemacht. Ein Grund für diese Entwicklungen beider Sender war
der durch den Druck der Aktionäre ausgelöste Strategiewechsel, denn aus MTV, einem
Popsender, dem lange die Balance zwischen Kunst und Kommerz, zwischen Rebellion und
Werbung, gelang, wurde ein Sender, der nach Meinung der Szene sein Publikum an die HandyIndustrie verraten hat. Aus diesem Grund liefen nach und nach auch die treuesten Konsumenten
des MTV-Programms dem Sender davon. Während sich MTV sich in seinen Hochzeiten mit
Sendungen über Streetart oder Trendsportarten für das an Neuem interessierte jugendliche
Publikum profilierte, mutierte er durch den Strategiewechsel zu einem Sender, der ähnlich wie
VIVA mit Serien, Charts und Klingeltonwerbung seine Programmzeit füllte. Auch hier zeigt
wieder einmal der sogenannte Shareholder Value sein hässliches Gesicht. Das Programm des
Senders verkam zu einer endlosen Aneinanderreihung von Billigserien, Klingeltonwerbung und
lärmenden Ankündigungen jedweder Art. Alle die Popszene interessierenden Nischensendungen verschwanden nach und nach aus dem Programm, die jungen Interessenten an
wirklicher Popkultur liefen davon. Mit der Verabschiedung aus dem Freeprogramm hat MTV
erneut einen Strategíewechsel vollzogen. Verschlüsselt über Kabel und Satellit, und nur bei
Bezahlung zu empfangen, soll der Sender frei von Werbung wieder mehr Musikvideos
übertragen dürfen. Auf seiner Webseite wirbt MTV damit, dass eine beliebte Kultshow in das
Programm zurückkehrt.
Diese Entwicklung ist ein Ausdruck für die Krise des Musikfernsehens, die offenbar im
Zusammenhang mit der Entfremdung zwischen der Musikindustrie und ihren Hörern steht.
Schon immer war ein Musikvideo ein Werbeclip für die zugehörige Single. Mit der immer
größer werdenden Nutzung des Internets lohnte sich für die Musikindustrie die Produktion für
Videoclips nicht mehr, weil sich die Fans inzwischen die Musikclips im Internet anschauen. Im
Zuge dieser Entwicklung mussten in Deutschland nach und nach immer mehr Filmstudios
schließen. Dazu hat mit beigetragen, dass sich Dank gesunkener Produktionskosten die Künstler
durchaus auch selber in Szene setzen konnten. Dafür gibt es gelungene Beispiele wie z. B. der
35 Minuten lange Film „Runaway“ von Kanye West, den er noch vor dem Erscheinen seines
Albums „My beautiful Dark Twisted Fantasy“ ins Internet stellte (http://www.kaynewest.com).
Waren zunächst soziale Netzwerke die Anlaufstelle für denjenigen, der zur Unterhaltung
Videoclips anschauen wollte, so haben sich inzwischen spezielle Videodienste wie tape.tv
etabliert (http://www.tape.tv/musikvideos). Andere nennen sich myvideo, putpat oder QTom.
Diesen Trend hat auch die Musikindustrie und haben die Künstler erkannt. Während das
ehemalige Geschäftsmodell von MTV darin bestand, dass die Plattenfirmen die Videoclips
kostenlos lieferten und das werbefinanzierte MTV durch das Senden der Clips den Verkauf der
Songs ankurbelte, verdienen die Produzenten heute an den Klicks der Besucher auf den
verschiedenen Webseiten von Videodiensten. Wenn man so will ist das Musikvideo nicht mehr
die Werbung für ein Produkt, sonder es ist selbst ein eigenständiges Produkt und dadurch
wieder interessant für die Industrie geworden.
Zur Charakterisierung von Musikvideos gibt es verschiedene Ansätze: Konzeptvideos,
erzählende Videos und Performancevideos. Bei einem Konzeptvideo wird versucht, eine freie
Assoziation von Musik und Bild, also den Song in Formen und Farbe, umzusetzen. Erzählende
Videos sind quasi Kurzfilme, die zumeist den Inhalt des Songtextes illustrieren. Das ist in der
Praxis nicht einfach, denn die Geschichte muss in der Regel in wenigen Minuten erzählt
werden. Bei den Performancevideos steht der Künstler im Vordergrund. Wo der Künstler
auftritt, bleibt zumeist der Fantasie des Regisseurs überlassen [1.387].
1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio
Bild 1.289: Abgesang und Neuanfang (oben) soll neuen Diensten (unten) Paroli bieten.
458
1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio
459
In [1.388] findet man eine detaillierte Herausarbeitung der verschiedenen Genres:
• Performance Videos
In den zu dieser Kategorie zählenden Musikvideos steht der Interpret als Musiker im
Vordergrund und wird bei der Ausübung seiner Kunst gezeigt. Dabei wird die Beziehung
Fan und Künstler besonders herausgehoben. So zeichnen Konzertmitschnitte den Interpreten
und das jubelnde Publikum vor der Bühne auf, wobei es sich oft um eine authentische
Ton/Bild-Aufnahme handelt. Es gibt aber auch Clips der Kategorie Playback/Präparierte
Bühne, die im Playbackverfahren entstehen: Der Interpret ist seinem Image entsprechend
gestylt und agiert vor einer vorbereiteten Kulisse mit ausgewählten Jublern. Dabei kommen
auch technische Hilfsmittel wie Trockeneis zur Nebelbildung, ausgefallene Dekorationen
und Trickbilder zum Einsatz. Musikinstrumente oder Mikrofone sind nur reine Dekoration.
• Art Movies
Bei solchen Videoclips wird die Darstellung des Musikers gegenüber der bildnerischkünstlerischen Gesamtgestaltung weiter zurückgenommen. Das Medium Musikvideo
illustriert bei diesem Genre an sich keine Handlung, sondern wird als Objekt des
Videokünstlers verstanden, der mit Hilfe von gestalterischen Elementen wie Zeichentrick,
Computergrafik und Ähnlichem ein Gesamtkunstwerk schafft.
• Narrative Movies
Damit bezeichnet man aus erzählenden Bilderfolgen bestehende Videoclips, die der
Zuschauer selbst zur Geschichte zusammenführen soll. Oft wird durch Stummfilmszenen der
Liedtext direkt abgebildet. Dabei gibt es verschiedene Spielarten. Mit Interpretendarstellung
und Filmszenen sind Videoclips gemeint, in denen Interpretation und Stummfilmszenen in
einem ausgeglichenen Verhältnis stehen. Bei einem Videoclip mit einer durchgehenden
Filmhandlung ist der Musiker in erster Linie Schauspieler und dabei in aller Regel der
Titelheld der Geschichte. Als Musiker tritt er dagegen nur auf, falls ihm der Zufall ein
Instrument und/oder ein Mikrofon beschert. Unter die Bezeichnung Video-Story werden alle
Videoclips eingeordnet, die mindestens zehn Minuten lang sind. Hier wird der narrative
Videoclip zu einem kleinen Spielfilm ausgedehnt und folgt dem üblichen Schema:
Einleitungsszene, Lied und Schlussszene. Solche Videoclips wurden aufgrund der hohen
Produktionskosten eher selten produziert. Videoclips, die der Kategorie Effekt-Clip
zugeordnet werden, bauen auf optischen Effekten wie beispielsweise Zeichentrickelementen
auf, die auch auf die erzählende Struktur des Geschehens einwirken.
• Semi-Narrative Movies
Zu dieser Kategorie gehören solche Videoclips, bei denen neben dem eigentlichen
Interpreten zusätzlich Statisten im Hintergrund auftreten, um beispielsweise den Eindruck
und die Geschichte des Songs tänzerisch zu untermalen. Eine weitere Möglichkeit ist die
mitunter eingeflochtene Darstellung des dargebotenen Textes durch Stummfilmszenen
(Interpret und Filmszenen).
Generell muss sich in einem Musikvideo die Bildebene stark an der Soundebene orientieren.
Deshalb muss man zunächst die innere Struktur des Songs untersuchen. Dabei wird deutlich,
dass Songs nur selten so narrativ aufgebaut sind, wie man es aus der Literatur kennt. Songs
bestehen aus Strophen und Refrains bzw. aus Rhythmen und Melodien, die im Song mehrmals
1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio
460
wiederholt werden. Dieses Prinzip der Wiederholungen findet man im Musikvideo meistens auf
der Bildebene wieder. Dadurch entsteht beim Betrachten des Musikvideos der Eindruck einer
nicht-linearen und fragmentierten Erzählung. Wenn diese Wiederholungen allerdings auf
visueller und akustischer Ebene gleichzeitig passieren, dann wird für den Betrachter der rote
Faden zwischen den scheinbar unzusammenhängenden Bildern und Szenen sichtbar. Deshalb
bietet die Musik bei der Produktion eines Musikvideos die Möglichkeit, freier und
experimenteller zu arbeiten, weil man der Struktur der Musik visuell folgen kann und nicht der
üblichen Dramaturgie eines SpielUlms unterworfen ist. Versucht man die Struktur der Musik in
Bilder umzusetzen, dann kann es durchaus schwierig werden, eine passende Geschichte zu
finden. Manche Musikvideos verzichten deshalb gleich ganz auf die Erzählung einer Geschichte
und setzen die Bildebene lediglich dazu ein, den Aufbau der Musik sichtbar zu machen.
Andererseits hat die bildhafte Erzählung einer Geschichte den Vorteil, dass die vom SpielUlm
geprägte Wahrnehmung des Zuschauers eher befriedigt wird. Dabei muss man die Länge des
Songs berücksichtigen, die sich in den meisten Fällen immer noch einer ursprünglich vom
Speicherplatz einer Schellackplatte vorgegebenen Spiellänge orientiert. In der Regel können
daher in einem Musikvideo nur sehr kurze Geschichten erzählt werden, die das Publikum sehr
schnell langweilen könnten, denn die Musikvideos werden von den Sendern wie MTV in
schneller Folge wiederholt. Aus diesem Grund kann es besser sein, dem Zuschauer durch die
Bildhandlung nicht zu viel vorzugeben, denn ein größerer Spielraum bei seiner Interpretation
der Bilder kann einen Zuschauer dazu bringen, das Musikvideo auch öfter zu betrachten.
Manche Regisseure verzichten aus diesem Grund oft auf ein Happy End der Bildgeschichte und
lassen das Ende offen.
Ein weiterer Grund dafür, warum Musikvideos nur sehr selten auf ein spannendes Ende hin
aufgebaut sind, ist der, dass im Gegensatz zum herkömmlichen SpielUlm das Ende bei
Musikvideos keine große Bedeutung hat, denn diese Medien werden in der Regel unter anderen
Voraussetzungen konsumiert als Spielfilme. Bei vielen Zuschauern erzeugt der Fernseher oft
nur eine Geräuschkulisse in der Wohnung. Wenn auf den Musiksendern rund um die Uhr
Musikvideos gesendet werden, dann ist die Aufmerksamkeit des Zuschauers nur selten
ununterbrochen auf das Geschehen am Bildschirm gerichtet. Selbst wenn er vor dem Fernseher
sitzt, entscheidet er sich beim Zapping zwischen den unterschiedlichen Programmangeboten oft
sehr schnell, ob für ihn das momentane Programm interessant genug ist, um auf dem
Fernsehkanal zu bleiben. Insofern wird die Aufmerksamkeit des Zuschauers nicht durch eine
spannende Handlung gefesselt, sondern durch die Qualität der Bildinhalte.
Die Handlung eines Musikvideos muss sich nicht zwingend auf ein Wort aus dem Songtext oder
auf den gesamten Inhalt des Textes stützen, denn die Musik hat an sich schon eine hohe
emotionale Komponente. Sie löst beim Hörer gewisse Emotionen aus, die sogar messbar sind.
Musik spricht einen Menschen unmittelbarer an, als das Bilder können, und das besonders,
wenn er nicht unentwegt auf dem Bildschirm starrt. Insofern bietet sich für die Bebilderung
eines Musikvideos an, die von der Musik vorgegebene Stimmung zu visualisieren. Für die
Emotionen des Betrachters, die von sehr elementaren Gefühlen wie Liebe, Hass, Trauer oder
Einsamkeit getragen werden, gibt es in jedem Kulturkreis schon eine Vielzahl an Symbolen und
Stereotypen. Aus diesem Grund kann mit nur wenigen Einstellungen eine Kurzgeschichte
erzählt werden. Allerdings sollte man die Symbole schon kennen, denn nicht jedes Symbol
funktioniert in jedem Kulturkreis. Man kennt das schon von den verschiedenen Gesten her:
Beispielsweise bedeutet ein Nicken, das in Deutschland als Einverständnis verstanden wird, in
Bulgarien genau das Gegenteil.
1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio
461
Der Rhythmus spielt auch bei Musikvideos eine wichtige Rolle, darauf wurde ja schon eingangs
hingewiesen, denn durch die Aneinanderreihung von Formenpaaren in der Malerei oder von
Tonfolgen in der Musik, entstehen durch ständige Wiederholung bestimmte Rhythmen, weil das
menschliche Wahrnehmungsvermögen dazu neigt, die Umgebung nicht als Summe von
Einzelteilen zu begreifen, sondern die empfangenen Informationen zu gliedern und in Einheiten
zusammenzufassen. Dadurch entwickeln sich neue Strukturen, die nicht die Teile an sich
beschreiben, sondern ihre Beziehung zueinander. Die dieser Fähigkeit innewohnenden
Gestaltgesetze sind gleichermaßen sowohl auf die visuelle als auch auf die akustische
Wahrnehmung anwendbar. Allerdings ist bei akustischen Ereignissen die Zeit ein weiterer
wichtiger Faktor. Für die Bildmontage eines Films ist, wie man aus der Entstehungsgeschichte
des Tonfilms weiß, der Rhythmus ein bestimmendes Element, siehe Hinweis: Berlin. Die
Symphonie der Großstadt. Rhythmus entsteht hier bei der Filmmontage nicht allein durch das
beliebige Verlängern oder Verkürzen mehrerer aufeinanderfolgender Einstellungen. Der
empfundene Rhythmus entsteht auch durch den Inhalt der einzelnen Bilder, aus denen sich eine
Einstellung zusammensetzt. Weitere Faktoren kommen hinzu. Licht, Farbe, Überblendungen,
Bewegung und der grafische Aufbau des Bildes beeinflussen ebenfalls die subjektive Dauer des
Geschehens. Die vom Zuschauer empfundene subjektive Länge einer Einstellung ist daher
immer abhängig vom Rhythmus der Einstellungen und von der Bewegung in den Bildern. Das
zeigt der Mitte der 1920er Jahre gedrehte Film deutlich auf.
Darüber hinaus fällt beim Betrachten von Musikvideos auf, dass die subjektive Wahrnehmung
der Geschwindigkeit nicht allein auf die in der Regel kurzen Schnitte zurückzuführen ist, denn
sehr häufig sind auch Bewegungen im Bild und natürlich auch das Tempo der Musik
ausschlaggebend dafür, ob ein Zuschauer das Musikvideo als schnell oder langsam interpretiert.
Diese Gegebenheit muss berücksichtigt werden, wenn Bild und Ton eine Einheit werden sollen.
Der Betrachter muss den musikalischen Rhythmus auch im Bild wiederfinden. Deshalb reicht es
nicht aus, Schnitte nur im Rhythmus der Musik zu setzen. Wenn sich die Musik nicht im
Bildrhythmus wiederfindet, schwächt das den Musikeindruck ab und umgekehrt: passt der
Rhythmus der Bilder nicht zur Musik, schwächt das den Bildeindruck ab. Der Rhythmus kann
zudem die Gliederung der Teile eines Films verdeutlichen. Durch das Variieren des Tempos
kann eine Spannungskurve erzeugt werden.
Nicht nur in Musikvideos, sondern auch in normalen Tonfilmen wird die gewünschte
Verknüpfung zwischen dem musikalischen Rhythmus und dem Rhythmus der Bilder durch
Schnitt und Montage erzeugt. Dabei wird ein Schnitt so gesetzt, dass es durch die Bewegungen
im Bild, die ja zumindest bei Liveaufnahmen exakt im Takt der Musik liegen, zu einer
Verschmelzung zwischen Musik- und Bildwahrnehmung kommt. Solche synchronen Schnitte
verwendet man dann, wenn anhand der Struktur der Musik ein deutlicher Inhaltswechsel zu
hören ist. Dabei sollte man berücksichtigen, dass Schnitte, die ausschließlich auf den Takt
gesetzt werden, auf Dauer monoton wirken. Um das zu verhindern, kann man bei Schnitten
auch mit einer rhythmischen Verschiebung des Taktschwerpunkts arbeiten, indem man den
Bildschnitt kurz vor die musikalische Betonung setzt. Weil der Schnitt dadurch die Betonung
des Takts vorwegnimmt, wird durch das Bild die Handlung vorangetrieben. Das kommt dem
menschlichen Wahrnehmungsvermögen entgegen, denn durch diese Abweichung zwischen der
visuellen und der auditiven Ebene wird die Aufmerksamkeit des Zuschauers zusätzlich
angeregt.
1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio
462
Bild 1.290: Zwei aus verschiedenen Epochen stammende gelungene Beispiele zeigen, wie Musik und Bild in der
Summe mehr bieten können, als die Addition aller Teile ergeben würde.
Zum Abschluss des Themas sollen noch zwei Beispiele für eine besonders gut gelungene
Verschmelzung von Ton und Bild kurz vorgestellt werden, die sich nicht nur durch das Genre,
sondern auch durch einen Zeitunterschied von 250 Jahren unterscheiden. Das Bild links zeigt
eine CD mit der Aufnahme der heroischen barocken Pastorelle Terpsichore von G. F. Händel
(1685 -1759), in der sich die Genres von Musik, Tanz und Theater eindrucksvoll verbinden. Die
Ballet-Oper Terpsichore ist wohl die Antwort Händels auf Intrigen, die zur Folge hatten, dass er
von der Londoner Royal Academy entlassen wurde und zum Londoner Opernhaus Covent
Garden wechselte: Apollón (Händel) erklärt der poetischen Muse der Liebe Erató, dass er
Parnas (die von Händel geleitete Royal Academy in London) verließ, um zu erkunden, ob die
neue Akademie (Covent Garden) seine Gunst erhalten würde. Apollón (damals gesungen von
dem berühmten Kastraten Carestini) und Erató singen über Liebe, Treue und die
Unbeständigkeit. Gleichzeitig tanzt Terpsichore (damals Marie Sallé) und zeigt mit tänzerischen
Mitteln ihre Emotionen. Das Werk erreicht seinen Höhepunkt in seinem Schlussbild mit einem
vierstimmigen Chor, der den stets wechselnden Wind repräsentiert, die man als eine Anspielung
auf die Unbeständigkeit der Mäzene und des Publikums interpretieren kann.
Das Bild rechts zeigt eine Promo-DVD des Cirque du Soleil zu seinem Programm Dralion
(2006). Dieser Zirkus ist ein 1984 in Montréal (Kanada) gegründetes Unternehmen, der eine
moderne Form von Zirkus, entwickelt hat, bei der auf die klassischen Programmnummern eines
Zirkus verzichtet wird. Seine Programme sind stattdessen eine Mischung aus Artistik,
Theaterkunst und Livemusik, die im Zusammenspiel eine Geschichte erzählen. Dabei
übernimmt die Livemusik eine wichtige erzählende Rolle. Wie wichtig die passenden Bilder
zum Ton – oder auch umgekehrt – sind, kann man leicht nachvollziehen, wenn man sich einmal
nur die Musik ohne die Bilder anhört. Das Programm Dralion stellt eine Verschmelzung antiker
chinesischer Zirkustradition mit dem avantgardistischen Ansatz des Cirque du Soleil dar.
Folgerichtig entstand der Name der Show aus den beiden Symbolen Drachen (Dragon,
repräsentiert den Osten) und Löwen (Lion, präsentiert den Westen). Der rote Faden des
Programms leitet einen großen Teil seiner Inspiration aus der östlichen Philosophie mit seiner
ewigen Suche nach Harmonie zwischen der Menschheit und der Natur ab. Gefangen in der Zeit
zwischen Vergangenheit und Zukunft wird ein Fest des Lebens und der vier Elemente Luft,
Wasser, Feuer und Erde, die die natürliche Ordnung aufrechterhalten, gezeigt.
Literatur: [1.389 bis 1.399]