Der Musikcomputer eine musikalische Universalmaschine

Transcrição

Der Musikcomputer eine musikalische Universalmaschine
Bernd Enders, Vortrag Kaiserslautern, 05.02.08
Der Musikcomputer
eine musikalische Universalmaschine
oder:
Die mannigfaltigen Beziehungen von
Musik und Mathematik
Gliederung
1. Zum Verhältnis von Ton und Zahl
2. Historische Entwicklung: Tonsysteme, Stimmungen
3. Notation und Notencodes
4. Die Zahl im Klang
5. Composersysteme und automatische Musikanalyse
6. Digitalisierung: MIDI, Controlling, Interfaces
7. Digitalisierung: Sound Synthese, Sampling u. Processing
8. Virtuelle Instrumente, Simulation und Emulation
9. Musikcomputer im Prozeß musikalischer Kommunikation
10.Schlußwort
Ich bin der Musikant
mit Taschenrechner in der Hand
Ich addiere
Und subtrahiere
kontrolliere
Und komponiere
Und wenn ich diese Taste drück´
Spielt er ein kleines Musikstück
(Kraftwerk1981)
Musikbeispiel: Ich bin der Musikant (Kraftwerk)
1. Zum Verhältnis von Ton und Zahl
"Alles ist Zahl", sagten die Pythagoräer und sie versuchten die musiktheoretischen
Grundlagen mit mathematisch-logischen Beziehungen zu beschreiben, weshalb die
Musikwissenschaft als scientia mathematica mit der Arithmetik, der Geometrie und
der Astronomie zum quadrivium der ersten Wissenschaften gehört.
Warum die Musikwissenschaft, die sich mit vielen physikalischen Objekten und
Funktionalitäten befaßt, z.B. Instrumentenakustik, Raumakustik, mit physiologischen
Vorgängen und psychologischen Phänomenen (z.B. beim Hören und Spielen), mit
informatischen und medientechnologischen Fragestellungen, heute als
Geisteswissenschaft zählt, kann ich mit historischen Gründen erklären, warum
dagegen die Mathematik, die sich ausschließlich mit logischen Symbolen beschäftigt,
die sich durch deduktive Methoden und einem axiomatischen Aufbau abstrakter
Strukturen auszeichnet, heute zu den Naturwissenschaften gehört, weiß ich nicht.
Ursprünglich war der Computer nur eine Art Rechenknecht, z.B. für
Tabellenkalkulationen, später konnte er eben auch Texte verarbeiten, dann Graphiken,
wie z.B. Noten, und Sounds, letzten Endes alles, was sich irgendwie in Symbolen und
Zahlen ausdrücken bzw. codieren läßt.
Heute kann man ihn als multifunktionale und omnipräsente Denkmaschine betrachten,
wenn man mit Denken nur den softwarebasierten Umgang mit Informationen aller
Art meint. Und mit geeigneter Soundkarte und musikspezifischen Interfaces wird aus
ihm ein omnipotentes Musikinstrument. Und sogar Taschenrechner können Musik
erzeugen, wie die deutsche Elektronikformation Kraftwerk schon in den 80er Jahren
wußte.
Tetraktys der reinen Intervallproportionen
"Alles ist Zahl", sagten die Pythagoräer - eine Gruppe von naturwissenschaftlich
geprägten Denkern, gleichermaßen Philosophen, Mathematiker, Musikwissenschaftler
und Politiker. Sie schätzten die Musik als Teil einer auf allgemein gültigen
Zahlengesetzlichkeiten (= logos) beruhenden (organischen wie anorganischen)
Weltordnung, deren harmonikale Struktur sich mit Hilfe eines einfachen Monochords,
also einer über einem Resonanzkasten aufgespannten, klingenden Saite, hörbar,
sinnfällig, also unmittelbar erfahrbar machen läßt. Das Monochord war hier kein
Musik- sondern ein Meßinstrument.
Weil Intervalle identisch mit Zahlenverhältnissen sind, geschieht dabei nichts anderes,
"als daß eine intellektuell erfaßbare Zahlenquantität in eine seelisch erlebbare
Sinnesqualität verwandelt wird", wie es ein zeitgenössischer Vertreter des
harmonikalen Pythagorismus ausdrückt. Für das pythagoräische Denken ist ein
Zahlenverhältnis und das entsprechende musikalisches Intervall ein und dasselbe. Es
ist nur folgerichtig, wenn die Welt des Klangs genau nach den gleichen harmonischen
Prinzipien aufgebaut ist wie die Gesetze der Physik, der Astronomie und der
Mathematik - und umgekehrt. "Alles ist Zahl", so lautet die Quintessenz. Die
Sphärenmusik der pythagoräischen Schule ist real, denn gemeint ist tatsächlich, daß
im Weltall Musik erklingt, hervorgerufen durch die naturgesetzlich geordneten
Bahnen der Himmelskörper. Die Musik dient vorrangig zur wissenschaftlichen
Erfassung dieser Weltordnung, ihr Wert als ästhetisch-sinnfällige Kunst ist eher
zweitrangig.
In der pythagoräischen Musiktheorie werden konsequent die Intervalldefinitionen und
die darauf aufbauenden Ton- und Stimmungssysteme wie auch die rhythmischen
Maße, also sowohl die vertikale als auch die horizontale Strukturierung musikalischer
Ereignisse, streng anhand von Zahlenproportionen bestimmt. Ausgehend von der
Oktavverwandtschaft durch Halbierung der Saitenlänge (mit einem
Frequenzverhältnis von exakt 1:2, wurden Tonskalen errechnet, die auf
arithmetischen, geometrischen und harmonischen Proportionen beruhten. Die bis
heute wissenschaftlich und künstlerisch diskutierte pythagoräische Stimmung einer
achttönigen, aus Ganz- und Halbtonschritten beruhenden Skala im Oktavrahmen
basiert auf der Schichtung von reinen Quinten im Frequenzverhältnis 2:3 (mit
entsprechender Oktavversetzung), so daß zur Konstruktion nur die starken
Konsonanzen Oktave und Quinte Verwendung finden (vgl. Abbildung der
Tektraktys).
2. Historische Entwicklung: Tonsysteme, Stimmungen
Es kam schließlich - vor allem im 17. Jahrhundert - zu erheblichen Schwierigkeiten,
als durch das Aufkommen der Mehrstimmigkeit, der musikalischen Einführung
chromatischer Tonstufen und der immer größeren Bedeutung von Instrumenten mit
fixierten Tonhöhen, vor allem der Tasteninstrumente, die Probleme der reinen
Stimmung pythagoräischer Herkunft deutlich wurden. Geht man wie Pythagoras von
rein gestimmten Quinten aus, so erhält man durch Übereinanderschichten bekanntlich
keinen sich enharmonisch schließenden Quintenzirkel, sondern eine endlose
Quintenspirale, deren Töne sich mit exakt zu stimmenden Frequenzen auf einem
Tasteninstrument in der Praxis nicht realisieren lassen.
Vergleicht man die Frequenzen, die sich - z.B. ausgehend von dem Ton C - nach 12
Quinten (im Verhältnis 3:2) für his (!) und 7 Oktaven (im Verhältnis 2:1) für den Ton
c errechnen lassen, dann ergibt sich eine deutlich hörbare Frequenzdifferenz von
knapp einem Achtelton, die als Pythagoräisches Komma in die Geschichte der
Musiktheorie eingegangen ist.
Klangbeispiel (pyt_komma.wav)
Mit anderen Worten: für die Konstruktion pythagoräisch rein gestimmter Instrumente
ergeben sich für Instrumentenbauer und Instrumentalisten kaum zu bewältigenden
Schwierigkeiten beim Spielen von Tönen wie his und c, fis und ges, gis und as, deren
Frequenzen zwar sehr dicht beieinander liegen, aber dennoch eigene Tasten benötigen
würden. Enharmonische Umdeutungen dieser Töne, die in der temperierten Stimmung
auf gleicher Taste liegen, zu Modulationszwecken waren ausgeschlossen und die
Komponisten vermieden überhaupt Tonarten, die sich von den rein klingenden
Haupttonarten (also etwa C, G, D, F, B) zu weit entfernten.
Die von dem berühmten Orgelbauer Gottfried Silbermann (1683-1753) und anderen
wegen der in der Musikentwicklung immer wichtiger werdenden Terz bevorzugte
mitteltönige Stimmung geht zum Beispiel von reinen Terzen aus, denn in der
Musikpraxis hatte sich ihr Wohlklang trotz der pythagoräischen Einstufung als
Dissonanz durchgesetzt, obwohl man eigenartigerweise theoretisch an der Tetraktys
des Pythagoras festhielt. Aber das Stimmungsproblem bleibt auch hier bestehen.
Einflußreiche Theoretiker und Philosophen wie Johannes Scotus (1265 -1308),
Cusanus (1401 - 1464), Johannes Kepler (1571 -1630), Gottfried Wilhelm Leibniz
(1646 - 1716) und andere hielten an der Zahlengesetzlichkeit der Musik fest, die
Sphärenharmonie lebte fort, nun jedoch verbunden mit aktuellen
naturwissenschaftlichen Erkenntnissen und ersten psychologischen Ansätzen. Leibniz
deutet zwar ebenfalls die musikalische Harmonie als ein Abbild der Weltharmonie, er
erklärt jedoch das Konsonanzempfinden für die ersten sechs Intervallproportionen
(Oktave, Quinte, Quarte sowie nun auch große und kleine Terz, große und kleine
Sexte) als ein "unbewusstes Zählen der Seele": "Die Musik ist für die Seele eine
verborgene arithmetische Übung, wobei die Seele zählt, ohne dessen bewusst zu sein.
... Sie fühlt dennoch die Wirkung dieses unbewußten Zählens, das heißt bei
Konsonanzen Vergnügen, bei Dissonanzen Mißfallen, das daraus hervorgeht."
Musica est exercitium arithmeticae occultum nesciens se numerare animi
Gottfried Wilhelm Leibniz
Andreas Werckmeister (1645-1706) schlug Ende des 17. Jahrhunderts weitere
Stimmungsmethoden vor: Er verkleinerte und vergrößerte fast alle Quinten
geringfügig und verteilte das Pythagoräsche Komma auf diese Weise in kleinsten
Portionen, so daß alle Tonarten rund um den Quintenzirkel spielbar wurden. Johann
Sebastian Bach war begeistert und komponierte für die "Wohltemperierte Stimmung"
Werckmeisters das "Wohltemperierte Klavier" (1722 und 1742), ein Kompendium
mit Präludien und Fugen, das alle 24 Dur- und Molltonarten kompositorisch und
klanglich ausnutzt und die steten Wechselwirkungen zwischen theoretischer
Erörterung und künstlerisch-experimenteller Praxis, zwischen musiktechnischer
Realisation und musikalischer Rezeption perfekt demonstriert. Die endlose
Quintenspirale des Pythagoräischen Systems schloß sich endlich zum Quintenzirkel.
Erst für die gleichschwebend-temperierte oder – genauer – gleichstufig-temperierte
Stimmung wird konsequent auf jedes reine Intervall verzichtet und die Oktave (als
einziges verbleibendes reines Intervall) in zwölf exakt gleich große Halbtonschritte
geteilt, eine Lösung, die die mathematische Beherrschung von Logarithmen
voraussetzt, denn die notwendigen Frequenzverhältnisse ergeben sich aus der 12.
Wurzel aus 2 (= 1,0595), ein für den pythagoräischen Zahlenmystiker natürlich völlig
abwegiges irrationales Verhältnis. Logarithmische Berechnungen führte erst der
Mathematiker Leonard Euler (1707-1783) in die Musikwissenschaft ein.
Mit der gleichstufig-temperierten Stimmung, die sich schließlich allgemein
durchsetzt, werden alle Intervalle außer der Oktave geringfügig gegenüber den
exakten Zahlenproportionen verändert, so daß man innerhalb einer Oktave mit exakt
zwölf Frequenzen und auf der Klaviatur folglich mit zwölf Tasten auskommt.
Unterschiedlich abgeleitete Töne wie cis und des und funktional verschiedene
Intervalle wie kleine Terz und überm. Sekunde ertönen völlig gleich, werden aber je
nach musikalischem Zusammenhang dennoch unterschiedlich aufgefaßt.
Erst die von Arnold Schönberg 1925 aufgestellte Zwölftontheorie verzichtet völlig auf
intervallqualitative Unterschiede dieser Art. Es gibt kein tonales Bezugssystem mehr,
was die verschiedenen Intervallqualitäten sowie Konsonanz-Dissonanz-Unterschiede
festigen würde. Die Zwölftonmusik basiert nicht nur melodisch und harmonisch,
sondern auch funktionslogisch / musiktheoretisch vollständig auf dem letztlich
mathematisch-technisch begründeten System gleichstufig-temperierter Frequenzen,
sozusagen auf den Tasten einer Klaviatur, die funktionale Differenz verschieden
abgeleiteter Ton- und Intervallqualitäten wird ignoriert, vermutlich ein Grund dafür,
daß sie keiner hören will.
Das technisch auf der Tastatur basierende MIDI-System digitalelektronischer
Instrumente verzichtet ebenfalls auf die Erfassung qualitativer Unterschiede, sondern
sendet ausschließlich Noten-Codes, die für 12 Tastennummern einer Oktave stehen:
wird die Taste c´ gedrückt, meldet das MIDI-System gemäß der standardisierten
Vereinbarung immer dezimal eine 60, wird das nächste cis (oder des) gedrückt, wird
dezimal die Zahl 61 abgeschickt, und so fort.
3. Notation und Notencodes
Die Geschichte der musiktheoretischen und musikpraktischen Entwicklung läßt sich
als zunehmende Digitalisierung der Repräsentation und Verarbeitung von
musikalischen Informationen und Prozessen verstehen, der Computer ist lediglich das
letzte und mächtigste Glied in einer langen Kette musiktechnischer,
musikinformatischer und mathematisch-logischer Stationen - vom Trommelstock bis
zum mausgesteuerten virtuellen Musikinstrument des Informationszeitalters.
Computerbasierte Musikverarbeitung entspricht der Algorithmisierung aller
musikalischen Prozesse und Phänomene, musikalische Informationen werden
numerisch abgebildet und mit mathematischen Funktionen beschrieben.
Drei Aspekte lassen sich aus dieser Perspektive heraus unterscheiden:
1. die Entwicklung von Notationssystemen im Zusammenspiel mit kompositorischen
Modellen
2. die Entwicklung der Instrumente aufgrund spieltechnischer und klanglicher
Erwartungen
3. die Möglichkeit der Klangspeicherung, der Konservierung von Musik
Mit zunehmendem Wissen über die Musik, mit ständig steigender Bedeutung der
Musik für kulturelle Handlungen und der wachsenden Notwendigkeit gemeinsamer
musikalischer Aktionen in einer Gruppe, zum Beispiel beim chorischen
Kirchengesang, verstärkte sich zugleich der Wunsch nach genauerer Festlegung der
musikalischen Aktionen. Töne wurden zum Beispiel bei den Griechen durch
alphabetische Zeichen bestimmt, ein System, das sich über den Generalbass und den
Akkordsymbolen im Jazz (zum Beispiel:. A7/9 für einen Septnonakkord in A-Dur) bis
heute in verschiedenen Formen bewährt hat, im 9. Jahrhundert wurden
Tonhöhenverläufe durch Neumen (griech. neuma, der Wink) mehr oder weniger
genau angezeigt, das sind Notenzeichen, die aus gestischen, heute noch beim Dirigat
von Laienchören gebräuchlichen, Handbewegungen entstanden sind und im
Mittelalter zur groben Fixierung von einstimmigen Choralmelodien dienten, ohne
dass Intervallgrößen oder Notenwerte exakt aufgezeichnet werden konnten.
Der Benediktinermönch Guido von Arezzo (ca. 991–1033) schuf um 1025 die
Grundlagen für die heutige, weltweit verbreitete Notenschrift mit fünf Linien und
Schlüsseln, so daß eine exakte Fixierung von musikalisch relevanten Tonhöhen
möglich wurde. Mit diesem Schritt wird eine Rasterung des akustischen Tonraums
vorgenommen: Aus dem akustischen Frequenzkontinuum werden diskrete Tonorte
gemäß einem Tonsystem ausgewählt und bezeichnet. Musikalische Klangbewegungen
werden damit zumindest auf dem Papier in vertikaler Ausrichtung stufenförmig
geordnet, also digitalisiert (von lat. digitus, der Finger), das heißt zählbar und klar
unterscheidbar gemacht.
Der Kölner Musikwissenschaftler Peter Jobst Fricke erkennt in der "kategoriellen
Unterscheidung von Notenlängen, Tonhöhen und Vortragszeichen, die normativ
festgelegt wurden...die totale Digitalisierung des analogen Kontinuums"
musikalischer Klänge zum Zweck der sicheren Kommunikation. Er zeigt Parallelen
zwischen technischer und begrifflich-kognitiver Digitalisierung auf: "Mit der
digitalen Unterscheidung der Daten im Computer hat der Mensch etwas auf die Spitze
getrieben, was er sich zur Bewältigung der Welt, die in ihrer sichtbaren und hörbaren
Erscheinung analog ist, schon zurecht gelegt hat."
Teilweise werden aber auch neue Notencodes notwendig, um eine Verarbeitung mit
Computern zu bewerkstelligen. Der Anfang der 1970er Jahre entwickelte Plaine and Easy
Code (PEC) ´zerlegt die verschiedenen Notenparameter, wie Stammton, Versetzungszeichen,
Oktave, Notenwert usw., welche in der konventionellen Notenschrift durch variierende
graphische Informationen und vertikale Anordnungen quasi in einem Symbol verschmelzen,
in separate Zeichenfolgen.
Da die alphanumerische Partiturbeschreibung nicht nur zur Speicherung sondern auch
zur Generierung neuer bzw. modifizierter Notenbilder verwendet werden kann, eignet
sich das Format ebenfalls gut zum Einsatz in Datenbanken und adaptiven
Lernprogrammen. Die Gehörbildung des Computerkollegs Musik beispielsweise
erzeugt die im Zusammenhang mit einer Höraufgabe präsentierten Notengrafiken erst
in dem Moment, in dem sie tatsächlich auf dem Bildschirm angezeigt werden müssen.
Dies befreit den Programmierer einerseits von dem Zwang eine Vielzahl oft nur leicht
variierender statischer Grafiken in die Anwendung einbinden zu müssen und erlaubt
andererseits die gezielte, am Kenntnisstand des Lernenden ausgerichtete Generierung
geeigneter Notenbeispiele.
Ein Männlein steht im Walde
"s1 v1b !4/4 4'c| fgahb |2''c4d'hb|2'ag|2.'f||"
In der umfangreichen Musikhandschriften-Datenbank des RISM wird der Code zur
Speicherung von Musikincipits genutzt. Eine ebenfalls auf PEC basierende
Suchfunktion gestattet so das schnelle Auffinden vergleichbarer Themen oder Motive.
Ein weiteres – kurioses - Beispiel zur Bedeutung musikalischer Codes (entnommen
aus Wikipedia):
Die Filmschauspielerin Hedy Lamarr, die sich als Gegnerin des Nationalsozialismus im Zweiten
Weltkrieg auf die Seite der Alliierten stellte, entwickelte eine 1942 patentierte Funkfernsteuerung für
Torpedos [2]. Diese war durch sich selbsttätig wechselnde Frequenzen störungssicher. Zu der
Erfindung war es gekommen, als sie und der Avantgarde-Komponist George Antheil, der sich u.a. mit
mathematischen Konzepten für Kompositionen auseinandersetzte, eines seiner Werke für 16
mechanische Klaviere (Pianolas) synchronisieren wollten. Das Problem lösten sie mittels identischer
Lochkarten in Sender und Empfänger. Dadurch waren die zeitgleichen Frequenzwechsel möglich.
Das Patent wurde jedoch nicht vom US-Militär umgesetzt, so dass das Verfahren niemals zum Einsatz
kam. Der zeitgleiche Frequenzwechsel ("frequency-hopping") wird in der heutigen
Kommunikationstechnik zum Beispiel bei Bluetooth-Verbindungen oder mit der GSM-Technik
angewendet.
Die Zahl im Klang
Schon für den Bau antiker Theater nutzte man die Erkenntnis, dass der Schall sich in
der Luft kugelförmig ausbreitet, weshalb die kreisförmig angelegten Amphitheater
erstaunlich gute akustische Verhältnisse bieten. Galileo Galilei (1564–1642) und
Marin Mersenne (1588–1648) entdeckten um 1600 herum den Zusammenhang
zwischen Tonhöhe und Schwingungszahl, Isaac Newton (1643–1727) beschrieb die
physikalischen Grundlagen für die wellenförmige Ausbreitung des Schalls in
elastischen Medien, 1636 bestimmte Mersenne die Schallgeschwindigkeit. Joseph
Sauveur (1653–1716) beschrieb etwas später erstmals die Obertonstruktur einer
schwingenden Saite und 1819 konstruierte Charles Cagniard de la Tour (1777–1859)
die Lochsirene zur Bestimmung der Frequenz von Tönen.
Der alte Pythagoras wäre nicht erstaunt gewesen, wenn er noch erfahren hätte, dass
sich auch die auf die Klangfarbe eines Tons auswirkende Schwingungsform eines
musikalisch verwendbaren Klangs durch einfache Proportionen ganzer Zahlen
darstellen läßt. Der französische Mathematiker Jean Baptiste Joseph Fourier (1768–
1830) formulierte das Theorem, daß jede noch so komplizierte periodische
Schwingung als Resultat einer Summe von sinusförmigen Teilschwingungen
dargestellt werden kann. Musikalisch wird allgemein zwischen einer
Grundtonschwingung, die normalerweise den Tonhöheneindruck hervorruft, und den
Obertönen, die klangfarbenbestimmend sind, unterschieden.
Mathematisch kann eine Sinusschwingung aus einer gleichmäßigen Kreisbewegung
abgeleitet werden, man nennt dies eine harmonische Bewegung. Eine Stimmgabel
erzeugt eine (weitgehend sinusförmige) Druckschwingung in der Luft, die mit der
Formel
bestimmt werden kann.
Soll das Klangspektrum eines Tons vollständig beschrieben oder mit Hilfe
elektronischer Klangerzeuger synthetisiert werden, dann gilt es, die Frequenzen und
die Amplituden(verläufe) jeder einzelnen Teilschwingung nach der gegebenen Formel
numerisch zu bestimmen (Fourieranalyse) beziehungsweise zu addieren (additive
Klangsynthese). Jedes Musikinstrument weist eine charakteristische Obertonstruktur
auf, die seine Klangfarbe unverwechselbar macht. Mit geeigneten Algorithmen
können harmonische Klangsignale heute mit digitalen Systemen sehr rasch analysiert
oder synthetisiert werden.
additive Klangsynthese
Die Frequenzen der Obertöne sind ganze Vielfache der Frequenz des Grundtons. Sie
stehen im Verhältnis 1 : 2 : 3 : 4 (und so weiter), entsprechen also exakt den reinen
Intervallen, die die alten Griechen durch Teilung der Monochordsaiten ermittelten.
Die Obertonreihe eines musikalisch verwendbaren Tons (also einer periodischen
Schwingung) läßt sich damit auch über die musikalischen Intervalle beschreiben:
5. Composersysteme und automatische Musikanalyse
Bereits im 17. Jahrhundert wuchs die Überzeugung, dass Musik die Kunst geschickter
Zahlenordnungen ist. Als einen der frühesten Überlieferungen dieser Art gilt die Arca
Musarithmica, eine mechanische Komponiermaschine, die in der 1650 gedruckten
Musurgia Universalis des Jesuitenpater und Musikgelehrten Athanasius Kircher
erwähnt wurde. Kircher war überzeugt davon, daß musikalische Vorgänge vollständig
auf einem zu ergründenden Regelsystem beruhen: "Musica nihil aliud est quam
ordinem scire." (Musik ist nichts anderes, als die Regel zu kennen.)
Auch die zahlreichen, im 18.Jahrhundert beliebten, auch Haydn und Mozart
zugeschriebenen Würfelmusikstücken zeugen von dem Wunsch, Musik
gewissermaßen ohne menschliches Zutun hervorzubringen. Mozart wird ein
„Musikalisches Würfelspiel“ (KV 294 d) zugeschrieben eine "Anleitung, Walzer oder
Schleifer mit zwei Würfeln zu componieren ...". Dort sind in einer Tabelle 3/8-Takte
im Klaviersatz aufgelistet, deren Auswahl durch die Augenzahl der geworfenen
Würfel geschieht und hintereinander notiert, eine fertige Komposition ergeben. Wenn
nun der Computer "würfelt", d. h. Zufallszahlen erzeugt, entsprechen den Zahlen
Noten.
Lejaren A. HILLER und Leonard ISAACSON übertrugen in den 50er Jahre des 19.
Jh. die anhand von thermodynamisch gewonnenen Zustandsbeschreibungen
chemischer Prozesse mittels informationstheoretischer Umsetzung, u.a. mit sog,.
Markov-Ketten, einfach auf musikalische Strukturen; daneben dienten auch andere
Regeln, die bei der Analyse historischer Stile auf informationstheoretischem Wege
gefunden wurden als Grundlage für die komponierenden Programmroutinen. Als
Resultat der Bemühungen entstand die berühmte 21-minütige ILLIAC-Suite, benannt
nach dem Computersystem der Universität in Illinois. Es handelte sich um eine Suite
für Streichquartett, bestimmt also für die Aufführung mit traditionellen Instrumenten,
nicht etwa für eine elektronische Realisation, wie man meinen könnte.
Natürlich müssen es keine Markov-Ketten sein, die den Kompositionsvorgang regeln,
es wurden auch Versuche unternommen, Anwendungen der mathematischen Logik,
z.B. der Boolschen Algebra (Verknüpfungsregeln von Elementen einer Menge) zur
Grundlage eines Musikstücks zu machen.
Eine irgendwie aufgestellte Kompositionsregel ist aber unbedingt notwendig, denn ein
stumpfes Errechnen aller denkbaren Kombinationen der musikalischen Elemente
erweist sich schnell als sinnlos. Manfred Leppig - ein Mathematiklehrer - rechnete in
seinem Beitrag "Wie Computer komponieren" (in: Musik und Bildung, 2/1985, S.
91-95) die Anzahl aller möglicher Themen aus, die mit nur 8 Tonstufen und 7
Notenwerten (incl. Pausen) möglich sind; er kommt auf (mickrige) 79 Trillionen
Melodien, davon sind allerdings viele entsetzlich banal, z.B. sind darin auch alle
Tonrepetitionen enthalten. Die Zahl der möglichen Melodien und natürlich auch der
langweiligen Tonwiederholungen steigt weiter sprunghaft an, wenn man z.B. eine
16-stellige Tonfolge errechnen läßt, nämlich auf 40 000 Sextillionen (40 x 10 hoch
40). Ein Computer, der 1000 Melodien pro Sekunde errechnen könnte, müßte dafür
rund eine Quintillion Jahre arbeiten, so daß ein arges Verwertungsproblem ansteht.
Und natürlich würde er 'schöne' Melodien nicht automatisch aussortieren können,
denn dieses Urteilsvermögen besitzt er nicht, so lange man keine objektiv definierten
Kriterien nennen kann.
Es ist also durchaus wahrscheinlich, daß der Rechner nach einiger Zeit eine Melodie
ausstoßen würde, die durch eine mehrfachen Wiederholung einer Tonstufe
charakterisiert wäre; es ist aber höchst unwahrscheinlich, das zu Lebzeiten des
geduldig harrenden Musikers daraus so etwas entstünde wie das Anfangsthema von
Franz Schuberts Lied: "Der Tod und das Mädchen", das ausgerechnet durch eine
derartige Tonrepetition, nämlich durch eine 16fache Wiederholung des Tons d
gekennzeichnet ist, allerdings mit einer bemerkenswerten harmonischen Folge, die
der Computer zusätzlich noch errechnen müßte.
Musikbeispiel:16fache Wiederholung des Tons d, Thema des Todes (Der Tod und
das Mädchen, Liedfassung, Schubert)
Aus eigener 'Kraft' käme der Computer also nicht zu brauchbaren Ergebnissen. Er
benötigt bestimmte Regeln, die nur der musikalisch empfindende Mensch ihm
vorgeben kann. Mit anderen Worten: der Einbau von Regeln in einen
computergesteuerten Kompositionsprozeß erfordert die menschliche Vorgabe,
benötigt die Kenntnis musikalisch sinnvoller Bezugssysteme und erhöht
logischerweise den Anteil des Menschen am Kompositionsergebnis.
Beliebt sind fraktalgeometrische Formeln, wie z.B. die auch für graphische
Transformationen gerne benutzten Mandelbrot-Mengen, mit den Apfelmännchen und
Seepferdchen. Obwohl man für eine musikalische Struktur die geometrisch-flächige
Ausgabe in eine geeignete vertikal nach Tonhöhen aufgelöste serielle Abfolge
konvertieren muß, entstehen durch die repetierenden Algorithmen musikalische
Loops, also z.T. sinnvoll klingende melodische Schleifen und ostinate, aber leicht
variierende Sequenzen, so daß die resultierende Musik an amerikanische minimal
music erinnert und sich auch gut für popmusikalische Arrangements eignet.
Ich spiele ein kurzes Klangbeispiel an, das unsere Studenten im Studio entstehen
ließen.
Brüggemann / Fischer: aus Rhapsodie fraktal, 2007
Autogam, französisches Composerprogramm mit MIDI-Output
Kommen wir zu einem weiteren wichtigen Einsatzgebiet des Computers in der Musik,
dem Gegenstück zur Computerkomposition, nämlich zur Computerunterstützten
Musikanalyse. Hier dient der Computer zur Analyse von musikalischen Strukturen,
er soll in mancher Hinsicht den analysierenden Zugriff des Musikwissenschaftlers auf
die musiktheoretischen Grundlagen von Musik simulieren, vielleicht gar ersetzen,
eine Aufgabe, die im Grunde genommen noch komplizierter als die
computerunterstützte Komposition ist, denn bei einer Computerkomposition kommt
immer etwas Hörbares, wenn auch vielleicht nichts Hörenswertes heraus.
Bei einer automatischen Analyse ist es jedoch unumgänglich, daß der Rechner exakte
Angaben über die aufzufindenden Strukturelemente zuvor erhält. Ein
Analyseprogramm, das selbständig eine umfassende Formenanalyse nebst
überzeugender Interpretation abliefert, ist zur Zeit noch undenkbar und angesichts der
schwer zu beschreibenden musikalischen Begriffskategorien, die eher intuitiv
angewendet werden und auf individuell oder im gesellschaftlichen Konsens
entstandenen ästhetischen Empfindungen beruhen, auch schwer vorstellbar.
Ein Teilbereich der musikalischen Analyse kann jedoch mathematisch relativ exakt
definiert werden, so daß der Computer tatsächlich wichtige Informationen liefern
kann, vor allem dann, wenn es um die Erfassung großer Musikdatenbestände geht.
Er kann z.B. die stilabhängigen Häufigkeiten von Tonintervallen in einem Stück
feststellen und auswerten (vgl. Fucks, Wilhelm: Nach allen Regeln der Kunst,
Stuttgart 1968) oder die häufigsten Akkordverbindungen nennen, ein zwar eher
quantitativer Ermittlungsvorgang, der aber durchaus auch eine qualitative Bedeutung
annehmen kann.
Interessanter sind jedoch die Versuche, per Programm hörbare oder auch
nicht-hörbare Ähnlichkeiten von Melodiemustern herauszufinden. Zwar existiert
keine allgemeingültige Definition dessen, was man unter Ähnlichkeit und erst recht
unter musikalischer Ähnlichkeit zu verstehen hat, da hier die subjektive Empfindung
eine entscheidende Rolle spielt, aber gewisse, für viele Anwendungszwecke praktisch
anwendbare Regeln sind doch aufstellbar.
Abbildung aus dem Computerkolleg Musik - Gehörbildung, ein Lernprogramm aus Osnabrück, das
musikalische Eingaben mit Vorgaben aus einer Datenbank über melodische Ähnlichkeiten vergleicht
und auswertet
6. Digitalisierung: MIDI, Controlling, Interfaces
Eine weitere Aufgabe, die man dem Computer übertragen kann, ist das automatische
Steuern von Musikinstrumenten, so daß diese zu Musikautomaten umfunktioniert
werden. Dazu ist es notwendig, musikalische Informationen über zu spielende
Tonhöhen, Notenwerte und Lautstärkegrade von einem steuernden zu einem
empfangenden Gerät übertragen zu können.
Für einen Computerfachmann ist es beispielsweise völlig normal, daß Daten zwischen
zwei Geräten, z.B. zwischen Computer und Diskettenlaufwerk, übertragen werden
können, denn dieser Vorgang ist die unbedingte Voraussetzung für die Flexibilität und
Leistungsfähigkeit eines Systems. Für Musiker war es zunächst kaum vorstellbar, daß
elektronische Musikinstrumente sich gegenseitig beeinflussen können. Lediglich die
automatische Steuerung von Musikinstrumenten ist schon früher realisiert worden;
man denke z.B. an die großen Jahrmarktsorgeln (Orchestrions) mit den selbständig
pfeifenden und trommelnden Musikaggregaten.
Dies änderte sich radikal mit der Einführung der international genormten
MIDI-Technik im Jahre 1981. M I D I ist die Abkürzung von MUSICAL
INSTRUMENT DIGITAL INTERFACE, zu deutsch: Digitale Schnittstelle für
Musikinstrumente; es handelt sich um ein international genormtes Verfahren zur
Datenübertragung, d.h., die in einem Musikinstrument anfallenden Daten, also
Informationen über die auf einer Tastatur gespielten Tonhöhen, können in Form
digitaler Codes anderen Instrumenten oder einem Computer übermittelt werden und
diesen entsprechend steuern. Man wollte einfach die vielen Synthesizer durch eine
Klaviatur ersetzen, die dann diverse Soundmodule steuert.
Erstmals in der Geschichte des Musikinstruments konnte man also Instrumente und
Geräte miteinander vernetzen, um musikalischen Informationen, auszutauschen, ein
Vorgang, der für den Musiker ungewohnte Perspektiven bereithält.
Der Computer steuert exakt das gesamte angeschlossene Instrumentarium, so daß
jedes Musikinstrument in einen perfekten Musikautomaten verwandelt wird.
Da die gespeicherten Daten normalerweise am Computerbildschirm auch in
vielfältigster Weise manipuliert werden können, etwa indem Melodieteile umgekehrt
werden, damit sie rückwärts, im Krebsgang, zu hören sind, oder Fehler ausgemerzt
bzw. neue Töne hinzugefügt werden können, besteht grundsätzlich die Möglichkeit,
komplette Kompositionen gleich am Bildschirm zu entwerfen. In diesem Fall wird das
Sequencerprogramm als Composer genutzt, d.h. die Musikdaten werden nicht
Typische MIDI-Konfiguration
eingespielt, sondern die Töne werden einzeln über die Computertastatur eingegeben,
eine echte Chance für pianistisch unbegabte Komponisten und Arrangeure.
Heute ist MIDI praktisch in jedem PC eingebaut, mit der Soundkarte verfügbar, MIDI
ist ähnlich wie MP3 ein standardisiertes Datenformat, das aus der Musiktechnologie
allgegenwärtig in die allgemeine Computertechnologie übernommen wurde.
MIDI-Messages
Das berühmte "königliche" Thema des "Musikalischen Opfers" von J. S. Bach in drei
Darstellungsvarianten eines aktuellen MIDI-Sequencerprogramms: erstens in traditioneller
Notenschrift (Score), zweitens als Piano Roll, angelehnt an die Stiftwalzenbestückung, drittens in
numerisch-serieller Darstellung von MIDI-Events.
Klangbeispiel
7. Digitalisierung: Sound Synthese, Sampling und Processing
Um ein Audiosignal digital verarbeiten zu können, misst ein Analog/Digital-Wandler
die Amplitude eines Klangsignals mit einer regelmäßigen Abtastrate (Sampling Rate).
Höhere Abtastraten erfassen höhere Frequenzen, so daß die Klangqualität steigt. Das
Nyquist-Theorem sagt dazu aus, dass die Abtastfrequenz mindestens doppelt so hoch
sein muss wie die höchste Frequenz des abzutastenden Nutzsignals (bei der
herkömmlichen Audio-CD zirka 44 kHz). Die Übertragungsqualität hängt auch von
der Auflösungsfeinheit (Quantisierung) einer Messung ab (bei der Audio-CD mit 16
Bit), so daß ein sehr hoher Datenstrom anfällt, der erst seit der Einführung der
digitalen Audio-CD 1981 in einem kommerziell erträglichen Rahmen technisch
bewältigt wurde. Entsprechend kann ein Klangsignal künstlich erzeugt werden, wenn
ein Algorithmus den Schwingungsverlauf nach einem bestimmten Syntheseverfahren
berechnet.
Der Musikcomputer kann hierbei stellvertretend für das gesamte digitale audio- und
musiktechnologische Instrumentarium stehen, denn er repräsentiert im Grunde
sämtliche Aspekte der Klanggestaltung mit Hilfe elektronischer Klanggeräte.
Der Computer ist theoretisch in der Lage, beliebige Klangstrukturen erzeugen, jede
der in den aktuellen Synthesizern verwendeten Klangsyntheseformen stehen dem
Computer mit einem geeigneten Programm offen. Es ist z.B. gleichgültig, ob man
Obertonstrukturen additiv aus Sinuskomponenten zusammensetzen möchte oder
Klänge durch die vielseitigen Formen der Modulation von Schwingungen, z.B. der
beliebten Frequenzmodulation, erzeugen will; es genügt, die entsprechenden
mathematische Formel in ein Programm einzusetzen und die Berechnung des Klangs
kann beginnen, wenn Hard- und Software es erlauben, sogar in Echtzeit, d.h., der
Klang steht sofort für musikalische Zwecke zu Verfügung.
Ein Qualitätsmerkmal vieler Synthesizer ist der Grad der klanglichen Nachbildung
originaler Instrumente, obwohl die Schaffung und musikalische Auswertung neuer
Klangstrukturen und ihre ungewöhnliche Manipulation eigentlich interessanter sein
müßten.
Musikbeispiel: Jean-Claude Risset, „Mutations“ (endlose Tonglissandi = sog.
Shepard-Tones)
Der Musikcomputer verändert aber auch Klänge, indem er beispielsweise als Filter
oder Echogerät oder als Transposer arbeitet. Auch hierzu muß lediglich ein
entsprechendes Programm erstellt werden, was die notwendigen Berechnungen
veranlaßt. Natürlich gibt es hier unterschiedliche Schwierigkeitsgrade bei der
Bewältigung einer derartigen Aufgabenstellung, z.B. ist sehr viel aufwendiger die
komplizierten akustischen Bedingungen eines hallenden Raums, also die Funktion
eines Hallgeräts, für die Klangberechnung zu berücksichtigen, als etwa ein
künstliches Echo zu erzeugen.
Wie ein Tonbandgerät kann der Computer beliebige Originalklänge speichern.
Spezielle Speichergeräte, die jeden Klang - auch Gesang oder ein komplettes
Orchester - digital speichern, sind als sogenannte Sound Sampler in den letzten
Jahren sehr erfolgreich gewesen. Die damit erzielten Klangeffekte haben zur Zeit
Hochkonjunktur und es wird kaum ein aktueller Hit produziert, der nicht irgendwie
von gesampleten Originalklängen lebt.
Sogar die Stimme wird mehr und mehr computertechnisch produziert.
Melodyne-Beispiel, Bayrischer Ländler als Mix aus Stimmen und Instrumenten
8. Virtuelle Instrumente, Simulation und Emulation
Neben der Digitalisierung und Globalisierung dürfte sich als eine der wichtigsten
computertechnischen Neuerungen die erweiterten Möglichkeiten der Modellbildung
bis hin zu virtuellen Realität erweisen. Virtualität meint eine gedachte oder über ihre
Eigenschaften konkretisierte Sache, also ein Gegenstand, ein Prozeß, eine Miniwelt,
die zwar nicht physisch, aber doch in ihrer Funktionalität oder Wirkung vorhanden ist.
Claude Cadoz, ein franz. Komponist (Virtuelle Realität, 1998) erklärt die Virtualität
als "integrale Repräsentation". Repräsentation einfach als "Wieder-Darstellung". In
der virtuellen Realität wird also das Wesentliche einer Erscheinung, eines Dinges,
erneut dargestellt. Das geht mit ganzen Welten, wie das sehr populär z.B. in
Computerspielen wie Second Life der Fall ist, in denen man einen visuellen (durch
ein Fenster, das reicht schon) und einen auditiven Eindruck der fiktiven Landschaft
bekommt. Der (noch) fehlende Tastsinn, die Haptik ist für die Spielfreude der meisten
User offenbar noch nicht wichtig, für virtuelle Instrumente aber immer schon ein
wesentlicher Faktor.
Virtuelle Instrumente stellen nach der Definition oben die Essenz eines
Musikinstrumentes dar, erneut dargestellt im Medium Computer. Das Wesentliche
eines Instruments ist offenbar sein Klang, denn dies ist ja das, was virtuelle
Instrumente liefern.
Hier werden große Anstrengungen unternommen, z.B. über die exakte algorithmische
Nachbildung der Klangerzeugungsvorgänge, etwa beim Physical Modelling.
Emulation ist erweiterte Simulation: möglichst authentisch wirkende (klingende)
virtuelle Instrumente. Beim Physical Modelling wird ein Instrument analysiert und
(virtuell) in seine Funktionselemente zerlegt, die physikalischen Eigenschaften dieser
Module werden durch mathematische Modelle dargestellt. Das Ergebnis ist ein
lebendiger und realistischer Nachbau des Ursprungsinstruments. Emulierte virtuelle
Instrumente nehmen im Gegensatz zu Sample-basierten Instrumenten meist nur sehr
wenig Speicherplatz auf der Festplatte in Anspruch. Die nötige Rechenleistung
dagegen ist recht hoch.
Virtuelle Instrumente bleiben als Klangerzeuger zweidimensional, das musikalische
Interface kann frei gewählt werden. Häufig ist es die Klaviatur, sicherlich das
bekannteste Interface.
Live-Vorführung eines virtuellen Instruments, einer simulierten
"Hammond-Orgel" am Notebook mit MIDI-Tastatur (über USB).
Virtuelle E-Orgel, Native Instruments B4 = Hammond B3-Simulation
Modularer Digitalsynthesizer von Native Instruments, virtuelle Nachbildung eines FM-Synthesizers
mit 4 Operatoren
9. Musikcomputer im Prozeß musikalischer Kommunikation
Eine systematische Übersicht zeigt die verschiedenen Anwendungsmöglichkeiten der
Computertechnik für Musik und audiovisuelle Medien. Betrachtet man den Computer
als Herzstück der Digitalisierung (Geräte, Instrumente und Programme), der
Globalisierung (Vernetzung, Internet) und Virtualisierung (Simulation,
Modellbildung), dann ist er - z.T. im Zusammenspiel mit dem Internet - einsetzbar
als:
a) multifunktionales Musikinstrument
- Klangsteuerung (MIDI-Sequencing)
- Klangveränderung (Sound Processing)
- Klangsspeicherung (Sound Sampling)
- Klangerzeugung (Sound Synthesizing)
b) musikalisches Werkzeug
- Kompositionsprogramm (Composing)
- Analyseprogramm (Music Analysis)
- Notendruck (Score Printing)
- virtuelles Tonstudio (Production, Audio Mixing)
c) musikspezifische Informationsquelle
- multimediale Präsentation von Wissen (Musiklexikon, Musik mit Hintergrundinformationen usw.)
- interaktives Spielzeug (Simulation von musikalischen Situationen oder Geräten, Quiz, Adventure)
- interaktive Musiklernprogramme (Music Teaching & Learning)
- netzbasierter Wissens- und Kommunikationsserver (Telelearning, virtuelles Musikkonservatorium)
d) als flexibles audiovisuelles Wiedergabegerät
- Recording, Editing, Playing (Aufnahme, Bearbeitung und Wiedergabe von Musik, Geräusch,
Sprache, Video)
- Audiovisueller Server (Basiscomputer für Radio- und TV-Sendungen per Internet
- Datenbank für Klänge, Musik (wav, MP3 usw.), Score- und MIDI-Dateien, Videos, Animationen
usw.
//
Musik im Prozeß der Produktion, Interpretation, Reproduktion und Rezeption - in jedem Bereich
werden heute Computer eingesetzt
10. Schlußwort
Mathematik ist Musik für den Verstand, Musik ist Mathematik für die Seele.
Es gibt mannigfaltige Beziehungen zwischen Musik und Mathematik, bzw. Physik
und Musik, die vor allem durch die Beziehungen beider Disziplinen zur Mathematik
und hier speziell durch den Umgang mit Zahlen und Zahlenverhältnissen bestimmt
werden.
Akzeptiert man die Einstufung des multifunktionalen Computers als Brennpunkt der
musikspezifischen Digitalisierung von Geräten der Instrumental- und Audiotechnik,
der Globalisierung von musikalischen Kommunikationsstrukturen (Datenvernetzung
per Internet) und Virtualisierung von musikalischen Prozessen (Simulation,
Emulation, Modellbildung), dann läßt sich ohne weiteres die These des Schweizer
Musikwissenschaftlers und Mathematikers Guerino Mazzola nachvollziehen:
"...daß von allen klassischen Künsten - und wohl auch von den neuen multimedialen
Derivaten - die Musik und ihre Wissenschaft am meisten der Wissensgesellschaft des
Informationszeitalters einverleibt worden ist. Dies liegt sicher an der Abstraktheit
musikalischer Konstruktion, aber auch daran, daß die Klangsynthese durch digitale
Medien bis hin zur Simulation realer traditioneller Instrumente die Wirklichkeit
musikalischer Werke massiv zu virtualisieren vermocht hat."
Der aktuelle Musikcomputer ist als digitale Universalmaschine gleichermaßen ein
omnipotentes Musikinstrument zum Generieren, Transformieren, Speichern und
Steuern von Klängen, ein musikalisches Werkzeug zum Komponieren, Arrangieren
und Analysieren von neuen und alten Klangstrukturen und eine kreative Maschine zur
experimentellen Modellierung und virtuellen Abbildung von neuen Klangwerkzeugen
und kognitiven Prozessen.
Musikverarbeitung mit dem Computer bedeutet eine Algorithmisierung aller
musikalischen Prozesse, der musikalische Prozeß wird numerisch abgebildet, sei es zu
produktiven oder zu reproduktiven Zwecken. Der Kölner Musikwissenschaftler Jobst
Peter Fricke versucht am Beispiel der Digitalisierung unserer technischen Umwelt die
Grenze zwischen ratio und emotio zu definieren: "So gesehen enthält das digitale
Arbeitsfeld, das wir uns ausgedacht haben. letztlich die Kennzeichen unseres
Denkens. Es ist ein Werkzeug, das unserem Denken entspricht. Wir haben die
Digitalisierung gebraucht und eingeführt, um präzise definieren zu können, um
schließlich mit der Kombination präziser Definitionen unsere Denkmöglichkeiten
hinaus projizieren zu können - in eine Maschine. Zurückgeblieben ist die Emphatie,
der unmittelbar emotionale zwischenmenschliche Bereich, nicht zu verwechseln mit
dem Bereich der Emotionen, der an die digitalen Informationen geknüpft ist. ...Inhalte
und Gedanken, die digital transportiert werden, lösen immer auch Gefühle aus.
Gefühle sind immer dabei, sie sind allgegenwärtig und gerade der wesentliche Teil
des Menschen."
Die Roboter der Gruppe Kraftwerk im Bühneneinsatz
Der französische Komponist André Jolivet sagte einmal selbstbewußt:
"Niemals kann eine noch so perfekte Maschine einen genialen Menschen
ersetzen."
Sein Landsmann und Kollege Pierre Barbaud, ein Komponist, der mit Computern
komponierte, hielt wacker dagegen und meinte:
"Niemals kann ein noch so genialer Mensch eine elektronische Maschine
ersetzen."
Mir scheint, daß beide Ansichten zutreffen.
Nun ist die Kognitionswissenschaft dem menschlichen Denken und der Emotion auf
der Spur, das Bewußtsein arbeitet im 3-Sekundentakt, dem sich sowohl der Vers eines
Gedichtes als auch ein musikalisches Motiv unterzuordnen hat. Vielleicht läßt sich
das menschlichen Denken und Fühlen eines Tages doch mathematisch beschreiben
und der musikalisch kreative Roboter wäre nicht mehr unmöglich.
Schließlich sei noch auf das aktuelle, allerdings noch kontrovers diskutierte Konzept
der Superstringtheorie verwiesen, mit deren Hilfe man Quantentheorie und
Gravitation unter einen Hut zu bringen hofft. Dabei werden Elementarteilchen als
schwingende Saiten (= string) (sic!) angesehen, deren Schwingungsanregungen,
Akkorde, Harmonien etc. nichts Geringeres als ein schlüssiges Konzept der gesamten
Welt liefern sollen.
"Alles ist Zahl", sagten die Pythagoräer. Sie hatten ein anderes Weltbild und sie
hatten keine Computer, aber in einem gewissen Sinne behielten sie recht.