Der Musikcomputer eine musikalische Universalmaschine
Transcrição
Der Musikcomputer eine musikalische Universalmaschine
Bernd Enders, Vortrag Kaiserslautern, 05.02.08 Der Musikcomputer eine musikalische Universalmaschine oder: Die mannigfaltigen Beziehungen von Musik und Mathematik Gliederung 1. Zum Verhältnis von Ton und Zahl 2. Historische Entwicklung: Tonsysteme, Stimmungen 3. Notation und Notencodes 4. Die Zahl im Klang 5. Composersysteme und automatische Musikanalyse 6. Digitalisierung: MIDI, Controlling, Interfaces 7. Digitalisierung: Sound Synthese, Sampling u. Processing 8. Virtuelle Instrumente, Simulation und Emulation 9. Musikcomputer im Prozeß musikalischer Kommunikation 10.Schlußwort Ich bin der Musikant mit Taschenrechner in der Hand Ich addiere Und subtrahiere kontrolliere Und komponiere Und wenn ich diese Taste drück´ Spielt er ein kleines Musikstück (Kraftwerk1981) Musikbeispiel: Ich bin der Musikant (Kraftwerk) 1. Zum Verhältnis von Ton und Zahl "Alles ist Zahl", sagten die Pythagoräer und sie versuchten die musiktheoretischen Grundlagen mit mathematisch-logischen Beziehungen zu beschreiben, weshalb die Musikwissenschaft als scientia mathematica mit der Arithmetik, der Geometrie und der Astronomie zum quadrivium der ersten Wissenschaften gehört. Warum die Musikwissenschaft, die sich mit vielen physikalischen Objekten und Funktionalitäten befaßt, z.B. Instrumentenakustik, Raumakustik, mit physiologischen Vorgängen und psychologischen Phänomenen (z.B. beim Hören und Spielen), mit informatischen und medientechnologischen Fragestellungen, heute als Geisteswissenschaft zählt, kann ich mit historischen Gründen erklären, warum dagegen die Mathematik, die sich ausschließlich mit logischen Symbolen beschäftigt, die sich durch deduktive Methoden und einem axiomatischen Aufbau abstrakter Strukturen auszeichnet, heute zu den Naturwissenschaften gehört, weiß ich nicht. Ursprünglich war der Computer nur eine Art Rechenknecht, z.B. für Tabellenkalkulationen, später konnte er eben auch Texte verarbeiten, dann Graphiken, wie z.B. Noten, und Sounds, letzten Endes alles, was sich irgendwie in Symbolen und Zahlen ausdrücken bzw. codieren läßt. Heute kann man ihn als multifunktionale und omnipräsente Denkmaschine betrachten, wenn man mit Denken nur den softwarebasierten Umgang mit Informationen aller Art meint. Und mit geeigneter Soundkarte und musikspezifischen Interfaces wird aus ihm ein omnipotentes Musikinstrument. Und sogar Taschenrechner können Musik erzeugen, wie die deutsche Elektronikformation Kraftwerk schon in den 80er Jahren wußte. Tetraktys der reinen Intervallproportionen "Alles ist Zahl", sagten die Pythagoräer - eine Gruppe von naturwissenschaftlich geprägten Denkern, gleichermaßen Philosophen, Mathematiker, Musikwissenschaftler und Politiker. Sie schätzten die Musik als Teil einer auf allgemein gültigen Zahlengesetzlichkeiten (= logos) beruhenden (organischen wie anorganischen) Weltordnung, deren harmonikale Struktur sich mit Hilfe eines einfachen Monochords, also einer über einem Resonanzkasten aufgespannten, klingenden Saite, hörbar, sinnfällig, also unmittelbar erfahrbar machen läßt. Das Monochord war hier kein Musik- sondern ein Meßinstrument. Weil Intervalle identisch mit Zahlenverhältnissen sind, geschieht dabei nichts anderes, "als daß eine intellektuell erfaßbare Zahlenquantität in eine seelisch erlebbare Sinnesqualität verwandelt wird", wie es ein zeitgenössischer Vertreter des harmonikalen Pythagorismus ausdrückt. Für das pythagoräische Denken ist ein Zahlenverhältnis und das entsprechende musikalisches Intervall ein und dasselbe. Es ist nur folgerichtig, wenn die Welt des Klangs genau nach den gleichen harmonischen Prinzipien aufgebaut ist wie die Gesetze der Physik, der Astronomie und der Mathematik - und umgekehrt. "Alles ist Zahl", so lautet die Quintessenz. Die Sphärenmusik der pythagoräischen Schule ist real, denn gemeint ist tatsächlich, daß im Weltall Musik erklingt, hervorgerufen durch die naturgesetzlich geordneten Bahnen der Himmelskörper. Die Musik dient vorrangig zur wissenschaftlichen Erfassung dieser Weltordnung, ihr Wert als ästhetisch-sinnfällige Kunst ist eher zweitrangig. In der pythagoräischen Musiktheorie werden konsequent die Intervalldefinitionen und die darauf aufbauenden Ton- und Stimmungssysteme wie auch die rhythmischen Maße, also sowohl die vertikale als auch die horizontale Strukturierung musikalischer Ereignisse, streng anhand von Zahlenproportionen bestimmt. Ausgehend von der Oktavverwandtschaft durch Halbierung der Saitenlänge (mit einem Frequenzverhältnis von exakt 1:2, wurden Tonskalen errechnet, die auf arithmetischen, geometrischen und harmonischen Proportionen beruhten. Die bis heute wissenschaftlich und künstlerisch diskutierte pythagoräische Stimmung einer achttönigen, aus Ganz- und Halbtonschritten beruhenden Skala im Oktavrahmen basiert auf der Schichtung von reinen Quinten im Frequenzverhältnis 2:3 (mit entsprechender Oktavversetzung), so daß zur Konstruktion nur die starken Konsonanzen Oktave und Quinte Verwendung finden (vgl. Abbildung der Tektraktys). 2. Historische Entwicklung: Tonsysteme, Stimmungen Es kam schließlich - vor allem im 17. Jahrhundert - zu erheblichen Schwierigkeiten, als durch das Aufkommen der Mehrstimmigkeit, der musikalischen Einführung chromatischer Tonstufen und der immer größeren Bedeutung von Instrumenten mit fixierten Tonhöhen, vor allem der Tasteninstrumente, die Probleme der reinen Stimmung pythagoräischer Herkunft deutlich wurden. Geht man wie Pythagoras von rein gestimmten Quinten aus, so erhält man durch Übereinanderschichten bekanntlich keinen sich enharmonisch schließenden Quintenzirkel, sondern eine endlose Quintenspirale, deren Töne sich mit exakt zu stimmenden Frequenzen auf einem Tasteninstrument in der Praxis nicht realisieren lassen. Vergleicht man die Frequenzen, die sich - z.B. ausgehend von dem Ton C - nach 12 Quinten (im Verhältnis 3:2) für his (!) und 7 Oktaven (im Verhältnis 2:1) für den Ton c errechnen lassen, dann ergibt sich eine deutlich hörbare Frequenzdifferenz von knapp einem Achtelton, die als Pythagoräisches Komma in die Geschichte der Musiktheorie eingegangen ist. Klangbeispiel (pyt_komma.wav) Mit anderen Worten: für die Konstruktion pythagoräisch rein gestimmter Instrumente ergeben sich für Instrumentenbauer und Instrumentalisten kaum zu bewältigenden Schwierigkeiten beim Spielen von Tönen wie his und c, fis und ges, gis und as, deren Frequenzen zwar sehr dicht beieinander liegen, aber dennoch eigene Tasten benötigen würden. Enharmonische Umdeutungen dieser Töne, die in der temperierten Stimmung auf gleicher Taste liegen, zu Modulationszwecken waren ausgeschlossen und die Komponisten vermieden überhaupt Tonarten, die sich von den rein klingenden Haupttonarten (also etwa C, G, D, F, B) zu weit entfernten. Die von dem berühmten Orgelbauer Gottfried Silbermann (1683-1753) und anderen wegen der in der Musikentwicklung immer wichtiger werdenden Terz bevorzugte mitteltönige Stimmung geht zum Beispiel von reinen Terzen aus, denn in der Musikpraxis hatte sich ihr Wohlklang trotz der pythagoräischen Einstufung als Dissonanz durchgesetzt, obwohl man eigenartigerweise theoretisch an der Tetraktys des Pythagoras festhielt. Aber das Stimmungsproblem bleibt auch hier bestehen. Einflußreiche Theoretiker und Philosophen wie Johannes Scotus (1265 -1308), Cusanus (1401 - 1464), Johannes Kepler (1571 -1630), Gottfried Wilhelm Leibniz (1646 - 1716) und andere hielten an der Zahlengesetzlichkeit der Musik fest, die Sphärenharmonie lebte fort, nun jedoch verbunden mit aktuellen naturwissenschaftlichen Erkenntnissen und ersten psychologischen Ansätzen. Leibniz deutet zwar ebenfalls die musikalische Harmonie als ein Abbild der Weltharmonie, er erklärt jedoch das Konsonanzempfinden für die ersten sechs Intervallproportionen (Oktave, Quinte, Quarte sowie nun auch große und kleine Terz, große und kleine Sexte) als ein "unbewusstes Zählen der Seele": "Die Musik ist für die Seele eine verborgene arithmetische Übung, wobei die Seele zählt, ohne dessen bewusst zu sein. ... Sie fühlt dennoch die Wirkung dieses unbewußten Zählens, das heißt bei Konsonanzen Vergnügen, bei Dissonanzen Mißfallen, das daraus hervorgeht." Musica est exercitium arithmeticae occultum nesciens se numerare animi Gottfried Wilhelm Leibniz Andreas Werckmeister (1645-1706) schlug Ende des 17. Jahrhunderts weitere Stimmungsmethoden vor: Er verkleinerte und vergrößerte fast alle Quinten geringfügig und verteilte das Pythagoräsche Komma auf diese Weise in kleinsten Portionen, so daß alle Tonarten rund um den Quintenzirkel spielbar wurden. Johann Sebastian Bach war begeistert und komponierte für die "Wohltemperierte Stimmung" Werckmeisters das "Wohltemperierte Klavier" (1722 und 1742), ein Kompendium mit Präludien und Fugen, das alle 24 Dur- und Molltonarten kompositorisch und klanglich ausnutzt und die steten Wechselwirkungen zwischen theoretischer Erörterung und künstlerisch-experimenteller Praxis, zwischen musiktechnischer Realisation und musikalischer Rezeption perfekt demonstriert. Die endlose Quintenspirale des Pythagoräischen Systems schloß sich endlich zum Quintenzirkel. Erst für die gleichschwebend-temperierte oder – genauer – gleichstufig-temperierte Stimmung wird konsequent auf jedes reine Intervall verzichtet und die Oktave (als einziges verbleibendes reines Intervall) in zwölf exakt gleich große Halbtonschritte geteilt, eine Lösung, die die mathematische Beherrschung von Logarithmen voraussetzt, denn die notwendigen Frequenzverhältnisse ergeben sich aus der 12. Wurzel aus 2 (= 1,0595), ein für den pythagoräischen Zahlenmystiker natürlich völlig abwegiges irrationales Verhältnis. Logarithmische Berechnungen führte erst der Mathematiker Leonard Euler (1707-1783) in die Musikwissenschaft ein. Mit der gleichstufig-temperierten Stimmung, die sich schließlich allgemein durchsetzt, werden alle Intervalle außer der Oktave geringfügig gegenüber den exakten Zahlenproportionen verändert, so daß man innerhalb einer Oktave mit exakt zwölf Frequenzen und auf der Klaviatur folglich mit zwölf Tasten auskommt. Unterschiedlich abgeleitete Töne wie cis und des und funktional verschiedene Intervalle wie kleine Terz und überm. Sekunde ertönen völlig gleich, werden aber je nach musikalischem Zusammenhang dennoch unterschiedlich aufgefaßt. Erst die von Arnold Schönberg 1925 aufgestellte Zwölftontheorie verzichtet völlig auf intervallqualitative Unterschiede dieser Art. Es gibt kein tonales Bezugssystem mehr, was die verschiedenen Intervallqualitäten sowie Konsonanz-Dissonanz-Unterschiede festigen würde. Die Zwölftonmusik basiert nicht nur melodisch und harmonisch, sondern auch funktionslogisch / musiktheoretisch vollständig auf dem letztlich mathematisch-technisch begründeten System gleichstufig-temperierter Frequenzen, sozusagen auf den Tasten einer Klaviatur, die funktionale Differenz verschieden abgeleiteter Ton- und Intervallqualitäten wird ignoriert, vermutlich ein Grund dafür, daß sie keiner hören will. Das technisch auf der Tastatur basierende MIDI-System digitalelektronischer Instrumente verzichtet ebenfalls auf die Erfassung qualitativer Unterschiede, sondern sendet ausschließlich Noten-Codes, die für 12 Tastennummern einer Oktave stehen: wird die Taste c´ gedrückt, meldet das MIDI-System gemäß der standardisierten Vereinbarung immer dezimal eine 60, wird das nächste cis (oder des) gedrückt, wird dezimal die Zahl 61 abgeschickt, und so fort. 3. Notation und Notencodes Die Geschichte der musiktheoretischen und musikpraktischen Entwicklung läßt sich als zunehmende Digitalisierung der Repräsentation und Verarbeitung von musikalischen Informationen und Prozessen verstehen, der Computer ist lediglich das letzte und mächtigste Glied in einer langen Kette musiktechnischer, musikinformatischer und mathematisch-logischer Stationen - vom Trommelstock bis zum mausgesteuerten virtuellen Musikinstrument des Informationszeitalters. Computerbasierte Musikverarbeitung entspricht der Algorithmisierung aller musikalischen Prozesse und Phänomene, musikalische Informationen werden numerisch abgebildet und mit mathematischen Funktionen beschrieben. Drei Aspekte lassen sich aus dieser Perspektive heraus unterscheiden: 1. die Entwicklung von Notationssystemen im Zusammenspiel mit kompositorischen Modellen 2. die Entwicklung der Instrumente aufgrund spieltechnischer und klanglicher Erwartungen 3. die Möglichkeit der Klangspeicherung, der Konservierung von Musik Mit zunehmendem Wissen über die Musik, mit ständig steigender Bedeutung der Musik für kulturelle Handlungen und der wachsenden Notwendigkeit gemeinsamer musikalischer Aktionen in einer Gruppe, zum Beispiel beim chorischen Kirchengesang, verstärkte sich zugleich der Wunsch nach genauerer Festlegung der musikalischen Aktionen. Töne wurden zum Beispiel bei den Griechen durch alphabetische Zeichen bestimmt, ein System, das sich über den Generalbass und den Akkordsymbolen im Jazz (zum Beispiel:. A7/9 für einen Septnonakkord in A-Dur) bis heute in verschiedenen Formen bewährt hat, im 9. Jahrhundert wurden Tonhöhenverläufe durch Neumen (griech. neuma, der Wink) mehr oder weniger genau angezeigt, das sind Notenzeichen, die aus gestischen, heute noch beim Dirigat von Laienchören gebräuchlichen, Handbewegungen entstanden sind und im Mittelalter zur groben Fixierung von einstimmigen Choralmelodien dienten, ohne dass Intervallgrößen oder Notenwerte exakt aufgezeichnet werden konnten. Der Benediktinermönch Guido von Arezzo (ca. 991–1033) schuf um 1025 die Grundlagen für die heutige, weltweit verbreitete Notenschrift mit fünf Linien und Schlüsseln, so daß eine exakte Fixierung von musikalisch relevanten Tonhöhen möglich wurde. Mit diesem Schritt wird eine Rasterung des akustischen Tonraums vorgenommen: Aus dem akustischen Frequenzkontinuum werden diskrete Tonorte gemäß einem Tonsystem ausgewählt und bezeichnet. Musikalische Klangbewegungen werden damit zumindest auf dem Papier in vertikaler Ausrichtung stufenförmig geordnet, also digitalisiert (von lat. digitus, der Finger), das heißt zählbar und klar unterscheidbar gemacht. Der Kölner Musikwissenschaftler Peter Jobst Fricke erkennt in der "kategoriellen Unterscheidung von Notenlängen, Tonhöhen und Vortragszeichen, die normativ festgelegt wurden...die totale Digitalisierung des analogen Kontinuums" musikalischer Klänge zum Zweck der sicheren Kommunikation. Er zeigt Parallelen zwischen technischer und begrifflich-kognitiver Digitalisierung auf: "Mit der digitalen Unterscheidung der Daten im Computer hat der Mensch etwas auf die Spitze getrieben, was er sich zur Bewältigung der Welt, die in ihrer sichtbaren und hörbaren Erscheinung analog ist, schon zurecht gelegt hat." Teilweise werden aber auch neue Notencodes notwendig, um eine Verarbeitung mit Computern zu bewerkstelligen. Der Anfang der 1970er Jahre entwickelte Plaine and Easy Code (PEC) ´zerlegt die verschiedenen Notenparameter, wie Stammton, Versetzungszeichen, Oktave, Notenwert usw., welche in der konventionellen Notenschrift durch variierende graphische Informationen und vertikale Anordnungen quasi in einem Symbol verschmelzen, in separate Zeichenfolgen. Da die alphanumerische Partiturbeschreibung nicht nur zur Speicherung sondern auch zur Generierung neuer bzw. modifizierter Notenbilder verwendet werden kann, eignet sich das Format ebenfalls gut zum Einsatz in Datenbanken und adaptiven Lernprogrammen. Die Gehörbildung des Computerkollegs Musik beispielsweise erzeugt die im Zusammenhang mit einer Höraufgabe präsentierten Notengrafiken erst in dem Moment, in dem sie tatsächlich auf dem Bildschirm angezeigt werden müssen. Dies befreit den Programmierer einerseits von dem Zwang eine Vielzahl oft nur leicht variierender statischer Grafiken in die Anwendung einbinden zu müssen und erlaubt andererseits die gezielte, am Kenntnisstand des Lernenden ausgerichtete Generierung geeigneter Notenbeispiele. Ein Männlein steht im Walde "s1 v1b !4/4 4'c| fgahb |2''c4d'hb|2'ag|2.'f||" In der umfangreichen Musikhandschriften-Datenbank des RISM wird der Code zur Speicherung von Musikincipits genutzt. Eine ebenfalls auf PEC basierende Suchfunktion gestattet so das schnelle Auffinden vergleichbarer Themen oder Motive. Ein weiteres – kurioses - Beispiel zur Bedeutung musikalischer Codes (entnommen aus Wikipedia): Die Filmschauspielerin Hedy Lamarr, die sich als Gegnerin des Nationalsozialismus im Zweiten Weltkrieg auf die Seite der Alliierten stellte, entwickelte eine 1942 patentierte Funkfernsteuerung für Torpedos [2]. Diese war durch sich selbsttätig wechselnde Frequenzen störungssicher. Zu der Erfindung war es gekommen, als sie und der Avantgarde-Komponist George Antheil, der sich u.a. mit mathematischen Konzepten für Kompositionen auseinandersetzte, eines seiner Werke für 16 mechanische Klaviere (Pianolas) synchronisieren wollten. Das Problem lösten sie mittels identischer Lochkarten in Sender und Empfänger. Dadurch waren die zeitgleichen Frequenzwechsel möglich. Das Patent wurde jedoch nicht vom US-Militär umgesetzt, so dass das Verfahren niemals zum Einsatz kam. Der zeitgleiche Frequenzwechsel ("frequency-hopping") wird in der heutigen Kommunikationstechnik zum Beispiel bei Bluetooth-Verbindungen oder mit der GSM-Technik angewendet. Die Zahl im Klang Schon für den Bau antiker Theater nutzte man die Erkenntnis, dass der Schall sich in der Luft kugelförmig ausbreitet, weshalb die kreisförmig angelegten Amphitheater erstaunlich gute akustische Verhältnisse bieten. Galileo Galilei (1564–1642) und Marin Mersenne (1588–1648) entdeckten um 1600 herum den Zusammenhang zwischen Tonhöhe und Schwingungszahl, Isaac Newton (1643–1727) beschrieb die physikalischen Grundlagen für die wellenförmige Ausbreitung des Schalls in elastischen Medien, 1636 bestimmte Mersenne die Schallgeschwindigkeit. Joseph Sauveur (1653–1716) beschrieb etwas später erstmals die Obertonstruktur einer schwingenden Saite und 1819 konstruierte Charles Cagniard de la Tour (1777–1859) die Lochsirene zur Bestimmung der Frequenz von Tönen. Der alte Pythagoras wäre nicht erstaunt gewesen, wenn er noch erfahren hätte, dass sich auch die auf die Klangfarbe eines Tons auswirkende Schwingungsform eines musikalisch verwendbaren Klangs durch einfache Proportionen ganzer Zahlen darstellen läßt. Der französische Mathematiker Jean Baptiste Joseph Fourier (1768– 1830) formulierte das Theorem, daß jede noch so komplizierte periodische Schwingung als Resultat einer Summe von sinusförmigen Teilschwingungen dargestellt werden kann. Musikalisch wird allgemein zwischen einer Grundtonschwingung, die normalerweise den Tonhöheneindruck hervorruft, und den Obertönen, die klangfarbenbestimmend sind, unterschieden. Mathematisch kann eine Sinusschwingung aus einer gleichmäßigen Kreisbewegung abgeleitet werden, man nennt dies eine harmonische Bewegung. Eine Stimmgabel erzeugt eine (weitgehend sinusförmige) Druckschwingung in der Luft, die mit der Formel bestimmt werden kann. Soll das Klangspektrum eines Tons vollständig beschrieben oder mit Hilfe elektronischer Klangerzeuger synthetisiert werden, dann gilt es, die Frequenzen und die Amplituden(verläufe) jeder einzelnen Teilschwingung nach der gegebenen Formel numerisch zu bestimmen (Fourieranalyse) beziehungsweise zu addieren (additive Klangsynthese). Jedes Musikinstrument weist eine charakteristische Obertonstruktur auf, die seine Klangfarbe unverwechselbar macht. Mit geeigneten Algorithmen können harmonische Klangsignale heute mit digitalen Systemen sehr rasch analysiert oder synthetisiert werden. additive Klangsynthese Die Frequenzen der Obertöne sind ganze Vielfache der Frequenz des Grundtons. Sie stehen im Verhältnis 1 : 2 : 3 : 4 (und so weiter), entsprechen also exakt den reinen Intervallen, die die alten Griechen durch Teilung der Monochordsaiten ermittelten. Die Obertonreihe eines musikalisch verwendbaren Tons (also einer periodischen Schwingung) läßt sich damit auch über die musikalischen Intervalle beschreiben: 5. Composersysteme und automatische Musikanalyse Bereits im 17. Jahrhundert wuchs die Überzeugung, dass Musik die Kunst geschickter Zahlenordnungen ist. Als einen der frühesten Überlieferungen dieser Art gilt die Arca Musarithmica, eine mechanische Komponiermaschine, die in der 1650 gedruckten Musurgia Universalis des Jesuitenpater und Musikgelehrten Athanasius Kircher erwähnt wurde. Kircher war überzeugt davon, daß musikalische Vorgänge vollständig auf einem zu ergründenden Regelsystem beruhen: "Musica nihil aliud est quam ordinem scire." (Musik ist nichts anderes, als die Regel zu kennen.) Auch die zahlreichen, im 18.Jahrhundert beliebten, auch Haydn und Mozart zugeschriebenen Würfelmusikstücken zeugen von dem Wunsch, Musik gewissermaßen ohne menschliches Zutun hervorzubringen. Mozart wird ein „Musikalisches Würfelspiel“ (KV 294 d) zugeschrieben eine "Anleitung, Walzer oder Schleifer mit zwei Würfeln zu componieren ...". Dort sind in einer Tabelle 3/8-Takte im Klaviersatz aufgelistet, deren Auswahl durch die Augenzahl der geworfenen Würfel geschieht und hintereinander notiert, eine fertige Komposition ergeben. Wenn nun der Computer "würfelt", d. h. Zufallszahlen erzeugt, entsprechen den Zahlen Noten. Lejaren A. HILLER und Leonard ISAACSON übertrugen in den 50er Jahre des 19. Jh. die anhand von thermodynamisch gewonnenen Zustandsbeschreibungen chemischer Prozesse mittels informationstheoretischer Umsetzung, u.a. mit sog,. Markov-Ketten, einfach auf musikalische Strukturen; daneben dienten auch andere Regeln, die bei der Analyse historischer Stile auf informationstheoretischem Wege gefunden wurden als Grundlage für die komponierenden Programmroutinen. Als Resultat der Bemühungen entstand die berühmte 21-minütige ILLIAC-Suite, benannt nach dem Computersystem der Universität in Illinois. Es handelte sich um eine Suite für Streichquartett, bestimmt also für die Aufführung mit traditionellen Instrumenten, nicht etwa für eine elektronische Realisation, wie man meinen könnte. Natürlich müssen es keine Markov-Ketten sein, die den Kompositionsvorgang regeln, es wurden auch Versuche unternommen, Anwendungen der mathematischen Logik, z.B. der Boolschen Algebra (Verknüpfungsregeln von Elementen einer Menge) zur Grundlage eines Musikstücks zu machen. Eine irgendwie aufgestellte Kompositionsregel ist aber unbedingt notwendig, denn ein stumpfes Errechnen aller denkbaren Kombinationen der musikalischen Elemente erweist sich schnell als sinnlos. Manfred Leppig - ein Mathematiklehrer - rechnete in seinem Beitrag "Wie Computer komponieren" (in: Musik und Bildung, 2/1985, S. 91-95) die Anzahl aller möglicher Themen aus, die mit nur 8 Tonstufen und 7 Notenwerten (incl. Pausen) möglich sind; er kommt auf (mickrige) 79 Trillionen Melodien, davon sind allerdings viele entsetzlich banal, z.B. sind darin auch alle Tonrepetitionen enthalten. Die Zahl der möglichen Melodien und natürlich auch der langweiligen Tonwiederholungen steigt weiter sprunghaft an, wenn man z.B. eine 16-stellige Tonfolge errechnen läßt, nämlich auf 40 000 Sextillionen (40 x 10 hoch 40). Ein Computer, der 1000 Melodien pro Sekunde errechnen könnte, müßte dafür rund eine Quintillion Jahre arbeiten, so daß ein arges Verwertungsproblem ansteht. Und natürlich würde er 'schöne' Melodien nicht automatisch aussortieren können, denn dieses Urteilsvermögen besitzt er nicht, so lange man keine objektiv definierten Kriterien nennen kann. Es ist also durchaus wahrscheinlich, daß der Rechner nach einiger Zeit eine Melodie ausstoßen würde, die durch eine mehrfachen Wiederholung einer Tonstufe charakterisiert wäre; es ist aber höchst unwahrscheinlich, das zu Lebzeiten des geduldig harrenden Musikers daraus so etwas entstünde wie das Anfangsthema von Franz Schuberts Lied: "Der Tod und das Mädchen", das ausgerechnet durch eine derartige Tonrepetition, nämlich durch eine 16fache Wiederholung des Tons d gekennzeichnet ist, allerdings mit einer bemerkenswerten harmonischen Folge, die der Computer zusätzlich noch errechnen müßte. Musikbeispiel:16fache Wiederholung des Tons d, Thema des Todes (Der Tod und das Mädchen, Liedfassung, Schubert) Aus eigener 'Kraft' käme der Computer also nicht zu brauchbaren Ergebnissen. Er benötigt bestimmte Regeln, die nur der musikalisch empfindende Mensch ihm vorgeben kann. Mit anderen Worten: der Einbau von Regeln in einen computergesteuerten Kompositionsprozeß erfordert die menschliche Vorgabe, benötigt die Kenntnis musikalisch sinnvoller Bezugssysteme und erhöht logischerweise den Anteil des Menschen am Kompositionsergebnis. Beliebt sind fraktalgeometrische Formeln, wie z.B. die auch für graphische Transformationen gerne benutzten Mandelbrot-Mengen, mit den Apfelmännchen und Seepferdchen. Obwohl man für eine musikalische Struktur die geometrisch-flächige Ausgabe in eine geeignete vertikal nach Tonhöhen aufgelöste serielle Abfolge konvertieren muß, entstehen durch die repetierenden Algorithmen musikalische Loops, also z.T. sinnvoll klingende melodische Schleifen und ostinate, aber leicht variierende Sequenzen, so daß die resultierende Musik an amerikanische minimal music erinnert und sich auch gut für popmusikalische Arrangements eignet. Ich spiele ein kurzes Klangbeispiel an, das unsere Studenten im Studio entstehen ließen. Brüggemann / Fischer: aus Rhapsodie fraktal, 2007 Autogam, französisches Composerprogramm mit MIDI-Output Kommen wir zu einem weiteren wichtigen Einsatzgebiet des Computers in der Musik, dem Gegenstück zur Computerkomposition, nämlich zur Computerunterstützten Musikanalyse. Hier dient der Computer zur Analyse von musikalischen Strukturen, er soll in mancher Hinsicht den analysierenden Zugriff des Musikwissenschaftlers auf die musiktheoretischen Grundlagen von Musik simulieren, vielleicht gar ersetzen, eine Aufgabe, die im Grunde genommen noch komplizierter als die computerunterstützte Komposition ist, denn bei einer Computerkomposition kommt immer etwas Hörbares, wenn auch vielleicht nichts Hörenswertes heraus. Bei einer automatischen Analyse ist es jedoch unumgänglich, daß der Rechner exakte Angaben über die aufzufindenden Strukturelemente zuvor erhält. Ein Analyseprogramm, das selbständig eine umfassende Formenanalyse nebst überzeugender Interpretation abliefert, ist zur Zeit noch undenkbar und angesichts der schwer zu beschreibenden musikalischen Begriffskategorien, die eher intuitiv angewendet werden und auf individuell oder im gesellschaftlichen Konsens entstandenen ästhetischen Empfindungen beruhen, auch schwer vorstellbar. Ein Teilbereich der musikalischen Analyse kann jedoch mathematisch relativ exakt definiert werden, so daß der Computer tatsächlich wichtige Informationen liefern kann, vor allem dann, wenn es um die Erfassung großer Musikdatenbestände geht. Er kann z.B. die stilabhängigen Häufigkeiten von Tonintervallen in einem Stück feststellen und auswerten (vgl. Fucks, Wilhelm: Nach allen Regeln der Kunst, Stuttgart 1968) oder die häufigsten Akkordverbindungen nennen, ein zwar eher quantitativer Ermittlungsvorgang, der aber durchaus auch eine qualitative Bedeutung annehmen kann. Interessanter sind jedoch die Versuche, per Programm hörbare oder auch nicht-hörbare Ähnlichkeiten von Melodiemustern herauszufinden. Zwar existiert keine allgemeingültige Definition dessen, was man unter Ähnlichkeit und erst recht unter musikalischer Ähnlichkeit zu verstehen hat, da hier die subjektive Empfindung eine entscheidende Rolle spielt, aber gewisse, für viele Anwendungszwecke praktisch anwendbare Regeln sind doch aufstellbar. Abbildung aus dem Computerkolleg Musik - Gehörbildung, ein Lernprogramm aus Osnabrück, das musikalische Eingaben mit Vorgaben aus einer Datenbank über melodische Ähnlichkeiten vergleicht und auswertet 6. Digitalisierung: MIDI, Controlling, Interfaces Eine weitere Aufgabe, die man dem Computer übertragen kann, ist das automatische Steuern von Musikinstrumenten, so daß diese zu Musikautomaten umfunktioniert werden. Dazu ist es notwendig, musikalische Informationen über zu spielende Tonhöhen, Notenwerte und Lautstärkegrade von einem steuernden zu einem empfangenden Gerät übertragen zu können. Für einen Computerfachmann ist es beispielsweise völlig normal, daß Daten zwischen zwei Geräten, z.B. zwischen Computer und Diskettenlaufwerk, übertragen werden können, denn dieser Vorgang ist die unbedingte Voraussetzung für die Flexibilität und Leistungsfähigkeit eines Systems. Für Musiker war es zunächst kaum vorstellbar, daß elektronische Musikinstrumente sich gegenseitig beeinflussen können. Lediglich die automatische Steuerung von Musikinstrumenten ist schon früher realisiert worden; man denke z.B. an die großen Jahrmarktsorgeln (Orchestrions) mit den selbständig pfeifenden und trommelnden Musikaggregaten. Dies änderte sich radikal mit der Einführung der international genormten MIDI-Technik im Jahre 1981. M I D I ist die Abkürzung von MUSICAL INSTRUMENT DIGITAL INTERFACE, zu deutsch: Digitale Schnittstelle für Musikinstrumente; es handelt sich um ein international genormtes Verfahren zur Datenübertragung, d.h., die in einem Musikinstrument anfallenden Daten, also Informationen über die auf einer Tastatur gespielten Tonhöhen, können in Form digitaler Codes anderen Instrumenten oder einem Computer übermittelt werden und diesen entsprechend steuern. Man wollte einfach die vielen Synthesizer durch eine Klaviatur ersetzen, die dann diverse Soundmodule steuert. Erstmals in der Geschichte des Musikinstruments konnte man also Instrumente und Geräte miteinander vernetzen, um musikalischen Informationen, auszutauschen, ein Vorgang, der für den Musiker ungewohnte Perspektiven bereithält. Der Computer steuert exakt das gesamte angeschlossene Instrumentarium, so daß jedes Musikinstrument in einen perfekten Musikautomaten verwandelt wird. Da die gespeicherten Daten normalerweise am Computerbildschirm auch in vielfältigster Weise manipuliert werden können, etwa indem Melodieteile umgekehrt werden, damit sie rückwärts, im Krebsgang, zu hören sind, oder Fehler ausgemerzt bzw. neue Töne hinzugefügt werden können, besteht grundsätzlich die Möglichkeit, komplette Kompositionen gleich am Bildschirm zu entwerfen. In diesem Fall wird das Sequencerprogramm als Composer genutzt, d.h. die Musikdaten werden nicht Typische MIDI-Konfiguration eingespielt, sondern die Töne werden einzeln über die Computertastatur eingegeben, eine echte Chance für pianistisch unbegabte Komponisten und Arrangeure. Heute ist MIDI praktisch in jedem PC eingebaut, mit der Soundkarte verfügbar, MIDI ist ähnlich wie MP3 ein standardisiertes Datenformat, das aus der Musiktechnologie allgegenwärtig in die allgemeine Computertechnologie übernommen wurde. MIDI-Messages Das berühmte "königliche" Thema des "Musikalischen Opfers" von J. S. Bach in drei Darstellungsvarianten eines aktuellen MIDI-Sequencerprogramms: erstens in traditioneller Notenschrift (Score), zweitens als Piano Roll, angelehnt an die Stiftwalzenbestückung, drittens in numerisch-serieller Darstellung von MIDI-Events. Klangbeispiel 7. Digitalisierung: Sound Synthese, Sampling und Processing Um ein Audiosignal digital verarbeiten zu können, misst ein Analog/Digital-Wandler die Amplitude eines Klangsignals mit einer regelmäßigen Abtastrate (Sampling Rate). Höhere Abtastraten erfassen höhere Frequenzen, so daß die Klangqualität steigt. Das Nyquist-Theorem sagt dazu aus, dass die Abtastfrequenz mindestens doppelt so hoch sein muss wie die höchste Frequenz des abzutastenden Nutzsignals (bei der herkömmlichen Audio-CD zirka 44 kHz). Die Übertragungsqualität hängt auch von der Auflösungsfeinheit (Quantisierung) einer Messung ab (bei der Audio-CD mit 16 Bit), so daß ein sehr hoher Datenstrom anfällt, der erst seit der Einführung der digitalen Audio-CD 1981 in einem kommerziell erträglichen Rahmen technisch bewältigt wurde. Entsprechend kann ein Klangsignal künstlich erzeugt werden, wenn ein Algorithmus den Schwingungsverlauf nach einem bestimmten Syntheseverfahren berechnet. Der Musikcomputer kann hierbei stellvertretend für das gesamte digitale audio- und musiktechnologische Instrumentarium stehen, denn er repräsentiert im Grunde sämtliche Aspekte der Klanggestaltung mit Hilfe elektronischer Klanggeräte. Der Computer ist theoretisch in der Lage, beliebige Klangstrukturen erzeugen, jede der in den aktuellen Synthesizern verwendeten Klangsyntheseformen stehen dem Computer mit einem geeigneten Programm offen. Es ist z.B. gleichgültig, ob man Obertonstrukturen additiv aus Sinuskomponenten zusammensetzen möchte oder Klänge durch die vielseitigen Formen der Modulation von Schwingungen, z.B. der beliebten Frequenzmodulation, erzeugen will; es genügt, die entsprechenden mathematische Formel in ein Programm einzusetzen und die Berechnung des Klangs kann beginnen, wenn Hard- und Software es erlauben, sogar in Echtzeit, d.h., der Klang steht sofort für musikalische Zwecke zu Verfügung. Ein Qualitätsmerkmal vieler Synthesizer ist der Grad der klanglichen Nachbildung originaler Instrumente, obwohl die Schaffung und musikalische Auswertung neuer Klangstrukturen und ihre ungewöhnliche Manipulation eigentlich interessanter sein müßten. Musikbeispiel: Jean-Claude Risset, „Mutations“ (endlose Tonglissandi = sog. Shepard-Tones) Der Musikcomputer verändert aber auch Klänge, indem er beispielsweise als Filter oder Echogerät oder als Transposer arbeitet. Auch hierzu muß lediglich ein entsprechendes Programm erstellt werden, was die notwendigen Berechnungen veranlaßt. Natürlich gibt es hier unterschiedliche Schwierigkeitsgrade bei der Bewältigung einer derartigen Aufgabenstellung, z.B. ist sehr viel aufwendiger die komplizierten akustischen Bedingungen eines hallenden Raums, also die Funktion eines Hallgeräts, für die Klangberechnung zu berücksichtigen, als etwa ein künstliches Echo zu erzeugen. Wie ein Tonbandgerät kann der Computer beliebige Originalklänge speichern. Spezielle Speichergeräte, die jeden Klang - auch Gesang oder ein komplettes Orchester - digital speichern, sind als sogenannte Sound Sampler in den letzten Jahren sehr erfolgreich gewesen. Die damit erzielten Klangeffekte haben zur Zeit Hochkonjunktur und es wird kaum ein aktueller Hit produziert, der nicht irgendwie von gesampleten Originalklängen lebt. Sogar die Stimme wird mehr und mehr computertechnisch produziert. Melodyne-Beispiel, Bayrischer Ländler als Mix aus Stimmen und Instrumenten 8. Virtuelle Instrumente, Simulation und Emulation Neben der Digitalisierung und Globalisierung dürfte sich als eine der wichtigsten computertechnischen Neuerungen die erweiterten Möglichkeiten der Modellbildung bis hin zu virtuellen Realität erweisen. Virtualität meint eine gedachte oder über ihre Eigenschaften konkretisierte Sache, also ein Gegenstand, ein Prozeß, eine Miniwelt, die zwar nicht physisch, aber doch in ihrer Funktionalität oder Wirkung vorhanden ist. Claude Cadoz, ein franz. Komponist (Virtuelle Realität, 1998) erklärt die Virtualität als "integrale Repräsentation". Repräsentation einfach als "Wieder-Darstellung". In der virtuellen Realität wird also das Wesentliche einer Erscheinung, eines Dinges, erneut dargestellt. Das geht mit ganzen Welten, wie das sehr populär z.B. in Computerspielen wie Second Life der Fall ist, in denen man einen visuellen (durch ein Fenster, das reicht schon) und einen auditiven Eindruck der fiktiven Landschaft bekommt. Der (noch) fehlende Tastsinn, die Haptik ist für die Spielfreude der meisten User offenbar noch nicht wichtig, für virtuelle Instrumente aber immer schon ein wesentlicher Faktor. Virtuelle Instrumente stellen nach der Definition oben die Essenz eines Musikinstrumentes dar, erneut dargestellt im Medium Computer. Das Wesentliche eines Instruments ist offenbar sein Klang, denn dies ist ja das, was virtuelle Instrumente liefern. Hier werden große Anstrengungen unternommen, z.B. über die exakte algorithmische Nachbildung der Klangerzeugungsvorgänge, etwa beim Physical Modelling. Emulation ist erweiterte Simulation: möglichst authentisch wirkende (klingende) virtuelle Instrumente. Beim Physical Modelling wird ein Instrument analysiert und (virtuell) in seine Funktionselemente zerlegt, die physikalischen Eigenschaften dieser Module werden durch mathematische Modelle dargestellt. Das Ergebnis ist ein lebendiger und realistischer Nachbau des Ursprungsinstruments. Emulierte virtuelle Instrumente nehmen im Gegensatz zu Sample-basierten Instrumenten meist nur sehr wenig Speicherplatz auf der Festplatte in Anspruch. Die nötige Rechenleistung dagegen ist recht hoch. Virtuelle Instrumente bleiben als Klangerzeuger zweidimensional, das musikalische Interface kann frei gewählt werden. Häufig ist es die Klaviatur, sicherlich das bekannteste Interface. Live-Vorführung eines virtuellen Instruments, einer simulierten "Hammond-Orgel" am Notebook mit MIDI-Tastatur (über USB). Virtuelle E-Orgel, Native Instruments B4 = Hammond B3-Simulation Modularer Digitalsynthesizer von Native Instruments, virtuelle Nachbildung eines FM-Synthesizers mit 4 Operatoren 9. Musikcomputer im Prozeß musikalischer Kommunikation Eine systematische Übersicht zeigt die verschiedenen Anwendungsmöglichkeiten der Computertechnik für Musik und audiovisuelle Medien. Betrachtet man den Computer als Herzstück der Digitalisierung (Geräte, Instrumente und Programme), der Globalisierung (Vernetzung, Internet) und Virtualisierung (Simulation, Modellbildung), dann ist er - z.T. im Zusammenspiel mit dem Internet - einsetzbar als: a) multifunktionales Musikinstrument - Klangsteuerung (MIDI-Sequencing) - Klangveränderung (Sound Processing) - Klangsspeicherung (Sound Sampling) - Klangerzeugung (Sound Synthesizing) b) musikalisches Werkzeug - Kompositionsprogramm (Composing) - Analyseprogramm (Music Analysis) - Notendruck (Score Printing) - virtuelles Tonstudio (Production, Audio Mixing) c) musikspezifische Informationsquelle - multimediale Präsentation von Wissen (Musiklexikon, Musik mit Hintergrundinformationen usw.) - interaktives Spielzeug (Simulation von musikalischen Situationen oder Geräten, Quiz, Adventure) - interaktive Musiklernprogramme (Music Teaching & Learning) - netzbasierter Wissens- und Kommunikationsserver (Telelearning, virtuelles Musikkonservatorium) d) als flexibles audiovisuelles Wiedergabegerät - Recording, Editing, Playing (Aufnahme, Bearbeitung und Wiedergabe von Musik, Geräusch, Sprache, Video) - Audiovisueller Server (Basiscomputer für Radio- und TV-Sendungen per Internet - Datenbank für Klänge, Musik (wav, MP3 usw.), Score- und MIDI-Dateien, Videos, Animationen usw. // Musik im Prozeß der Produktion, Interpretation, Reproduktion und Rezeption - in jedem Bereich werden heute Computer eingesetzt 10. Schlußwort Mathematik ist Musik für den Verstand, Musik ist Mathematik für die Seele. Es gibt mannigfaltige Beziehungen zwischen Musik und Mathematik, bzw. Physik und Musik, die vor allem durch die Beziehungen beider Disziplinen zur Mathematik und hier speziell durch den Umgang mit Zahlen und Zahlenverhältnissen bestimmt werden. Akzeptiert man die Einstufung des multifunktionalen Computers als Brennpunkt der musikspezifischen Digitalisierung von Geräten der Instrumental- und Audiotechnik, der Globalisierung von musikalischen Kommunikationsstrukturen (Datenvernetzung per Internet) und Virtualisierung von musikalischen Prozessen (Simulation, Emulation, Modellbildung), dann läßt sich ohne weiteres die These des Schweizer Musikwissenschaftlers und Mathematikers Guerino Mazzola nachvollziehen: "...daß von allen klassischen Künsten - und wohl auch von den neuen multimedialen Derivaten - die Musik und ihre Wissenschaft am meisten der Wissensgesellschaft des Informationszeitalters einverleibt worden ist. Dies liegt sicher an der Abstraktheit musikalischer Konstruktion, aber auch daran, daß die Klangsynthese durch digitale Medien bis hin zur Simulation realer traditioneller Instrumente die Wirklichkeit musikalischer Werke massiv zu virtualisieren vermocht hat." Der aktuelle Musikcomputer ist als digitale Universalmaschine gleichermaßen ein omnipotentes Musikinstrument zum Generieren, Transformieren, Speichern und Steuern von Klängen, ein musikalisches Werkzeug zum Komponieren, Arrangieren und Analysieren von neuen und alten Klangstrukturen und eine kreative Maschine zur experimentellen Modellierung und virtuellen Abbildung von neuen Klangwerkzeugen und kognitiven Prozessen. Musikverarbeitung mit dem Computer bedeutet eine Algorithmisierung aller musikalischen Prozesse, der musikalische Prozeß wird numerisch abgebildet, sei es zu produktiven oder zu reproduktiven Zwecken. Der Kölner Musikwissenschaftler Jobst Peter Fricke versucht am Beispiel der Digitalisierung unserer technischen Umwelt die Grenze zwischen ratio und emotio zu definieren: "So gesehen enthält das digitale Arbeitsfeld, das wir uns ausgedacht haben. letztlich die Kennzeichen unseres Denkens. Es ist ein Werkzeug, das unserem Denken entspricht. Wir haben die Digitalisierung gebraucht und eingeführt, um präzise definieren zu können, um schließlich mit der Kombination präziser Definitionen unsere Denkmöglichkeiten hinaus projizieren zu können - in eine Maschine. Zurückgeblieben ist die Emphatie, der unmittelbar emotionale zwischenmenschliche Bereich, nicht zu verwechseln mit dem Bereich der Emotionen, der an die digitalen Informationen geknüpft ist. ...Inhalte und Gedanken, die digital transportiert werden, lösen immer auch Gefühle aus. Gefühle sind immer dabei, sie sind allgegenwärtig und gerade der wesentliche Teil des Menschen." Die Roboter der Gruppe Kraftwerk im Bühneneinsatz Der französische Komponist André Jolivet sagte einmal selbstbewußt: "Niemals kann eine noch so perfekte Maschine einen genialen Menschen ersetzen." Sein Landsmann und Kollege Pierre Barbaud, ein Komponist, der mit Computern komponierte, hielt wacker dagegen und meinte: "Niemals kann ein noch so genialer Mensch eine elektronische Maschine ersetzen." Mir scheint, daß beide Ansichten zutreffen. Nun ist die Kognitionswissenschaft dem menschlichen Denken und der Emotion auf der Spur, das Bewußtsein arbeitet im 3-Sekundentakt, dem sich sowohl der Vers eines Gedichtes als auch ein musikalisches Motiv unterzuordnen hat. Vielleicht läßt sich das menschlichen Denken und Fühlen eines Tages doch mathematisch beschreiben und der musikalisch kreative Roboter wäre nicht mehr unmöglich. Schließlich sei noch auf das aktuelle, allerdings noch kontrovers diskutierte Konzept der Superstringtheorie verwiesen, mit deren Hilfe man Quantentheorie und Gravitation unter einen Hut zu bringen hofft. Dabei werden Elementarteilchen als schwingende Saiten (= string) (sic!) angesehen, deren Schwingungsanregungen, Akkorde, Harmonien etc. nichts Geringeres als ein schlüssiges Konzept der gesamten Welt liefern sollen. "Alles ist Zahl", sagten die Pythagoräer. Sie hatten ein anderes Weltbild und sie hatten keine Computer, aber in einem gewissen Sinne behielten sie recht.