262 3.2 Analoge und digitale Syntheseverfahren, MIDI und Sampling

Сomentários

Transcrição

262 3.2 Analoge und digitale Syntheseverfahren, MIDI und Sampling
3.2 Analoge und digitale Syntheseverfahren, MIDI und
Sampling
Von Bernd Enders
3.2.1 Elektronische Syntheseformen
Unter Synthese wird üblicherweise das (künstliche) Verbinden verschiedener
Elemente zu einer neuen Gestalt verstanden und im Zusammenhang mit Audio und Musik entsprechend das Zusammensetzen von Klangelementen zu
einem neuen Klanggebilde oder – etwas enger gefasst – das Erzeugen von neuen Klängen mit »künstlichen« Mitteln, was im Großen und Ganzen heißt:
Klangerzeugung oder auch Klangveränderung mit den Mitteln der Elektrik
oder Elektronik im Unterschied zur herkömmlichen Klangerzeugung mit »natürlichen«, d.h. mechanisch funktionierenden, Instrumenten.
Mit dem analogen Modulsynthesizer, den Robert Moog (1934-2005) Mitte der 1960er Jahre konstruierte,1 konnten erstmals verschiedene Formen der
Klangsynthese durch gezielte Kombination verschiedener Module mit unterschiedlichen Funktionen recht variabel zur musikalischen Klanggestaltung
eingesetzt werden. Mit Hilfe fortschrittlicher Transistortechnik konnte Moog
die großen, röhrenbestückten Apparaturen eines elektronischen Studios (d.s.
Oszillatoren, Filter, Verstärker, Effektgeräte, Steuereinrichtungen u.a.m.) auf
die einigermaßen handliche Größe eines (größeren)2 Koffergeräts verringern.
Die fast völlig beliebige Kombination der einzelnen Module mit Hilfe von
Steckkabeln und das geniale Prinzip der Spannungssteuerung3 von Modulfunktionen erlaubten eine flexible und immens variationsreiche Klangprogrammierung.4
1 Einen Vorläufer des spannungsgesteuerten Modulsynthesizers baute R. Moog Ende der 1950er
Jahre für den österreichischen Komponisten Max Brand (1896-1980).
2 Für heutige Verhältnisse waren die ersten Modulsynthesizer immer noch recht riesig, z.B. ist der
Studiosynthesizer Synthi 100 von EMS mit Unterbau immer noch deutlich größer als ein Klavier.
3 Die Idee der Spannungssteuerung realisierte der Kanadier Hugh LeCaine (1914-1977) schon
Ende der 1940er Jahre mit seinem elektronischen Sackbut, das als ein Vorläufer des Modulsynthesizers betrachtet werden kann; M. Becker (1990), Synthesizer von gestern.
4 F. Anwander (2000), Synthesizer; D. Crombie (1986), The new complete synthesizer; B. Enders
(1985), Klangwelt des Musiksynthesizers; U.G. Hoenig (2002), Workshop synthesizer; B.
Graham (1980), Music and the synthesizer; M. Becker (1990), Synthesizer von gestern; E.R.
262
_____________ Analoge und digitale Syntheseverfahren, MIDI und Sampling
Synthesizer haben ihren Namen der Möglichkeit zu verdanken, unterschiedlichste Klangstrukturen durch verschiedene Synthesetechniken zu erzeugen, dazu gehören anfangs vor allem die Additive, die Subtraktive und die
FM-Synthese, später brachte die Digitalisierung der elektronischen Instrumente weitere Syntheseformen hervor, die sich analog, wenn überhaupt, nur
mit sehr großem Aufwand umsetzen lassen.
Mehrere Techniken der Synthesemodellierung von elektronischen Klängen
können unterschieden werden:
1. Spektrale Modelle, die den Schwingungsverlauf bzw. die Klangcharakteristik so nachbilden (sollen), wie sie am Gehör ankommt
(z.B. additive Klangsynthese);
2. Physikalische Modelle, die versuchen, die Entstehung eines
Schwingungsvorgangs an der Klangquelle, am Instrument, zu simulieren (Physical Modelling);
3. Klangspeicherungs- und Resynthese-Modelle, die Originalklänge
digital speichern, analysieren und neu zusammensetzen (z.B. Granularsynthese);
4. abstrakte Modelle, die (letztlich beliebige) mathematische Formeln
(z.B. aus Fraktalgeometrie) zur Klangerzeugung nutzen, indem das
Rechenresultat, i.a. eine Zahlenkette, durch entsprechend schnelles und wiederholtes Auslesen des digitalen Speichers in den Audiobereich beschleunigt wird und auf diese Weise die Schwingungsform bestimmt.
Die additive Klangsynthese
Die additive Klangsynthese setzt die Erkenntnisse des Fourierschen Theorems
[ 1.2] um, d.h. musikalische Klänge (= periodische Schwingungen) werden
durch die Addition von Sinusschwingungen erzeugt, deren Frequenzen in einem ganzzahligen Verhältnis zueinander stehen (›Harmonische‹).
Wird die additive Klangsynthese mit einem analogen Synthesizer realisiert,
werden für alle gewünschten Teiltöne (auch Partialtöne) eines Klangs entsprechend viele Sinusgeneratoren benötigt, die gemäß der Teiltonreihe im Verhältnis 1:2:3:4 usw. zum Grundton gestimmt sein müssen.
Miranda (2002), Computer sound design; A. Ruschkowski (1998), Elektronische Klänge und
musikalische Entdeckungen.
263
Bernd Enders ______________________________________________________
Da sich die Frequenzen der Oszillatoren eines Analogsynthesizers über eine angelegte Keyboard-Spannung (monophon) steuern lassen, werden alle
Frequenzen beim melodischen Spiel auf der (monophonen) Tastatur entsprechend transponiert. Die eingestellten Frequenzverhältnisse der Teiltöne verändern sich nicht, und die additiv erzeugte Klangfarbe bleibt für alle gespielten
Töne gleich. Manche Synthesizer erlauben eine Synchronisation der beteiligten Oszillatoren, so dass alle Teiltöne wie bei einem mechanischen Klangerzeuger auch phasenstarr zueinander schwingen. Die Lebendigkeit des synthetischen Klangs wird dadurch allerdings nicht unbedingt erhöht. Überhaupt
fällt bei genauerer Betrachtung mechanisch erzeugter Instrumentaltöne auf,
dass die einzelnen Teiltöne je nach Lautstärke und Artikulation des gespielten
Tons unterschiedlich schnell und stark ein- und ausschwingen und auch in relativ stationären Phasen eines Tonverlaufs (z.B. beim Legato-Spiel auf einer
Geige) ihre Amplitude leicht ändern. Jeder Teilton hat quasi einen charakteristischen Lautstärkenverlauf (›Hüllkurve‹), der den typischen Klang eines Instrumentaltons mitbestimmt.
Um diese Variabilität des dynamischen Klangverhaltens aller Teiltöne bzw.
der klangfarblichen Charakteristik eines Instrumentaltons einigermaßen zu
erreichen, müssten Sinusoszillatoren an hüllkurvengesteuerte Verstärker angeschlossen werden, so dass pro Teilton mindestens ein ›VCO‹,5 ein ›VCA‹6 und
ein ›ADSR-Generator‹7 (für eine einzige Synthesizerstimme!) benötigt würden.
Für eine Stimme mit 10 Teiltönen wären folglich 30 Module mühsam mit
Verbindungskabeln (›Patchcords‹) zu kombinieren. (Natürlich können auch
obertonhaltige Schwingungen wie Sägezahn- und Rechteckschwingungen additiv gemischt werden, um besonders teiltonreiche Schwingungsformen zu erhalten; die Lebendigkeit eines Klangs wird dadurch allerdings nicht gesteigert.)
5 Oszillatoren eines Analogsynthesizers sind normalerweise spannungssteuerbar, hiervon leitet
sich die übliche Bezeichnung VCO (= ›Voltage Controlled Oscillator‹) ab.
6 VCA = ›Voltage Controlled Amplifier/Attenuator‹
7 ADSR-Generator = Hüllkurvengenerator erzeugt einen Spannungsverlauf mit vier programmierbaren Parametern: ›Attack Time‹, ›Decay Time‹, ›Sustain Level‹, ›Release Time‹ zur Gestaltung eines charakteristischen Lautstärkeverlaufs.
264
_____________ Analoge und digitale Syntheseverfahren, MIDI und Sampling
Abb. 1: Einfache additive Synthese mit 5 VCOs
und klangfarbendynamischer Hüllkurve
Da auch große Studiosynthesizer der analogen Ära nur selten über mehr
als 10 VCOs verfügten und eher weniger VCAs und ADSR-Generatoren vorhanden waren, ist leicht nachvollziehbar, dass die Additive Klangsynthese
meist nur auf wenige Oszillatoren beschränkt blieb und eine klangtreue
Nachbildung von traditionellen Instrumentaltönen auf diese Weise kaum realisiert werden konnte. Dies war allerdings anfangs auch nicht das erklärte Ziel
der Konstrukteure elektronischer Instrumente, vielmehr sollten völlig neue
Klangwelten erschlossen werden, mit einer eigenen Klangfarbenästhetik und
innovativen Klangstrukturen.8
Mit dem Aufkommen digitaler Synthesizer bzw. computertechnischer
Schaltungen Ende der 1970er Jahre (Fairlight CMI, 1979; Synclavier, 1980;
Yamaha DX 7, 1985) konnte die additive Klangsynthese bequemer und zudem polyphon spielbar realisiert werden,9 auch wenn zunächst die Prozes-
8 Kurioserweise wurde der erste Analogsynthesizer von Robert Moog durch elektronische Arrangements bekannter Stücke von J.S. Bach bekannt, die von Walter (später Wendy) Carlos
(*1939) realisierte LP »Switched-On Bach« ist bis heute eine der meistverkauften Platten im
»Klassik«-Segment.
9 Analoge VCOs wurden allmählich durch digital gesteuerte Oszillatoren (›Digital Controlled
Oscillator‹, ›DCO‹) abgelöst, zunächst handelte es sich um analog aufgebaute Oszillatoren,
die lediglich digital gesteuert wurden, im Laufe der weiteren Entwicklung wurden diese durch
vollständig digital funktionierende Oszillatoren ersetzt. Digitale Audio-Signale müssen über
einen D/A-Wandler in analoge Schwingungen umgewandelt oder direkt von digitalen Filtern,
265
Bernd Enders ______________________________________________________
sorleistung für eine Berechnung komplexerer Klänge mit vielen Teiltönen in
Echtzeit (›Real Time‹) nicht ausreichte und die Klangqualität der damals noch
üblichen 8-Bit-Schaltungen hörbar unzureichend blieb.10
Jedem Instrumentalton liegen Bewegungsvorgänge zugrunde, die aus
nicht-periodischen (geräuschhaften) und periodischen Bewegungsanteilen
bestehen, wie z.B. die eines Punktes auf einer Saite. Die periodischen Vorgänge, die man durch Sinusfunktionen beschreiben kann, nennt man ›harmonische Schwingungen‹. Die einfachste Schwingung, die möglich ist, ist die
Sinusschwingung, deren Funktion sich aus der Kreisfunktion ableiten lässt
[ 1.3.1]. Die Kreisbewegung ist eine zeitlich periodische Bewegung. Kreisfunktionen sind daher periodische Funktionen, da sich nach einer bestimmten Zeit T die Funktionswerte wiederholen. Mit Kreisfunktionen können
Instrumentaltöne beschrieben oder mit einem Algorithmus per Computerprogramm eine Schwingung mit erwünschten Klangeigenschaften berechnet
und erzeugt werden. 11
Nach einer computerbasierten Berechnung des erwünschten Schwingungsverlaufs wird eine Folge von Punktwerten ausgegeben, die von einem Digital/Analog-Wandler in einen analogen Spannungsverlauf umgewandelt werden muss, damit die so erzeugte elektrische Schwingung mit einem Lautsprecher wieder hörbar wird. Die Präzision und Klangqualität der erzeugten
Schwingung hängt dabei von der zeitlichen und dynamischen Auflösung des
Systems ab, dabei gilt, dass eine feinere Auflösung natürlich eine aufwendigere Berechnung mit einem höheren Datenaufkommen erfordert.
Weitere Kriterien einer charakteristischen Instrumentalklangfarbe sind
Rauschanteile, Formanten und spezielle, z.T. kurzzeitige chaotische Vorgänge
beim Aufbau einer Schwingung, die sich aufgrund ihrer Komplexität einer
elektronischen Nachbildung entziehen oder zumindest einen hohen technischen Aufwand, ggf. eine Kombination mit anderen Synthesetechniken, und
Verstärkern und Effekt-Prozessoren weiter verarbeitet werden. Digitale Hardware-Bausteine
wurden in den 1990er Jahren jedoch mehr und mehr von Software-Lösungen für handelsübliche Computer verdrängt und digitale Oszillatoren entsprechend als algorithmisch funktionierende Programm-Module realisiert.
10 Für die heutige Zeit zeigen die Klänge allerdings einen nostalgischen Effekt, so dass aktuelle
Synthesizer die alten Sounds oftmals als speziellen Klangeffekt wieder aufleben lassen.
11 Detaillierte Beschreibungen der mathematischen und physikalischen Gegebenheiten finden
sich bei: Ph. Ackermann (1991), Computer und Musik; M. Neukom (2005), Signale, Systeme
und Klangsynthese; P.R. Cook (2002), Real sound synthesis for interactive applications; E.R.
Miranda (2002), Computer sound design.
266
_____________ Analoge und digitale Syntheseverfahren, MIDI und Sampling
eine vorausgehende Klangforschung erfordern, um einem Originalklang möglichst nahe zu kommen.
Die subtraktive Klangsynthese
Die vermutlich bekannteste und vielleicht auch am häufigsten genutzte Synthesetechnik dürfte die subtraktive Klangsynthese sein, mit der vor allem die
ersten analogen Synthesizer und diverse elektronische Orgeln, aber auch
schon Vorgängerinstrumente des Synthesizers wie z.B. das Mixturtrautonium von Friedrich Trautwein (1888-1956) und Oskar Sala (19102002) oder die Electronic Sackbut von Hugh LeCaine (1914-1977) arbeiteten [ 3.1].
Die subtraktive Klangsynthese beruht auf der Filterung von teiltonreichen
Klängen. Sie erzielt also gewissermaßen eine »Synthese« durch Unterdrückung
von Frequenzbereichen. Oder einfacher ausgedrückt: Filter regeln die Klangfarbe eines zugeführten Audiosignals. Analoge VCOs erzeugen neben der Sinusschwingung typischerweise auch obertonarme Dreieckschwingungen und
obertonreiche Rechteckschwingungen12 – beide jeweils nur mit Teiltönen in
ungeraden Verhältnissen (1:3:5:7... usw.) sowie besonders obertonreiche Sägezahnschwingungen (mit allen Teiltönen im ganzzahligen Frequenzverhältnis, also 1:2:3:4... usw.). Besonders Rechteck- und Sägezahnschwingungen
– sowie Rauschsignale – dienen als Ausgangsmaterial für die Filter, die meist
als ›Tiefpass-‹ (›Low Pass‹, ›LP‹), ›Hochpass-‹ (›High Pass‹, ›HP‹) und ›Bandpassfilter‹ (›Band Pass‹, ›BP‹) ausgelegt sind. Größere Modulsysteme enthalten
darüber hinaus noch ein ›Sperrfilter‹ (›Notch Filter‹, ›N‹, auch ›Bandsperre‹
genannt).
Wie die einzelnen Benennungen verraten, lässt ein Tiefpassfilter tiefe Frequenzen passieren, unterdrückt also hohe Frequenzen, beim Hochpassfilter ist
es umgekehrt, usw. Immer kann die Eckfrequenz (›Cut-Off-Frequency‹) geregelt werden. Bei Bandpass- und Kerbfilter lässt sich die Mittenfrequenz – hier
manchmal auch die Bandbreite – einstellen. Häufig kann auch die ›Resonanz‹
12 Die Schwingungsform der Rechteckschwingung weist – dem Namen optisch auf dem Oszilloskop entsprechend – ein exaktes Verhältnis von 50:50 zwischen Ober- und Unterkante auf.
Damit handelt es sich um einen Sonderfall der Pulsschwingung. Verschiedene VCOs können
auch regelbare Pulsschwingungen erzeugen, die auch geradzahlige Teiltöne enthalten. Die
Pulsbreite ist dann i.a. steuerbar (›Pulse Width Modulation‹, ›PWM‹), so dass bei der Steuerung durch einen tieffrequenten Oszillator z.B. phasing-ähnliche Klangeffekte möglich werden.
267
Bernd Enders ______________________________________________________
(auch ›Güte‹, ›Q-Faktor‹, ›Resonance‹, ›Emphasis‹) des Filters (im Bereich der
›Eck-‹ resp. der ›Mittenfrequenz‹) verändert werden. Analoge Filter schneiden
den zu unterdrückenden Frequenzbereich nicht abrupt ab, sondern mit einem
weichen Übergang. Die ›Flankensteilheit‹ in dB gibt an, wie stark die Dämpfung im Bereich einer Oktave ist. Filter mit einer Flankensteilheit von 24 dB
(vor allem bei Tiefpassfiltern) werden klanglich bevorzugt, vielfach sind aber
auch 12 dB- oder 18 dB-Filter im Einsatz.
Abb. 2: Grafische Darstellung der Wirkung eines Tiefpassfilters (links) und eines
Bandpassfilters (rechts)
Die Filter in analogen Synthesizern sind in der Mehrzahl spannungssteuerbar (›Voltage Controlled Filter‹ = ›VCF‹), d.h., die Funktionen sind manuell
oder über Steuerspannungen regelbar, z.B. mit einem Joystick zur manuellen
Beeinflussung des Klangs beim Spiel. Wie beim VCA ist aber die Steuerung
durch einen Hüllkurvengenerator (›ADSR‹) besonders effektiv, so dass – für
viele Hörer höchst ungewohnte – klangfarbendynamische Klangverläufe (z.B.
Analog Drum) erzeugt werden. Ein perkussiver Einsatz von musikalisch effektvollen 24 dB-Filtern mit hohem Resonanzfaktor, etwa zur Erzielung von
zischelnden Schlagzeugeffekten, heulenden Pfeiftönen oder blubbernden Bässen,13 die von ihren akustischen Pendants nicht erzeugt werden können, waren
vor allem in den auf Elektronik setzenden Popmusikstilen der 1970–80er Jahre äußerst beliebt14 (»typisch Synthesizer«). Es gibt erkennbar eine intensive
13 Ein Song der deutschen Elektronikgruppe Kraftwerk veranschaulicht klangvoll diese Sounds
im Text: »Boing Boom Tschak« (1986).
14 Besonders bekannt für elektronische Klangwirkungen wurden Gruppen wie Pink Floyd,
Kraftwerk, Tangerine Dream in Deutschland oder Depeche Mode, The Human League in
England oder die als Ein-Personen-Orchester auftretende Synthesisten wie der Franzose JeanMichel Jarre oder der Grieche Vangelis u.v.a.m.
268
_____________ Analoge und digitale Syntheseverfahren, MIDI und Sampling
und nachhaltige Wechselwirkung zwischen den neuen Musiktechnologien und
den musikalischen Strukturen der Popularmusikformen in der 2. Hälfte des
20. Jahrhunderts, denn nicht nur die neuartigen Klangfarben (Synth Sounds)
und Klangeffekte kennzeichnen die popmusikalische Entwicklung, sondern
ebenso bedeutsam, vielleicht noch grundlegender wirken sich die endlos repetierten Loops der (zu Anfang nur) achtschrittigen Step-Sequenzer, die Präzision der Rhythmusautomaten und die Multiplay-Technik übereinandergeschichteter Stimmen auf die stilistischen Merkmale (und Hörgewohnheiten)
aus.15
Aber auch langsame ›Sweeps‹ und repetierende, kreisende und glissandierende Filtereffekte, wie sie onomatopoetisch durch Begriffe wie ›WahWah‹
beschrieben werden, sind kennzeichnend für eine mit Filtern realisierte subtraktive Klangsynthese in den ersten Jahren der Synthesizerentwicklung. Je
nach Schaltung können Filter unterschiedliche Klangcharakteristiken zeigen.
Z.B. hat das 4-Pol-Kaskadenfilter der ersten Moog-Synthesizer wegen seines
speziellen Klangs einen legendären Ruf und gilt als »klassischer« Moog-Filter,
dessen Nachbau oder Simulation bis heute immer wieder angestrebt wird. Die
besonderen Klangeigenschaften analoger Synthesizer hängen wesentlich von
den konkret realisierten Filterschaltungen ab. Mit der gezielten (Bandpass-)
Filterung von Klängen können bestimmte Resonanzeigenschaften wie z.B. die
Formanten von Instrumenten oder der Stimmvokale mit einiger Näherung
nachgeahmt werden.
Einen Spezialfall der Klangfilterung bietet der 1939 von Homer Dudley
(1896-1987) patentierte, eigentlich für militärische Codierungszwecke konstruierte ›Vocoder‹ (Kurzform von Voice enCoder), ein im Wesentlichen aus
mehreren Bandpassfiltern, Hüllkurvenverfolgern und VCAs aufgebautes Gerät mit mindestens zwei Audio-Eingängen, das typischerweise die Artikulation
eines analysierten Sprachsignals auf die Klänge oder Geräusche eines beliebigen Audiosignals, z.B. eines Musikinstruments, überträgt – mit dem immer
wieder überraschenden Effekt eines sprechenden oder singenden Instrumentalklangs oder Geräuschs (z.B. Roboterstimmen in verschiedenen Produktionen der Gruppe Kraftwerk). Das Sprachsignal wird im Analyseteil eines
Vocoders mit Bandpassfiltern in mehrere (z.B. 12) Frequenzbereiche zerlegt;
15 Vgl. u.a. W. Sandner (1977), Sound & Equipment; W. Schiffner (1991), Einflüsse der Technik
auf die Entwicklung von Rock/Pop-Musik; B. Enders (1995), Der Einfluß moderner Musiktechnologien auf die Produktion von Popularmusik; H. Wandler (2012), Technologie und
Sound in der Pop- und Rockmusik - Entwicklung der Musikelektronik und Auswirkungen
auf Klangbild und Klangideal.
269
Bernd Enders ______________________________________________________
nachgeschaltete ›Hüllkurvenverfolger (›Envelope Follower‹) erzeugen aus der
gemessenen Dynamik in den einzelnen Kanälen entsprechende Steuerspannungen, die zur Steuerung von VCAs dienen, die wiederum im Syntheseteil
den Bandpassfiltern nachgeschaltet sind, die – analog zum Analyseteil – das
Audiosignal als Trägersignal in mehrere Frequenzbereiche aufgeteilt haben.
Für effektvolle Vocoderklänge müssen Sprach- und Trägersignal in etwa die
gleichen Frequenzbereiche abdecken und das Trägersignal sollte kontinuierlich klingen (z.B. Orgel).16
Die FM-, PM- und AM-Synthese
Obwohl die subtraktive Klangsynthese in den Anfangszeiten analoger Synthesizer sich in der Praxis als die vorherrschende Methode der Klangformung
durchsetzte und die Additive Klangsynthese zumindest ansatzweise eingesetzt
wurde, standen auch andere Synthesetechniken prinzipiell zur Verfügung. Dazu gehören vor allem nichtlineare Synthesetechniken, die auf der Modulation
(= zeitlichen Veränderung) eines Schwingungsparameters beruhen, wenn z.B.
ein Oszillator die Amplitude eines Verstärkers (›Amplitudenmodulation‹,
›AM-Synthese‹) oder die Frequenz (›Frequenzmodulation‹, ›FM-Synthese‹)
oder die Schwingungsphase (›Phasenmodulation‹, ›PM-Synthese‹) eines anderen Oszillators moduliert. Abgesehen von einer einfachen gegenseitigen Frequenzsteuerung zweier analoger Synthesizeroszillatoren (auch als ›Cross Modulation‹ bekannt) wurden diese Synthesetechniken erst mit der Digitalisierung der Synthesizertechnologie einem größeren Anwenderkreis zugänglich.
(Lediglich die Ringmodulation (s.u.) als Sonderfall der Amplitudenmodulation spielte in der experimentellen Elektronischen Musik der 1950–60er Jahre
eine gewisse Rolle). Gründe hierfür liegen in der schwer vorhersehbaren
Komplexität der erzielten Klangstrukturen, zumal sich einmal gefundene
Sounds nicht abspeichern ließen, sowie in der Schwierigkeit, stabile Frequenzverhältnisse einzustellen, so dass ein musikalisches Spiel mit den Klängen möglich wurde. Zwar gelang es mit speziell konstruierten Chips in den
1980er Jahren auch analoge Synthesizer mit frequenzstabilen Modulen zu
bauen, aber zu dieser Zeit verdrängten digitale Systeme die analogen Vorgänger bereits fast vollständig.17
16 Vgl. dazu: ›Vocoder‹, in B. Enders (1997), Lexikon Musikelektronik.
17 Z.B. verfügt der mit Curtis-ICs aufgebaute Modulsynthesizer Soundlab, der 1985 von der EOrgelbaufirma Dr. Böhm unter konzeptioneller Mitwirkung des Verfassers dieser Zeilen hergestellt wurde, über die Möglichkeit, stimmstabile Klänge mittels AM-, FM- und PM-
270
_____________ Analoge und digitale Syntheseverfahren, MIDI und Sampling
Die Klangsynthese mittels einer Frequenzmodulation (FM-Synthese) beruht auf der Modulation der Frequenz einer Audioschwingung (›Trägerfrequenz‹, ›Carrier Frequency‹) mit einer Frequenz, die ebenfalls im Audiobereich (>20 Hz) liegt. Wird eine Schwingung mit einer Frequenz im Subaudiobereich moduliert, z.B. mit 7 Hz, resultiert daraus ein Vibrato oder je nach
Amplitude der Modulationsfrequenz (hier auch ›Frequenzhub‹ genannt) etwa
ein periodisches Glissando wie eine Sirene. Liegt die Modulationsfrequenz
(›Modulation Frequency‹) jedoch im Audiobereich, werden neue, recht komplexe Klangstrukturen hörbar, deren Teiltonspektren von Frequenz und Amplitude der Modulationsschwingung abhängen. Während z.B. auf additivem
Wege mit zwei Sinusoszillatoren lediglich ein Oberton zum Grundton hinzukommt (›lineare Synthese‹), werden mit der (›nichtlinearen‹) FM-Synthese je
nach Frequenzverhältnis und Modulationstiefe der beiden Sinusschwingungen
bereits zahlreiche harmonische und nichtharmonische Teiltöne generiert.
Im Spektrum einer frequenzmodulierten Sinusschwingung kommen oberhalb und unterhalb zur Trägerfrequenz sogenannte ›Seitenbänder‹ hinzu, die
das Teiltonspektrum des erzeugten Klangs ausmachen – und zwar im Abstand
der Modulatorfrequenz sowie ihrer ganzzahligen Vielfachen (n).
fc ± n
fm
Wenn beispielsweise die Trägerschwingung eine Frequenz fc von 1.000
Hz aufweist und die Modulatorfrequenz fm 200 Hz beträgt, dann werden bei
einer Amplitude der Modulationsfrequenz (> 0 !) als erste Seitenfrequenzen
1.000 + 200 = 1.200 Hz oberhalb und 1.000 – 200 = 800 Hz unterhalb der
Trägerfrequenz erzeugt, als weitere Frequenzen 1.400 Hz und 600 Hz usw. –
jeweils mit den Vielfachen der Modulatorfrequenz fm von 200 Hz. Damit ergibt sich für den resultierenden Klang (200, 400, 600, 800, 1.000, 1.200,
1.400, 1.600, 1.800 Hz) ein Grundton von 200 Hz (der also nicht identisch
mit der Trägerfrequenz 1.000 Hz ist). Je nach Relation der beiden Frequenzen
ist es möglich, dass ein Residualton [ 2.5.2] als Grundton gehört wird, also
eine Frequenz, die im Spektrum der FM-Synthese als eigenständige Schwingungskomponente nicht vorhanden ist. (Wäre die Amplitude des Modulators
gleich Null, gäbe es keine Modulation und es wäre nur eine Sinusschwingung
von 1.000 Hz zu hören.).
Synthese zu erzeugen. Aktuelle Analogmodelle basieren ebenfalls auf Chip-Technologie, z.T.
in Kombination mit digitalen Schaltelementen.
271
Bernd Enders ______________________________________________________
Stehen Träger- und Modulatorfrequenz im exakten Verhältnis ganzer Zahlen zueinander, also z.B. 2/3, 5/2 usw., ergeben sich harmonische Spektren,
andernfalls erhält man unharmonische Teiltonstrukturen, die sich z.B. für
Mischklänge (Schlagzeug, Glocken, Gong) nutzbringend verwenden lassen.
Abb. 3: Seitenbänder einer FM-Synthese
Das Schwingungsergebnis einer Frequenzmodulation kann in einer Funktionsgleichung wie folgt dargestellt werden:
e(t) = A
sin [2π + fc t+ I
sin (2π
fmt)]
Hierbei ist e die Elongation, also der momentane Punkt des Schwingungsvorgangs, A steht für die Amplitude bzw. Hüllkurve des gesamten Ausgangssignals, fc ist die Trägerfrequenz. Der Modulationsindex I ergibt sich als
Quotient aus der Amplitude d der Modulationsfrequenz (oder Frequenzhub)
und der Modulationsfrequenz fm:
I = d/fm
Da sich die Klangergebnisse der FM-Synthese nur schwer vorhersagen lassen, vor allem bei der Modulation mit mehreren beteiligten Oszillatoren oder
bei Verwendung komplexerer Schwingungsformen als Träger und/oder Modulator, ist es verständlich, dass sich erst mit dem Aufkommen digitaler Instrumente eine größere Verbreitung ergab, denn nun ließen sich einmal gefundene, musikalisch geeignete Klangstrukturen im digitalen Set abspeichern und
leicht wieder aufrufen.
272
_____________ Analoge und digitale Syntheseverfahren, MIDI und Sampling
Im Jahre 1967 wurde die FM-Klangsynthese von John M. Chowning18
(*1934) von der Stanford Universität beschrieben.19 Die Patente ließ sich die
Firma Yamaha 1974 lizensieren und baute in den Folgejahren verschiedene
FM-Synthesizer. Der 1983 vorgestellte, digital mit fortschrittlicher ChipTechnologie aufgebaute, als FM-Synthesizer bekannte DX 7 entwickelte sich
dann rasch zu einem Verkaufsschlager (er gilt als einer der meistverkauften
Synthesizer überhaupt), da er zahlreiche gut klingende und fertig programmierte, über Speicher rasch abrufbare, brillante Instrumentalsounds (›Factory
Sounds‹) enthielt, 16stimmig polyphon gespielt werden konnte und zudem mit
dem neu entwickelten MIDI-System (s.u.) kompatibel war. Überdies war der
DX 7 als Keyboard mit klavierähnlicher Anschlagsdynamik relativ leicht
transportabel und vergleichsweise günstig im Preis. Die zu dieser Zeit aktuellen Analogsynthesizer, die überwiegend nur über wenige Stimmen verfügten
und deren Klangprogramme nicht oder nur bedingt abgespeichert werden
konnten, galten daraufhin schnell als veraltet (erleben aber seit den 1990er
Jahren aufgrund der charakteristischen »fetten« Sounds analoger Schaltungen
eine überraschende Renaissance).
Die Nachfolger des DX 7 zeichneten sich durch erweiterte Speichermöglichkeiten und aufgrund der Verwendung von 16 Bit-Wandlern (statt 12 Bit)
rauschärmere Klänge aus. Vor allem die Authentizität perkussiver Klänge (wie
E-Piano, Clavinet, Cembalo), die nuancenreiche Anschlagsdynamik und
Klangfarben mit nicht ausschließlich harmonischen Teiltonspektren (Glocken,
Metallophone) wurden allgemein geschätzt. Auf die Programmierung der als
zu kompliziert betrachteten FM-Synthese wurde eher verzichtet, so dass in
den Folgejahren meistens die mitgelieferten oder hinzugekauften Klangprogramme (›Presets‹, ›Factory Sounds‹) zu hören waren. Erst mit der Entwicklung allgemein verfügbarer Musikprogramme für handelsübliche Computer
wurde die eigene Klangprogrammierung wiederbelebt. Auch die ersten Home
Computer wie der Commodore C64 oder der MIDI-kompatible Atari ST
brachten Soundchips mit, die mit der FM-Synthese arbeiteten, allerdings mit
großen Einschränkungen und minderer Klangqualität als die der YamahaInstrumente.
18 J.M. Chowning (1973), The synthesis of complex audio spectra by means of frequency modulation. Für die Nachrichtentechnik wurde das Verfahren schon um 1922 entdeckt, u.a. basiert
der UKW-Rundfunk auf der FM-Technik. Auch der bekannte Synthesizerkonstrukteur Donald
Buchla (*1937) experimentierte um 1968 mit diesem Verfahren; M. Becker (1990), Synthesizer von gestern.
19 Vgl. T. Tolonen / V. Välimäki / M. Karjalainen (1998), A new sound synthesis structure for
modeling the coupling of guitar strings, S. 205–208.
273
Bernd Enders ______________________________________________________
Auch bei der (nichtlinearen) Klangsynthese mittels einer Amplitudenmodulation (AM-Modulation) ergeben sich neue Schwingungsformen mit Seitenbändern. Wird die Amplitude eines Klangs periodisch verändert, hört man bei
langsamen Frequenzen der Modulationsfrequenz (z.B. 7 Hz) eine entsprechende Lautstärkenschwankung, ein Tremolo. Wird die Modulationsfrequenz
jedoch in den Audiobereich erhöht, resultiert eine Schwingungsform, deren
Teilschwingungen sich durch Addition und Subtraktion von Trägerfrequenz
(z.B. 200 Hz) und Modulationsfrequenz (z.B. 50 Hz) errechnen lassen (also
200 + 50 = 250 Hz und 200 – 50 = 150 Hz). Auch die Trägerfrequenz (= 200
Hz) ist zu hören, sofern es sich bei der Modulationsfrequenz um eine unipolare Schwingung handelt (mit einem Offset, also nicht symmetrisch um den
Nullpunkt schwingend). Wird hingegen eine bipolare Modulationsfrequenz
verwendet, werden ebenfalls die beschriebenen Seitenbänder erzeugt, jedoch
ist die Trägerfrequenz im resultierenden Signal nicht mehr vorhanden. Diese
Syntheseform ist als ›Ringmodulation‹20 bekannt, sie ist ein Sonderfall der
Amplitudenmodulation.
Digitale Syntheseformen
Während die bisher beschriebenen Synthesemethoden mit analoger und digitaler Elektronik realisiert werden können, digital z.T. mit erweiterten Möglichkeiten, erschließt die Digitaltechnik neuartige Syntheseformen, die voraussichtlich eine große Bedeutung für die weitere Entwicklung der Audio- und
Musiktechnologie haben werden und mit analoger Technik kaum realisierbar
sind.
Ein Beispiel hierfür gibt die ›Waveshaping-Synthese‹ (auch ›Wellenformsynthese‹), die prinzipiell auch auf analoger Basis möglich ist, aber erst mit
digitaler Technik praktikabel umgesetzt werden kann. Hier entstehen aus einem Eingangssignal über nichtlineare Verzerrungen neue Schwingungsformen
mit komplexeren Klangspektren durch hinzutretende Obertöne. Verschiedene
Verzerrungseffekte wie z.B. die Übersteuerung eines Gitarrenverstärkers können auf diese Weise überzeugend simuliert werden. Für die Verzerrung des
Eingangssignals werden häufig mathematische Funktionen eingesetzt, die als
›Chebyshev-Polynome‹ (auch ›Tschebyschow-P.‹) bekannt sind. Wird z.B. eine
20 Mit einer Schaltung, die vier Halbleiter- oder Röhrendioden in einem Ring anordnet – daher
der Name – lassen sich zwei Wechselspannungen recht einfach multiplizieren. Ringmodulatoren wurden schon in den 1950er Jahren in der experimentellen Elektronischen Musik verwendet, z.B. um Instrumentenklänge im Live-Konzert nichtharmonisch zu verzerren.
274
_____________ Analoge und digitale Syntheseverfahren, MIDI und Sampling
Cosinusschwingung mit der 3. Chebyshev-Polynom-Funktion (4(xˆ3) – 3x)
transformiert, wird eine Cosinusschwingung mit der dreifachen Frequenz
(Oktave + Quinte) erzeugt. Durch geeignete Kombinationen der verschiedenen Funktionen lassen sich sehr unterschiedliche, z.T. aber schwer vorhersehbare Teiltonspektren erzielen.21
Die ›Granularsynthese‹ (›Granular Synthesis‹) wurde Ende der 1940er Jahre vom ungarischen Physiker Dennis Gabor entdeckt. Er stellte fest, dass sich
beliebige Klangfarben aus einer Kette (›Sequenz‹) von sehr kurzen Klangpartikeln, sogenannten ›Grains‹ (lat. granulum, engl. grain für »Korn, Körnchen«)
herstellen lassen, die typischerweise zwischen 10 und 100 ms lang sind.22 Diese Klangpartikel können einfache Sinusschwingungen oder auch komplexere
Schwingungsformen enthalten und mit verschiedenen Amplituden, Dauern
der Grains und Dauern der Sequenz wiedergegeben werden. Ähnlich wie die
Einzelbilder eines Films bei der Wiedergabe zu einem Kontinuum verschmelzen, nimmt der Hörer die einzelnen Schwingungsquanten als einen
kontinuierlichen Klangverlauf wahr, wenn ihre Länge 50 ms nicht überschreitet. Sind sie länger, dann werden sie als eigenständige Klangabschnitte gehört.
Im Unterschied zur additiven Synthese, die Teilschwingungen im Frequenzbereich addiert, entsteht bei der Granularsynthese die Schwingungsform
durch Addition der Klangpartikel im Zeitbereich. Werden die einzelnen
Grains gleich mehrfach ausgelesen, sind Effekte wie Time Stretching oder
Pitch Shifting möglich, d.h., die Tondauer kann verändert werden, ohne dass
sich die Tonhöhe mitändert, und umgekehrt. Obwohl die Grains heutzutage
normalerweise digital gespeichert bzw. ausgelesen werden, ist eine Realisation
mit analoger Technik durchaus möglich. Schon Karlheinz Stockhausen und
Iannis Xenakis (1922-2001) experimentierten mit auf Magnetband gespeicherten, seriell angeordneten Klangfragmenten, die mit hoher Bandgeschwindigkeit abgespielt wurden.
Sehr vielversprechend ist eine relativ neue, nur digital mögliche Synthesetechnik, die als ›Physical Modelling‹ (auch: ›Physical Modeling‹) oder ›Physikalische Modellierung‹ bekannt ist. Im Gegensatz zu den bisher beschriebenen
Syntheseformen wird ein erwünschtes Klangspektrum nicht über die Manipulation von Schwingungsformen erreicht, sondern über ein Rechenmodell der
Erzeugung eines Schwingungsvorgangs am Ort der Entstehung, indem mechanische Schwingungsprozesse untersucht und das Zusammenwirken von Erreger
21 Der französische Komponist Jean-Claude Risset (*1938) experimentierte bereits 1969 musikalisch mit der Waveshaping-Synthese.
22 D. Gabor (1946), Theory of communication, S. 429–457.
275
Bernd Enders ______________________________________________________
und Resonatoren, also der akustisch relevanten Bestandteile eines Instruments, digital simuliert wird. Z.B. muss das Streichen oder Zupfen einer Saite,
das Anschlagen einer Trommelmembran oder das Vibrieren eines Rohrblattes
mathematisch erfasst und/oder die damit gekoppelten Resonanzvorgänge (z.B.
Geigenkörper, Luftsäule, Reflexionen) analysiert und mit Hilfe von verschiedenen Schwingungsmodellen algorithmisch nachgebildet werden. Bevorzugt
handelt es sich dabei um ›Feder-Masse-Modelle‹, die das Schwingen von einzelnen Massenpunkten in Federn oder Pendeln mathematisch beschreiben,
oder um ›Wellenleitermodelle‹, die auf der (echtzeitfähigen) Berechnung der
(eindimensionalen) Wellenausbreitung und Reflexionen bei Saiten und Luftsäulen beruhen.23 Schwingungen von mehrdimensionalen Systemen wie Saiten,
Stäbe und Platten können durch gekoppelte Masse-Feder-Systeme modelliert
werden.24 Dabei repräsentiert jeder Massenpunkt die durchschnittliche Masse
einer Längen-, Flächen- oder Volumeneinheit. Für jeden Massenpunkt lässt
sich eine Bewegungsgleichung erstellen. Das Gesamtsystem lässt sich in einem
Gleichungssystem zusammenfassen. Die Berechnung erfolgt mit computergestützten Methoden, wie z.B. der Finiten Elemente Methode.25 Nicht nur die
Schwingung lässt sich damit modellieren, sondern auch die Schallausbreitung
in einem umgebenden Medium, wie z.B. der Luft.
Das Klangresultat der Physikalischen Modellierung ist umso realistischer,
je genauer die akustischen Kenntnisse sind bzw. je mehr über die jeweilige
Klangerzeugungstechnik des simulierten Instruments bekannt ist. Die zur optimalen Nachbildung notwendigen Algorithmen sind allerdings überwiegend
sehr komplex und beanspruchen auch beim aktuellen Stand der Computertechnik eine hohe Rechenleistung, weshalb nur wenige Modelle in Echtzeit
funktionieren.26 Letzteres wäre aber gerade von besonderem Vorteil, weil eine
Physical-Modelling-Synthese eine sehr differenzierte Beeinflussung der verschiedenen Parameter eines Klangerzeugungsvorgangs zulässt, oder anders
ausgedrückt: Mit geeigneten Spieleinrichtungen (›Interfaces‹) – wie z.B. einem
23 J.O. Smith III (1992), Physical modeling using digital waveguides. Eine weiterführende Erläuterung der mathematischen Grundlagen aller hier beschriebenen Syntheseformen findet sich
u.a. bei M. Neukom (2005), Signale, Systeme und Klangsynthese; C. Roads (2000), The
computer music tutorial.
24 D. Hall (1997), Musikalische Akustik, S. 178.
25 N.H. Fletcher / Th.D. Rossing (1991), The physics of musical instruments, S. 122–123.
26 Yamaha hat 1993 mit dem ein/zweistimmigen Vl-1 erstmals ein kommerzielles PhysicalModeling-Instrument auf der Basis eines Blasinstrumentenmodells hergestellt, idealerweise
mit einem Blaswandler zu spielen. Mit dem extrem seltenen und noch aufwendigeren VP-1
wurden Streicherklänge simuliert.
276
_____________ Analoge und digitale Syntheseverfahren, MIDI und Sampling
Blaswandler – lassen sich auch subtile Modulationen erreichen und für eine
musikalisch optimal gelungene Artikulation der Klänge nutzen. Natürlich
können die Schwingungsparameter eines Modells auch extrem verändert werden, um neuartige Instrumente zu konstruieren oder bekannte Instrumente zu
variieren, gegebenenfalls in einer Weise, die mechanisch nicht erreichbar wäre, wie z.B. eine Gitarre mit baumlangen Saiten.
Schon 1983 wurde von Kevin Karplus (*1954) und Alex Strong ein relativ
einfaches und bis heute öfter verwendetes Physical-Modelling-Verfahren beschrieben, das im wesentlichen aus einer Verzögerungsschleife mit einem integrierten Tiefpassfilter besteht, in die (z.B.) ein Rauschimpuls eingespeist
wird (›Karplus-Strong-Algorithmus‹). Bei jedem Durchlauf der Verzögerungsleitung (›Delay Line‹) mit einer Verzögerungszeit, die der Periodendauer des
zu erzeugenden Tons entspricht, werden Teiltöne des Ausgangssignals immer
stärker gedämpft, so dass der Ton rasch dunkler wird und ausklingt. Daher
eignet sich diese Synthese vor allem für die Nachahmung von gezupften Saitenklängen oder Trommelschlägen.27
3.2.2 Sound Sampling und Resynthese
Synthetische Klänge können sehr neuartig klingen, sie können bekannte Instrumente recht gut imitieren, aber eine authentische Nachbildung mit allen
Feinheiten des Ein- und Ausschwingverhaltens, der z.T. sehr subtilen und sich
verändernden Geräuschanteile und der inneren (feinmodulatorischen) Bewegung auch in einer quasi-stationären Phase eines musizierten Klangs (z.B. einer gestrichenen Geigensaite) sind auch mit digitalen Technologien nur sehr
schwer zu reproduzieren. Daher liegt der Gedanke nahe, einfach die Originalklänge von Instrumenten aufzunehmen, zu speichern und beim musikalischen
Spiel abzurufen.
Als ein erster Versuch könnte die von Edwin Welte (1876-1958) in den
1930er-Jahren entwickelte Lichttonorgel gewertet werden [ 3.1.2]. In den
1950er Jahren konstruierte Harry Chamberlin das ab 1964/65 erhältliche
Tasteninstrument ›Mellotron‹, das pro Taste auf Tonbändern (jeweils drei)
gespeicherte Originaltöne (z.B. Flöte, Streicher, Chöre) in der entsprechenden
Tonhöhe und maximal 8 s Dauer zum Klingen brachte. Der aufgrund der
27 K. Karplus / A. Strong (1983), Digital synthesis of plucked-string and drum timbres; vgl.
auch: T. Tolonen / V. Välimäki / M. Karjalainen (1998), A new sound synthesis structure for
modeling the coupling of guitar strings, S. 205–208.
277
Bernd Enders ______________________________________________________
komplizierten und störanfälligen Mechanik leicht leiernde Klang ist auf vielen
Platten der 1960er und 70er Jahre zu hören, z.B. der Beatles (»Strawberry
fields«), der Moody Blues (»Nights in white satin«), Pink Floyd, Led Zeppelin
u.v.a. Auch das von den Vertretern der musique concrète – vor allem von Pierre Schaeffer (1910-1995) – in Paris in den 1950er Jahre entwickelte Phonogène basierte auf chromatisch »gestimmten« Tonbändern, die mit einer Klaviatur gespielt werden konnten.
Das digitale Sound-Sampling-Zeitalter begann mit dem ersten komplett
digitalen Synthesizer, dem Fairlight Musikcomputer CMI, der Ende der
1970er Jahre von den Australiern Peter Vogel und Kim Ryrie auf der Basis
einer 8Bit-Technologie entwickelt und insbesondere in den 1980er Jahren von
innovativen Künstlern wie Peter Gabriel und Stevie Wonder eingesetzt wurde.
Populär wurden gespeicherte Orchesterklänge mit Kate Bushs Album »Never
for ever« (1980, mit dem Hit »Babooshka«). Die erste ausschließlich mit dem
Fairlight produzierte Langspielplatte war »Erdenklang – Computerakustische
Klangsinfonie« der österreichischen Musiker Hubert Bognermayr und Harald
Zuschrader. Das Werk wurde 1981 auf der Ars Electronica 1982 uraufgeführt; ein Stück, das sehr stark auf Sound Samples basiert, die häufig transponiert erklingen und insgesamt dadurch recht künstlich wirken. Auch der Franzose Jean Michel Jarre (»Magnetic fields«, 1981) oder die Experimentalgruppe Art of Noise (»Into battle«,1983) setzten früh auf die gesampelten Sounds
eines Fairlight CMI.
278
_____________ Analoge und digitale Syntheseverfahren, MIDI und Sampling
Abb. 4: Fairlight Musikcomputer CMI mit digitaler Klangsynthese (Wavedrawing mit
Lightpen), Sound Sampling (8-bit) und Sequenzer (mit rudimentärer Notendarstellung)
Konkurrenz entstand dem Fairlight sofort durch das ›Synclavier‹, das ab
Mitte der 1970er Jahre von der Firma ›New England Digital‹ entwickelt wurde, zunächst ebenfalls als 8-Bit-System mit Additiver und FM-Synthese (›Synclavier I‹, 1979), später auch mit der Möglichkeit, Samples abzuspielen
(›Synclavier II‹). 1982 kam der schon deutlich erschwinglichere ›Emulator‹
von Emu Systems dazu, 1985 der ›Mirage‹ von Ensoniq, und in der Folgezeit
wurden die Systeme immer handlicher und leistungsfähiger, so dass beispielsweise schon 1988 der Akai ›S1000‹ als Einbaugerät für 19"-Racks mit 16-BitAuflösung, CD-Qualität, erweiterbarem Speicher und polyphonem Spiel mit
16 Stimmen daherkam und die musikalische Verwendung von Sound Samples
wesentlich den Klang der Popmusik ab Ende der 1980er Jahre prägte. Der
1980 erstmals von Roger Linn konstruierte ›Linn LM-1 Drum Computer‹ gilt
als erste programmierbare Rhythmusmaschine, die digitalisierte Klänge eines
originalen akustischen Schlagzeugs verwendete.
279
Bernd Enders ______________________________________________________
Mit dem Aufkommen immer preiswerterer und leistungsfähigerer Computer mit schnelleren Prozessoren, größeren Arbeitsspeichern und hochwertigen
Soundkarten wurde seit Mitte der 1990er Jahre mehr und mehr auf spezielle
Hardware verzichtet und die Entwicklung der Sound Sampler in den Softwarebereich verlagert. Als umfangreiche Programm-Pakete sind heute Sampling-Bibliotheken wie z.B. die erfolgreiche ›Vienna Symphonic Library‹ in der
Lage komplette Orchesterstimmen abzubilden, z.T. mit spieltechnischen Raffinessen (z.B. verschiedene Bogenstriche beim Geigenspiel), so dass die klangliche und musikalische Qualität dem Original erstaunlich nahekommt und
dem weniger geübten Ohr nicht mehr auffällt. In den Studios vieler Pop- und
Filmmusikproduktionen wird inzwischen fast völlig auf die Einbindung von
Instrumentalisten und original gespielten Instrumenten verzichtet.
Abb. 6: Kontakt-Player mit mehreren »geladenen«
Sample-Instrumenten (Native Instruments)
280
_____________ Analoge und digitale Syntheseverfahren, MIDI und Sampling
Prinzipiell basiert die Technik eines Sound Samplers [ 3.3.3] auf der digitalen Speicherung von letztlich beliebigen Klängen, also z.B. den einzelnen
Tönen eines Musikinstruments, die zum musikalischen Spiel – etwa mit einem
Keyboard – in der passenden Frequenz aus dem Speicher ausgelesen werden.
Wird beispielsweise die Taste a1 gedrückt, ertönt z.B. ein Trompetenton mit
440 Hz, auf den ersten Blick ein klanglich perfektes Verfahren.
Jedoch gibt ein Sound Sampler den Originalklang in einer »fixierten« Aufnahme wieder, vergleichbar mit einem immer identisch ablaufenden Filmausschnitt eines eigentlich sich ständig verändernden Vorgangs. Soll der Klang
z.B. länger erklingen als die Originalaufnahme, muss ein bestimmter Teil wiederholt werden (›Loop‹), wobei ein quasistationärer, also möglichst gleichförmiger Abschnitt am geeignetsten ist. Um dabei ein Knacken an den Übergängen zu vermeiden, müssen Nullpunkte im Schwingungsverlauf gefunden
werden, entweder automatisch (›Auto Loop‹) oder durch manuelle Setzung.
Verschiedene Edit-Werkzeuge erlauben ein präzises Beschneiden
(Trim/Truncate) von Samples. Funktionen wie Cut/Copy/Paste erweitern die
Möglichkeiten der Bearbeitung, eine grafische Darstellung des Schwingungsverlaufs optimiert die Zugriffsmöglichkeiten. Verschiedene Loop-Typen stehen eventuell zur Verfügung (Forward/Backward oder Reverse/Alternate
Loop). Vielfach lässt sich auch einstellen, ob ein Loop beim Tastendruck erklingen soll (Sustain Loop) oder erst nach dem Loslassen der Taste (Release
Loop), gegebenenfalls mit verschiedenen Klanganteilen, etwa mit einem abschließenden Geräusch (z.B. Rückfallklick eine Cembalo-Springers). Allerdings funktionieren geloopte Sounds nur einigermaßen akzeptabel bei Klängen mit relativ gleichbleibenden Schwingungsverläufen (Orgel, Posaune o.ä.),
denn für Instrumente mit dynamisch sich stetig verändernden Klangstrukturen
(z.B. Klavier, Gitarre) muss zwangsläufig ein komplettes Sample vorliegen.
Ein anderes Problem entsteht beim Transponieren eines Samples, wenn ein
a1-Sample auch für den Ton as1 oder b1 erklingen soll, also um einen Halbtonschritt nach unten bzw. oben verschoben werden muss. Dabei erklingen die
Töne der Auslesegeschwindigkeit entsprechend nicht nur länger (oder kürzer),
was ggf. durch eine Zeitkorrektur (›Time Correction‹) ausgeglichen werden
kann, sondern ihre Oberton- und Formantcharakteristik wird komplett mit
nach unten (oder nach oben) im Frequenzbereich verschoben, so dass ein
transponiertes Sample sehr schnell unnatürlich klingt.28 Zwar könnte die Spei-
28 Je nach Klangfarbe sind Transpositionen bis zu einer großen Terz auf- oder abwärts manchmal noch akzeptabel. Eine Transposition der Stimme über ein größeres Intervall nach oben
(z.B. Oktave) ergibt den sogenannten ›Mickey-Mouse-Effekt‹.
281
Bernd Enders ______________________________________________________
cherung je eines eigenen Samples pro Instrumentalton dieses Problem lösen,
jedoch fallen dann je nach erwünschter Klangqualität (z.B. 96 kHz Sample
Rate und 24-Bit-Quantisierung), Länge und Aufnahmeart der Originalaufnahme (z.B. in Stereo) doch sehr große Datenmengen an, die etwa beim mehrstimmigen Spiel auch moderne und hochwertige Rechner mit schnellen Festplatten ins Stocken bringen können.
Schließlich muss berücksichtigt werden, dass Instrumentalklänge in verschiedenen Lautstärkegraden klangfarblich unterschiedlich klingen, normalerweise wird ein Klang mit zunehmender Lautstärke nicht nur einfach lauter,
sondern auch brillanter, heller, schneidender, d.h. die Teiltonstruktur ändert
sich, höhere Teiltöne kommen hinzu oder treten stärker hervor. Außerdem
hängt die Klangfarbe eines Instruments von der konkreten Spielweise ab, von
der Artikulation, bei der Geige z.B. vom Bogenstrich, bei der Flöte gibt es unterschiedliche Anblasgeräusche usw. Es ist daher praktisch kaum möglich, für
jede Lautstärke und jede Artikulationsform eigene Originalsamples zu speichern und passend abzurufen.
Damit zur Erzielung möglichst authentischer Klänge nicht zu große Datenmengen anfallen, werden verschiedene Verfahren angewendet, um weiche
Übergänge zwischen den gesampleten Tönen und verschiedenen Dynamikstufen zu erreichen. Üblicherweise werden die Samples bestimmten Tonbereichen
zugeordnet (›Mapping‹), in denen ein Sample trotz Transposition noch natürlich klingt, und die Übergänge zu den benachbarten Samples werden durch
eine Überblendungsfunktion fließender gestaltet (›Crossfade‹). Eine ähnliche
Technik wird für feinere klangfarbendynamische Abstufungen genutzt, verschiedene Samples mit unterschiedlichen Lautstärken werden übereinandergelegt (›Layer‹) und je nach verlangter Dynamik (z.B. anschlagsdynamisch) umgeschaltet (›Velocity Switching‹). Auch hier können weichere Übergänge vorgesehen werden (›Velocity Crossfading‹). Für spezielle Effekte können natürlich auch völlig verschiedene Instrumente anschlagsdynamisch umgeschaltet
oder kombiniert werden.
Grundsätzlich werden Sound Samples auch noch weiteren Klangformungsverfahren unterworfen, programmierbare Hüllkurven, Klangfilter und
zahlreiche Effekte wie Hall, Echo, Distortion, Phaser/Flanger/Chorus, Tonsystemwahl und instrumentalspezifische Einstellungen (z.B. Öffnungswinkel eines Flügeldeckels) sind je nach Qualität und Leistungsumfang einer SampleLibrary zusätzlich regelbar. Weitere wichtige Aspekte der klanglichen Gestaltung von Sample-Libraries sind die Bedingungen bei der Aufnahme selbst, z.B.
die Aufstellung der Mikrofone, der Räumlichkeitsanteil, die Wahl zwischen
Solo- oder Gruppenaufnahmen u.a.m. Diese Aspekte lassen sich im Sampler
hinterher nicht mehr beeinflussen.
282
_____________ Analoge und digitale Syntheseverfahren, MIDI und Sampling
Gleichwohl ist das Sampling-Prinzip zur Zeit die erfolgreichste Methode,
die Klangfarbencharakteristik akustischer Instrumente möglichst naturgetreu
nachzubilden. Sogar die typischen Sounds meist älterer elektroakustischer Instrumente (z.B. Hammond-Orgel, Fender Rhodes) oder Synthesizer (›Vintage
Synthesizer‹) werden gesampelt, obwohl die Synthesetechniken dieser Instrumente heutzutage auf digitalem Wege relativ einfach simuliert werden könnten.29 Da die Herstellung von musikalisch genutzten Sound Samples z.T. recht
aufwendig ist und eine digitale Kopie dem Original absolut gleicht, werden
zunehmend auch juristische Aspekte diskutiert. Das Urheberrecht wird vor
allem dann verletzt, wenn das Sample eine musikalisch erkennbare Struktur
enthält.
Die ›Granularsynthese‹ liegt auch häufig der sogenannten ›Resynthese‹ zugrunde, bei der ein digitalisierter Klang (Sound Sample, s.u.) in einzelne
Grains zerlegt und einer Fourier-Analyse [ 1.2] unterzogen wird (›zeitbezogene Resynthese‹, auch ›Time Domain Synthesis‹). Beim Zusammensetzen der
einzelnen Elemente können die verschiedenen Schwingungsparameter sehr
flexibel und weitreichend manipuliert werden.30 U.a. sind nahtlose Übergänge
von einer Schwingungsform in eine andere möglich (›Morphing‹). Manche
Synthesizer-Programme lassen auch das variable Auslesen von Grains aus einem Sound Sample mit verschieden großen Zeitfenstern zu, so dass ausserordentlich neuartige klangliche und musikalische Wirkungen erzielt werden.
Verwandt mit diesem Verfahren ist die etwas einfachere ›WavetableSynthese‹, deren Funktionsweise durch einfaches Abspielen von digitalen
Klangsegmenten gekennzeichnet ist, um originale Instrumentalklänge zu erzeugen. Die einzelnen Klangstücke werden als digitale Daten in Tabellen gespeichert und ausgelesen, ggf. mit unterschiedlichen Geschwindigkeiten, um
verschiedene Tonhöhen zu erzeugen. Verschiedene Formen der Loop-Bildung,
Hüllkurven und Modulationstechniken können mit diesem Verfahren kombiniert werden. Im Vergleich zur Speicherung kompletter Sound Samples kostet
die Wavetable-Synthese weniger Speicherplatz und Rechenkapazität und ist
flexibler einsetzbar.
29 Weiterführende Literatur: P. Gorges (1991), Das großer Sampler Praxisbuch; R. Großmann
(2002), Sampling; K. Ploch (1988), Sampling. Theorie und Praxis für Einsteiger und Profis;
M. Russ (1998): Sound sampling and synthesis; P.R. Cook (2002), Real sound synthesis for
interactive applications; E.R. Miranda (2002), Computer sound design.
30 Gelegentlich wird der Begriff ›Resynthese‹ auch für die additive Klangsynthese verwendet
(›Harmonische Resynthese‹).
283
Bernd Enders ______________________________________________________
Die Instrumentenhersteller kombinieren verschiedene Techniken und stellen sie als eigenständige Syntheseentwickungen mit jeweils neuen Benennungen vor, so dass eine Vielzahl von Syntheseverfahren bekannt ist, die aber
meist auf den hier angeführten mathematisch-physikalischen Prinzipien aufsetzen.
3.2.3 MIDI
Entwicklungsgeschichte
›MIDI‹, ein Akronym aus ›Musical Instrument Digital Interface‹, bezeichnet
eine digitale Schnittstelle für Musikinstrumente zur seriellen Übertragung von
musikalischen Informationen bzw. zur musikspezifischen Steuerung von Musikinstrumenten und Audiogeräten in Echtzeit. Das sog. MIDI-Protokoll, das
die Spezifikationen für die erforderlichen Hard- und Software-Komponenten
beschreibt, wurde von führenden Instrumentenherstellern31 in den Jahren
1981–83 entwickelt und in einer eher selten anzutreffenden Einmütigkeit zu
einem gemeinsamen musiktechnischen Standard erhoben.
Mit der Standardisierung dieser Schnittstelle begann eine bis heute andauernde Erfolgsgeschichte einer (musik)technischen Norm, die (ähnlich wie das
ein Jahrzehnt später standardisierte Audioformat mp3) über die Musiktechnologie weit hinaus bis in die allgemeine Informationstechnologie eine unerwartet große und dauerhafte Verbreitung fand,32 so dass mittlerweile auch handelsübliche Personal Computer und verbreitete Betriebssysteme prinzipiell
MIDI-Daten verarbeiten können. Die MIDI-Technologie hat wesentlich zur
Digitalisierung der Produktion von Musik im Live-Konzert wie im Tonstudio
in den 1980er und 1990er Jahren beigetragen – vor allem in den populären
31 Dave Smith und Chet Wood (Sequential Circuits) erprobten mit Tom Oberheim (Oberheim)
und Ikutaroo Kakehashi (Roland) die Möglichkeit einer einfachen digitalen Übertragung von
Spielinformationen und stellten erste Ergebnisse 1981 auf einem Kongress der AES (Audio
Engineering Society) vor. Nach Verhandlungen mit anderen Herstellern (Yamaha, Korg, Kawai) kam es schließlich 1983 zur Gründung der IMA (›International MIDI Association‹), die
das erste Dokument (MIDI Detailed Specifications Version 1.0) mit den vereinbarten Spezifikationen veröffentlichte, so dass ein eindeutiger technischer Rahmen für MIDI-kompatible
Instrumente und Geräte gegeben war. Zu den Gründungsmitgliedern der IMA gehörten auch
die Firmen Moog, Big Briar, Octave Plateau, Passport Design, Lexikon, Bontempi und SIEL.
32 Neuere Standards zur Übertragung von musiktechnischen Informationen wie Open Sound
Control (OSC) oder music Local Area Network (mLAN) konnten sich bisher trotz erweiterter und schnellerer Übertragungstechnik nicht durchsetzen.
284
_____________ Analoge und digitale Syntheseverfahren, MIDI und Sampling
Musikstilen. MIDI hat die Musikwelt revolutioniert und völlig neue Dimensionen für den kreativen, aber auch stereotypen Umgang mit Musik erschlossen.33
Ursprünglich sollte das MIDI-System lediglich die Kombination von Synthesizer-Instrumenten erleichtern. Vorbereitet wurde diese Entwicklung (u.a.)
durch polyphone Synthesizer mit digitaltechnisch funktionierenden Klaviaturen. Die analogen Modulsynthesizer der ersten Stunde – wie etwa der berühmte Moog-Synthesizer – verfügten über Tastaturen, die beim Spiel lediglich eine einzige Steuerspannung für die angeschlossenen VCOs sowie eine
Gate- oder Trigger-Spannung zum synchronen Starten von Hüllkurvengeneratoren abgeben konnten. Daher war zum tiefen Bedauern der damals am Synthesizer besonders interessierten Pianisten und Organisten nur ein monophones Spiel möglich, auch dann, wenn der Synthesizer über mehrere Oszillatoren
und Hüllkurvengeneratoren verfügte.
Erst mit digital funktionierenden Keyboards, die in den 1970er Jahren
aufkamen, ließ sich eine polyphone Spielweise realisieren, zunächst nur mit
wenigen Stimmen (4 oder 6), später mit 16, 32 und 64.34 Auch wenn die
Klangerzeugung der Synthesizer zunächst noch analog ausgelegt war, wurde
das Tastenspiel auf einem polyphonen Keyboard demnach digital übertragen,
so dass die Überlegung nahelag, die entsprechende Codierung der digitalen
Daten zu standardisieren, um den Keyboardern mit der Vorliebe für mehrere
Synthesizer die unbequeme Übereinanderschichtung der Instrumente mit je
eigenen Tastaturen zu einer »Keyboard-Burg« zu ersparen.
33 Literaturhinweise: Ph. Ackermann (1991), Computer und Musik; M. Boom (1987), Music
through MIDI; Chr. Braut (1993), Das MIDI Buch; B. Enders (1997), Lexikon Musikelektronik; B. Enders / W. Klemme (1988), Das MIDI- und Sound-Buch zum Atari ST; M. Oehler (2008), Die digitale Impulsformung; S. Philipp (1986), MIDI-Kompendium 2. Offizielle
Homepage der MIDI Manufacturers Association (MMA): http://www.midi.org/index.php
(letzter Zugriff 13.07.2013)
34 Eine Ausnahme bildeten (analoge) Synthesizer, die – wie der 48stimmige Korg PS 3300 – für
jede Taste jeweils eine komplette Synthesizerstimme aus Oszillatoren, Filter, Verstärker,
Hüllkurvengeneratoren u.a.m. vorsahen, ein technisch allerdings sehr aufwendiges und anfälliges (dem Prinzip der Pfeifenorgel ähnelndes) System, das sich aber nicht durchsetzte.
285
Bernd Enders ______________________________________________________
Abb. 6: Herbie Hancocks Synthesizer Equipment
Die ersten MIDI-Synthesizer bauten 1983 die Firmen Sequential Circuits
(Prophet 600), Roland (Jupiter 6) und Yamaha (DX 7). Konsequenterweise
gab es dann auch bald die ersten Synthesizer als sog. Expander ohne eingebaute Tastatur, so z.B. der TX 7 von Yamaha, ein (nicht rackfähiger) Desk-
286
_____________ Analoge und digitale Syntheseverfahren, MIDI und Sampling
top-Synthesizer, der dem extrem erfolgreichen, schon weitgehend digital funktionierenden DX 7 klangtechnisch vollständig entsprach.35 Folglich genügt
damit zur Ansteuerung der verschiedenen Synthesizer oder Expander eine einzige MIDI-kompatible Klaviatur, die als Masterkeyboard fungiert.
Abb. 7: Roland MIDI-Synthesizer Jupiter 636
MIDI-Synthesizer, die als Masterkeyboard eingesetzt werden, ermöglichen
eine schaltbare Trennung (›local off‹- Mode) von Tastatur (›Controller‹) und
Klangmodul (›Generator‹), so dass die MIDI-Daten auf einen beliebigen Empfänger (›Slave‹) oder über MIDI-modifizierende Geräte umgeleitet werden
können (›Master-Slave‹-Prinzip). Noch konsequenter sind Masterkeyboards
aufgebaut, die als reine MIDI-Controller völlig ohne eigenen Klangteil daherkommen, aber über besondere spieltechnische Qualitäten und Funktionen verfügen (Modulationsräder, gewichtete Tasten, großer Tastenumfang, gute Anschlagsdynamik, Aftertouch, programmierbare MIDI-Datenverarbeitung
u.a.m.).37
35 Es fehlen allerdings die direkten Edit-Funktionen, die entweder mit einem DX 7, dem speziellen Programmiergerät PR 7 oder einem anzuschließenden Computer ausgeführt werden müssen.
36 M. Becker (1995): Synthesizer von gestern, Vol. 2, S. 116.
37 Im Zusammenspiel mit Computern werden heute aber auch sehr kleine, handliche Masterkeyboards – oft zur Verwendung mit aktuellen USB- oder Firewire-Schnittstellen – angeboten,
die weniger zum virtuosen Spiel als vielmehr zur Eingabe von weniger anspruchsvollen musikalischen Elementen (einzelne Motive, Rhythmen, Akkordfolgen, Patterns) dienen, die dann
mit geeigneter Sequenzer-Software zum eigentlichen MIDI-Arrangement komplettiert werden.
287
Bernd Enders ______________________________________________________
Relativ schnell griff die MIDI-Technik auch auf andere Instrumente über,
so dass im Laufe der weiteren Entwicklungen MIDI-fizierte E-Orgeln und EPianos erhältlich waren, schließlich auch Instrumente, die nicht per Klaviatur
zu spielen sind, wie E-Gitarre (z.B. Guitar Controller »SynthAxe«), DrumSets (Drum-to-MIDI) und Blasinstrumenten nachempfundene Blas-Controller
(Wind/Breath MIDI Controller). Auf diese Weise erschlossen sich über die
MIDI-Steuerung von Synthesizern gänzlich neue Klangwelten für Musiker, die
mit den speziell entwickelten MIDI-Controllern ihre gewohnte Spieltechnik
weitgehend beibehalten konnten. Umrüstsätze für akustische Pianos, Akkordeons oder Pfeifenorgeln kamen hinzu, so dass auch herkömmliche akustische
Instrumente auf MIDI-Daten ansprachen. Immer wieder wurde auch versucht,
aus den komplexen Klangsignalen eines Instruments den Grundton zu analysieren, um diesen in eine MIDI-Information zu konvertieren (z.B. Guitar-toMIDI), was mittlerweile einigermaßen zufriedenstellend in Echtzeit gelingt.
Verschiedene Erweiterungen der MIDI-Spezifikationen erlaubten später
sogar die Steuerung von audiotechnischen Apparaten wie Mixer oder Tonbandgerät oder synchronisierten die Lichttechnik eines Konzerts mit der Musik.38 Vor allem in den Kreisen experimentell interessierter Musiker werden
auf der Grundlage von MIDI-Daten innovative, sich vom herkömmlichen Instrumentalspiel lösende Interface-Konzepte erprobt, da es im Umfeld musikelektronischer Gerätschaften im Grunde beliebig ist, wie ein digitales Interface
zur musikalischen Steuerung einer klangerzeugenden Apparatur (»Generator«) letztlich konkret beschaffen ist.
38 Sogar die Klingeltöne der mobilen Telefone basierten anfangs auf MIDI-Noten, um Melodien
abzuspielen.
288
_____________ Analoge und digitale Syntheseverfahren, MIDI und Sampling
Abb. 8: Allgemeines Funktionsprinzip von akustischen,
elektroakustischen und elektronischen Instrumenten
Betrachtet man die Funktionalität eines beliebigen Musikinstruments,
dann besteht es grundsätzlich aus klangerzeugenden Bausteinen (z.B. Saiten,
Oszillatoren, Membranen usw.), aus klangverändernden Bausteinen (Resonanzkörper, Filter, Dämpfer, Hörner u.a.m.) und aus klangsteuernden Bausteinen (Tastatur, Joystick, Pedal, Griffklappen, Zug usw.). Hinzu kommt bei
elektronischen Instrumenten noch die Möglichkeit der Klangspeicherung
(analog beim Mellotron, digital beim Sound Sampler).
Abb. 9: Einfache MIDI-Anwendung: Master-Keyboard steuert
Slave-Instrument, dessen Sound wiedergegeben wird.
289
Bernd Enders ______________________________________________________
Kaum hatte sich der MIDI-Standard etabliert, zeigte sich – nicht zuletzt
zur Überraschung der damit vornehmlich befassten Musikindustrie– dass die
vergleichsweise simple Steuerung eines Soundgenerators mit einer MIDITastatur nicht die zukunftsträchtigste Anwendung sein würde, sondern die
Kombination mit einem Computersystem, das die digitalen Daten empfangen,
speichern, modifizieren und wieder an MIDI-kompatible Klangbausteine ausgeben kann. Die ersten (mikroprozessor-basierten) MIDI-Sequenzer als
Hardware-Geräte speicherten die eingespielten MIDI-Daten, ließen in einem
gewissen Umfange Änderungen der gespeicherten MIDI-Noten zu und steuerten anzuschließende MIDI-Instrumente an, so dass musikalische Prozesse vollständig automatisch ablaufen konnten, etwa als Begleitcombo für einen Alleinunterhalter auf der Bühne. MIDI-Sequenzer, Begleitautomaten und
Rhythmusmaschinen ergaben gewissermaßen eine Vorahnung von den weit
umfangreicheren Möglichkeiten der bald darauf folgenden Computereinbindung.
Anfang 1981 wurden die ersten Homecomputer mit 8-Bit-Prozessoren und
maximal 64-KByte hergestellt und eroberten sich sogleich einen Massenmarkt. Für den 1982 vorgestellten Commodore 64, wohl der meistverkaufte
Kleincomputer überhaupt, wurden erste MIDI-Karten zum Anschluss von
MIDI-Instrumenten konstruiert (Jellinghaus, C-Lab) und die Firma Steinberg
Research programmierte 1985 dafür das erste MIDI-Sequenzerprogramm
(›Pro 16‹), das bereits das Einspielen (Record) von MIDI-Daten auf 16 Spuren
ermöglichte, die Manipulation der gespeicherten MIDI-Noten unterstützte
(Verändern, Löschen, Ausschneiden, Kopieren, Verschieben, Quantisieren,
Transponieren) und das fertiggestellte Arrangement über anzuschließende
MIDI-Instrumente abspielen konnte (Play).
Für den Mitte bis Ende der 80er Jahre in Musikerkreisen sehr beliebten
Atari ST (damals schon mit Mausbedienung, grafischem Display, 1 MB Arbeitsspeicher und – ein exklusives Novum – mit direkt eingebauten MIDIBuchsen) wurde dann das Sequenzerprogramm ›TwentyFour‹ mit 24 MIDISpuren (sic!) mit besserer Bedienung und weiteren Bearbeitungsmöglichkeiten
vermarktet. Auch andere Computersysteme wie der MacIntosh von Apple
oder der Amiga von Commodore boten die digitaltechnische Grundlage für
immer komfortablere MIDI-Software, so dass z.B. die Darstellung der MIDIDaten in traditioneller Notenschrift bzw. der Druck von Partituren integriert,
die Klangbänke von erfolgreichen Soundmodulen editiert werden konnten
und mit immer schnelleren Prozessoren und größerem Arbeitsspeicher schließlich auch die Verarbeitung von Audiodaten gelang.
290
_____________ Analoge und digitale Syntheseverfahren, MIDI und Sampling
Abb. 10: Typische Kombination von MIDI-Keyboard und Computer
in einem einfachen Homestudio
Beharrte die Musikindustrie aus markttechnischen Gründen zunächst noch
auf der Herstellung neuer Synthesizer als Hardware-Gerät, wenn musiktechnologische Neuerungen eingeführt werden sollten, so ermöglichte die sich rasend schnell entwickelnde Computerindustrie immer mehr Funktionen und
Anwendungen, so dass sich die Konstruktion neuer Instrumente mehr und
mehr in den Software-Bereich verlagerte. Schließlich kam es zur Einbindung
virtueller Instrumente als sog. ›PlugIns‹, das sind Software-basierte Klangmodule oder Effektgeräte unterschiedlichster Art, die in ein SequenzerHauptprogramm (Host) gewissermaßen »eingesteckt« werden, um die Funktionalität zu erweitern, die aber oft auch für sich alleine funktionieren (›StandAlone-Application‹) und z.B. den Computer mit angeschlossener Tastatur in
eine E-Orgel traditionsreicher Herkunft umwandeln.39
Die Technik
MIDI ist ein tastenbasiertes Steuerungssystem, denn es werden nach dem Anschlag von Tasten auf einem Keyboard lediglich die Tastennummern (›Notes‹)
39 A. Collins (2003), Professional guide to audio plug-ins and virtual instruments.
291
Bernd Enders ______________________________________________________
für die zu erzeugenden Töne sowie die Schnelligkeit des Anschlags einer Taste
(›Velocity‹) für die Dynamik des Tons übertragen. Ob ein angesteuertes Instrument wirklich ein c1 spielt und mit welcher Klangfarbe oder Lautstärke
die gesendete Noteninformation tatsächlich zu hören ist, hängt damit ganz
von den Einstellungen des empfangenden Instruments ab.40
Es gilt hier unbedingt festzuhalten, dass MIDI nur Spieldaten enthält und
nicht zur Übertragung von Audioschwingungen dient. Mit anderen Worten:
MIDI enthält letztlich digital codierte Noten, d.h. Spielanweisungen, die zur
Herstellung von musikalischen Klängen dienen sollen. MIDI-Daten ähneln
daher den Informationen über Musik, wie sie in den Stiftwalzen, Lochplatten
oder Notenrollen der mechanischen Musikautomaten früherer Jahrhunderte
gespeichert waren und erst beim Abspielen über die angesteuerten Instrumente (quasi live) die Töne erzeugten,41 während Audiogeräte wie Grammophon,
Schallplatte, Tonbandgerät oder der Lichtton beim Film (auf mechanischem,
elektromagnetischem oder optischem Wege) die real erklingenden Schwingungen von Klängen speichern. Hier gibt es häufig Missverständnisse, vielleicht
auch wegen der unglücklich gewählten fünfpoligen DIN-Stecker und -buchsen
(»Diodenbuchse«) für die MIDI-Buchsen und -Stecker, die bei älteren Audiogeräten häufig zur Übertragung von Audiosignalen eingebaut und nicht zuletzt aufgrund mangelnder Haltbarkeit und Kontaktsicherheit später nicht
mehr verwendet wurden.
MIDI-Hardware
Hardware-seitig setzt die MIDI-Norm drei MIDI-Anschlüsse mit unterschiedlichen Funktionen voraus: MIDI-IN (= Eingang für den Empfang von MIDIDaten), MIDI-OUT (= Ausgang zum Senden von) und MIDI-THRU (=
Durchgang zum Durchschleifen der unveränderten MIDI-Daten).
Informationstechnologisch betrachtet handelt es bei MIDI um eine digitale
(binär codierte) Schnittstelle zum seriellen, unidirektionalen, asynchronen Da-
40 Das MIDI-System ist für Synthesizer mit gleichschwebend-temperierter Stimmung entworfen, so
dass zur klanglichen Realisation von anders aufgebauten Tonsystemen (z.B. von historischen
Stimmungen) trickreiche Methoden zur gewünschten Intonation einer Note gefunden werden
müssen, etwa mit Hilfe des speziell eingesetzten Pitch-Bending-Befehls. Bei computerbasierten
MIDI-Anwendungen können auch spezialisierte Programme zwischengeschaltet werden; so erlaubt das »Hermode-Tuning« eine möglichst reine Intonation von Akkorden unabhängig von
den gespielten Tonarten (http://www.hermode.com, letzter Zugriff 13.07.2013).
41 Vgl. hierzu: B. Enders / Chr. Reuter (2002), Verschicken musikalischer Daten – Von MIDI
zum Internet, S. 282–285.
292
_____________ Analoge und digitale Syntheseverfahren, MIDI und Sampling
tentransport mit einer Übertragungsgeschwindigkeit von 31.250 Baud (= Bits
pro Sekunde).42
Die MIDI-Daten werden für jede Verbindung im Binärcode (als Folge der
beiden Spannungszustände 5 Volt und 0 Volt in einer 5 mA-Stromschleife,
entsprechend den Werten 0 und 1) nacheinander in eine Richtung gesendet
(vom Master zum Slave), ohne dass eine synchrone Abstimmung bzw. Datenkontrolle zwischen Sender und Empfänger stattfindet, d.h. das empfangende
Instrument oder Gerät (der Slave) wartet ohne zeitliche Begrenzung einfach
auf eintreffende Daten. Geht aus irgendwelchen Gründen (z.B. Kabelproblem)
eine MIDI-Information verloren, gibt es keine Prüf- oder Korrekturroutinen.
Wird beim Tastendruck eine Note beim Empfänger eingeschaltet, erklingt
dort der entsprechende Ton, solange wie kein Ausschaltbefehl eintrifft. Sollte
der Ausschaltbefehl fehlerhaft ausbleiben, kann es zu den berüchtigten »Notenhängern« kommen (der Ton ist dann ständig zu hören, wenn das Instrument, z.B. eine E-Orgel, einen Dauerton erzeugt). Alle Daten der gespielten
Töne, auch von gleichzeitig gespielten Tönen, werden nacheinander gesendet,
normalerweise so schnell, dass keine musikalisch störenden Verzögerungen
hörbar werden.
Sollen mehrere MIDI-Geräte angesteuert werden, ist ein einfaches Aneinanderreihen möglich (»Daisy Chain« mit der Gefahr von Verzögerungen)
oder – besser – ein sternförmiges Ansteuern der Komponenten mit einem geeigneten Instrument oder dazwischengeschalteten MIDI-Verteiler (MIDIThru-Box oder MIDI-Patch-Bay) mit mehreren MIDI-Output-Buchsen.
MIDI-Eingänge sind zweckdienlich mit optoelektrischen Übertragern ausgestattet (»galvanische Trennung«), so dass innerhalb einer Audio- oder PAAnlage keine Brummschleifen in Kombination mit der MIDI-Verkabelung
(mit max. 15 m Kabellänge) auftreten können.43
Um Ende der 80er Jahre ebenfalls für MIDI entdeckten MS-DOS-PCs
MIDI-kompatibel zu gestalten, wurden spezielle Steckkarten konstruiert oder
die Gameports der PCs mit Adaptern umgerüstet. Aktuelle Verbindungen
42 Die MIDI-Übertragungstechnik wurde in Anlehnung an die damals bekannte Computerschnittstelle RS 323 entwickelt, allerdings mit einer höheren, für heutige Verhältnisse dennoch sehr geringen Übertragungsrate. Jedes Bit braucht mindestens 320 Mikrosekunden
Übertragungszeit.
43 Die Funktionsweise des Interface-Chips (UART = ›Universal Asynchronous Receiver Transmitter‹, der die seriell eintreffenden Daten für den parallel arbeitenden Mikroprozessor eines
MIDI-Geräts umwandelt) wird anschaulich beschrieben von Chr. Braut (1993), Das MIDI
Buch, S. 35–42; technische Details finden sich in S. Philip (1986), MIDI-Kompendium 2, S.
55–63.
293
Bernd Enders ______________________________________________________
werden – ohne die herkömmlichen DIN-Steckverbindungen – über die verbreiteten Schnittstellen USB44 oder FireWire hergestellt. Da diese Schnittstellen
eine ungleich schnellere Datenübertragung erlauben, ist es problemlos möglich, MIDI-Daten in beide Richtungen über ein Kabel zu schicken und mehrere virtuelle MIDI-Anschlüsse mit jeweils 16 Kanälen zu realisieren, so dass
hier kaum noch eine Begrenzung der real oder virtuell angeschlossenen
Soundmodule oder Instrumente besteht.45
Bei Live-Konzerten werden MIDI-Daten auch drahtlos übertragen (›Wireless MIDI‹), und in professionellen Studios sind auch NetzwerkEinbindungen, z.T. mit proprietären Übertragungsprotokollen, in Gebrauch.
MIDI-Software (Die MIDI-»Sprache«)
Die MIDI-Befehle (auch: ›MIDI-Nachrichten‹, engl. ›MIDI Messages‹) sind
vergleichsweise simpel aufgebaut. Die meisten Befehle basieren auf der Übertragung von 8 Bits in einer Gruppe, die Datenbyte genannt wird und 256 Zustände (= 28) repräsentieren kann. Jedes Byte wird von einem Start- (logisch 0)
und einem Stop-Bit (logisch 1) eingeschlossen, so dass insgesamt 10 Bits pro
Befehl übertragen werden (auch ›MIDI-Byte‹ genannt). Davon dienen aber
nur acht Bits der eigentlichen Datenübertragung.
Ein MIDI-Byte sieht also prinzipiell so aus:
1/nnnnnnnn/0,
wobei n 1 oder 0 sein kann.
Wird z.B. die Taste c1 auf einem MIDI-Keyboard mit großer Lautstärke
(d.h. konkret mit großer Geschwindigkeit) angeschlagen, werden Daten gesendet, die die aktive Tastennummer (ein Wert zwischen 0 und 127, im Beispiel: dezimal 60) und die Anschlagsgeschwindigkeit (ein Wert zwischen 0
und 127, z.B. 121 für Fortissimo46) an den Empfänger abschicken.47
44 Das
sich
unterscheidende
USB-MIDI-Protokoll
wird
beschrieben
unter
http://www.usb.org/developers/devclass_docs/midi10.pdf, letzter Zugriff 13.07.2013 (in Kap.
4, S. 16ff.); K.M. Slavik (2008), Anschlusstechnik, Interfaces, Vernetzung.
45 Dazu wird das
MIDI-Übertragungsprotokoll in
das
USB- oder FirewireKommunikationsprotokoll eingebettet (»Tunneling«), K.M. Slavik (2008), Anschlusstechnik,
Interfaces, Vernetzung.
46 Es werden letztlich nur relative Werte übertragen, die endgültige Lautstärke des ausgelösten
Tons hängt von den entsprechenden Einstellungen am Instrument bzw. der Audioanlage ab.
294
_____________ Analoge und digitale Syntheseverfahren, MIDI und Sampling
Dabei wird gleichzeitig noch angegeben, dass diese Information für einen
von 16 MIDI-Kanälen bestimmt ist, denn ungeachtet der seriellen Übertragungstechnik ist es möglich, über logische Zuweisungen die Daten an verschiedene Adressen (z.B. unterschiedliche MIDI-Instrumente) zu senden, so
dass bestimmte MIDI-Noten eben nur von bestimmten Instrumenten gespielt
werden.
Lässt man die Angabe der obligaten Start- und Stopbits der Einfachheit
halber weg, ergibt sich für das Anschlagen einer Keyboard-Taste folgendes
Bild der zugrundeliegenden Datenstruktur einer MIDI-Note:
Für das Auslösen eines Tons werden 3 Bytes gesendet:
Zunächst das Statusbyte, das dem Empfängergerät signalisiert: Es wird
jetzt eine Tastennummer bzw. MIDI-Note auf einem bestimmten MIDI-Kanal
(im Beispiel Kanal 6) gesendet, im 1. Datenbyte wird dann die eigentliche Notennummer angegeben, im 2. Datenbyte folgt der Velocity-Wert (= Anschlagsdynamik, im Beispiel ist es der Wert 121).
Abb. 11: Drei 8-Bit-Worte mit den Werten dezimal 144/6, 60, 121
(jeweils ohne Berücksichtigung des ersten Bits)
Bei Statusbytes ist das erste Bit immer 1 (›Most Significant Bit‹ = MSB 0;
binär 1), die 3 folgenden Bits geben den Typus des Statusbytes an (hier wird
eine Taste gedrückt bzw. eine Noteninformation geschickt = NOTE_ON), die
2 Hälfte48 des Status-Byte codiert binär den Kanal für die Übertragung des
nun folgenden Datenbytes. Bei Datenbytes ist das erste Bit zur Kennzeichnung
immer gleich 0, so dass noch 7 Datenbits (= 128 Werte von 0–127, d.s. mehr
47 Formel zum Berechnen der MIDI-Notennummer, wenn die Frequenz gegeben ist: n =
(12 · log2 (f / 440)) + 69.
48 Zum Zweck der Übersichtlichkeit werden Bytes auch in 4-Bit-Gruppen (›Nibble‹) unterteilt,
d.h. in diesem Fall gibt das erste Nibble über den Befehlstyp Aufschluss, das 2. Nibble dient
zur Angabe der Kanalnummer, auf dem gesendet werden soll. Gerne wird auch eine hexadezimale – auf dem 16stelligen Zahlensystem beruhende – Darstellung der MIDI-Daten verwendet.
295
Bernd Enders ______________________________________________________
als 10 Oktaven) zur Darstellung der Tastennummer übrig bleiben. (Im Beispiel ist es die Tastennummer dezimal 60 für das eingestrichene c1). Das 2.
Datenbyte ist ganz ähnlich aufgebaut, es gibt den dynamischen Wert an, im
Beispiel dezimal 121.
Solange nun keine weitere MIDI-Nachricht eintrifft, spielt das empfangende Instrument diesen Ton (im Fall eines Orgeltons bliebe dieser also konstant
zu hören). Ein weiteres, ziemlich ähnlich aufgebautes Datenpaket wird gesendet, wenn die betreffende Taste (also hier c1) wieder los gelassen wird. Das
Statusbyte enthält nun die Information, dass die Note beendet wird (NOTE_OFF, Taste frei gegeben), es folgt die Notennummer, und im 2. Datenbyte
wird sogar ein Wert für die »Loslassgeschwindigkeit« (›Release Velocity‹) gesendet, die jedoch meistens nicht berücksichtigt wird.
In einer allgemeinen Darstellung wird der NOTE_ON-Befehl (ohne
Start/Stop-Bits) folglich codiert als
1001 kkkk / 0nnn nnnn / 0vvv vvvv
wobei k für die binäre Codierung der Kanalnummer, n für die Notennummer und v für den Velocity-Wert (›Anschlagsdynamik‹) steht.
Der NOTE_OFF-Befehl lautet entsprechend:
Statusbyte: 1000 0111,
1. Datenbyte: 0011 1100,
2. Datenbyte: 0111 1001
oder in dezimaler Schreibweise: 128/6, 60, 121 (der NOTE_OFF-Befehl
wird also durch die Zahl dez. 128 im Statusbyte gekennzeichnet). Wird der
NOTE_OFF-Befehl empfangen, wird der codierte Ton beendet.49
Die NOTE_ON- und NOTE_OFF-Befehle gehören zu den kanalbezogenen
MIDI-Nachrichten (›Channel Voice Messages‹), weil sie immer für einen bestimmten Kanal bestimmt sind (im einfachsten Fall ist es der Kanal Nr. 1).
Nach einem ähnlichen Muster werden weitere MIDI-Befehle gesendet, die z.B.
die Werte eines Pedals übertragen (›Sustain Pedal‹, nur zweiwertig angelegt)
oder die Werte eines Modulationsrads (oder Blaswandlers) zur Tonhöhenbeu-
49 Im Running Status ist auch der Verzicht auf den NOTE_OFF-Befehl möglich, es werden dann
nur Datenbytes für den NOTE_ON-Befehl gesendet und zum Beenden eines Tons wird einfach der Velocity-Wert auf 0 gesetzt. Der Wert 0 bewirkt die Meldung »kein Tastenanschlag«, entspricht also dem Ausschalten des Tons.
296
_____________ Analoge und digitale Syntheseverfahren, MIDI und Sampling
gung (›Pitch Bending‹) mit kontinuierlich gesendeten Daten bei hoher Auflösung (und großem Datenaufkommen) oder das Nachdrücken einer bereits angeschlagenen Taste (›Polyphonic Key-Pressure‹, ›polyphoner Aftertouch‹) zur
Steuerung von Effekten (falls das Masterkeyboard dies ermöglicht) oder andere Controller-Daten (›Control Change‹) oder der Wechsel eines Klangprogramms (›Program Change‹).
Kanalbezogen sind auch die sog. ›Channel Mode Messages‹, die verschiedene Funktionen des Empfängerinstruments steuern: Dazu gehören ein ›Reset
All‹ Controller (Zurücksetzen aller Controller auf den Anfangswert = Default), der schon erwähnte Local_ON/OFF-Befehl sowie ein Befehl zum Abschalten aller Noten (›All Notes Off‹), der sehr nützlich bei den erwähnten
Notenhängern ist. Außerdem werden hier verschiedene Betriebsarten (›Omni
Mode‹, ›Mono Mode‹, ›Poly Mode‹) geschaltet, die bestimmen, wie ein Instrument auf eintreffende Notendaten reagieren soll. Im (veralteten) OmniMode werden kanalspezifische Daten ignoriert, alle Daten werden ausgeführt,
im Poly-Mode werden nur die Daten des zugeordneten Kanals (polyphon) gespielt, im Mono-Mode kann pro Kanal nur eine Instrumentalstimme erklingen (monophon, vor allem bei MIDI-Gitarren verwendet), im heute üblichen
(ursprünglich nicht definierten) ›Multi-Mode‹ können mehrere Kanäle unabhängig voneinander polyphon spielen, so dass ein Gerät gleich mehrere polyphon klingende Instrumente wiedergeben kann.
Eine weitere Gruppe von MIDI-Befehlen wendet sich an das gesamte System, sie sind also nicht kanalbezogen. Es handelt sich um die sogenannten
Systemnachrichten (›System Messages‹), die vor allem zur Synchronisation
mehrerer MIDI-Komponenten dienen oder gerätespezifische Daten verschiedener Hersteller enthalten. Dazu gehören die ›System Common Messages‹
(MIDI Time Code = MTC zur zeitlich exakten Synchronisation von Geräten,
z.B. einer Tonbandmaschine; Song Position Pointer zum Starten einer Sequenz; Song Select zur Auswahl eines im Sequenzer gespeicherten Songs und
Tune Request zur Korrektur von Verstimmungen in analogen Synthesizern)
und die ›System Realtime Messages‹ (Timing Clock, Start-/Stop-/ContinueBefehle zum Steuern von Sequenzer oder Drumcomputer, Active Sensing zum
optionalen Senden eines Bytes im Zeitintervall von 300 msec zur Anzeige einer funktionstüchtigen Datenverbindung, und System Reset zum Zurücksetzen aller MIDI-Geräte in den Anfangszustand = Default-Werte).
Ein Sonderfall im MIDI-Protokoll ist durch die ›Systemexklusiven Nachrichten‹ (›System Exclusive Messages‹, ›SysEx‹) gegeben; sie wurden integriert,
um den Herstellern von MIDI-Geräten zu ermöglichen, hersteller- und/oder
gerätespezifische Daten zu übermitteln, die nicht dem MIDI-Standard entsprechen (müssen).
297
Bernd Enders ______________________________________________________
Erweiterungen
Besondere Bedeutung erlangte im Zusammenspiel mit der immer ausgereifteren MIDI-Software der 1990 entstandene ›Standard MIDI File‹ (›SMF‹)
(Specification [RP-001]), ein Datenprotokoll, das die Speicherung eines MIDIArrangements regelt, so dass u.a. ein verlustfreier Transfer auf ein anderes
Computersystem möglich wird.50 Die Formate SMF 0 und SMF 1 gilt es hier
funktional zu unterscheiden:51 Im Format 0 sind einfach alle MIDI-Kanäle in
einer Spur zusammengefasst, im Format 1 ist jedem Kanal eine eigene Spur
zugewiesen, ggf. mit eigener Benennung, so dass die verschiedenen Stimmen
und ihre Instrumentalklänge eines Arrangements getrennt vorliegen. Format 0
lässt sich normalerweise mit einem MIDI-Sequenzer in Format 1 konvertieren.
In der Erweiterung ›General MIDI‹ (›GM‹) wurden 1991 von der MMA
(›MIDI Manufacturers Association‹) und dem JMSC (›Japan MIDI Standards
Committee‹) die Instrumentenbelegung für 128 Klangprogramme festgelegt,
um sicher zu stellen, dass bei der Übertragung eines MIDI-Arrangements z.B.
auf dem ersten Programmplatz immer ein Piano zu hören ist, auch wenn die
genaue Klangfarbe des Instruments weiterhin von den verwendeten Soundcards oder Sound Libraries abhängt. Außerdem wird u.a. vorgeschrieben, dass
ein GM-kompatibles Klangmodul mindestens 24 Instrumente gleichzeitig
wiedergeben kann.
3.2.4 Digitale Musikproduktion
Entwicklungsgeschichte
Gegen Ende der 70er Jahre begann die Digitalisierung der Musikelektronik.
Zunächst wurden digitale Keyboards für ansonsten analoge Synthesizer konstruiert, um polyphones Spielen zu ermöglichen. Nach und nach wurden weitere Elemente der elektronischen Klangsynthese digital, z.B. die Abspeicherung von Moduleinstellungen oder komplette Klangprogramme, dann die digitale Speicherung von aufgenommenen Klängen (Sound Sampling), digitale
50 Der Name einer Standard-MIDI-Datei wird i.a. durch die Namenserweiterung .mid gekennzeichnet, das Datei-Suffix .kar ist eine alternative Endung für MIDI-Dateien, die für KaraokeAnwendungen auch Liedtexte (als Meta Events) enthalten, und .syx wird an MIDI-SysExDateinamen angehängt, K.M. Slavik (2008), Anschlusstechnik, Interfaces, Vernetzung.
51 Der Vollständigkeit halber sei noch das Format 2 erwähnt, das Patternstrukturen verwalten
kann, aber in der MIDI-Praxis bisher keine Verwendung findet.
298
_____________ Analoge und digitale Syntheseverfahren, MIDI und Sampling
Klangeffekte (Hall, Echo usw.), schließlich die Klangerzeugung selbst (digitale
Klangsynthese). Dabei liegt häufig die Modulstruktur des analogen Synthesizers als logisches Konzept der digitalen Klangsynthese zugrunde.
In den 1990er Jahren überschlug sich die Entwicklung handelsüblicher
Computer, die mit Hilfe von integrierten Soundcards zunehmend auch Klänge
speichern, modifizieren, steuern und neu errechnen konnten, so dass sich die
Konstruktion neuer Soundmodule immer mehr in Richtung SoftwareImplementation verschob und Sound Sampler, Synthesizer und Effektgeräte
schließlich vorrangig als selbständig laufende Programme (Stand-Alone) oder
als Zusatzmodule (PlugIns) für geeignete Studiosoftware hergestellt wurden
und auf die Anschaffung neuer, teurer Hardware bei verbesserten technischen
Lösungen (Updates) nunmehr verzichtet werden konnte. Die kontinuierlich
gesteigerte Rechenleistung der Prozessoren, die größeren und immer preiswerteren Arbeitsspeicher und Festplatten erlauben eine schnelle Verfügbarkeit
von sehr umfangreichen Klangdateien, so dass praktisch alle Bearbeitungsschritte, die früher nur mit aufwendigen Studioeinrichtungen bewerkstelligt
werden konnten, heutzutage komplett und rein digital in einem Computersystem ablaufen können52.
Vor allem in den Anfangszeiten wurden MIDI-Sequenzer und Audiorecorder herkömmlichen Mehrspur-Tonbandgeräten nachempfunden, so dass entsprechende Programme eine größere Anzahl an Spuren (›Tracks‹) für die Aufnahme und Wiedergabe bereithielten und über Bedienungselemente wie bei
analogen Bandmaschinen verfügten (obwohl es sich zumindest bei den MIDIDaten keineswegs um Audiosignale, sondern eigentlich um Noteninformationen handelt). Erst in jüngerer Zeit sind auch davon abweichende Bedienungskonzepte und Funktionen entwickelt worden, wie z.B. das eher patternorientierte ›Live‹ von Ableton, das sich eher wie ein Musikinstrument verhält
und quasi ein spontanes Live-Spiel mit Patterns, Loops und Sequenzen erlaubt.
Im Laufe der 1990er Jahre wurden die in den 1980er Jahre noch unabhängig voneinander entwickelten MIDI-Sequenzer bzw. Harddisc-RecordingProgramme zur Echtzeit-Verarbeitung von Musik auf Software-Basis miteinander kombiniert und multifunktional zu kompletten Studioumgebungen erweitert, die heute meist als virtuelles Studio (VST = ›Virtual Studio Technology‹) oder Digital Audioworkstation (DAW) bezeichnet werden. In diesen Sys-
52 Natürlich ist die Einbindung von externen analogen Studiogeräten (z.B. bewährten Halleffektprozessoren) oder eine Vernetzung mehrerer Computer mit speziellen Aufgaben (z.B. zur
Verwaltung von großen Sample-Bibliotheken) problemlos möglich.
299
Bernd Enders ______________________________________________________
temen (Cubase/Nuendo, Logic, Samplitude, ProTools, Ableton Live, Cakewalk Sonar, Reaper u.a.) wird die Verarbeitung von MIDI-Daten, Audioaufnahmen, Effektberechnungen, Klangmodulen, Mischpultfunktionen u.a.m.
zusammengefasst, und auch die verschiedenen Phasen einer Produktion von
der Aufnahme bis hin zur endgültigen Abmischung (stereophon oder mehrkanalig) oder einer speziellen Nachbearbeitung (Post-Production) können komplett mit Computerhard- und -software bewältigt werden.53
Virtuelle Instrumente
Um MIDI-Informationen in Klang umzuwandeln, werden MIDI-kompatible
Klangerzeuger benötigt, deren Klangmodule entweder in den Soundcards der
MIDI-Instrumente oder Multimedia-Computer integriert sind oder die als virtuelle Instrumente, deren Klangeigenschaften, Bedienungsoberflächen und
sonstige Charakteristika ausschließlich auf einer Software-Lösung beruhen,
zusätzlich geladen und in das virtuelle Studio integriert werden.
Interessanterweise gibt es zahlreiche Versuche, mit digitalen PlugIns (»legendäre«) analoge Instrumente und Soundprozessoren möglichst authentisch
nachzubilden, um deren vermeintlich verloren gegangene Klangcharakteristika (»warmer« Röhrensound, »satter« Tiefbass o.ä.) im digitalen Equipment
neu zur Verfügung zu stellen. Z.B. werden zahlreiche Synthesizer der ersten
Stunde als virtuelle Synthesizer oder ältere Gitarrencombos oder Bandechogeräte als sorgfältig entwickelte PlugIns zur Einbindung in gängige Audio/MIDIProgramme (Host) angeboten. Renommierte Firmen widmen sich akribisch
der möglichst genauen Nachbildung erfolgreicher Effektgeräte aus früheren
Studiozeiten. Sogar die ehemals eher abfällig beurteilten Federhallgeräte oder
fiepende 8Bit-Drummachines erleben eine digitale Renaissance. Dabei scheint
die Exaktheit der optischen Detailtreue des Erscheinungsbildes eines Gerätes
inklusive seiner Bedienungselemente fast eine ebenso wichtige Rolle zu spielen
wie die Authentizität der akustischen Eigenschaften, um die »Aura« der analogen Vorbilder einzufangen.
53 Spezielle Stand-Alone-Systeme haben den Vorteil, dass Hard-und Software aus einer Hand
stammen und gut aufeinander abgestimmt sind, sogenannte host-basierte Systeme laufen dagegen auf jedem handelsüblichen Rechner (eventuell mit speziellen Hardware-Erweiterungen)
und sind dadurch meist preisgünstiger, flexibler, leichter aktualisierbar, jedoch auch fehleranfälliger.
300
_____________ Analoge und digitale Syntheseverfahren, MIDI und Sampling
Abb. 12: Die B4 – eine virtuelle Version der Hammond-Orgel (Native Instruments)
Aber ebenso erlaubt die computerbasierte Verarbeitung musikalischer Informationen neuartige Synthesealgorithmen, die auf analog-elektronischem
Wege nie möglich gewesen wären. Komplexe, modular aufgebaute Synthesizerprogramme wie der Reaktor von Native Instruments (ähnlich: SynthEdit,
Tassman, KarmaFX u.a.) unterstützen nicht nur die Programmierung herkömmlicher oder absolut innovativer Synthesizer, sondern darüber hinaus die
Realisierung kompletter Studioeinrichtungen mit einem letztlich beliebig großen Funktionsumfang. Musikspezifische Programmiersprachen wie Csound,
MAX/Msp, SuperCollider oder PureData erfordern zwar einige Einarbeitung,
zeichnen sich jedoch durch eine fast unbegrenzte Flexibilität aus, die nicht nur
unterschiedlichste Klangsyntheseformen beinhaltet, sondern auch frei wählbare Kompositionsalgorithmen, automatische Klangprozesse und neuartige Interaktionsformen in der Live-Performance mit den verschiedensten Eingabeund Steuergeräten (z.B. Interfaces mit Gesture Controlling) ermöglicht. Auf
der Basis moderner Synthese- und Composer-Software eröffnet experimentelle
Computermusik mit künstlerischem Interesse zukunftsträchtige Klangwelten
und ungewöhnliche Musikstrukturen, und die Musikinformatik verhilft der
Musikwissenschaft mit analytischer Datenverarbeitung zu neuen Erkenntnissen.
301
Literaturverzeichnis
O. Abraham, Tonometrische Untersuchungen an einem deutschen Volkslied, in: Psychologische
Forschung 4 (1923), S. 1–22.
Ph. Ackermann, Computer und Musik, Wien, New York 1991.
Agilent
Technologies
(Hrsg.),
The
fundamentals
of
signal
analysis,
2000.
[http://cp.literature.agilent.com/litweb/pdf/5952-8898E.pdf, letzter Zugriff: 8.3.2013]
J. Ahrens / H. Wiestorf / S. Spors, Comparison of higher order ambisonics and wave field synthesis with respect to spatial discretization artifacts in time domain, in: AES 40th International
Conference, Tokyo, Japan, 2010.
G. Albersheim, Zur Psychologie der Ton- und Klangeigenschaften, Straßburg 1939.
J. B. Allen, Short term spectral analysis, synthesis, and modification by discrete fourier transform,
in: IEEE 25 (June 1977), S. 235–238.
American Standards Association, American Standards Association Terminology (including Mechanical Shock and Vibration), New York 1960.
F. Anwander, Synthesizer: So funktioniert elektronische Klangerzeugung, Bergkirchen 2000.
T. Arai, Gel-type tongue for a physical model of the human vocal tract as an educational tool in
acoustics of speech production, in: Journal of Acoustical Science and Technology 29/2
(2008), S. 188–190.
V. Aschoff, Phantasie und Wirklichkeit in der Frühgeschichte der Akustik, in: Acustica 42
(1979), 121–132.
J. Askill, Physics of musical sounds, New York u.a., 1979.
F. Attneave / R.K. Olson, Pitch as a medium: A new approach to psychophysical scaling, in:
American Journal of Psychology 84 (1971), S. 147–166.
F. Auerbach, Akustik. Historische Entwicklung und kulturelle Beziehungen, in: Physik, hrsg. von
E. Lecher, Leipzig 21925.
W. Auhagen, Dreiecksimpulsfolgen als Modell der Anregungsfunktion von Blasinstrumenten, in:
Fortschritte der Akustik, 13. DAGA'87, Aachen 1987, S. 709–712.
W. Auhagen, Musikalische Satzstruktur und Tempoempfinden, in: Systematische Musikwissenschaft 1/2 (1993), S. 353–369.
W. Auhagen, Akustische Grundbegriffe, in: MGG2, Bd. 1, Kassel u. a., 1994, S. 368–394.
W. Auhagen, Rhythmus- und Tempoempfinden, in: Musikpsychologie (Handbuch der Systematischen Musikwissenschaft Bd. 3), hrsg. von H. de la Motte-Haber und G. Rötter, Laaber
2005, S. 231–249.
W. Auhagen, Rhythmus und Timing, in: Musikpsychologie. Das neue Handbuch, hrsg. von H.
Bruhn, R. Kopiez und A.C. Lehmann, Reinbek bei Hamburg 2008, S. 437–457.
R. Bader (Hrsg.), Musikalische Akustik, Neurokognition und Musikpsychologie. Hamburger
Jahrbuch für Musikwissenschaft 25, Frankfurt 2009.
P. Bailhache, Une histoire de l'acoustique musicale, Paris 2001.
J. Backus, The acoustical foundations of music, New York, 1969.
J. Backus / T.C. Hundle, Wall vibrations in flue organ pipes and their effect on tone, in: Journal
of the Acoustical Society of America 39/5 (1966), S. 936–945.
J. Barkowsky, Einführung in die musikalische Akustik, Wilhelmshaven, 2009.
C. Barlow / J. Woodhouse, Microscopy of wood finishes, in: Violin Acoustics, hrsg. von C. Hutchins / A. Benade, Woodbury/NY 1997, Sp. 913–919.
M. Barron, Auditorium acoustics and architectural design, London 22010.
M. Barron / A.H. Marshall, Spatial impression due to early lateral reflections in concert halls, in:
Journal of Sound and Vibration 7 (1981), S. 211–232.
326
________________________________________________ Literaturverzeichnis
J.W. Beauchamp, Analysis and synthesis of musical instrument sounds, in: Analysis, Synthesis,
and Perception of musical Sounds: Sound of Music, hrsg. von J.W. Beauchamp, New York
2007, S. 1–89.
J.W. Beauchamp / A. Horner, Spectral modelling and timbre hybridisation programs for computer music, in: Organised Sound 2/3 (1997), S. 253–258.
M. Becker, Synthesizer von gestern, Augsburg 1990.
M. Becker, Synthesizer von gestern, Vol. 2, Augsburg 1995.
A.H. Benade, Musik und Harmonie, München u.a., 1960.
A.H. Benade, Holzblasinstrumente, in: Die Physik der Musikinstrumente, hrsg. von K. Winkler,
Heidelberg 1988, S. 22–31.
A.H. Benade / D.J. Gans, Sound production in wind instruments, in: Annals of the New York
Academy of Sciences, vol. 155 (1968), S. 247–263.
J. Bensa / D. Dubois / R. Kronland-Martinet / S. Ystad, Perceptive and cognitive evaluation of a
piano synthesis model, in: Computer Music Modeling and Retrieval 3310/2005, hrsg. von U.
K. Wiil, Berlin 2005, S. 232–245.
L.L. Beranek, Acoustics, New York 1996.
L.L. Beranek, Concert halls and opera houses: Music, acoustics, and architecture, New York
2
2003.
R.E. Berg / D.G. Stork, The physics of sound, Upper Saddle River 2005.
W.A. van Bergeijk / J.R. Pierce / E.E. David jr., Die Schallwellen und wir, München 1960.
L. Bergmann / C. Schäfer, Lehrbuch der Experimentalphysik, Berlin 1943.
D.E. Berlyne, Aesthetics and psychobiology, New York 1971.
D. Bernoulli, Theoremata de oscillationibus corporum filo flexibili connexorum et catenae verticaliter suspensae, in: Commentationes Academiae scientiarum Petropoli 6, 1732–33, S. 108–
122.
D. Bernoulli, Demonstrationes et theorematum suorum de oscillationibus corporum filo flexibili
connexorum et catenae verticaliter suspensae, in: Commentationes Academiae scientiarum
Petropoli 7, 1734–35, S.162–173.
D. Bernoulli (1741/43), De vibrationibus et sono laminarum elasticarum commentationes physico-mathematicae, in: Commentationes Academiae scientiarum Petropoli 13, 1741–43, S.
105–120.
J. Bernoulli, Theoremata selecta, pro conservatione virium vivarum demonstranda, in: Commentationes Academiae scientiarum Petropoli 2, 1727, S. 200, Reprint: Opera Omnia, Lausanne
und Genf 1742, Bd. 3, S. 124–130.
M. Bertsch, Vibration patterns and sound analysis of the Viennese Timpani, in: Proceedings of
the International Symposium on Musical Acoustics (ISMA), Stanzial, Domenico, Perugia
2001, S. 281–284.
M. Bertsch / T. Maca, Visualisierung des Einblasvorgangs [Warm up] bei Blechbläsern mittels
Infrarot-Thermographie, in: Zeitschrift für Musikphysiologie und Musikermedizin 15/1
(2008), S. 1–5.
R.T. Beyer, Sounds of our times: Two hundred years of acoustics, New York 1999.
J. Blauert, Räumliches Hören, Stuttgart 1974.
J. Blauert, Spatial Hearing: The psychophysics of human sound localization. Cambridge and
London 1997.
F. Bluttner, Objektive und subjektive Untersuchungen zum Einschwingen von Pianoklängen, in:
Das Musikinstrument 31 (1982), S. 1140–1146.
M. Boom: Music through MIDI, Redmond, Washington 1987.
I. Bork / J. Meyer, Zum Einfluss der Form des Mundloches auf die Tonerzeugung bei den Querflöten, in: Tibia 5 (1989), S. 358–368
H. Borucki, Einführung in die Akustik, Mannheim, 1980.
327
Literaturverzeichnis ________________________________________________
J. Bortz, Statistik für Human- und Sozialwissenschaftler, 7. Aufl. Berlin und Heidelberg 2010.
Chr. Braut, Das MIDI Buch, Düsseldorf 1993.
A.S. Bregman, Auditory streaming: Competition among alternative organizations, in: Perception
& Psychophysics, 23 (1978), S. 391–398.
A.S. Bregman, The formation of auditory streams, in: Attention and Performance VII, hrsg. von
J. Requin, Hillsdale, New Jersey 1978, S. 63–76.
A.S. Bregman, Auditory scene analysis, paper presented at the Seventh International Conference
on Pattern Recognition, Silver Spring, Md 1984.
A.S. Bregman, Auditory scene analysis: The perceptual organization of sound. Cambridge und
Massachusetts 1990.
A.S. Bregman, Auditory scene analysis and the role of phenomenology in experimental
psychology, in: Canadian Psychology, 46/1 (2005), S. 32–40.
A.S. Bregman, Auditory scene analysis, in: The Senses: A comprehensive reference, audition,
Band 3, hrsg. von A. I. Basbaum / K. Akimichi / G. M. Shepherd / G. Westheimer, San Diego
2008a, S. 861–870.
A.S. Bregman, Auditory scene analysis, in: Encyclopedia of neuroscience, hrsg. von L. R. Squire,
Oxford, UK 2008b, S. 729–736.
A.S. Bregman / P.A. Ahad / P.A.C. Crum / J. O'Reilly, Effects of time intervals and tone
durations on auditory stream segregation, in: Perception & Psychophysics, 62/3, (2000), S.
626–636.
A.S. Bregman / S. Pinker, Auditory streaming and the building of timbre, in: Canadian Journal of
Psychology, 32 (1978), S. 19–31.
R. Bresin, Towards a computational model of expression in music performance: The GERM
model, in: Musicae Scientiae, Special Issue: Current trends in the study of music and emotion
(2001–2002), S. 63–122.
D.E. Broadbent, Perception and communication. London 1958.
D.E. Broadbent / P. Ladefoged, On the fusion of sound reaching different sense organs, in: Journal of the Acoustical Society of America 29 (1957), S. 708–710.
J.P.L. Brokx / S.G. Nooteboom, Intonation and the perceptual separation of simultaneous voices.
in: Journal of Phonetics 10 (1982), S. 23–36.
M. Bruneau, Fundamentals of acoustics, London 2006.
F. Busoni, Entwurf einer neuen Ästhetik der Tonkunst, Leipzig 21916.
C. Cagniard de Latour, Sur la sirène, nouvelle machine d'acoustique destinée à mesurer les
vibrations de l'air qui constituent le son, in: Annales de chimie et de physique, 2nd ser., 12,
1819, S. 167–171.
St. Campidell, Die Mikrostruktur von Ventilbindungen bei Trompeten, Magisterarbeit, Universität Wien 1995.
R. Carhart / T.W. Tillman / K.R. Johnson, Release of masking for speech through interaural time
delay, in: Journal of the Acoustical Society of America 42 (1967), S. 124–138.
O. Carpentier, Les instruments des Coupleux et Givelet 1920–1935, Université de Paris –
Sorbonne 2004.
S. Carral, Plucking the string: The excitation mechanism of the guitar (abstract), in: Journal of
the Acoustical Society of America 128/4,2 (2010), S. 2448.
V. Chatziioannou / W. Kausel / Th. Moore, The effect of wall vibrations on the air column inside
trumpet bells, in: Proceedings of the Acoustics 2012 Nantes Conference, Nantes 2012,
S. 2243–2248.
J.-M. Chen / J. Smith / J. Wolfe, Experienced saxophonists learn to tune their vocal tracts, in:
Science 319 (2008), S. 726.
C.E. Cherry, Some experiments on the recognition of speech, with one and with two ears, in:
Journal of the Acoustical Society of America 25/5 (1953), S. 975–979.
328
________________________________________________ Literaturverzeichnis
E.F.F. Chladni, Entdeckungen über die Theorie des Klanges, Leipzig 1787.
E.F.F. Chladni, Die Akustik. Berlin 1802.
J.M. Chowning, The synthesis of complex audio spectra by means of frequency modulation, in:
Journal of the Audio Engineering Society 21 (1973), S. 526–534.
J.M. Chowning, Computer synthesis of the singing voice, in: Sound generation in winds, strings,
computers, hrsg. von der Royal Swedish Academy of Music Stockholm 1980, S. 4-13.
A. Collins, Professional guide to audio plug-ins and Virtual Instruments, Amsterdam und Boston
2003.
P.R. Cook, Music, cognition, and computerized sound. An introduction to psychoacoustics,
Cambridge und London 2001.
P.R. Cook, Real sound synthesis for interactive applications, Natick, MA 2002.
D.C. Copley / W.J. Strong, A stroboscopic study of lip vibrations in a trombone, in: Journal of
the Acoustical Society of America 99/2 (1996), S. 1219–1226.
L. Cremer, Die wissenschaftlichen Grundlagen der Raumakustik, Band 1. Stuttgart 1948.
L. Cremer, Die wissenschaftlichen Grundlagen der Raumakustik, Stuttgart 1978.
L. Cremer, Physik der Geige, Stuttgart 1981.
D. Crombie, The new complete synthesizer, London, New York und Sydney 1986.
J.F. Culling / Q. Summerfield, Perceptual separation of concurrent speech sounds: Absence of
across frequency grouping by common interaural delay, in: Journal of the Acoustical Society
of America 98 (1995), S. 185–797.
P. Dallos, Overview: Cochlear neurobiology, in: Springer handbook of auditory research – the
cochlea, hrsg. von R.R. Fay / A.N. Popper, New York 2006, S. 1–43.
G.L. Dannenbring / A.S. Bregman, Effect of silence between tones on auditory stream
segregation, in: Journal of the Acoustical Society of America 59/4 (1976), S. 987–989.
O. Darrigol, The acoustic origins of harmonic analysis, in: Archive for history of exact sciences
61 (2007), S. 343–424.
C.J. Darwin, Perceptual grouping of speech components differing in fundamental frequency and
onset time, in: Quarterly Journal of Experimental Psychology, 33A (1981), S. 185–207.
C.J. Darwin / R.P. Carlyon, Auditory grouping, in: The Handbook of Perception and Cognition,
Band 6, hrsg. von B.C.J. Moore, London 1995, S. 387–424.
C.J. Darwin / R.W. Hukin, Auditory objects of attention: The role of interaural time differences
in: Journal of Experimental Psychology: Human Perception and Performance 25 (1999), S.
617–629.
J.F. Daugherty, Spacing, formation and choral sound: preferences and perceptions of auditors
and choristers. Ph.D. thesis, Florida State University at Tallahassee, School of Music (1996).
B. David, Vergleich der akustischen Richtwirkung des Konzertflügels Steinway D–274 mit und
ohne Klangspiegel. IWK – Universität für Musik und darstellende Kunst Wien 2010.
H. Davis, Psychological and physiological acoustics: 1920–1942, in: Journal of the Acoustical
Society of America 61 (1977), S. 264–266.
J.B.J. de Fourier, Théorie analytique de la chaleur, Paris 1822.
D. de Vries, Wave field synthesis (AES Monograph), New York 2009.
J. Devaney, An empirical study of the influence of musical context on intonation practices in solo
singers and SATB ensembles, Ph. D. Dissertation McGill 2011.
D. Deutsch, Two-channel listening to musical scales, in: Journal of the Acoustical Society of
America 57 (1975), S. 1156–1160.
D. Deutsch, Musical illusions and paradoxes (CD), La Jolla 1995.
J.A. Deutsch / D. Deutsch, Attention: Some theoretical considerations, in: Psychological Review,
70 (1963), S. 80–90.
M. Dickreiter / W. Hoeg / V. Dittel / M. Wöhr (Hrsg.), Handbuch der Tonstudiotechnik, Band 1,
München 2008.
329
Literaturverzeichnis ________________________________________________
DIN 15905-5, Veranstaltungstechnik–Tontechnik–Teil 5: Maßnahmen zum Vermeiden einer Gehörgefährdung des Publikums durch hohe Schallemissionen elektroakustischer
Beschallungstechnik, 2007.
DIN 18041, Hörsamkeit in kleinen bis mittelgroßen Räumen, 2004.
DIN EN 60268-4, Elektroakustische Geräte – Teil 4: Mikrofone, 2004.
DIN EN 60268-5, Elektroakustische Geräte – Teil 5: Lautsprecher, 2003.
DIN EN 60268-7, Elektroakustische Geräte – Teil 7: Kopfhörer und Ohrhörer, 1996.
DIN EN ISO 3382-1, Messung von Parametern der Raumakustik, 2009.
P. Donhauser, Elektrische Klangmaschinen, Wien 2007.
P. Donhauser: »Der elektrische Beethoven«. Anmerkungen zur Geschichte und Technik des
ersten europäischen elektromechanischen Klaviers, in: Blätter für Technikgeschichte 69/70
(2007/2008), S. 117–135.
P. Donhauser, Österreichische Pioniere der »Elektrischen Musik« und die Medienarchäologie, in:
Klangmaschinen zwischen Experiment und Medientechnik, hrsg. von D. Gethmann, Bielefeld
2010, S. 73–96.
S. Donval, Histoire de l'acoustique musicale, Courlay 2006.
S. Dostrovsky / J. F. Bell / C. Truesdell, Physics of music, in: The New Grove Dictionary of
Music & Musicians, ed. Stanley Sadie, London 1980.
W.J. Dowling, Rhythmic fission and perceptual organization, in: Journal of the Acoustical
Society of America 44/1 (1968), S. 369.
W.J. Dowling, The perception of interleaved melodies, in: Cognitive Psychology 5 (1973), S.
322–337.
W.J. Dowling, Dichotic recognition of musical canons: Effects of leading ear and time lag
between ears, in: Perception & Psychophysics, 23/4 (1978), S. 321–325.
W.J. Dowling, Music cognition. Orlando 1986.
H.H. Dräger, Prinzip einer Systematik der Musikinstrumente, Kassel und Basel 1948.
N.L. Durlach / H.S. Colburn, Binaural phenomena, in: Handbook of Perception, Vol. 4,
Hearing, hrsg. von E.C. Carterette / M.P. Friedman, New York 1978, S. 365–466.
M. Ebeling, Konsonanz und Dissonanz, in: Musikpsychologie. Das neue Handbuch, hrsg. von H.
Bruhn, R. Kopiez und A.C. Lehmann, Reinbek bei Hamburg 2008, S. 499–521.
R. Eberlein, Theorien und Experimente zur Wahrnehmung musikalischer Klänge, Frankfurt
1988.
R. Eberlein, Geschichte der musikbezogenen Akustik, in: MGG2, Bd. 1 (Sachteil), Kassel u. a.
1994, S. 376–385.
R. Eberlein, Die Entstehung der tonalen Klangsyntax, Frankfurt a.M. 1994.
W. Ellermeier / J. Hellbrück, Hören – Psychoakustik – Audiologie, in: Handbuch der
Audiotechnik, hrsg. von S. Weinzierl, Berlin 2008, S. 41–85.
B. Enders, Der Einfluß moderner Musiktechnologien auf die Produktion von Popularmusik, in:
Popmusic – Yesterday Today Tomorrow, hrsg. von M. Heuger / M. Prell, Regensburg 1995,
S. 47–72.
B. Enders, Die Klangwelt des Musiksynthesizers, München 1985.
B. Enders, Lexikon Musikelektronik, Mainz 1997.
B. Enders, Mathematik ist Musik für den Verstand, Musik ist Mathematik für die Seele, in:
Mathematische Musik – musikalische Mathematik, hrsg. von B. Enders, Saarbrücken 2005,
S. 9–37.
B. Enders / W. Klemme, Das MIDI- und Sound-Buch zum Atari ST, Haar bei München 1988.
B. Enders / C. Reuter, Verschicken musikalischer Daten – Von MIDI zum Internet, in:
Elektroakustische Musik (Band 5 der Reihe Handbuch der Musik im 20. Jahrhundert), hrsg.
von E. Ungeheuer, Laaber 2002, S. 282–285.
330
________________________________________________ Literaturverzeichnis
R.F. Estrada / E.A. Starr, 50 years of acoustic signal processing for detection: coping with the
digital revolution, in: IEEE Annals of the History of Computing 27/2, (2005), S. 65–78.
L. Euler, De la propagation du son, in: Mémoires de l'Académie des Sciences de Berlin, 15, 1759,
S. 185–264.
L. Euler, Tentamen Novae Theoriae Musicae, Petersburg 1739.
F.A. Everest, Fundamentals of sound, in: Handbook for sound engineers, hrsg. von G. Ballou,
Indianapolis, 1987.
F.A. Everest, The master handbook of acoustics, New York 42001.
A. Eximeno, Dell' Origine e delle regole della Musica, Rom 1774.
W. Fasold / E. Veres, Schallschutz und Raumakustik in der Praxis, Berlin 2003.
H. Fastl / E. Zwicker, Psychoacoustics – Facts and Models, Berlin 32006.
G.Th. Fechner, Elemente der Psychophysik, (Nachdruck der Ausgabe, Leipzig 1860), 2 Bände,
Amsterdam 1964.
C. Fensterbusch, Vitruvii De architectura libri decem. Lateinisch und deutsch. Darmstadt 6. Aufl.
2008.
H. Fleischer, Vibroakustische Untersuchungen an Paukenfellen, Neubiberg 2005.
H. Fleischer, Fell, Kessel und Gestell der Orchesterpauke, Neubiberg 2008.
H. Fletcher, A space-time pattern theory of hearing, in: Journal of the Acoustical Society of
America 1 (1929), S. 313–316.
H. Fletcher, Auditory patterns, in: Reviews of Modern Physics 12 (1940), S. 47–65.
H. Fletcher / W.A. Munson, Loudness, its definition, measurement, and calculation, in: Journal
of the Acoustical Society of America 5 (1933), S. 82–108.
N.H. Fletcher / T.D. Rossing, The physics of musical instruments, New York, 1991.
L. Fogliano, Musica theorica, Venedig 1529.
P. Fraisse, Rhythm and tempo, in: The psychology of music, hrsg. von D. Deutsch, San Diego
1982, S. 149–180.
J.P. Fricke, Über subjektive Differenztöne höchster hörbarer Töne und des angrenzenden
Ultraschalls im musikalischen Hören, Regensburg 1960.
J.P. Fricke, Die Innenstimmung der Naturtonreihe und der Klänge, in: Festschrift K. G. Fellerer
zum 60. Geburtstag, hrsg. von H. Hüschen, Regensburg 1962, S. 161–177.
J.P. Fricke, Formantbildende Impulsfolgen bei Blasinstrumenten, in: Fortschritte der Akustik, 4.
DAGA'75, Braunschweig 1975, S. 407–411.
J.P. Fricke, Kompression zur Herstellung natürlicher dynamischer Verhältnisse beim Abhören
unter verschiedenen umweltbedingten Störschalleinflüssen, in: Bericht über die 11.
Tonmeistertagung Berlin'78, Köln 1978, S. 100–107.
J.P. Fricke, Zur Anwendung digitaler Klangfarbenfilter bei Aufnahme und Wiedergabe, in:
Bericht über die 14. Tonmeistertagung München, München 1986, S. 135–148.
J.P. Fricke, Klangbreite und Tonempfindung. Bedingungen kategorialer Wahrnehmung aufgrund
experimenteller Untersuchung der Intonation, in: Musikpsychologie, Empirische
Forschungen – Ästhetische Experimente, Band 5, hrsg. von K.-E. Behne, G. Kleinen und H.
de la Motte-Haber, Wilhelmshaven 1988, S. 67–88.
J.P. Fricke, Der Klang der Musikinstrumente nach den Gesetzen des Gehörs: Wechselwirkung
Mensch – Instrument, in: Das Instrumentalspiel. Bericht vom Internationalen Symposion
Wien, 12. –14. April 1988, hrsg. von G. Windholm / M. Nagy, Wien und München 1989, S.
275–284.
J.P. Fricke, Die Bedeutung der Mikrointervalle im Wandel der Zeiten und Kulturen, in:
Mikrotöne IV, Bericht über das 4. Internationale Symposion Mikrotonforschung, Musik mit
Mikrotönen, Ekmelische Musik, 1991 in Salzburg, hrsg. von Horst-Peter Hesse, München
1993, S. 221–250.
331
Literaturverzeichnis ________________________________________________
J.P. Fricke, Die Wechselwirkung von Mensch und Instrument im Zusammenspiel von Physik und
Psychologie, in: Neue Musiktechnologie, Vorträge und Berichte vom KlangArt-Kongreß
1991 an der Universität Osnabrück, hrsg. von B. Enders, Mainz 1993, S. 169–196.
J.P. Fricke, Ein Plädoyer für die Formanten, in: Flöten, Oboen und Fagotte des 17. und 18. Jh.,
12. Symposium zu Fragen des Instrumentenbaus 1991, Blankenburg, Michaelstein 1994, S.
66–77.
J.P. Fricke, Über Fremdheit und Aneignung in der Musik, in: Lux Oriente. Festschrift Robert
Günther zum 65. Geburtstag, hrsg. von K.W. Niemöller / U. Pätzold / C. Kyo-chul,
Regensburg 1995, S. 363–376.
J.P. Fricke, Systemische Musikwissenschaft – Eine Konsequenz des Dialogs zwischen den
Wissenschaften, in: Musikwissenschaft zwischen Kunst, Ästhetik und Experiment. Festschrift
Helga de la Motte-Haber zum 60. Geburtstag, hrsg. von R. Kopiez, B. Barthelmes, H.
Gembris, J. Kloppenburg, H. von Loesch, H. Neuhoff, G. Rötter, C.M. Schmidt, Würzburg
1998, S. 161–171.
J.P. Fricke, Psychoakustik des Musikhörens, in: Musikpsychologie (Handbuch der Systematischen
Musikwissenschaft, Band 3), hrsg. von H. de la Motte-Haber / G. Rötter, Laaber 2005, S.
101–154.
J.P. Fricke, Neuronale Koinzidenz mit Unschärfe löst das Problem unbefriedigender
Konsonanztheorien, in: Musikpsychologie – Musikalisches Gedächtnis – musikalisches
Lernen, Band 20, hrsg. von W. Auhagen / C. Bullerjahn / H. Höge, Göttingen 2009, S. 94–
J.P. 122.
Fricke: A statistical theory of musical consonance proved in praxis, in: Klangfarbe.
Vergleichend-systematische und musikhistorische Perspektiven, hrsg. von A. Schmidhofer / S.
Jena, Frankfurt 2011, S. 99–112.
J.P. Fricke, Intonation und musikalisches Hören, Osnabrück 2012.
J.P. Fricke, The recognition of consonance is not impaired by intonation deviations. A revised
theory, in: Proceedings of the 34th Annual Conference of the Gesellschaft für Klassifikation
e.V., hrsg. von W. Gaul / A. Geyer-Schulz / L. Schmidt-Thieme / J. Kunze, Berlin 2012, S.
383–391.
J.P. Fricke / Chr. Louven, Psychoakustische Grundlagen des Musikhörens, in: Musikpsychologie.
Das neue Handbuch, hrsg. von H. Bruhn / R. Kopiez / A. Lehmann, Rheinbek 2008, S. 413–
436.
G. Friedlein (Hg.), De institutione arithmetica libri duo, De institutione musica libri quinque,
accedit Geometria quae fertur Boetii, Leipzig 1867, Reprint Frankfurt/Main 1966.
J.B. Fritz / M. Elhilali / S.V. David / S.A. Shamma, Auditory attention – focusing the searchlight
on sound, in: Current Opinion in Neurobiology 17 (2007), S. 437–455.
M. Fruhmann, Ein Modell zur Wahrnehmung der Ausgeprägtheit der Tonhöhe, Diss. München
2006.
P.A. Fuchs, The Oxford handbook of auditory science – The ear, Oxford 2010.
D. Gabor, Theory of communication, in: Journal of the Institution of Electrical Engineers Part
III, 93/26 (1946), S. 429–457.
A. Gabrielsson, The performance of music, in: The psychology of music, hrsg. von D. Deutsch,
San Diego 21999, S. 501–602.
A. Gabrielsson / E. Lindström, The influence of musical structure on emotional expression, in:
Music and emotion: Theory and research, hrsg. von P.N. Juslin und J.A. Sloboda, Oxford
2001, S. 223–248.
G. Galilei, Discorsi e dimostrazioni matematiche intorno à due nuove scienze, Leiden 1638.
S.A. Gelfand, Hearing – An introduction to psychological and physiological acoustics, New York
2004.
S.A. Gelfand, Essentials of audiology, New York und Stuttgart 2009.
D. Gethmann (Hg.), Klangmaschinen zwischen Experiment und Medientechnik, Bielefeld 2010
332
________________________________________________ Literaturverzeichnis
W. Gieseler / L. Lombardi / R.-D. Weyer, Instrumentation in der Musik des 20. Jahrhunderts,
Celle 1985.
A. Glinsky, Theremin: ether music and espionage, Illinois 2000.
W. Goebl / S. Dixon / G. de Poli / A. Friberg / R. Bresin / G. Widmer, ›Sense‹ in expressive music
performance: data acquisition, computational studies, and models, in: Sound to sense – Sense
to sound: A state of the Art in Sound and Music Computing, hrsg. von P. Polotti und D.
Rocchesso, Berlin 2008, S. 195–242.
W. Goebl / I. Fujinaga, Do key-bottom sounds distinguish piano tones? In: Proceedings of the
10th International Conference on Music Perception and Cognition (ICMPC10), Sapporo
2008, S. 292.
W. Goebl / C. Palmer. Tactile feedback and timing accuracy in piano performance, in:
Experimental Brain Research 186/3 (2008), S. 471–479.
W. Goebl / G. Widmer, Unobtrusive practice tools for pianists, in: Proceedings of the 9th
International Conference on Music Perception and Cognition (ICMPC9), Bologna 2006, S.
209–214.
J. Goldstein, An optimum processor theory for the central formation of the pitch of complex
tones, in: Journal of the Acoustical Society of America 54 (1973), S. 1496–1516.
J. Goldstein / A. Gerson / P. Srulovicz / M. Furst, Verification of the optimal probabilistic basis of
aural processing in pitch of complex tones, in: Journal of the Acoustical Society of America
63 (1978), S. 486–497.
P. Gorges, Das großer Sampler Praxisbuch, München 1991.
N. Gosselin / P. Jolicoeur / I. Peretz (2009), Impaired memory for pitch in congenital amusia, in:
The Neurosciences and Music III – Disorders and Plasticity: Annals of the New York
Akademy of Sciences 1169 (2009), S. 270–272.
P. Gouk, The role of acoustics and music theory in the scientific work of Robert Hooke, in:
Annals of Science 37/5 (1980), S. 573–605.
B. Graham, Musik and the synthesizers, Hertfordshire 1980.
D.W. Gravereaux / A.J. Gust / B.B. Bauer, The dynamic range of disc and tape records, in:
Journal of the Audio Engineering Society 18/5 (1970), S. 530–535.
D.M. Green / W.A. Yost, Binaural analysis, in: Handbook of Sensory Physiology: Auditory
System, hrsg. von W. Keidel / W. Neff, New York 1975, S. 461–480.
O. Grewe / F. Nagel / R. Kopiez / E. Altenmüller, Listening to music as a re-creative process:
Physiological, psychological, and psychoacoustical correlates of chills and strong emotions,
in: Music Perception 24/3 (2007), S. 297–314.
J.M. Grey, An exploration of musical timbre, Stanford 1975.
J.M. Grey, Multidimensional perceptual scaling of musical timbres, in: Journal of the Acoustical
Society of America 61 (1977), S. 1270–1277.
P. Grosche / M. Müller / C.S. Sapp, What makes beat tracking difficult? A case study on Chopin
Mazurkas, in: Proceedings of the 11th International Conference on Music Information
Retrieval (ISMIR), hrsg. von J.S. Downie und R.C. Veltkamp, Utrecht 2010, S. 649–654.
R. Großmann, Sampling, in: Metzler Lexikon Medientheorie / Medienwissenschaft, hrsg. von H.
Schanze, Stuttgart, 2002, S. 320 f..
R.H. Gundlach, Factors determining the characterization of musical phrases, in: American
Journal of Psychology 47 (1935), S. 624–643.
W. Güth, Zur Frage der »Ansprache« von Streichinstrumenten, in: Acustica 46 (1980), S. 259–
267.
W. Güth / F. Danckwerth, Die Streichinstrumente. Physik – Musik – Mystik. Stuttgart 1997.
A. Gutschalk / C. Micheyl / A.J. Oxenham, Neural correlates of auditory perceptual awareness
under informational masking, in: PLoS Biol, 6/6 (2008), S. 1156–1165.
333
Literaturverzeichnis ________________________________________________
A. Guzman, Decomposition of a visual scene into three-dimensional bodies, in: Automatic
Interpretation and Classification of Images, hrsg. von A. Grasselli, New York 1969, S. 243–
276.
H. Haas, Über den Einfluss eines Einfachechos auf die Hörsamkeit von Sprache, in: Acustica, 1
(1951), S. 49–58.
D.E. Hall, Musikalische Akustik – Ein Handbuch, Mainz u.a. 1997.
D.E. Hall, Musical acoustics, Pacific Grove 2002.
L. Halpern / R. Blake / J. Hillenbrand, Psychoacoustics of a chilling sound, in: Perception and
Psychophysics 39/2 (1986), S. 77–80.
W.M. Hartmann / D. Johnson, Stream segregation and peripheral channeling, in: Music
Perception, 9/2 (1991), S. 155–184.
M.L. Hawley / R.Y. Litovsky / H.S. Colburn, Intelligibility and localization of speech signals in a
multi-source environment, in: Journal of the Acoustical Society of America 105 (1999), S.
3436–3448.
G. Heike / H. Dünnwald, Neuere Klanguntersuchungen an Geigen und ihre Beziehung zum
Gesang, in: Systemische Musikwissenschaft. Festschrift Jobst Peter Fricke zum 65.
Geburtstag, hrsg. von W. Niemöller, Frankfurt 2003, S. 235–243.
J. Hellbrück / W. Ellermeier, Hören – Physiologie, Psychologie und Pathologie, Göttingen 22004.
G.B. Henning, Effect of interaural phase on frequency and amplitude discrimination, in: Journal
of the Acoustical Society of America 54 (1973), S. 1160–1178.
L. Hermann, Phonophotographische Untersuchungen VI – Nachtrag zur Untersuchung der
Vocalcurven, in: Archiv für die gesamte Physiologie des Menschen und der Tiere 58 (1894),
S. 264–279.
H.P. Hesse, Zur Tonhöhenwahrnehmung. Experimentelle Überprüfung des Ohmschen Gesetzes
in der Akustik, in: Hamburger Jahrbuch für Musikwissenschaft, Band. 1, hrsg. von C. Floros
/ H.J. Marx / P. Petersen, Hamburg 1974, S. 233–248.
J.K. Hilliard, Elektroacoustics to 1940, in: Journal of the Acoustical Society of America 61
(1977), S. 267–273.
P. Hindemith, Unterweisung im Tonsatz, Mainz 1938.
M. Hipp, Das elektrische Clavier, in: Dinglers Polytechnisches Journal 183 (1867), S.200–203.
U.G. Hoenig, Workshop Synthesizer. Klangerzeugung für Musiker, Bergkirchen 2002.
H. Hoffmann / A. Lüpke, 0 Dezibel + 0 Dezibel = 3 Dezibel, Berlin 1975.
E.M. Hornbostel, Musikalische Tonsysteme, in: Handbuch der Physik, Band 8, Akustik, hrsg.
von H. Geiger und K. Scheel, Berlin 1927, S. 425–449.
T. Houtgast, Subharmonie pitches of a pure tone at low s/n ratio, in: Journal of the Acoustical
Society of America 60 (1976), 405–409.
D.M. Howard, Intonation drift in a capella soprano, alto, tenor, bass quartet singing with key
modulation, Journal of Voice 21/3 (2007).
F.V. Hunt, Origins in acoustics: The science of sound from antiquity to the age of Newton, New
Haven 1978.
D. Huron, Sweet anticipation, Cambridge/MA 2006.
F.T. Husain / T.P. Lozito / A. Ulloa / B. Horwitz, Investigating the neural basis of the auditory
continuity illusion, in: Journal of Cognitive Neuroscience 17 (2005), S. 1275–1292.
H. Husmann, Vom Wesen der Konsonanz, Heidelberg 1953.
C.M. Hutchins, A history of violin research, in: Journal of the Acoustical Society of America 73
(1983), S. 1421–1440.
C.M. Hutchins, Klang und Akustik der Geige, in: Die Physik der Musikinstrumente, hrsg. von K.
Winkler, Heidelberg 1988, S. 88–99.
C.M. Hutchins / K.A. Stetson / P.A. Taylor, Clarification of »free plate tap tones” by holographic
interferometry, in: Journal of the Catgut Society 16 (1971), S. 15–23.
334
________________________________________________ Literaturverzeichnis
C. Huygens (1690), Traité de la lumière, Leiden 1690.
IMA (Hrsg.), Zauberhafte Klangmaschinen, Mainz 2008.
ISO 226–BS 3383 (1988), Specification for normal equal-loudness level contours for pure tones
under free-field listening conditions, Genf.
H. Jers, Directivity of singers, in: Journal of the Acoustical Society of America 118/3 (2005), S.
2008.
H. Jers / S. Ternström. Intonation analysis of a multi-channel choir recording. in: TMH-QPSR
Speech, Music and Hearing: Quarterly Progress and Status Report, 47,1 (2005), S. 1–6.
E. Jansson / N. Molin / H. Saldner, On eigenmodes of the violin – Electronic holography and
admittance measurements. In: Journal of the Acoustical Society of America 95 (1994), S.
1100–1105.
I. Johnston, Measured tones: The interplay of physics and music, Bristol 1994.
M. Joos, Acoustic phonetics, Baltimore 1948.
P. Jost, Zum Begriff der »Klangfarbe«, in: Musiktheorie 16 (2001), S. 181–183.
B. Julesz / I.J. Hirsh, Visual and auditory perception – An essay of comparison, in: Human
Communication: A unified View, hrsg. von E.E. David / P.B. Denes, New York 1972, S.
283–340.
E. Chr. Kapp, Grundlinien einer Philosophie der Technik, Braunschweig 1877.
K. Karplus / A. Strong, Digital synthesis of plucked-string and drum timbres, in: Computer
Music Journal 7/2 (1983), S. 43–55.
W. Kausel, Bore reconstruction of tubular ducts from its acoustic input impedance curve, in:
IEEE Transactions on Instrumentation and Measurement, 53/4 (2004), S. 1097–1105.
W. Kausel / V. Chatziioannou / Th. Moore, More on the structural mechanics of brass wind
instrument bells, in: Proceedings of Forum Acusticum 2011, hrsg. von der Danish Acoustical
Society (European Acoustics Association) Aalborg 2011, S. 527–532.
W. Kausel / A. Mayer / G. Nachtmann, Experimental demonstration of the effect of wall
vibrations on the radiated sound of the horn and a search for possible explanations, in:
Proceedings of the International Symposium on Musical Acoustics, Barcelona 2007.
W. Kausel / D. Zietlow / Th. Moore, Transmission line modelling of acoustical systems with
vibrating walls, in: Proceedings of the Second Vienna Talk on Music Acoustics, hrsg. von W.
Goeb, Wien 2010, S. 89–92.
W. Kausel / D. Zietlow, / Th. Moore, Influence of wall vibrations on the sound of brass wind
instruments, in: Journal of the Acoustical Society of America 128 (2010), S. 3161–3174.
W.D. Keidel, Physiologie des Gehörs, Stuttgart 1975.
J.J. Kellaris, Consumer esthetics outside the lab: Preliminary report on a musical field study, in:
Advances in Consumer Research 19 (1992), S. 730–734.
R.A. Kendall / E.C. Carterette, Verbal attributes of simultaneous wind instrument timbres: I. von
Bismarck‘s adjectives, in: Music Perception 10 (1993), S. 445–468.
R.A. Kendall / E.C. Carterette, Verbal attributes of simultaneous wind instrument timbres: II.
Adjectives induced from Piston‘s orchestration, in: Music Perception 10 (1993), S. 469–502.
M. Kent / G. Knapen et al.: Universal Serial Bus device class definition for MIDI devices, Release
1.0, 1999 <http://www.usb.org/developers/ devclass_docs/midi10.pdf> (letzter Zugriff:
18.4.2013)
R.G. Kiesewetter, Einleitung und Zusatzartikel, in: Der neuen Aristoxener zerstreute Aufsätze
über das Irrige der musikalischen Arithmetik und das Eitle ihrer Temperatur-Rechnungen,
hrsg. von R. G. Kiesewetter, Leipzig 1846, S. 1–16 und 64–68.
R.G. Kiesewetter, Die sogenannte vollkommen gleichschwebende Temperatur, ohne
Logarithmen, graphisch, technisch und praktisch ausgeführt, in: Caecilia 26 (1847), S. 137–
R.G.142.
Kiesewetter, Über die Octave des Pythagoras, Wien 1848.
335
Literaturverzeichnis ________________________________________________
Y.E. Kim, Singing voice analysis/synthesis, Doctoral dissertation, Massachusetts Institute of
Technology 2003.
A. Kircher, Musurgia Universalis sive Ars Magna Consoni et Dissoni, Rom 1650.
F. Kittler / Th. Macho / S. Weigel (Hrsg.), Zwischen Rauschen und Offenbarung, Berlin 2008.
M. Kob, A method for measurement of the vocal tract impedance at the mouth, in: Medical
Engineering & Physics; 24/7 (2002), S. 467–471.
W.E. Kock, Schallwellen und Lichtwellen – Die Grundlagen der Wellenbewegung, Berlin u.a.
1971.
S. Koelsch / W.A. Siebel, Towards a neural basis of music perception, in: Trends in Cognitive
Sciences 9 (2005), S. 578–583.
P. Költzsch, Von der Antike bis in das 20. Jahrhundert: ein Streifzug durch die Geschichte der
Akustik (Schriftenreihe zur Geschichte der Akustik 1), Berlin 2010.
P. Költzsch, Akustisches Wissen aus der Antike auf den Transferwegen in das »abendländische«
Europa (Schriftenreihe zur Geschichte der Akustik 2), Berlin 2010.
R. Kopiez, Reproduktion und Interpretation, in: Musikpsychologie. Das neue Handbuch, hrsg.
von H. Bruhn, R. Kopiez und A.C. Lehmann, Reinbek bei Hamburg 2008, S. 316–337.
V. Koshelev, The Emiriton: Phenomen, history, problems and perspectives of study, in: N.
Rimsky–Korsakov and his Heritage in historical Perspective, hrsg. V.L.O. Ader et al., Sankt–
Peterburg 2010, S. 43–65.
St. Kreichi, The ANS synthesizer: Composing on a photoelectronic instrument, in: Leonardo 28/1
(1995), S. 59–62.
H. Krim / M. Viberg, Two decades of array signal processing research, in: IEEE Signal Processing
Magazine 7 (1996), S. 67–94.
H. Kröncke, Mechanische Schwingungen und Schall, Hildesheim 1973.
C.L. Krumhansl, Why is musical timbre so hard to understand? in: Structure and Perception of
electroacoustic Sounds and Music, hrsg. von S. Nielzen / O. Olsson, Amsterdam 1989, S. 44–
53.
C.L. Krumhansl / P.W. Jusczyk, Infants’ perception of phrase structure in music, in:
Psychological Science 1/1 (1990), S. 70–73.
J.H. Ku, British acoustics and its transformation from the 1860s to the 1910s, in: Annals of
Science 63 (2006), S. 395–423.
W.R. Kundert, Acoustical measuring instruments over the years, in: Journal of the Acoustical
Society of America 68 (1980), S. 64–69.
H. Kuttruff, Akustik – Eine Einführung, Stuttgart u.a. 2004.
H. Kuttruff, Room acoustics, London 52009.
W.H. Kyong Chun / Th. Keenan, New media, old media: A history and theory reader, New
York, 2006.
S. Lakatos, A Common perceptual space for harmonic and percussive timbres, in: Perception &
Psychophysics 62/7 (2000), S. 1426–1439.
G. Langner, Die zeitliche Verarbeitung periodischer Signale im Hörsystem: Neuronale
Repräsentation von Tonhöhe, Klang und Harmonizität, in: Zeitschrift für Audiologie 46/1,
J. Langner,
S. 8–21.Musikalischer Rhythmus und Oszillation, Frankfurt/M. 2002.
N.J. Lass / C.M. Woodford, Hearing science fundamentals, St. Louis, 2007.
J. Laurendeau, Maurice Martenot, luthier de l’électronique, Paris 1990.
N. Lavie, Distracted and confused? Selective attention under load, in: Trends in Cognitive
Sciences 9 (2005), S. 75–82.
P. Lehmann / H. Wilkens, Zusammenhang subjektiver Beurteilungen von Konzertsälen mit
raumakustischen Kriterien, in: Acustica 45 (1980), S. 256–268.
M. Leman, Music and schema theory, Berlin und Heidelberg 1995.
336
________________________________________________ Literaturverzeichnis
S.-A. Lembke / S. McAdams (2012), Establishing a spectral theory for perceptual timbre blending
based on spectral envelope characteristics, in: Proceedings of the 12th International Conference on Music Perception and Cognition (ICMPC-ESCOM), Thessaloniki 2012.
A. Lerch, Bitratenreduktion, in: Handbuch der Audiotechnik, hrsg. von S. Weinzierl, Berlin
2008, S. 849–884.
Th.Y. Levin, »Töne aus dem Nichts«. Rudolf Pfenninger und die Archäologie des synthetischen
Tons, in: Zwischen Rauschen und Offenbarung, hrsg. von F. Kittler / Th. Macho / S. Weigel,
Berlin 2008, S. 313–356.
Th.Y. Levin, »Tones out of nowhere«. Rudolph Pfenninger and the archaeology of synthetic
sound, in: Grey Room 12 (Summer 2003), S. 32–79.
D.J. Levitin / P.R. Cook, Memory for musical tempo: Additional evidence that auditory memory
is absolute, in: Perception & Psychophysics 58/6 (1996), S. 927–935.
J.C.R. Licklider, Basic correlates of the auditory stimulus, In: Handbook of experimental
Psychology, hrsg. von S.S. Stevens, New York 1951, S. 985–1039.
P. Liénard, Petite histoire de l'acoustique: bruits, sons et musique, Paris 2001.
R.B. Lindsay, The story of acoustics, in: Journal of the Acoustical Society of America 39 (1966),
S. 629–644.
R.B. Lindsay, Acoustics: Historical and philosophical development, Stroudsburg/Pa. 1973.
R.B. Lindsay, Acoustics and the Acoustical Society of America in historical perspective, in:
Journal of the Acoustical Society of America 68 (1980), S. 2–9.
A. Lindau / S. Weinzierl, Perceptual evaluation of model- and signal-based predictors of the
mixing time in binaural room impulse responses, in: Journal of the Audio Engineering
Society 60/11 (2012), S. 887–898.
Chr. Louven, Reiz- und wissensgeleitete harmonische Informationsverarbeitung, in:
Musikpsychologie (Handbuch der Systematischen Musikwissenschaft Bd. 3), hrsg. von H. de
la Motte-Haber und G. Rötter, Laaber 2005, S. 208–230.
Chr. Louven, Die Konstruktion von Musik. Theoretische und experimentelle Studien zu den
Prinzipien der musikalischen Kognition, Frankfurt/M. 1998.
D.A. Luce / M. Clark, Durations of attack transients of nonpercussive orchestral Instruments, in:
Journal of the Audio Engineering Society 13 (1965), S. 194–199.
K. Lüders / R.O. Pohl, Pohls Einführung in die Physik, Berlin u. a., 2004.
E. Mach, Zur Geschichte der Akustik, Prag 1892.
H.-J. Maempel, Technologie und Transformation. Aspekte des Umgangs mit Musikproduktionsund -übertragungstechnik, in: Musiksoziologie (Handbuch der systematischen
Musikwissenschaft 4), hrsg. von H. de la Motte-Haber und H. Neuhoff, Laaber 2007, S.
H.-J.160-180.
Maempel, Crooning, in: Lexikon der Systematischen Musikwissenschaft (Handbuch der
systematischen Musikwissenschaft 5), hrsg. von H. de la Motte-Haber und G. Rötter, Laaber
2010, S. 78.
A.H. Marshall / W.J. Cavanaugh / M.A. Ruggero / J. Santos-Sacchi, Cochlear mechanics and
biophysics, in: Encyclopedia of Acoustics, Band 3, hrsg. von M.J. Crocker, New York 1997,
S. 1357–1371.
D.W. Martin / W.D. Ward, Subjective evaluation of musical scale temperament in pianos, in:
Journal of the Acoustical Society of America 33 (1961), S. 582–585.
J. Mattheson, Der vollkommene Capellmeister, Hamburg 1739.
A. Mayer (2003), Riam (reed instrument artificial mouth) – A computer controlled excitation
device for reed instruments, in: Proceedings of the Stockholm Music Acoustics Conference
2003, Stockholm 2003, S. 279–282.
A. Mayer / H. Rust, An artificial excitation mechanism for an acoustical comparison of the
hammered dulcimer, in: Proceedings of the Second Vienna Talk on Music Acoustics, Wien
2010, S. 100–101.
337
Literaturverzeichnis ________________________________________________
S. McAdams. Spectral fusion, spectral parsing, and the formation of auditory images.
Unpublished doctoral dissertation. Stanford 1984.
S. McAdams, Perspectives on the contribution of timbre to musical structure, in: Computer
Music Journal 23/3 (1999), S. 85–102.
S. McAdams / A.S. Bregman, Hearing musical streams, in: Computer Music Journal 3/4 (1985),
S. 26–43.
J.E. McLennan, A new bowing machine, in: Journal of the Catgut Acoustical Society 4/2 (2000),
S. 55–60.
H. Menge (Hg.), Euclidis opera omnia, Bd. 8, Leipzig 1916.
P. Mengoli, Speculationi di Musica, Bologna 1670.
M. Mersenne, Harmonie universelle, Paris 1636.
M. Mersenne, Harmonicorum libri XII, Paris 1648.
J. Meyer, Akustik der Holzblasinstrumente in Einzeldarstellungen. Frankfurt/M., 1966.
J. Meyer, Vibrato: am besten 6 bis 8 Hz, in: Instrumentenbau-Zeitschrift 22 (1968), S. 544–546.
J. Meyer, Akustik und musikalische Aufführungspraxis, Bergkirchen 2004.
J. Meyer, Musikalische Akustik, in: Handbuch der Audiotechnik, hrsg. von S. Weinzierl, Berlin
2008, S. 123–180.
W. Meyer-Eppler / H. Sendhoff / R. Rupprath, Residualton und Formantton, in: Gravesaner
Blätter 14 (1959), S. 70–83.
B.F. Miessner, The electronic piano, in: Proceedings of the Music Teachers National Association
(1937), S. 259–272.
B.F. Miessner, Electronic music and instruments, in: Proceedings of the Institute of Radio
Engineers 24/11 (1936), S. 1427–1466.
D.C. Miller, Anecdotal history of the science of sound, New York 1935.
G.A. Miller, The masking of speech, in: Psychological Bulletin 44 (1947), S. 105–129.
G.A. Miller / G.A. Heise, The trill threshold, in: Journal of the Acoustical Society of America
22/5 (1950), S. 637–638.
G.A. Miller / J.C.R. Licklider, The intelligibility of interrupted speech, in: Journal of the
Acoustical Society of America 22 (1950), S. 167–173.
H.B. Miller, Acoustical measurements and instrumentation, in: Journal of the Acoustical Society
of America 61 (1977), S. 274–282.
J.B. Minter, Recent developments in precision master recording lathes, in: Journal of the Audio
Engineering Society 4/2 (1956), S. 50–55.
E.R. Miranda, Computer sound design, synthesis techniques and programming, Focal Press
2
2002.
T.R. Moore, A simple design for an electronic speckle pattern interferometer, in: American
Journal of Physics 72 (2004), S. 1380–1384.
H. de la Motte-Haber, Handbuch der Musikpsychologie, Laaber 21996.
H. de la Motte-Haber, Musikpsychologie. Eine Einführung, Köln 1972.
H. de la Motte-Haber, Ein Beitrag zur Klassifikation musikalischer Rhythmen, Köln 1968.
S. Müller, Messtechnik, in: Handbuch der Audiotechnik, hrsg. von S. Weinzierl, Berlin 2008, S.
1087–1169.
H.-G. Musman, Genesis of the MP3 audio coding standard in IEEE transactions on consumer
electronics, in: IEEE 52/3 (August 2006), S. 1043–1049.
E. Netoliczka, Zur Geschichte der Physik: Ueber die ältesten Bestrebungen in der Akustik. Graz
1865.
M. Neukom, Signale, Systeme und Klangsynthese, Bern, Berlin und Bruxelles 2005.
O. Neumann, Theorien der Aufmerksamkeit, in: Enzyklopädie der Psychologie. Themenbereich
C: Theorie und Forschung. Serie 2: Kognition. Bd. 2: Aufmerksamkeit, hrsg. von A.F.
338
________________________________________________ Literaturverzeichnis
Sanders / N. Birbaumer / D. Frey / J. Kuhl / W. Schneider / R. Schwarzer, Göttingen 1996, S.
559–643.
K. Nödl, Metallblasinstrumentenbau. Fach- und Lehrbuch für die Herstellung von
Metallblasinstrumenten, Frankfurt am Main, 1970.
I. Newton (1687), Philosophiae Naturalis Principia Mathematica, London 1687.
D.A. Norman, Rhythmic fission: Observations on attention, temporal judgments and the critical
band. Unpublished manuscript. Center for Cognitive Studies, Harvard University. Boston,
MA 1966.
A.C. North / D.J. Hargreaves, The social and applied psychology of music, Oxford 2008.
M. Oehler, Die digitale Impulsformung als Werkzeug für die Analyse und Synthese von
Blasinstrumentenklängen, Frankfurt/Main 2008.
M. Oehler, Dichotisch / Binaural, in: Lexikon der Systematischen Musikwissenschaft, hrsg. von
H. de la Motte / H. v. Loesch / G. Rötter / Chr. Utz, Laaber 2010, S. 86–87.
J.J. Ohala, The whole body plethysmograph in speech research, in: Journal of the Acoustical
Society of America 93/4 (1993), S. 2416.
G.S. Ohm, Über die Definition des Tones, nebst daran geknüpfter Theorie der Sirene und
ähnlicher tonbildender Vorrichtungen, in: Annalen der Physik und Chemie 59, 1843 =
Annalen der Physik und Chemie, Zweite Reihe, 29, 1843, S. 513–565.
H.F. Olson, Music, physics and engineering, New York 1967.
W. Opelt, Ueber die Natur der Musik, Plauen 1834.
C.V. Palisca, The Florentine Camerata: Documentary studies and translations. New Haven, CT,
1989.
B.H. Pandya / G.S. Settles / J.D. Miller, Schlieren imaging of shock waves from a trumpet, in:
Journal of the Acoustical Society of America 114/6 (2003), 3363–3367.
D. Pantalony, Altered sensations: Rudolph Koenig's acoustical workshop in nineteenth-century
Paris, Dordrecht 2009.
R. Parncutt, Harmony: A psychoacoustical approach, Berlin und Heidelberg 1989.
J. Paulus / M. Müller / A. Klapuri, Audio-based music structure analysis, in: Proceedings of the
11th International Conference on Music Information Retrieval (ISMIR), hrsg. von J.S.
Downie und R.C. Veltkamp, Utrecht 2010, S. 625–636.
E. Petzold, Elementare Raumakustik, Berlin 1927.
S. Philipp, MIDI-Kompendium 2, Fränkisch-Crumbach 1986.
A.D. Pierce, Basic linear acoustics in: Springer Handbook of Acoustics, hrsg. von T.D. Rossing,
New York 2007, S. 25-111.
K. Ploch, Sampling. Theorie und Praxis für Einsteiger und Profis, München 1988.
R. Plomp / J.M. Levelt, Tonal consonance and critical bandwidth, in: Journal of the Acoustical
Society of America 38, 1965, S. 548–560
R. Plomp, Pitch of complex tones, in: Journal of the Acoustical Society of America 41 (1967), S.
1526–1533.
D.J. Povel / P. Essens, Perception of temporal patterns, in: Music Perception 2/4 (1985), S. 411–
440.
R.L. Pratt / J.M. Bowsher / R.A. Smith, The measurement of the acoustic impedance of brass
instruments, in: Acustica 38 (1977), S. 236–246.
K.B. Quiring: The new anechoic room at the Institute for Musical Acoustics (IWK), University of
Music and Performing Arts, Vienna, in: Proceedings of the Inter-Noise 2007, Istanbul 2007.
M. Raffel / C. Willert / S. Wereley / J. Kompenhans, Particle image velocimetry: A practical
guide. Berlin und New York 2007.
T. Rahne, Beeinflussung von auditorischer Objektbildung durch visuelle Stimulation. Berlin
2008.
J. Ph. Rameau, Nouveau système de musique théorique, Paris 1726.
339
Literaturverzeichnis ________________________________________________
O. Ranke / F.H. Lullies, Physiologie der Stimme und Sprache, Berlin 1953.
C. Raphael / Y. Gu (2009), Orchestral accompaniment for a reproducing piano, in: Proceedings
of the International Computer Music Conference, Montreal 2009, S. 501–504.
H.-P. Reinecke, Über den doppelten Sinn des Lautheitsbegriffes beim musikalischen Hören,
Hamburg 1953.
G. Reiss / W. Walkowiak / H.-P. Zenner / P.K. Plinkert / E. Lehnhardt, Das stato-akustische
Organ – Ein Bildatlas zur Evolution, Physiologie und Morphologie, Hannover 1989.
Chr. Reuter, Der Einschwingvorgang nichtperkussiver Musikinstrumente, Frankfurt 1995.
Chr. Reuter, Die auditive Diskrimination von Orchesterinstrumenten, Frankfurt 1996
Chr. Reuter, Verschmelzung und partielle Verdeckung, in: Fortschritte der Akustik, DAGA 2000,
Oldenburg 2000, S. 176–177.
Chr. Reuter, Klangfarbe und Instrumentation, Frankfurt 2002.
Chr. Reuter, Wie und warum in der Geschichte der Klangfarbenforschung meistenteils am Klang
vorbeigeforscht wurde, in: Systemische Musikwissenschaft. Festschrift Jobst Peter Fricke zum
65.Geburtstag, hrsg. von Wolfgang Niemöller, Frankfurt 2003, S. 293–301.
Chr. Reuter, Von der Physik der Klangfarben zur Psychologie der Klangfarben, in:
Musikpsychologie – Musikalische Begabung und Expertise, Band 17, hrsg. von K.-E. Behne /
G. Kleinen / H. de la Motte-Haber, Göttingen 2004, S. 107–125.
G. Révész, Zur Grundlegung der Tonpsychologie, Leipzig 1913.
G. Révész, Zur Geschichte der Zweikomponentenlehre in der Tonpsychologie, in: Zeitschrift für
Psychologie 99 (1926), S. 325–356.
T.L. Rhea, The evolution of electronic musical instruments in the United States, Dissertation,
Nashville 1972.
H. Riemann, Die objektive Existenz der Untertöne in der Schallwelle, Kassel 1875.
H. Riemann, Katechismus der Akustik, Leipzig 1891.
R.J. Ritsma, Existence region of tonal residue I, in: Journal of the Acoustical Society of America
34 (1962), S. 1224–1229.
C. Roads, The computer music tutorial, Cambridge 2000.
F. Robartes, A discourse concerning the musical notes of the trumpet, and the trumpet marine,
and of defects of the same, in: Philosophical Transactions of the Royal Society 16, 1686–92,
S. 559–563.
D.W. Robinson / R.S. Dadson, A re-determination of the equal-loudness relations for pure tones,
in: British Journal of Applied Physics 7 (1956), S. 166–181.
J.G. Roederer, Physikalische und psychoakustische Grundlagen der Musik, Berlin, 32000.
H. Rösing, Objektiver Klang und subjektiver Klangeindruck der Musikinstrumente (I), in: Das
Musikinstrument 15 (1966), S. 1232–1234.
H. Rösing, Musikgebrauch im täglichen Leben, in: Musikwissenschaft. Ein Grundkurs, hrsg. von
H. Bruhn und H. Rösing, Reinbek 1998, S. 107-129.
D.F. Rosenthal, / H.G. Okuno (Hrsg.), Computational auditory scene analysis. Mahwah, NJ.
1998.
W.D. Ross (1936), Aristotle's Physics. A revised text with introduction and commentary, Oxford
1936.
Th.D. Rossing (1988), Die Pauke, in: Die Physik der Musikinstrumente, hrsg. von K. Winkler,
Heidelberg 1988, S. 128–135.
Th.D. Rossing (Hrsg.), Springer handbook of acoustics, New York 2007.
Th.D. Rossing, Science of percussion instruments, Singapore 2008.
Th.D. Rossing, The science of string instruments, New York 2010.
Th.D. Rossing / R.F. Moore / P.A. Wheelder, The science of sound, San Francisco u.a. 2002.
A. Ruschkowski, Elektronische Klänge und musikalische Entdeckungen, Ditzingen 1998.
M. Russ, Sound sampling and synthesis, Oxford 1998.
340
________________________________________________ Literaturverzeichnis
H.S. Sabine, Building acoustics in America, 1920–1940, in: Journal of the Acoustical Society of
America 61 (1977), S. 255–263.
W.C. Sabine, Collected papers on acoustics, Cambridge/Mass. 1922.
C. Sachs, The history of musical instruments, New York 1940.
W. Sandner, Sound & Equipment, in: Rockmusik – Aspekte zur Geschichte, Ästhetik,
Produktion, hrsg. von W. Sandner, Mainz 1977, S. 81–99.
J. Sauveur (1984), Collected writings on musical acoustics, hrsg. von Rudolf Rasch, Utrecht
1984.
Z. Schärer / A. Lindau, Evaluation of equalization methods for binaural signals, in: AES 126th
Convention, Munich, Germany, 2009, Paper 7721.
J. H. Scheibler (1834), Der physikalische und musikalische Tonmesser, Essen 1834.
F. Scheminzky, Die Welt des Schalles, Wien, 1943.
W. Schiffner, Einflüsse der Technik auf die Entwicklung von Rock/Pop-Musik, Hamburg 1991.
H. Schimank, Zur Frühgeschichte der Akustik, in: Akustische Zeitschrift 1 (1936), S. 106.
M. Schleske, Modalanalyse im Geigenbau – Vom praktischen Nutzen physikalischer Forschung
im Musikinstrumentenbau. Teil I: Grundlagen, in: Das Musikinstrument 41/2–3 (1992), S.
98–106.
H. Schole, Experimentelle Untersuchungen an höchsten und an kürzesten Tönen, in: Zeitschrift
für Psychologie 131 (1934), S.1–6 3.
H. Scholl, Trägheitserscheinungen beim Gehör, in: Aufnahme und Verarbeitung von Nachrichten
durch Organismen, Stuttgart 1961, S. 56–62.
J.F. Schouten, The perception of pitch, in: Philips Technical Review 5/10 (1940), S. 286–294.
J.F. Schouten, The perception of subjective tones, in: Proceedings of the Koninklijke Nederlandse
Akademie van Wetenschappen te Amsterdam 41 (1938), S, 1086–1094.
J.F. Schouten, The residue, a new component in subjective sound analysis, in: Proceedings of the
Koninklijke Nederlandse Akademie van Wetenschappen 43, 1940, S. 356–365.
J.F. Schouten, The residue revisited, in: Frequency Analysis and Periodicity Detection in Hearing,
hrsg. von R. Plomp / G.F. Smoorenburg, Leiden, 1970, 41–53.
Chr. E. Schreiner / G. Langner, Periodicity coding in the inferior colliculus of the cat. II. Topographical organization, in: Journal of Neurophysiology, 60/6 (1988), S. 1823–1840.
M. Schreiner, Wilson & Wilson’s comprehensive analytical chemistry, Vol. XLII: Nondestructive
microanalysis of cultural heritage materials, Amsterdam 2004, S. 713–754.
M. Schroeder, Acoustics in human communications: room acoustics, music, and speech, in:
Journal of the Acoustical Society of America 68 (1980), S. 22–28.
H. Schulze / H. Scheich / G. Langner, Periodicity coding in the auditory cortex: What can we
learn from learning experiments, in: Psychophysics, physiology and models of hearing, hrsg.
von T. Dau / V. Hohman / B. Kollmeister, Singapore, New Jersey 1999, S. 21–26.
K.E. Schumann, Akustik, Breslau, 1925.
K.E. Schumann, Physik der Klangfarben, Berlin 1929.
A. Seebeck, Ueber die Sirene, in: Annalen der Physik und Chemie 60, 1843 = Annalen der Physik
und Chemie, Zweite Reihe, 30, 1843, S. 449–481.
A. Seebeck, Über die Definition des Tones, in: Annalen der Physik und Chemie 63 (1844), S.
353–368.
W. Seidner / J. Wender, Die Sängerstimme. Phoniatrische Grundlagen der Gesangsausbildung.
Berlin 31997.
H. Selg / W. Bauer, Forschungsmethoden der Psychologie, Stuttgart (Kohlhammer) 1971.
C.R. Shackford, Some aspects of perception. II. Interval sizes and tonal dynamics in
performance, in: Journal of Music Theory 6 (1962), S. 66–90
C.R. Shackford, Some aspects of perception. III. Addenda, in: Journal of Music Theory 6 (1962),
S. 295–303.
341
Literaturverzeichnis ________________________________________________
R.S. Shankland, Architectural acoustics in America to 1930, in: Journal of the Acoustical Society
of America 61 (1977), S. 250–254.
D.B. Sharp, Acoustic pulse reflectometry for the measurement of musical wind instruments, PhD
Thesis, University of Edinburgh, Physics Department 1996.
R.N. Shepard, Circularity in judgments of relative pitch, in: Journal of the Acoustical Society of
America 36/12 (1964), S. 2346–2353.
B.G. Shinn-Cunningham, Object-based auditory and visual attention, in: Trends in Cognitive
Sciences, 12/1 (2008), S. 82–86.
R. Shuter-Dyson / C. Gabriel, The psychology of musical ability, 2. Aufl. London (Routledge &
Kegan Paul) 1982.
D.K. Simonton, Thematic fame, melodic originality, and musical Zeitgeist: A biographical and
transhistorical content analysis, in: Journal of Personality and Social Psychology 38 (1980),
S. 972–983.
E. Skudrzyk, Die Grundlagen der Akustik, Wien, 1954.
K.M. Slavik, Anschlusstechnik, Interfaces, Vernetzung. in: Handbuch der Audiotechnik, hrsg.
von S. Weinzierl, Berlin 2008, S. 945–1034.
J.A. Sloboda, Music structure and emotional response: Some empirical findings, in: Psychology of
Music 19 (1991), S. 110–120.
A. Smirnov / B. Yankovsky, Leben im Klangspektrum, in: Klangmaschinen zwischen Experiment
und Medientechnik, hrsg. von D. Gethmann, Bielefeld 2010, S. 97–120.
J.O. Smith III, Physical modeling using digital waveguides, in: Computer Music Journal, 16/4
(1992), S. 74–91.
J.O Smith / S. Hausfeld / R.P. Power / A. Gorta, Ambiguous musical figures and auditory
streaming, in: Perception & Psychophysics 32/5 (1982), S. 454–464.
R.A. Smith, It’s all in the bore. ITG Journal 12 (May), Reprint, 1988.
G.F. Smoorenburg, Pitch perception of two-frequency stimuli, in: Journal of the Acoustical
Society of America 48 (1970), S. 924–942.
G.A. Sorge, Anweisung zur Stimmung und Temperatur, Hamburg 1744.
G.A. Sorge, Vorgemach der musicalischen Composition, Lobenstein 1745.
A.G. Sotiropoulou / R.J. Hawkes / D.B. Fleming, Concert hall acoustic evaluations by ordinary
concert-goers: I, Multi-dimensional description of evaluations, in: Acustica 81 (1995), S. 1–9.
C. Spence / V. Santangelo, Auditory attention, in: The Oxford Handbook of auditory science.
Hearing, hrsg. von C.J. Plack, Oxford 2010, S. 249–270.
M. Spitzer, Musik im Kopf, Stuttgart 2002.
J. Stange, Bedeutung der elektroakustischen Medien für die Musik im 20. Jahrhundert,
Pfaffenweile 1989.
J. Stange-Elbe, Das musikalische Interface. Von der Trommel bis zum virtuellen Instrument, in:
Mathematische Musik – musikalische Mathematik, hrsg. von B. Enders, Saarbrücken 2005
177–194.
W. Stauder, Einführung in die Akustik, Wilhelmshaven u.a. 1979.
U. Steudel, Über die Empfindung und Messung der Lautstärke, in: Hochfrequenztechnik und
Elektroakustik 41 (1933), S. 116–128.
S.S. Stevens, A Scale for the measurement of a psychological magnitude: Loudness, in:
Psychological Review 43/5 (Sep 1936), S. 405–416.
S.S. Stevens, Calculation of the loudness of complex noise, in: Journal of the Acoustical Society
of America 28 (1956), S. 807–832.
S.S. Stevens, Procedure for calculating loudness: Mark VI, in: Journal of the Acoustical Society of
America 33/11 (1961), S. 1577–1585.
S.S. Stevens, On the psychophysical law, in: Psychological Review 64 (1957), S. 153–182.
342
________________________________________________ Literaturverzeichnis
S.S. Stevens / D. Hallowell, Hearing: Its psychology and physiology, New York, London und
Sidney 1938.
S.S. Stevens / E.B. Newman, The localization of actual sources of sound, in: American Journal of
Psychology 48 (1936), S. 297–306.
S.S. Stevens / J. Volkmann / E.B. Newman, A Scale for the measurement of the psychological
magnitude pitch, in: Journal of the Acoustical Society of America 8 (1937), S. 185–190.
A. Stickel, Faszination Gehör – Entdeckungsreise in die Welt des Klangs, Bergkirchen 2003, S.
36.
K. Stockhausen, Elektronische Musik und Automatik, in: Texte zur Musik 1963–1970, Band 3,
hrsg. von D. Schnebel, Schauberg und Köln 1971, S. 232–236.
C. Stumpf, Tonspsychologie, Band 2, Leipzig 1890.
C. Stumpf, Die Sprachlaute, Berlin 1926.
J. Sundberg, The acoustics of the singing voice, in: Scientific American 3 (1977), S. 82–91.
J. Sundberg, Die Wissenschaft von der Singstimme, Bonn 1997.
M. Supper, Elektroakustische Musik und Computermusik. Geschichte, Ästhetik, Methoden,
Systeme, Hofheim 1997.
E. Sussman, Integration and segregation in auditory scene analysis, in: Journal of the Acoustical
Society of America 117/3 (2005), S. 1285–1298.
I. Szabó, Einführung in die technische Mechanik, Berlin, 82002.
T. Tarnoczy (1991), Einführung in die musikalische Akustik, Budapest 1991.
G. Tartini, Trattato di Musica, Padua 1754.
B. Taylor, De motu nervi tensi, in: Philosophical Transactions of the Royal Society 28, 1712–13,
S. 26–32.
G. ten Hoopen, Auditive Aufmerkamkeit, in: Enzyklopädie der Psychologie. Themenbereich C:
Theorie und Forschung. Serie 2: Kognition. Bd. 2: Aufmerksamkeit, hrsg. von A.F. Sanders /
N. Birbaumer / D. Frey / J. Kuhl / W. Schneider / R. Schwarzer, Göttingen 1996, S. 115–161.
E. Terhardt, Zur Tonhöhenwahrnehmung von Klängen. I. Psychoakustische Grundlagen, in:
Acustica 26 (1972), S. 173–186.
E. Terhardt, Ein psychoakustisch begründetes Konzept der musikalischen Konsonanz, in:
Acustica 36 (1976), S. 121–146.
E. Terhardt, Fourier Transformation of Time Signals: Conceptual Revision, in: Acustica 57
(1985), S. 242–256.
E. Terhardt, Akustische Kommunikation, Berlin 1998, S. 220–222.
S. Ternström / H. Jers / J. Nix, Group and Ensemble Vocal Music, in: The Oxford Handbook of
Music Education, hrsg. Von G. R. McPherson / G. F. Welch, Oxford University Press (2012),
580–593.
P. Toiviainen, Musikalische Wahrnehmung und Kognition im Computermodell, in:
Musikpsychologie. Das neue Handbuch, hrsg. von H. Bruhn, R. Kopiez und A.C. Lehmann,
Reinbek bei Hamburg 2008, S. 476–489.
T. Tolonen / V. Välimäki / M. Karjalainen, A new sound synthesis structure for modeling the
coupling of guitar strings, in: NORSIG’98, Vigso, Denmark 1998, S. 205–208.
Y. Tougas / A.S. Bregman, Auditory streaming and the continujty illusion, in: Perception &
Psychophysics 47 (1990), S. 121–126.
T.H. Townsend / D.P. Goldstein, Suprathreshold binaural unmasking, in: Journal of the
Acoustical Society of America 51 (1972), S. 621–624.
A.M. Treisman / G. Geffen, Selective attention: Perception or response? in: Quarterly Journal of
Experimental Psychology 19 (1967), S. 1–17.
D. Ullmann, Chladni und die Entwicklung der Akustik von 1750–1860, Basel 1996.
E. Ungeheuer, Wie die elektronische Musik »erfunden« wurde, Mainz 1992.
M. Vail, Vintage synthesizers, San Francisco 2000.
343
Literaturverzeichnis ________________________________________________
L.P.A.S. van Noorden, Temporal coherence in the perception of tone sequences. Ph.D.
dissertation Tech. Hogeschool, Eindoven 1975.
L.P.A.S. van Noorden, Minimum differences of level and frequency for perceptual fission of tone
sequences ABAB, in: Journal of the Acoustical Society of America 61 (1977), S. 1041–1045.
I. Veit, Technische Akustik, Würzburg 1974.
H. Vereecke / W. Kausel, Carbon fiber reinforced polymer, an alternative to brass? In:
International Trumpet Guild Journal, October 2012, S. 41–43.
C. Vergez / X. Rodet, Experiments with an artificial mouth for trumpet, In: Proceedings of the
International Symposium on Musical Acoustics, Leavenworth 1998, S. 153–158.
G. Vicario, L’effetto tunnel acustico, in: Rivista di Psicologia 54 (1960), S. 41–52.
G. Vicario, Some observations in the auditory field, in: Organization and Representation in
Perception, hrsg. von J. Beck, Hillsdale, N.J. 1982.
O. Vierling, Das elektroakustische Klavier, Berlin 1936.
O. Vierling, Eine neue elektrische Orgel, Habilitation, Berlin 1938.
W. Voigt, Untersuchungen zur Formantbildung in Klängen von Fagott und Dulzianen.
Regensburg 1975.
W. Voigt, Dissonanz und Klangfarbe, Bonn 1985.
G. von Békésy, Zur Theorie des Hörens. Über die Bestimmung des einem reinen Tonempfinden
entsprechenden Erregungsgebietes der Basilarmembran vermitteIs Ermüdungserscheinungen,
in: Physikalische Zeitschrift 30 (1929), S. 115–125.
G. von Békésy, Über die Hörschwelle und Fühlgrenze langsamer sinusförmiger
Luftdruckschwankungen, in: Annalen der Physik 418/6 (1936), S. 554–566
G. von Békésy, Über die Resonanzkurve und die Abklingzeit der verschiedenen Stellen der
Schneckentrennwand, in: Akustische Zeitschrift 8 (1943), S. 66–76.
G. von Bismarck, Extraktion und Messung von Merkmalen der Klangfarbenwahrnehmung
stationärer Schalle, München 1972.
Chr. von Campenhausen, Die Sinne des Menschen, Stuttgart 1981.
Chr. von Ehrenfels, Ueber »Gestaltqualitäten«, in: Vierteljahresschrift für wissenschaftliche
Psychologie 14/3 (1890), S. 249–292.
H. von Helmholtz, Die Lehre von den Tonempfindungen als physiologische Grundlage für die
Theorie der Musik, Braunschweig 1863.
M. Vorländer, Auralization. Fundamentals of acoustics, modelling, simulation, algorithms and
acoustic virtual reality, Heidelberg 2008.
H. Wagner, Aristoteles, Physikvorlesung (= Werke in deutscher Übersetzung Band 11), Berlin 5.
Aufl. 1995.
K.W. Wagner, Einführung in die Lehre von den Schwingungen und Wellen, Halle, 1947.
W. Wallach / E.B. Newman / M.R. Rosenzweig, The precedence effect in sound localization, in:
The American Journal of Psychology 62 (1949), S. 315–336.
J. Wallis, On the trembling of consonant strings: A new musical discovery, in: Philosophical
Transactions of the Royal Society 7, 1677, S. 839ff.
K. Walliser, Zusammenhänge zwischen dem Schallreiz und der Periodentonhöhe, in: Acustica 21
(1969), S. 319–329.
K. Walliser, Zur Unterschiedsschwelle der Periodentonhöhe, in: Acustica 21 (1969), S. 329–336.
H. Wandler, Technologie und Sound in der Pop- und Rockmusik –Entwicklung der
Musikelektronik und Auswirkungen auf Klangbild und Klangideal, Osnabrück 2012.
D. Wang, Primitive auditory segregation based on oscillatory correlation, in: Cognitive Science
20 (1996), S. 409–456.
D. Wang / G.J. Brown, Computational auditory scene analysis: Principles, algorithms, and
applications. Hoboken 2006.
344
________________________________________________ Literaturverzeichnis
R.M. Warren, Perceptual restoration of missing speech sounds, in: Science 167 (1970), S. 392–
393.
R.M. Warren, Auditory perception. An analysis and synthesis. Cambridge 2008.
R.M. Warren / J.M. Wrightson / J. Puretz, Illusory continuity of tonal and infratonal periodic
sounds, in: Journal of the Acoustical Society of America 84/4 (1988), S. 1338–1342.
R.L. Wegel / C.E. Lane, The auditory masking of one pure tone by another and its probable
relation to the dynamics of the inner ear, in: Physiological Review 23 (1924), S. 266–285.
R. Weidenaar, Magic music from the Telharmonium, Metuchen, New Jersey und London 1995.
S. Weinzierl, Beethovens Konzerträume. Raumakustik und symphonische Aufführungspraxis an
der Schwelle zum modernen Konzertwesen, Frankfurt 2002.
S. Weinzierl, Grundlagen in: Handbuch der Audiotechnik, hrsg. von S. Weinzierl, Berlin 2008.
S. Weinzierl, Aufnahmeverfahren, in: Handbuch der Audiotechnik, hrsg. von S. Weinzierl, Berlin
2008, S. 747–812.
S. Weinzierl / H. Rosenheinrich / J. Blickensdorff / M. Horn / A. Lindau, Die Akustik der
Konzertsäle im Leipziger Gewandhaus. Geschichte, Rekonstruktion und Auralisation, in:
Fortschritte der Akustik, DAGA 2010, S. 1045–1046.
A. Wellek, Die Aufspaltung der »Tonhöhe« in der Hornbostelschen Gehörpsychologie und die
Konsonanztheorien von Hornbostel und Krueger, in: Zeitschrift für Musikwissenschaft XVI,
10/12 (1934), S. 481–553.
A. Wellek, Typologie der Musikbegabung im deutschen Volke. Grundlegung einer
psychologischen Theorie der Musik und Musikgeschichte. Mit allgemeinpsychologischen
Beiträgen zur »Tonhöhen«-Unter-schiedsempfindlichkeit, München 1939 (21970).
K. Wendt, Das Richtungshören bei Zweikanal-Stereophonie, in: Rundfunktechnische
Mitteilungen 8/3 (1964), S. 171–179.
M. Wertheimer, Untersuchungen zur Lehre von der Gestalt, in: Psychologische Forschung 5
(1923), S. 301–350.
D.L. Wessel, Timbre space as a musical control structure, in: Foundations of Computer Music,
hrsg. von C. Roads / J. Strawn, Cambridge und London 1985, S. 640–657.
R. Westphal, Aristoxenos von Tarent: Melik und Rhythmik des classischen Hellenentums, 2 Bde.
Leipzig 1883, 1893.
E.G. Wever / C.W. Bray (1930), Auditory nerve impulses, in: Science 71, 1930, S. 215.
G. Widholm, BIAS – Ein Computersystem zur Beurteilung der Qualität von Blasinstrumenten,
in: Instrumentenbau-Zeitschrift, Nr. 40/32 (1993), S. 45–49.
G. Widholm, The influence of valve mechanisms on the microstructure of slurs played with brass
wind instruments, in: Proceedings of the International Symposium of Musical Acoustics
1997, S. 407–412.
G. Widholm, Wiener Klangstil – Fakten und Hintergrundinformation am Beispiel der Wiener
Philharmoniker, in: Skriptum Internationales Orchesterinstitut Attergau, Attergau 2012, S.
15–27.
W. Wille, Das Verhalten musikalischer Intervalle in mittleren und hohen Tonlagen, Diss.
Hamburg 1959.
F. Winckel, Phänomene des musikalischen Hörens, Berlin und Wunsiedel 1960.
F. Winckel, Optimum acoustic criteria of concert halls for the performance of classical music, in:
Journal of the Acoustical Society of America 34 (1962), S. 81–86.
I. Winkler / E. Kushnerenko / J. Horváth / R. Čeponienė / V. Fellman / M. Huotilainen / R.
Näätänen / E. Sussman, Newborn infants can organize the auditory world, in: Proceedings of
the National Academy of Sciences of the United States of America, 100/20 (2003), S. 11812–
11815.
R.P. Winnington-Ingram (Hg.), Aristidis Quintiliani de musica libri tres, Leipzig 1963.
P.H. Winston, The psychology of computer vision. New York 1975.
345
Literaturverzeichnis ________________________________________________
K. Wogram, Einfluss von Material und Oberflächen auf den Klang von Blechblasinstrumenten,
in: Instrumentenbau-Zeitschrift 5 (1976), S. 414–418.
K. Wogram, Akustische Auswahlkriterien bei Blechblasinstrumenten, in: Das Instrumentalspiel,
Bericht vom internationalen Symposion, hrsg. von G. Widholm / M. Nagy, Wien und
München 1989, S. 119–136.
N.L. Wood / N. Cowan, The cocktail party phenomenon revisited: Attention and memory in the
classic selective listening procedure of Cherry (1953), in: Journal of Experimental
Psychology: General 124 (1995), S. 243–262.
T. Young, Untersuchungen über Schall und Licht, in: Annalen der Physik 22, 1806, S. 337–396.
W.A. Yost, The cocktail party effect: 40 years later, in: Localization – Binaural and spatial
Hearing in real and virtual Environments, hrsg. von R. Gilkey / T. Anderson, Hillsdale 1997,
S. 329–347.
W. Yost, Fundamentals of hearing, San Diego 52007.
P.G. Zimbardo / R.J. Gerrig, Psychologie, München 162004.
G. Zupanc, Behavioral neurobiology: An integrative approach, Oxford and New York, 2004.
E. Zwicker, Subdivision of the audible frequency range into critical bands, in: Journal of the
Acoustical Society of America 33/3 (1961), S. 248–249.
E. Zwicker, Psychoakustik, Berlin und Heidelberg (Springer) 1982.
E. Zwicker / H. Fastl, Psychoacoustics: facts and models, Berlin 1990.
E. Zwicker / R. Feldtkeller, Das Ohr als Nachrichtenempfänger, Stuttgart 21967.
E. Zwicker / G. Flottorp / S.S. Stevens, Critical band width in loudness summation, in: Journal of
the Acoustical Society of America 29 (1957), S. 548–557.
MGG2 = Die Musik in Geschichte und Gegenwart, 2. vollständig neu bearbeitete Auflage, hrsg.
von L. Finscher; Kassel, Stuttgart 1994 ff.
346