Thesis-Download - Hochschule Furtwangen

Transcrição

Thesis-Download - Hochschule Furtwangen
"LeapMotion als Musikinstrument"
Möglichkeiten der Nutzung eines Handund Fingerbewegungssensors für die
softwarebasierte Klangerzeugung. Eine
Untersuchung relevanter Faktoren
anhand eines Prototyps.
BACHELOR -T HESIS
im Studiengang Medieninformatik
an der Hochschule Furtwangen.
28.02.2014
Name:
Matrikelnummer:
Bearbeitungszeitraum:
Erstbetreuer an der Hochschule:
Zweitbetreuer an der Hochschule:
Tobias C. S. Schäuble
236377
Wintersemester 2013/2014
Prof. Wilhelm Walter
Prof. Dr. Bruno Friedmann
Kurzbeschreibung
I
Kurzbeschreibung
Heutzutage wird das Spielen, die Erzeugung und das Bearbeiten von Musik und akustischen Signalen häufig mittels Digitaltechnik durchgeführt. Auch zukünftig kann ein
Trend zur Digitaltechnik beobachtet werden. Diese Thesis gibt einen Überblick alternativer Audio-Eingabegeräte und erläutert die Implementierung eines MaxMSP1 Objektes
zur Nutzung des Bewegungssensors LeapMotion2 in MaxMSP. Die LeapMotion ist ein
neuartiger Sensor, der Bewegungen der Hände im dreidimensionalen Raum erfasst und
es ermöglicht, Digitaltechnik vereinfacht zu steuern. Ob und in welchem Rahmen diese
neue Steuerungsmöglichkeit für ein elektronisches Musikinstrument genutzt werden
kann, ist die wesentliche Frage, die diese Arbeit beantwortet. Um die neuen Möglichkeiten präzise zu untersuchen, wird ein Prototyp eingesetzt. Die Untersuchungen des
Prototyps werden evaluiert und abschließend kritisch gewürdigt. Abschließend wird auf
zukünftige Entwicklungen im Bereich der Steuerungsmöglichkeiten für elektronische
Musikinstrumente eingegangen.
1
„Max gives you all the tools to create your own music, sound, video, and interactive media applications.
You can arrange boxes on a canvas and connect them together to create, experiment, and play.”[cyca]
2
„The Leap Motion Controller senses how you move your hands, the way you move them naturally. So
you can point, wave, reach, and grab. Even pick something up and put it down.”[Lea]
II
Kurzbeschreibung
Abstract
III
Abstract
Nowadays, playing, producing and editing music and acoustic signals is done by using
digital technology. Also in the future a trend to digital technology can be observed.
This thesis gives an overview of alternative audio input devices and illustrates the
implementation of a MaxMSP3 object for the use of the motion sensor LeapMotion4
in MaxMSP. The LeapMotion detects movements of the hand in three-dimensional
space and therefore facilitates control of digital technology. If and how this controlling
possibility can be used for an electronic musical instrument is the essential question
of this work. To analyse the possibilities accurately a prototype is used for the studies.
The analyses of the prototype will be evaluated and finally critically acclaimed. In
the end future developments in the field of control possibilities for electronic musical
instruments are addressed.
3
„Max gives you all the tools to create your own music, sound, video, and interactive media applications.
You can arrange boxes on a canvas and connect them together to create, experiment, and play”[cyca]
4
„The Leap Motion Controller senses how you move your hands, the way you move them naturally. So
you can point, wave, reach, and grab. Even pick something up and put it down.”[Lea]
IV
Abstract
Inhaltsverzeichnis
V
Inhaltsverzeichnis
Kurzbeschreibung
Abstract
I
III
1
Einleitung
1
2
Grundlagen
5
2.1
Klang und Schallerzeugung . . . . . . . . . . . . . . . . . . . . . . .
5
2.1.1
Analoge Instrumente und Musik . . . . . . . . . . . . . . . .
7
2.1.2
Softwarebasierte Instrumente und Musik . . . . . . . . . . .
8
2.2
Bewegungssensoren . . . . . . . . . . . . . . . . . . . . . . . . . . .
9
2.3
Bedienungsmöglichkeiten softwarebasierter Klangerzeugung . . . . .
12
3
4
Prototyp
17
3.1
MaxMSP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
19
3.2
LeapMotion und MaxMSP . . . . . . . . . . . . . . . . . . . . . . .
19
3.3
Exemplarisches Musikinstrument . . . . . . . . . . . . . . . . . . . .
24
3.4
Ergebnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
28
Kriterien und Evaluation
4.1
31
4.0.1
Musikinstrument . . . . . . . . . . . . . . . . . . . . . . . .
31
4.0.2
Kriterienkatalog . . . . . . . . . . . . . . . . . . . . . . . .
33
Evaluation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
37
VI
Inhaltsverzeichnis
5
Interpretation der Ergebnisse und Schlussfolgerungen
43
6
Online-Dokumentation
47
6.1
Onepager . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
47
6.2
Git Repository . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
49
7
Zusammenfassung und Ausblick
51
7.1
Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . .
51
7.2
Kritische Würdigung des Prototyps . . . . . . . . . . . . . . . . . . .
52
7.3
Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
52
Anhang A Visueller Programmcode des exemplarischen Musikinstruments 53
Anhang B Interview mit David Stützel
61
Literaturverzeichnis
63
Abbildungsverzeichnis
67
Eidesstattliche Erklärung
71
Anhang C CD-Rom
73
1. Einleitung
1
1 Einleitung
Musizieren beschreibt eine Interaktion zwischen Mensch und Musikinstrument. Digitale Technologien ermöglichen es, diese natürliche und jahrtausendealte5 Interaktion
nun auf Interaktionen zwischen Mensch und Computer (in der Funktion des Musikinstruments) auszuweiten. Dass eine physisch kontaktlose Mensch-MusikinstrumentInteraktion möglich ist, bewies Leon Theremin erstmals mit seinem 1919 erfundenen,
nach ihm benannten, rein elektronischen Musikinstrument6 . Neuartige elektronische
Bewegungssensoren (wie z.B. die LeapMotion) bieten nun erweiterte Möglichkeiten
und Perspektiven für das Musizieren. Eine Mensch-Musikinstrument-Interaktion mittels
softwarebasierter Klangerzeugung in Kombination mit elektronischen Bewegungssensoren zu realisieren, würde der Welt elektronischer Musikinstrumente neue Chancen
und variable Nutzungsmöglichkeiten eröffnen.
Ziel dieser Arbeit ist es daher, einen Prototypen eines kontaktlosen Musikinstruments
mit Hilfe des Bewegungssensors LeapMotion zu entwerfen, zu entwickeln und zu
evaluieren. Hierfür müssen folgende Fragen vorweg beantwortet werden:
Ist die Realisierung eines funktionsfähigen Prototyps bzw. eines exemplarischen Musikinstruments generell möglich?
Ist der LeapMotion Sensor als Musikinstrument nutzbar?
Wie kann ein solcher Prototyp evaluiert werden?
5
6
vgl. [AHK+ 98]
vgl. [Dvo08] Seite 269
2
1. Einleitung
Um dieses Ziel zu erreichen, werden zu Beginn in Kapitel 2 grundlegende Fragen beantwortet und definiert. Anschließend werden auf die neuen Aspekte der Entkoppelung
der Spielbewegung von Art und Qualität des daraus resultierenden Klangs durch die
Entwicklung elektronischer Musikinstrumente eingegangen. Nachdem die analoge und
softwarebasierte Klang- und Schallerzeugung erläutert wurde, wird auf das Thema der
Bewegungssensorik und der damit einhergehenden Bedienungsmöglichkeiten eingegangen.
Anschließend wird in Kapitel 3 die Form des Prototyps definiert sowie dessen genaue
Entwicklung und Programmierung dargestellt.
Das für die Evaluierung nötige Verfahren basiert auf einem Kriterienkatalog, der einzelne Kriterien der Eigenschaften eines Musikinstruments enthält. Dies wird in Kapitel 4
erarbeitet und erläutert. Anhand des Evaluierungssverfahrens kann anschließend der
entwickelte Prototyp evaluiert werden (siehe Kapitel 4.0.2).
In Kapitel 6 wird das Erstellen der (open-source) Online-Dokumentation geschildert.
Abschließend wird in Kapitel 7 die Arbeit zusammengefasst, eine kritische Würdigung
durchgeführt und ein Ausblick auf Möglichkeiten der Weiterentwicklung und weiterführenden Nutzung des Prototyps gegeben.
1. Einleitung
3
Abbildung 1.1 veranschaulicht das Vorgehen dieser Arbeit, die Zusammenhänge der
Elemente der Untersuchung und somit die Struktur bzw. den Ablauf der Arbeit.
Antwort auf
Konzeption
Fragestellung
Programmierung
Exemplarisches
Musikinstrument
Kapitel 3
Nachweis
Interpretation der Ergebnisse
und Schlussfolgerungen Kapitel 5
Darstellung
Klang und Schallerzeugung
Kapitel 2
Kriterien und Valedierung Kapitel 4
OnlineDokumentation
Kapitel 7
Zusammenfassung und
Ausblick Kapitel 6
Abbildung 1.1: Veranschaulichung der Struktur dieser Arbeit
2. Grundlagen
5
2 Grundlagen
In diesem Kapitel werden grundlegende Fragen rund um diese Arbeit behandelt. Kapitel 2.1 „Klang und Schallerzeugung” und 2.1.1 „Analoge Instrumente und Musik”
behandeln verhältnismäßig alte und grundlegende Themen. Kapitel 2.1.2 „Klang und
Schallerzeugung” transponiert Kapitel 2.1.1 in die Neuzeit und zeigt neue Möglichkeiten und Grundwissen softwarebasierter Musikinstrumente. Der in dieser Arbeit für
den Prototyp verwendete Eingabesensor LeapMotion und alternative/konkurrierende
Bewegungssensoren werden in Kapitel 2.2 vorgestellt und erläutert. In Kapitel 2.3 wird
anschließend eine Brücke zwischen den beiden vorliegenden Kapiteln hergestellt und
beispielhafte alternative Bedienungsmöglichkeiten der softwarebasierten Klangerzeugung aufgezeigt.
2.1 Klang und Schallerzeugung
Die folgende Betrachtung umfasst lediglich eine einführende Zusammenfassung der
wichtigsten, für diese Arbeit erforderlichen, Aspekte. Andere Aspekte, wie etwa die
gesamte Technik der digitalen Aufnahme, Speicherung und Wiedergabe von Klang und
Schall oder die vielfältige Geschichte elektronischer Klangerzeuger werden ausgeklammert. In vielen wissenschaftlichen Arbeiten geht es um das Thema der Klangerzeugung.
Diese sind inhaltlich oft sehr ähnlich; lediglich die Art der Betrachtungsweise differiert. So beschreibt beispielsweise Hans Jörg, Friedrich die wichtigsten physischen
Eigenschaften von Schall folgendermaßen:
6
2. Grundlagen
1. Der Schalldruck: beschreibt den auf „unser Gehör” reagierenden
„Luftdruckunterschied”[HJ08](S 11).
2. Der Schalldruckpegel: „ein logarithmisches Verhältnismaß(...), um Schalldruckdifferenzen auszudrücken”[HJ08](S. 11)
3. Die Schallleistung: „die Menge an Schallenergie, die pro Zeiteinheit abgestrahlt
wird.”[HJ08](S. 12)
4. Der Schallleistungspegel: „ein logarithmisches Maß zur Beurteilung von Schallleistungen im Verhältnis zur Referenz (...). Seine Einheit ist das Dezibel.”[HJ08](S.
12)
5. Das Spektrum: „Die Zusammensetzung der Frequenzen ist das Spektrum” [HJ08](S.
12)
Schall und Klang in der Wahrnehmung des Menschen:
1. Das menschliche Gehör mit seinen Bestandteilen: „Das Äußere Ohr”, „Das Mittelohr”, „Das Innenohr”[HJ08](S. 30-31)
2. Die Psychoakustik:
a) Das Hörfeld: „Das Hörfeld begrenzt den Lautstärke- und Frequenzbereich,
der vom Ohr verarbeitet werden kann.”[HJ08](S. 32)
b) Das Lautstärkeempfinden ist abhängig von: „Schalldruck und Schalldruckpegel”, „Kurven gleicher Lautstärke”, „Bewertungskurven” und
„Lautheit”[HJ08](S. 33-35)
3. Das Tonhöhen-Hören: „Die Projektion der Frequenz auf bestimmte
Hörzellen”[HJ08](S. 35)
4. Die Kombinationstöne: „Neben den tatsachlich im Schallereignis vorhandenen
Frequenzen werden als Folge der nichtlinearen Verzerrungen im Ohr weitere Frequenzen wahrgenommen.”[HJ08](S. 39)
2. Grundlagen
7
5. Das Grundton-Hören - Residualeffekt: „der Zusammenklang zweier beliebiger aufeinanderfolgender Obertöne, die (die) Empfindung des Grundtons erzeugt”[HJ08](S.
39)
Die meisten weiteren Publikationen wie beispielsweise: „Chladni und die Entwicklung der experimentellen Akustik um 1800” von Ullmann, Dieter [Ull84] und „was
ist elektronische Musik” von Kaegi, Werner [Kae67] handeln von konkreten Fällen
wie beispielsweise „der experimentellen Akustik”[Ull84] und „Klangerzeugung durch
Synthese von Elementarsignalen”[Kae67]. Oder sie handeln mehr oder weniger von
den oben aufgezeigten physikalischen und psychischen Gegebenheiten, wie sie beispielsweise Rolf Bader in seinem Werk „Nonlinearities and Synchronization in Musical
Acoustics and Music Psychology”[Bad13] ebenfalls aufführt.
2.1.1 Analoge Instrumente und Musik
Ein Instrument ist ein „meist fein gearbeitetes, oft kompliziert gebautes Gerät, Werkzeug
für wissenschaftliche, technische Arbeiten”[Duda]. In dieser Arbeit wird der Begriff
Instrument im Zusammenhang mit Musik als Kurzform von Musikinstrument genutzt.
Musik definiert sich in diesem Zusammenhang als die „Kunst, Töne in bestimmter
(geschichtlich bedingter) Gesetzmäßigkeit hinsichtlich Rhythmus, Melodie, Harmonie
zu einer Gruppe von Klängen und zu einer stilistisch eigenständigen Komposition
zu ordnen” [Dudb]. Somit ist laut Definition ein Musikinstrument ein Gerät oder
Werkzeug, welches ermöglicht, Töne in bestimmten Gesetzmäßigkeiten hinsichtlich
Rhythmus, Melodie und Harmonie einer Gruppe zuzuordnen. Da nicht nur eine Art von
Instrumenten existiert und es auch nicht nur eine Musikrichtung gibt, hat Hans Jörg,
Friedrich Musikinstrumente in vier Hauptgruppen gegliedert: „
• Blasinstrumente
• Saiteninstrumente
• Schlaginstrumente
8
2. Grundlagen
• elektronische Instrumente
”[HJ08](S.59). Somit ist zu klären, wie diese Differenzierung zustande kommt und an
welchen Kriterien ein Musikinstrument unterschieden werden kann:
1. „Der Tonumfang”[HJ08](S.60) oder auch Ambitus beschreibt den Umfang vom
höchsten bis zum tiefsten Ton, der produziert werden kann; nicht aber die Obertöne.
2. „Obertonstruktur"[HJ08](S.60) gibt das Verhältnis der verschiedenen Obertöne 7
im Zeitlichen sowie in der Stärke an.
3. „Einschwingverhalten”[HJ08](S.60) ist die Dauer, bis ein/e
konstante/r Klang/Schwingung erreicht ist. Allgemeiner das Schwingverhalten,
welches die Intensität des Grundtons und allen vorhandenen Ober- und Nebentönen8
angibt.
Diese Eigenschaften machen Instrumentengruppen, jede Instrumentenart und sogar
jedes Instrument zu einem akustischen Unikat. In der Musik werden verschiedene
Instrumentengruppen mit verschiedenen Instrumenten gleichzeitig genutzt, um ein
breites Spektrum an Tonumfang und Obertönen zu erhalten. Verbunden mit zeitlich
differierenden Intensitäten verschiedener Instrumente entsteht so ein musikalisches
Stück. Dabei sind jegliche Variationen zwischen keiner Intensität keines Instruments in
keiner Zeit und voller Intensität aller Instrumente in ganzer Zeit denkbar.
2.1.2 Softwarebasierte Instrumente und Musik
Softwarebasierte Instrumente und Musik haben im Gegensatz zu klassischen Instrumenten und klassischer Musik, wie sie im vorherigen Kapitel 2.1.1 beschrieben wurden,
den entscheidenden Unterschied, dass „historisch erstmals die Zwangsläufigkeit der
Beziehung zwischen der Spielbewegung und der Art und Qualität des daraus resultierenden Klangs”[MH10] entfällt. Somit ist nicht nur jegliche Variation der Intensität,
7
„einzelne(...) Komponenten mit den Frequenzen 2f0 , 3f0 , 4f0 , 5f0 , ... usw. nennt man die Obertöne
oder Partialtöne der Grundfrequent f0 ”[PW99](S.57)
8
Komponenten mit Frequenzen die nicht der vielfachen der Grundfrequenz f0 entsprechen
2. Grundlagen
9
der Instrumentenanzahl und der zeitlichen Varianz möglich, sondern auch die Art und
Weise der Ansteuerung und/oder Stimulation dieser variablen Faktoren. Nicht nur die
Art und Weise, wie softwarbasierte Instrumente und Musik angesteuert bzw. gespielt
werden, spielt eine Rolle, auch, wie eigentliche Klänge/Frequenzen erzeugt werden,
ist bei softwarebasierter Klangerzeug eine zu klärende Frage. Hans Jörg Friedrich hat
hier die zwei verschiedenen Arten der softwarebasierten Klangerzeugung festgestellt:
„Die elektronischen Instrumente unterscheiden sich”[HJ08] von den herkömmlichen
akustischen Instrumenten, „dass sie entweder Klänge synthetisch erzeugen oder akustische Klänge elektronisch übertragen.”[HJ08]. Daraus lässt sich erschließen, dass es
lediglich zwei verschiedene Prinzipien softwarebasierter Klangerzeugung gibt. Zum
einen das „algorithmische Berech(nen) elektroakustischer Klänge”[Tro05] (S. 207) und
zum anderen das Abspielen akustisch erzeugter Klänge/Frequenzen eines elektronischen Impulses. Hierbei spielt es keine Rolle, ob dies in Echtzeit oder verzögert abläuft.
Mischformen beider Arten softwarebasierter Klangerzeugung sind ebenfalls denkbar
und werden meist auch so verwendet.
2.2 Bewegungssensoren
Das in dieser Arbeit für den Prototyp verwendete Eingabegerät „LeapMotion” ist ein
neuartiger9 elektronischer Bewegungssensor. Diverse Fachzeitschriften wie das LinuxMagazin10 oder auch andere Internet-Magazine wie t3n.de11 berichteten schon früh
über das Startup-Unternehmen LeapMotion, Inc. mit gleichnamigem Produkt. „The
Leap Motion Controller senses how you naturally move your hands and lets you use
your computer in a whole new way. Point, wave, reach, grab. Pick something up and
move it”[Lea] beschreibt das Unternehmen sein Produkt. Das lediglich 3"(7,62cm) x
1"(2,54cm) x 0,5"(1,27cm)12 große Gerät wird per USB-Anschluss an den jeweiligen
9
Mai 2012 angekündigt[neu]; „Leap Motion (...) In Preparation For Its July 22 Launch”[tec]
vgl. [mag]
11
vgl. [t3n]
12
vgl. [Lea] siehe Abbildung 2.1
10
10
2. Grundlagen
Computer angeschlossen.
Abbildung 2.1: LeapMotiongerät inklusive USB-Verbindungskabel
[ars]
Ob es sich dabei um einen mit OSX oder Windows betriebenen Computer handelt, spielt
im Wesentlichen keine Rolle. Nach Anschluss des Sensors erfassen zwei eingebaute
zweidimensionale Infrarotkameras innerhalb des LeapMotion Controllers den Raum
über dem Controller. Um eine ideale Erfassung der Objekte in diesem Raum zu ermöglichen, wird dieser von drei Infrarot-LED’s, die ebenfalls im Gehäuse der LeapMotion
verbaut sind, ausgeleuchtet. Im Idealfall, vorausgesetzt die Lichtverhältnisse sind optimal und ein leistungsstarker Computer zur Verarbeitung der Daten ist vorhanden, kann
die Leap Objekte über ihr bis zu 200 Mal pro Sekunde13 in einer Genauigkeit von bis
zu 1/100. Millimeter14 erfassen. Der Interaktionsraum, in dem Bewegungen zuverlässig
erfasst werden können, beschränkt sich dabei auf 150 Grad15 und einer maximalen Höhe
von 25cm.16 Neben den Konkurrenzprodukten Nintendo Wii (siehe: 2.2 (a)), Playstation
Move (siehe: 2.2 (b)) und Microsoft Kinect (siehe: 2.2 (c)) bestzet die LeapMotion den
noch freien Markt der Computersensoren.
13
The Leap Motion Controller can track your movements at a rate of over 200 frames per second [Lea]
The Leap Motion Controller tracks all 10 fingers up to 1/100th of a millimeter [Lea]
15
It’s a super-wide 150◦ field of view [Lea]
16
vgl. LeapMotion Software -> Leap Motion-Bedienfeld -> Interaktionshöhe
14
2. Grundlagen
(a) Nintendo Wii [chi]
11
(b) Playstation Move [the]
(c) Microsoft Kinect [wor]
Abbildung 2.2: Direkte Konkurrenzprodukte zur LeapMotion
Alle drei Produkte in Abbildung 2.2 gleichen den bildverarbeitenden Systemen der
LeapMotion. Dies bedeutet, alle besitzen eine oder mehrere Kameras, deren Bildmaterial
in Echtzeit zur Bestimmung der Koordinaten im Raum genutzt werden. Die Interaktion
des Nintendo Wii (siehe: Abbildung 2.2 (a)) funktioniert mittels Controller, der in der
Hand gehalten wird. Die mit diesem Controller ausgeführten Bewegungen werden über
Kameras innerhalb des Controllers erkannt. Somit können die zur Eingabe genutzten
Koordinaten über Infrarot-LED’s am Bildschirm ermittelt werden. Ähnlich funktioniert
das System der Playstation Move (siehe: Abbildung 2.2 (b)). Allerdings befinden sich
hier die Kameras in Monitornähe und der Controller bildet den Referenzpunkt. Ähnlich
der LeapMotion ist die Microsoft Kinect (siehe: Abbildung 2.2 (c)). Hier erkennen
ebenfalls zweidimensionale Kameras die Bewegung des menschlichen Körpers im
Raum und interpretieren daraus die Koordinaten. All diese Konkurrenzprodukte wurden
konzipiert, um Spiele für die jeweiligen Spielkonsolen zu steuern. Sie haben alle einen
ähnlich großen Interaktionsraum. Anders als bei der LeapMotion ist eine Interaktion
bei diesen drei Produkten mit dem gesamten Körper möglich und auch vorgesehen.
Aufgrund dieses großen Interaktionsraumes ist die Genauigkeit im Gesamten weniger
detailliert als bei der LeapMotion.
12
2. Grundlagen
2.3 Bedienungsmöglichkeiten softwarebasierter
Klangerzeugung
Softwarebasierte Klangerzeuger müssen, wie auch die artverwandten akustischen Klangerzeuger, eine Stimulation bzw. einen Anstoß erhalten, um einen Klang zu erzeugen.
Jedoch ist die Art und Weise der Klangerzeugung bei diesen beiden artverwandten Klangerzeugern völlig unterschiedlich. Bei akustischen Klangerzeugern ist dies in jedem
Fall eine rein mechanische/r Stimulation/Anstoß. Bei softwarebasierten Klangerzeugern
dagegen ist dies nicht zwingend der Fall. Eine mechanische/r Stimulation/Anstoß ist nur
indirekt möglich. Dabei muss immer der Umweg über die Digitalisierung17 erfolgen.
Dieser Unterschied ist am klassischen Beispiel eines Pianos im Vergleich zu einem
elektronischen Piano gut zu erläutern: Die/der menschliche Stimulation/Anstoß ist in
beiden Fällen identisch und äußert sich durch einen Tastendruck auf eine beliebige
Taste. Bei einem rein mechanischen Piano wird diese Energie der/des Stimulation/Anstoßes genutzt, um über komplexe mechanische Hämmer, Ärme und Dämpfer18 eine
Saite in Schwingung zu bringen. Bei einem elektronischen Piano wird die Energie
der/des Stimulation/Anstoßes genutzt, um einen elektronischen Schalter zu betätigen.
Dieser Schalter kann, je nach Komplexität und Ausführung des elektronischen Pianos,
lediglich einen Unterschied zwischen „An” und „Aus” erfassen oder aber endlich viele
Zwischenschritte erfassen. Eine Kombination aus mechanischem Ansteuern mittels
Hämmer, Ärme und Dämpfer und elektronischem Abnehmen ist bei elektronischen
Pianos üblich. Dies dient der Nachempfindung des Spielempfindens eines klassischen
Pianos und der besseren Spielbarkeit. Vollständigkeitshalber ist zu erwähnen, dass bei
softwarebasierter Klangerzeugung nicht immer ein/e mechanische/r Stimulation/Anstoß nötig ist, es können auch automatisierte Algorithmen oder Zufallsalgorithmen zur
Erzeugung digitaler Impulse verwendet werden.
Nach Digitalisierung der/des Stimulation/Anstoßes kann dieser digitale Impuls auf
17
„Mit Digitalisierung wird die Umwandlung von Informationen wie Ton, Bild oder Text in Zahlenwerte
zum Zwecke ihrer elektronischen Bearbeitung, Speicherung oder Übertragung bezeichnet.”[Sch06]
18
vgl. [Cro95]
2. Grundlagen
13
verschiedene Arten und Weisen zu einem Klang weiterverarbeitet werden. Wie in 2.1.2
Klang und Schallerzeugung bereits erläutert, gibt es typischerweise zwei Vorgehensweisen der softwarebasierten Klangerzeugung: synthetisch erzeugte oder elektronisch
übertragene akustische Klänge19 . Beide dieser Arten lassen sich mittels digitaler Impulse manipulieren. Dabei sind verschiedene Manipulationen möglich. Folgende Auflistung
zeigt die gebräuchlichsten Manipulationen:
• Starten und Stoppen der Synthese oder der elektronischen Übertragung
• Regulierung der Lautstärke bzw. des erzeugenden Amplitudenpegels
• Abspielgeschwindigkeit bei elektronisch aufgezeichneter Übertragung
• Frequenzabhängige Manipulation elektronisch aufgezeichneter Übertragung
• u. v. m.
Wie diese verschiedenen Stimulationen/Anstöße und auch Manipulationen aussehen
können, zeigt die „International Conference on New Interfaces for Musical
Expression”[nim]. Dort wurden verschiedene Arten von Bedienungsmöglichkeiten softwarebasierter Instrumente und ähnliche Anwendungen vorgestellt. Hier eine Auflistung
einiger Bedienungsmöglichkeiten ähnlich der in dieser Arbeit vorgestellten LeapMotion
als Musikinstrument:
• „3D Gesture-driven Collaborative Audio Mosaicing”[JMC] „This research presents
a 3D gestural interface”[JMC]. Das mit der Microsoft Kinect realisierte Interface
erkennt die Hände der Künstler in vier Dimensionen (x,y,z,t).20 Hier handelt es sich
um die Raumkoordinaten und die Lage im Raum (Abbildung 2.3).
19
20
vgl. [HJ08]
vgl. [JMC]
14
2. Grundlagen
Abbildung 2.3: Zwei Künstler, deren Hände erkannt und zu einem Musikstück interpretiert werden. [JMC]
• „A Musical Interface with Stereotypical Acoustic Transducers”[LY] „This paper introduces Sonicstrument, a sound-based interface that traces the user’s hand
motions”[LY]. Bei diesem Projekt wurden verschiedenste Arten von bewegungserkennenden Systemen genutzt: „optics (cameras, infrared sensors), electromagnetic
field (compass), and motion/vibration (accelerometers)”[LY].
• „A Real-time Multimedia Gestural Controller for Augmented Electric Bass
Performance”[Ram]. Der so genannte „Bass Sleeve” verwendet verschiedene Eingabekanäle: Knöpfe, Beugungssensoren, druckempfindliche Widerstände und Accelerometer (Abbildung 2.3 (a)), um in Echtzeit den Klang einer Bass-Gitarre verändern
bzw. ihm Komponenten hinzufügen zu können.21
21
vgl. [Ram]
2. Grundlagen
15
(a) Drucksensoren, Beugungssensoren (b) Software zum bedienen geschrieben in Maund deren Bedienungseinheit [Ram]
xMSP [Ram]
Abbildung 2.4: A Real-time Multimedia Gestural Controller for Augmented Electric
Bass Performance [Ram]
• „Hex Player - A Virtual Musical Controller”[AJM] „a playable musical interface
for tablets and multi-touch tables. The interface is a generalized keyboard, inspired
by the Thummer, and consists of an array of virtual buttons”[AJM]. In Abbildung
2.5 ist das Interface der in MaxMSP geschriebenen Software zu sehen.
Abbildung 2.5: In MacMSP geschriebene Software zum Bedienen [AJM]
16
2. Grundlagen
3. Prototyp
17
3 Prototyp
In diesem Kapitel wird die praktische Umsetzung eines exemplarischen Prototyps
beschrieben und die technische Umsetzbarkeit einer auf Hand- und Fingerbewegung
basierenden Steuerung bewiesen. Um diesem Ziel gerecht zu werden, werden wie
in Abbildung 3.1 grundlegend betrachtete Schritte, Abläufe und Umgebungen des
Prototyps in Zusammenhang gestellt.
18
3. Prototyp
LeapMotion
Kapitel 2.2
USB
Hardware - Computer
Software -
Betriebssystem
LeapMotion Software
MaxMSP Vektordaten bereitgestellt Kapitel 3.1
über Leap::Controller
Exemplarisches
Musikinstrument Kapitel 3.3
Max-Patch Kapitel 3.3
LeapMotion und MaxMSP
Kapitel 3.2
Xcode
C++
MaxMSP kompatible Vektordaten
Klangerzeugung
Kapitel 3.3
Frequenz
Klang
Kapitel 2.1
Legende:
Hardware
Software
Gedanken Modell
Datenfluss
Programmierumgebung
Abbildung 3.1: Veranschaulichung der Struktur des Prototyps
Der Umfang des Prototyps beschränkt sich auf ein exemplarisches Musikinstrument,
dessen Struktur in Kapitel 3.3 genauer beschrieben wird. In den folgenden Kapiteln 3.1
MaxMSP und 3.2 LeapMotion und MaxMSP wird auf die für den Prototyp verwendete
3. Prototyp
19
Software und Softwareentwicklungsumgebungen eingegangen. Die Ergebnisse des so
entstandenen exemplarischen Musikinstruments werden in Kapitel 3.4 dargestellt. Des
Weiteren gibt es zu Kapitel 3.3 in Anhang A detaillierte Abbildungen zum visuellen
Programmcode und die dazugehörigen Beschreibungen.
3.1 MaxMSP
Professor Reginald Bain beschriebt MaxMSP als als ein „powerful graphical programming environment for real-time interactive computer music composition/
performance”[Bai13] das in vielen Bereichen wie beispielsweise: „art, computer science,
mathematics, and music”[Bai13] genutzt wird. MaxMSP wird für diese Arbeit und für
den in dieser Arbeit entwickelten Prototypen genutzt, um die Daten der LeapMotion
zu interpretieren, zu konvertieren und zu Audiosignalen/Klängen weiterzuverarbeiten
(siehe 3.3).
3.2 LeapMotion und MaxMSP
Um das exemplarische Musikinstrument in MaxMSP, wie es in Kapitel 3.3 beschrieben
wird, programmieren und realisieren zu können, bedarf es an Vorarbeit. Diese besteht
im Wesentlichen darin, die von der LeapMotion ankommenden Daten in MaxMSP
zur Verfügung zu stellen. Die folgende Übersicht listet schrittweise die Bewegung
des Menschen bis zum ausgegebenen Klang hin auf; wobei der wesentliche Teil der
Datenweitergabe in Punkt 5 und 6 geschieht:
1. Die Interaktion zwischen Mensch und LeapMotion, indem die Hand, die Finger
oder ein Objekt über dem LeapMotion Controller bewegt werden.
2. Die Aufnahme der Bewegung durch LeapMotion Controller: Zwei zweidimensionale Infrarotkameras nehmen in Echtzeit die Umgebung oberhalb der Leap Motion
20
3. Prototyp
auf22 (siehe Abbildung: 3.2).
Abbildung 3.2: LeapMotion-Visualisierung der Aufnahme
[Lea]
3. Die per USB angeschlossene LeapMotion leitet stetig zwei zweidimensionale Bilder
an die von LeapMotion entwickelte Software.
4. Die LeapMotion Software verarbeitet das Bildmaterial zu dreidimensionalen Vektoren:
22
vgl. Kapitel 2.2 Bewegungssensoren
3. Prototyp
21
a) Es wird zwischen Fingern, Händen und Objekten wie Stiften oder Pinseln
unterschieden.
b) Es wird die exakte dreidimensionale Position ermittelt.
c) Zusätzlich zur Position hat die Hand einen Vektor, der die Lage angibt, in der
sie liegt. Finger und Objekte haben zusätzlich einen Richtungsvektor, in die
sie zeigen.
d) Um Störungen wie schnelles Auftauchen und Verschwinden oder Fehlinterpretationen möglichst zu verringern, verwendet die LeapMotion Software
zusätzlich Glättungs-Algorithmen. Diese sind hochkomplex und von LeapMotion unter Verschluss gehalten.
5. Die rein vektorbasierten Koordinaten stehen dem Softwareentwickler über verschiedene Zugriffskanäle zur Weiterverarbeitung bereit (siehe Abbildung 3.1 Vektordaten bereitgestellt über Leap::Controller). In dem konkreten Fall des LeaptoMax Objekts für MaxMSP wird dies über ein Leap Controller Objekt für C++
realisiert (siehe Listing 3.1)
1
(...)
2
# i n c l u d e " Leap . h "
3
(...)
4
t y p e d e f s t r u c t _LeapToMax {
5
(...)
6
Leap : : C o n t r o l l e r ∗ l e a p ;
7
}
8
(...)
9
v o i d ∗LeapToMax_new ( t_sym
10
b o l ∗ s , l o n g a r g c , t _ a t o m ∗ a r g v ) { t_LeapToMax
∗ x= NULL ;
11
x = ( t_LeapToMax ∗ ) o b j e c t _ a l l o c ( s _ L e a p T o M a x _ c l a s s ) ;
12
i f ( x ){
13
(...)
14
x−> l e a p = new Leap : : C o n t r o l l e r ;
15
}
16
(...)
17
v o i d LeapToMax_free ( t_LeapToMax ∗ x ) {
22
3. Prototyp
18
d e l e t e ( Leap : : C o n t r o l l e r ∗ ) ( x−> l e a p ) ;
19
}
20
(...)
Listing 3.1: Leap Controller Objekt [Aka]
Der gezeigte Ausschnitt aus dem Quellcode von [Aka] zeigt die Initialisierung des
Leap Controller Objekts (Zeile 4-15 Listing: 3.1) und das Löschen bei Nichtbenutzung (Zeile 17-19 Listing: 3.1). In Zeile 2 Listing 3.1 wird der für die Initialisierung
notwendige Header23 zum Dokument hinzugefügt. Somit kann auf erforderliche
LeapMotion Klassen zugegriffen werden.
6. Das in C++ geschriebene Objekt „LeaptoMax” von [Aka] und das in dieser Arbeit
auf die aktuellste API24 gebrachte Objekt gibt die von der LeapMotion zu Verfügung
gestellten Vektordaten Frame für Frame an maxMSP weiter.
1
(...)
2
v o i d LeapToMax_bang ( t_LeapToMax ∗ x )
3
{
4
c o n s t Leap : : Frame f r a m e = x−>l e a p −>f r a m e ( ) ;
5
const i n t 6 4 _ t frame_id = frame . id ( ) ;
6
7
/ / i g n o r e t h e same f r a m e
8
i f ( f r a m e _ i d == x−> f r a m e _ i d _ s a v e ) r e t u r n ;
9
x−> f r a m e _ i d _ s a v e = f r a m e _ i d ;
10
11
o u t l e t _ a n y t h i n g ( x−> o u t l e t , gensym ( " f r a m e _ s t a r t " ) , 0 ,
12
nil );
13
14
(...)
15
16
f o r ( s i z e _ t i = 0 ; i < numHands ; i ++)
17
{
23
„Um die benötigten Deklarationen und Definitionen zwischen den verschiedenen Quelltexten auszutauschen, gibt es Header-Dateien”[Wil]
24
„Classes contain a mixture of private and public methods. The public methods are those that are meant
to be used by application programmers. The set of public methods of a class library make up its
application programmer interface (API)”[DJ06] S.84
3. Prototyp
23
18
/ / Hand
19
c o n s t Leap : : Hand &hand = h a n d s [ i ] ;
20
c o n s t i n t 3 2 _ t h a n d _ i d = hand . i d ( ) ;
21
c o n s t Leap : : F i n g e r L i s t &f i n g e r s =
22
hand . f i n g e r s ( ) ;
23
const s i z e _ t numFingers = f i n g e r s . count ( ) ;
24
25
t_atom hand_data [ 3 ] ;
26
atom_setlong ( hand_data , hand_id ) ;
27
a t o m _ s e t l o n g ( h a n d _ d a t a +1 , f r a m e _ i d ) ;
28
a t o m _ s e t l o n g ( h a n d _ d a t a +2 , n u m F i n g e r s ) ;
29
o u t l e t _ a n y t h i n g ( x−> o u t l e t , gensym ( " hand " ) , 3 ,
30
hand_data ) ;
31
32
f o r ( s i z e _ t j = 0 ; j < n u m F i n g e r s ; j ++)
33
{
34
/ / Finger
35
(...)
Listing 3.2: LeaptoMax Weitergabe der Verktoren [Aka]
Der gezeigte Ausschnitt aus dem Quellcode von [Aka] zeigt die Weitergabe der
verfügbaren Daten am Beispiel der Handballen; weiters die der Finger (Zeile 32ff
Listing: 3.2), der Objekte usw.. Das Prinzip der Weitergabe bleibt unverändert; lediglich die weiterzugebenden Daten verändern sich. Dies geschieht nur dann, wenn
die Methode LeapToMax_bang (Zeile 2 Listing: 3.2) aufgerufen wird, was dann der
Fall ist, wenn bei einem Signaleingang am LeaptoMax Objekt ein Methodenaufruf
stattfindet (vgl.: [cycc] S.15 u. 16., siehe Anhang: A Abbildung A.3). In Zeile 4
und 5 Listing: 3.2 wird die Frame-ID initialisiert (siehe Anhang: A Abbildung A.2).
Zeile 7-9 verhindert die Ausgabe der Daten eines gleichen Frames. Zeile 11 und 12
geben schließlich eine Startsequenz „frame_start” mittels outlet_anything Methode
aus. In Zeile 16-30 erfolgt die Weitergabe der Daten des Leap Controller Objekts
an konstante Variablen, die in Zeile 29 ausgegeben werden.
24
3. Prototyp
7. In MaxMSP werden die ankommenden Daten nun interpretiert, konvertiert und
weiterverarbeitet. Weiteres hierzu in folgendem Kapitel 3.3
3.3 Exemplarisches Musikinstrument
Nachdem das LeaptoMax Objekt, wie in Kapitel 3.2, erzeugt ist und die Daten der
LeapMotion in MaxMSP verfügbar sind, kann ein exemplarisches Musikinstrument entworfen und programmiert werden. Das Musikinstrument muss die in 4.0.2 aufgeführten
Kriterien erfüllen, um die These dieser Arbeit belegen zu können. Das exemplarische
Musikinstrument begrenzt sich dabei auf einen Bruchteil des Umfangs der aus der Kombination von LeapMotion und MaxMSP entstehenden Möglichkeiten (siehe Kapitel
7.3 Ausblick). Um eine möglichst leichte Evaluation (siehe Kapitel 4.1) zu gewährleisten, wurde ein schon vorhandenes kontaktloses elektronisches Musikinstrument
nachgebildet: das nach seinem Erfinder benannten, 1919 erfundenen Theremin25 .
25
vgl. [Dvo08] Seite 269
3. Prototyp
25
Abbildung 3.3: Leon Theremin mit seiner Erfindung „Das Theremin”
Quelle:[med]
Das Theremin ist ein rein elektronisches und analoges Instrument. Dies bedeutet,
jegliche Signale innerhalb des Instruments sind ausschließlich analoger Natur. Gespielt
wird das Musikinstrument, indem die von der Theremin erzeugten elektromagnetischen
Felder durch beide Hände gebrochen werden. Hierfür gibt es zwei Antennen, von denen
diese elektromagnetischen Felder ausgehen. Wird nun beispielsweise eine Bewegung hin
zur Antenne des linksarmigen elektromagnetischen Feldes ausgeführt, interpretiert dies
das Theremin, indem es die Lautstärke des erzeugenden Klangs anhebt. Entfernt man
die Hand von der Antenne, wird die Lautstärke des erzeugenden Klangs abgesenkt. Die
Frequenz des erzeugenden Klangs wird mit der rechtsarmigen Antenne ebenfalls über
26
3. Prototyp
die Entfernung der Hand manipuliert. Das Klangergebnis des Theremin ist abhängig von
den jeweilen Ausführungen der Bauweisen des Musikinstruments. Variationen reichen
vom reinen Sinus hin bis zu komplex rückgekoppelten und verzerrten Klängen. Alle
konventionellen Theremine haben die Gemeinsamkeit, dass sie jeweils nur einstimmige
Klänge erzeugen. Auf der CD-Rom im Anhang C sind verschiedene Hörbeispiele
aufgeführt, die die verschiedenen Ausführungen der Theremin Bauweisen akustisch
betrachten. Ebenso sind Hörbeispiele des exemplarischen Musikinstruments dieser
Arbeit vorzufinden.
3. Prototyp
27
Abbildung 3.4 zeigt den generellen Ablauf der von der LeapMotion kommenden Daten
in MaxMSP und bildet so das Softwaredesign des exemplarischen Musikinstruments:
LeapMotion Software
Bewegungsdaten
Theremin Beispiel Instrument
Anhang A: Abbildung A.1
!
p Datenaufbereitung
Anhang A: Abbildung A.2
Visualisierung der Handballen
Fram id, Time und Hand Anzahl
p Leap to Max
Anhang A: Abbildung A.3
Verteilung der Einzeldaten
Implementierung des LeaptoMax Objekts aus Kapitel 3.2
p Scale Frequenz
Anhang A: Abbildung A.4
p Scale Volume
Anhang A: Abbildung A.5
Ermittlung der Frequenz
Ermittlung der Lautstärke
p Single
Anhang A: Abbildung A.6
Klangerzeugung
Klangausgabe
Frequenz
Legende:
Klang
Datenfluss
Kapitel 2.1
MaxMP Umgebung
Frequenz Datenfluss
Abbildung 3.4: Genereller Ablauf der Daten in MaxMSP
Wie in Abbildung 3.3 zu sehen, werden beide Hände benötigt, um das Theremin spie-
28
3. Prototyp
len zu können. Für das in dieser Arbeit entwickelte exemplarische Musikinstrument
werden hierfür die von der LeapMotion kommenden Handballen-Datensätze verwendet. Diese Daten beinhalten die in Tabelle Anhang A Abbildung A.2 (Subpatch zur
Datenaufbereitung und Visualisierung) aufgezeigten Daten.
Um eine möglichst intuitive und einfache Steuerung des exemplarischen Musikinstruments zu ermöglichen, werden lediglich die x, y und z Koordinaten der Positionen
beider Hände verwendet. Wie beim Originalinstrument auch, steuert die rechte Hand
die Tonhöhe (Anhang A Abbildung A.4), die linke Hand steuert die Lautstärkeanpassung (Anhang A Abbildung A.5). Nachdem sowohl Tonhöhe des Klanges als auch
Lautstärke aus den Daten interpretiert und bestimmt werden, kann in Anhang A Abbildung A.6 der eigentliche Klang erzeugt und über die MaxMSP interne Klangausgabe
an das Betriebssystem zur Ausgabe weitergegeben werden. Somit ist das exemplarische Musikinstrument der Bedienung des originalen Theremins von Leon Theremin26
identisch.
3.4 Ergebnis
In diesem Kapitel wird lediglich das Ergebnis des exemplarischen Musikinstruments
präsentiert. Dessen Evaluation, Schlussfolgerung und Untersuchung wird in Kapitel 4
und Kapitel 5 geschildert. Um eine benutzerfreundliche und intuitive Bedienung des
exemplarischen Musikinstruments zu erhalten, werden im Präsentationsmodus27 von
MaxMSP alle nicht bedienbaren und während des Betriebs nicht gebrauchten Elemente
ausgeblendet. So entsteht ein übersichtliches und überschaubares Bedienungsfeld.
26
27
vgl. [med]
Ausgewählte Elemente werden angezeigt, restliche grafisch nicht benötigte Elemente werden ausgeblendet.
3. Prototyp
29
Abbildung 3.5: Exemplarisches Musikinstrument im Präsentationsmodus
Abbildung 3.5 zeigt Abbildung Anhang A Abbildung A.1 im übersichtlicheren Stil:
im „Präsentationsmodus”. Die wesentlichen Bedienungselemente des exemplarischen
Musikinstruments (siehe Abbildung 3.5) sind:
1. Eine Klaviatur als visuelles Feedback, welche die momentan gespiele Frequenz
momentan anzeigt28 .
2. Die Auswahl „Feedback” mit der Auswahlmöglichkeit der Rückkopplungszeit;
eine Klangveränderung mit rückkoppelnden Effekten. Detallierte Beschreibung in
Anhang A Abbildung A.6.
28
Frequenz-Ton-Zuordnung bezieht sich auf die übliche gleichstufige Stimmung
30
3. Prototyp
3. Die Auswahl „Steps”: bei Aktivierung wird der Klang in Halbtonschritten ausgegeben, bei Deaktivierung hat der Klang einen fließenden Übergang.
4. Eine Anzeige der Lautstärke des erzeugenden Klangs in dB.
Das akustische Ergebnis und ein Eindruck der Spielweise wird in den vorhandenen
Videos auf Anhang C unter Hörbeispiele verdeutlicht.
4. Kriterien und Evaluation
31
4 Kriterien und Evaluation
Kapitel 4 beschäftigt sich mit der reproduzierbaren Untersuchung der Gebrauchstauglichkeit des in dieser Arbeit programmierten elektronischen Musikinstruments und
dessen Komponenten. Bevor die Ergebnisse in Kapitel 5 interpretiert werden können,
müssen grundlegende begriffliche und formelle Fragen beantwortet werden. Hierzu
wird in 4.0.1 versucht, eine Definition für den in dieser Arbeit oft verwendeten Begriff
„Musikinstrument” zu finden und in Kapitel 4.0.2 ein Kriterienkatalog zur Evaluation
des in dieser Arbeit entstandenen elektronischen Musikinstruments zu definieren. Wie
beschrieben, wird anschließend in Kapitel 5 der in Kapitel 4.0.2 erarbeitete Kriterienkatalog mit dem in 3.3 beschriebenen exemplarischen Musikinstrument verglichen.
4.0.1 Musikinstrument
Das Wort Musikinstrument besteht aus den zwei Einzelwörtern Musik und Instrument. Untersucht man diese getrennt voneinander, so stellt sich die Frage der Definitionen. Die Definition von Musik ist folgendermaßen: „Kunst, Töne in bestimmter
(geschichtlich bedingter) Gesetzmäßigkeit hinsichtlich Rhythmus, Melodie, Harmonie
zu einer Gruppe von Klängen und zu einer stilistisch eigenständigen Komposition
zu ordnen; Tonkunst”[Dudb]. Die Definition von Instrument lautet: "meist fein gearbeitetes, oft kompliziert gebautes Gerät, Werkzeug für wissenschaftliche, technische
Arbeiten”[Duda]. Folglich ist ein Musikinstrument die Kunst, Töne in bestimmter
Gesetzmäßigkeit hinsichtlich Rhythmus, Melodie und Harmonie mit Hilfe eines fein
32
4. Kriterien und Evaluation
gearbeiteten, komplizierten Gerätes oder Werkzeugs zu einer Gruppe von Musikkompositionen zu ordnen29 . David Stützel, Dozent an der Musikhochschule Trossingen,
ging der Frage, was ein Musikinstrument ausmacht und wie es definiert ist, in einem
Interview (Anhang B) nach. Er fasst folgende Punkte zusammen30 :
1. „Ein Musikinstrument macht Musik” -> folglich muss definiert werden, was Musik
ist.
2. „Musik ist unter anderem auch eine Kunst” -> folglich muss definiert werden, was
Kunst ist.
3. Zusatz zu 1. und 2.: Der Versuch einer Definition ist „unvollständig” oder „nicht
gemeint(e)” Definitionen entstehen.
4. Ein Musikinstrument wird als Musikinstrument anerkannt, „sobald man es als
solches benutzt, eventuell auch schon, sobald man es als solches ansieht”
5. „Sobald (...) über Tonhöhen” geredet wird, werden Musikinstrumente, „die vielleicht nur eine Tonhöhe haben oder "nur” ein Geräusch” haben, ausgeschlossen ->
folglich kann anhand der Klangerzeugung keine Definition abgeleitet werden.
6. Zusatz zu 5.: Es besteht schon das Problem bei der Definition eines Musikinstruments durch „Klänge, Töne, Geräusche, also im weitesten Sinne Hörbares”.
Herangezogen wird das Beispiel: "John Cages 4’3331 ”
7. Zusatz zu 4., 5. und 6.: Eine Sache, die kein Musikinstrument ist, könnte somit ein
„Gedanke, eine Erinnerung, ein Gefühl sein” .
8. Unterscheidung zwischen:
a) „Hilfsmittel(n)”, die es ermöglichen, Instrumente zu spielen, wie beispielsweise „eine Tastatur, die das Anschlagen von Saiten, das Blasen von Orgelpfeifen”
ermöglicht.
29
vgl. [Dudb] und [Duda]
jegliche Zitate der Auflistung aus: Anhang B
31
Ein Musikstück, in dem über die gesamte Dauer von 4 Minuten und 33 Sekunden nichts zu Hören ist.
30
4. Kriterien und Evaluation
33
b) Das Musikinstrument selbst als Klangerzeuger.
9. Zusatz zu 8 a).: Ein solches „Hilfsmittel kann (...) (selbst) zum (Musik)Instrument
werden”
10. Bei elektronischen Musikinstrumenten gilt, dass "Tonerzeugung, der Klang” nicht
direkt mit der Art und Weise der Spieltechnik zu tun haben muss.
Aus den Definitionen für Musik (siehe [Dudb]), Instrument (siehe [Duda]) und auch
aus dem Interview mit David Stützel wird klar, dass es keine allgemein gültige Antwort
auf die Frage, was ein Musikinstrument ausmacht, gibt. Lediglich ein Rahmen der
Möglichkeiten, was als Musikinstrument genutzt werden kann (bzw. nicht genutzt
werden kann) und ein Einblick in die Philosophie (obige Auflistung Punkt 7), die in
dieser Frage steckt, kann gegeben werden.
4.0.2 Kriterienkatalog
Um eine Bewertung und Evaluation des in dieser Arbeit entwickelten Prototyps trotz
des in Kapitel 4.0.1 geschilderten Problems der Definition eines Musikinstruments
zu ermöglichen, ist in folgendem Kapitel und in Abbildung 4.1 ein Kriterienkatalog
zur Evaluation des entstandenen elektronischen Musikinstruments aufgezeigt. Hierfür
wurden sowohl technische Aspekte als auch Aspekte der Handhabung in Betracht gezogen. In Kapitel 4.1 wird dieser Kriterienkatalog anschließend anhand des erarbeiteten
Kriterienkataloges evaluiert und spezifische Eigenschaften aufgezeigt.
Folgende Abbildung (4.1) zeigt Aspekte des Kriterienkataloges und stellt primär verschiedene Zusammenhänge dar:
34
4. Kriterien und Evaluation
Kriterien
Vergleich zum Original
Kapitel 2.2
Interaktionsmöglicheit
Kapitel 2.2 , 2.3
Spielbarkeit
Art der Interaktion
Diversifikation
Erweiterbarkeit
Klangerzeugung
Art des Klangs
Klangergebnis
Analoge
Klangerzeugung
Ausdrucksmöglichkeit
technische Realisierung
Kriterien des Klangs
Kapitel 2.1.1
Tonumfang
Einschwingverhalten
Voraussetzung
Kapitel 2.2
softwarebasiert
Kapitel 2.1.2
Obertonstruktur
Art des elektronischen
Musikinstruments
Kapitel 2.1.1
Reaktionszeit
Kapitel 2.2
Legende:
direkte Verbindung
indirekte Verbindung
Laufrichtung
Abbildung 4.1: Veranschaulichung und Zusammenhänge des Kriterienkataloges
Die in Abbildung 4.1 veranschaulichten Kriterien werden in folgender Auflistung mit
jeweiliger Fragestellung aufgeführt.
1. Klangerzeugung
4. Kriterien und Evaluation
35
a) Art des Klangs
i. Klangergebnis: Wie ist das Klangergebnis und wovon hängt es ab?
ii. Kriterien des Klangs
A. Tonumfang: Welches Ausmaß kann der Tonumfang annehmen?
B. Obertonstruktur: Welche Obertonstruktur kann das Musikinstrument
erzeugen?
C. Einschwingverhalten: Welches Einschwingverhalten hat das Musikinstrument?
iii. Analoge Klangerzeugung: Welche Elemente erzeugen den Klang? Dieses
Kriterium beeinflusst indirekt 1(a)iiA, 1(a)iiB und 1(a)iiC; es ist selbst
abhängig von Kriterium 4a.
iv. Diversifikation unter Betrachtung der Klangerzeugung
A. Erweiterbarkeit: Wie und in welchem Umfang ist die Klangerzeugung
des Musikinstruments erweiterbar? Dieses Kriterium wird indirekt
von Kriterium 4 beeinflusst.
B. Ausdrucksmöglichkeit: Welche Ausdrucksmöglichkeit bietet die
Klangerzeugung des Musikinstruments?
2. Spielbarkeit
a) Interaktionsmöglicheit unter Betrachtung der Spielbarkeit: Welche Form der
Interaktion ist mit dem Musikinstrument möglich?
i. Art der Interaktion unter Betrachtung der Spielbarkeit: Welche Art der
Interaktion ist mit dem Musikinstrument möglich? Dieses Kriterium wird
indirekt von Kriterium 4 beeinflusst.
b) Diversifikation unter Betrachtung der Spielbarkeit
36
4. Kriterien und Evaluation
i. Erweiterbarkeit: Wie und in welchem Umfang ist die Spielbarkeit des Musikinstruments erweiterbar? Dieses Kriterium wird indirekt von Kriterium
4 beeinflusst.
ii. Ausdrucksmöglichkeit: Welche Ausdrucksmöglichkeit bietet die Spielbarkeit des Musikinstruments?
3. Interaktionsmöglichkeit
a) Diversifikation unter Betrachtung der Interaktionsmöglichkeit
i. Wie und in welchem Umfang ist die Interaktionsmöglichkeit des Musikinstruments erweiterbar? Dieses Kriterium wird indirekt von Kriterium 4
beeinflusst.
ii. Ausdrucksmöglichkeit: Welche Ausdrucksmöglichkeit bietet die Interaktionsmöglichkeit des Musikinstruments?
b) Art der Interaktion unter Betrachtung der Interaktionsmöglichkeit: Welche
Art der Interaktion ist mit dem Musikinstrument möglich? Dieses Kriterium
wird indirekt von Kriterium 4 beeinflusst.
4. Technische Realisierung
a) Softwarebasiert
i. Art des elektronischen Musikinstruments: Um welche Art von elektronischem Musikinstrument handelt es sich?
b) Reaktionszeit: Welche Reaktionszeit hat das technische System des elektronischen Musikinstruments?
c) Voraussetzung: Welche Vorraussetzung benötigt das elektronische Musikinstrument?
4. Kriterien und Evaluation
37
5. Vergleich zum Original: Wie verhält sich das Musikinstrument in Vergleich zum
originalen Musikinstrument? Dieses Kriterium behandelt alle der im Kriterienkatalog aufgeführten Kriterien (siehe 1 bis 4) und vergleicht diese mit den Kriterien des
originalen Musikinstruments.
4.1 Evaluation
Die Evaluation bezieht sich auf den in Kapitel 4.0.2 beschriebenen und aufgeführten Kriterienkatalog und beschreibt, wie im Kriterienkatalog Kriterium 5 „Vergleich
zum Original”, die Aspekte in Bezug auf das originale Theremin (siehe Kapitel 3.3).
Folgende Auflistung leistet Antwort auf die im Kriterienkatalog gestellten Fragen:
1. Klangerzeugung
a) Art des Klangs
i. Das Klangergebnis32 ist, abgesehen von der Abhängigkeit des in Kriterium 1(a)iii geschilderten analogen Klangerzeugers sowie der in Kriterium
2 beschriebenen Spielbarkeit, dem originalen Theremin (siehe. Kapitel
3.3) identisch.
ii. Kriterien des Klangs (Siehe Kapitel 2.1.1)
A. Vorausgesetzt, der analoge Klangerzeuger ermöglicht den Tonumfang, so hat das exemplarische Musikinstrument eine Untergrenze
von 130.813Hz (entspricht C3 ) und eine Obergrenze von 1760Hz
(entspricht A6 )33
B. Sowohl der „reine Sinus” Modus als auch der so genante „Echo
Modus” besitzt keine Obertonstrukturen (siehe Anhang A Abbildung
A.6).
32
33
Der CD-Rom in Anhang C sind verschiedene Hörbeispiele beigefügt
Frequenz-Ton-Zuordnung bezieht sich auf die übliche gleichstufige Stimmung
38
4. Kriterien und Evaluation
C. Das Einschwingverhalten verhält sich durch die
technisch-/softwarebasierte Grundlage des untersuchten Musikinstruments schneller als bei originaler Theremin. Lediglich die analoge
Klangerzeugung (siehe Kriterium 1(a)iii) verursacht Verzögerungen
beim Aufbau des Klangs.
iii. Der analoge Klangerzeuger ist im untersuchten Musikinstrument nicht
festgelegt. Abhängig vom System, auf dem das softwarebasierte Musikinstrument ausgeführt wird, übernehmen verschiedene Komponenten die
analoge Klangerzeugung. Ein denkbares Beispiel wäre ein Betriebsystem,
auf dem das untersuchte Musikinstrument ausgeführt wird. Dieses erhält
einen digitalen Klang und wandelt diesen in einen analogen Klang um.
Anschließend wird dieser beispielsweise durch eine Endstufe verstärkt
und von einem Lautsprecher wiedergegeben. Hierbei ist zu beachten,
dass der Wandlungsprozess von digital nach analog immer durchgeführt
werden muss. Die analoge Klangerzeugung hat ebenfalls einen Einfluss
auf die schon erwähnten Kriterien (siehe Kriterium 1(a)iiA, 1(a)iiB und
1(a)iiC).
iv. Diversifikation unter Betrachtung der Klangerzeugung
A. Wie in Kriterium 1(a)iii beschrieben, ist lediglich der digitale Prozess
des untersuchten Musikinstruments fest vorgeschrieben. Im Ergebnis
entsteht ein digitaler Klang. Von welchem System der Klang zu einem
analogen umgewandelt wird bzw. wie mit diesem digitalen Klang
weiter vorgegangen wird, ist theoretisch unendlich erweiterbar.
B. Wie in Kriterium 1(a)iii und 1(a)ivA beschrieben, steht am Ausgang
des untersuchten Musikinstruments ein digitaler Klang zur Verfügung.
Über welchen Kanal dieser weitergegeben wird, steht dem Anwender
frei.
2. Spielbarkeit
4. Kriterien und Evaluation
39
a) Die Form der Interaktion unter Betrachtung der Spielbarkeit des untersuchten Musikinstruments ist eine Mensch-Maschinen-Interaktion. Dies bedeutet
konkret, es gibt eine Art der Eingabe (siehe Kriterium 2(b)i), eine Art der
Verarbeitung (siehe Kriterium 4) und eine Art der Ausgabe (siehe Kriterium
1(a)iii).
i. Die Art der Interaktion unter Betrachtung der Spielbarkeit des untersuchten Musikinstruments geschieht, wie in Kapitel 3.3 beschrieben,
gleich dem originalen Theremin. Mittels Handbewegungen können sowohl Klanglautstärke als auch Frequenz interaktiv manipuliert werden.
b) Diversifikation unter Betrachtung der Spielbarkeit
i. Wie in Kapitel 3.3 beschrieben, gibt es eine feste Zuordnungen der Ereignisse zu den resultierenden Aktionen. Somit ist, wie beim Originalinstrument, die Erweiterbarkeit unter Betrachtung der Spielbarkeit eingeschränkt. Sowohl die entstehende Bewegung (siehe Kapitel 3.3) als auch
der resultierende Klang (siehe Kriterium 1(a)iiA) ist im untersuchten
Musikinstrument fest zugeordnet.
ii. Gleich dem originalen Theremin kann sich der Akteur des untersuchten Musikinstruments durch Veränderung der Klangfrequenz und der
Klanglautstärke ausdrücken. Es ist so dem Umfang an Ausdrucksmöglichkeiten des originalen Theremins34 gleich.
3. Interaktionsmöglicheit
a) Diversifikation unter Betrachtung der Interaktionsmöglichkeit
i. Gleich dem Kriterium 2(b)i spielt die feste Zuordnung der Ereignisse zu
den resultierenden Aktionen eine Rolle. Somit ist, wie beim Originalinstrument, die Erweiterbarkeit unter Betrachtung der Interaktionsmöglichkeit eingeschränkt. Sowohl die entstehende Bewegungen (siehe Kapitel
34
vgl. Kapitel 3.3, Kriterium 2(a)i und Kriterium 2(b)i
40
4. Kriterien und Evaluation
3.3) als auch der resultierende Klang (siehe Kriterium 1(a)iiA) ist im
untersuchten Musikinstrument definiert.
ii. Durch die in Kapitel 3.3 ebenfalls beschriebenen Distanzierungs- und
Annäherungsbewegungen bietet das untersuchte Musikinstrument dem
Akteur eine Interaktionsmöglichkeit.
b) Der Akteur des untersuchten Musikinstruments hat gleich dem originalen
Theremin Ausdrucksmöglichkeiten, indem er mit seinen Händen die in Kapitel
3.3 und Kriterium 2(b)i beschriebenen Bewegungen und Interaktionen am
untersuchten Musikinstrument ausführen kann. Diese Interaktionsmöglichkeit
hat durch eine bewusste Einschränkung einen festen Rahmen und bietet dem
Akteur so einen genauen Spielraum35 , in welchem er sich bewegen kann.
4. Technische Realisierung
a) Softwarebasiert
i. Das untersuchte Musikinstrument arbeitet ausschließlich mit „algorithmische(m) Berech(nen) elektroakustischer Klänge”[Tro05], wie sie Georg
Trogemann (siehe Kapitel 2.1.2) beschrieben hat. Dies bedeutet, dass alle
digital ausgegebenen Frequenzen einen berechneten Ursprung haben und
somit rein synthetischer Herkunft sind.
b) Die Reaktionszeit36 des untersuchten Musikinstruments ist von mehreren Faktoren stark abhängig. Stärkster Einfluss auf die Reaktionszeit ist das System,
welches das elektronische Musikinstrument ausführt und somit die Verarbeitung der visuellen Aufnahmen bis hin zur Ausgabe einer Frequenz übernimmt.
Ebenfalls Einfluss nehmen die Versionen der verschiedenen Software; LeapMotion, MaxMSP und das Betriebssystem. Je nach Systemvoraussetzung
(siehe Kriterium 4c) hat das Musikinstrument so eine Reaktionszeit zwischen
35
36
Raum/ Bereich/ Regeln, in dem definierte Ereignisse bei definierten Ereignissen geschehen.
Zeit, in der das System eine Reaktion auf eine Interaktion zeigt.
4. Kriterien und Evaluation
41
2-10 ms und ist so vergleichsweise langsamer als das originale Theremin, welches aufgrund seiner analogen Bauweise praktisch keine Reaktionszeit besitzt.
2-10 ms bilden jedoch für die „normale” Interaktion keine Einschränkung.
c) Wie in Kriterium 4b beschrieben, gibt es mehrere Systeme mit mehreren
Komponenten. Aus diesen verschiedenen Komponenten setzen sich die Voraussetzungen des elektronischen Musikinstruments zusammen. So hat MaxMSP die auf der Webseite: [cycb] und LeapMotion Software die auf der
Webseite: [Lea] aufgeführten Systemvoraussetzungen. Neben diesen Hardund Software-Voraussetzungen gibt es noch weitere Vorausetzungen: So muss
sowohl eine Interaktionsmöglichkeit mittels beider Hände möglich sein als
auch eine Möglichkeit der Weiterverarbeitung digitaler Klänge.
5. Wie in Abbildung 4.1 zu erkennen ist, ist der Vergleich zum Originalinstrument in
jedem einzelnen Kriterium 1 bis 4 und somit auch in dieser Evaluation enthalten.
42
4. Kriterien und Evaluation
5. Interpretation der Ergebnisse und Schlussfolgerungen
43
5 Interpretation der Ergebnisse und
Schlussfolgerungen
Die Evaluation (siehe Kapitel 4.1) des exemplarischen Musikinstruments (siehe Kapitel
3.3) bietet die Interpretationsmöglichkeit in Bezug auf die Tauglichkeit des erwähnten
exemplarischen Musikinstruments der in Kapitel 1 geschilderten Fragestellungen/Thesen dieser Arbeit. Die gewonnenen Ergebnisse der Untersuchung des Kriterienkatalogs
(siehe Kapitel 4.0.2) anhand des exemplarischen Musikinstruments zeigen auf bzw. bestätigen, dass der Einsatz der LeapMotion als Musikinstrument nutzbar ist. Die
Evaluierung und das in Kapitel 3.3 beschriebene und in Anhang A aufgezeigte exemplarische Musikinstrument weisen weiters nach, dass die Realisierung eines funktionsfähigen Prototyps möglich ist und in dieser Arbeit auch realisiert werden konnte.
Die Realisierung einer Nachbildung durch elektrotechnische und softwaretechnische
Mittel eines schon existierenden Musikinstruments37 ermöglicht den direkten Vergleich
dieser beiden äquivalenten Musikinstrumente und zeigt somit den direkten Vergleich der
wesentlichen Unterschiede auf. Diese Unterschiede sind einerseits sehr gering und für
den normalen Betrieb irrelevant. Andererseits weisen sie einen großen Unterschied zum
Originalinstrument auf und können drei Gruppen zugeordnet werden: Das nachgebildete
Musikinstrument ist 1. dem Originalinstrument äquivalent, hat 2. geringe Unterschiede
und ist 3. dem originalen Theremin verschieden. Die nachstehende Auflistung zeigt
eine Zuordnung der Evaluation zu diesen drei Gruppen.
37
vgl. Kapitel 3.3
44
5. Interpretation der Ergebnisse und Schlussfolgerungen
1. Äquivalent zum originalen Theremin
• 1(a)ii die Kriterien des Klangs, welche den Tonumfang und die Obertonstrukturen beinhalten
• 2a die Interaktionsmöglicheit unter Betrachtung der Spielbarkeit mit Unterkriterium 2(a)i der Art der Interaktion unter Betrachtung der Spielbarkeit
• 2b die Diversifikation unter Betrachtung der Spielbarkeit mit Unterkriterien
2(b)i und 2(b)ii
• 3a die Diversifikation unter Betrachtung der Interaktionsmöglichkeit mit
Unterkriterien 3(a)i und 3(a)ii
• 3b die Art der Interaktion unter Betrachtung der Interaktionsmöglichkeit
2. Geringe Unterschiede zum originalen Theremin
• 1(a)i das Klangergebnis
• 4b die Reaktionszeit
3. dem originalen Theremin verschieden
• 1(a)iiC das Einschwingverhalten
• 1(a)iii die analoge Klangerzeugung
• 1(a)iv die Diversifikation unter Betrachtung der Klangerzeugung
• 4c die Voraussetzungen
Gruppe 1 und 2 können unter Betrachtung der Ähnlichkeit zusammengeführt werden,
da sie für den Akteur im Normalfall keinen Unterschied aufzeigen. Somit ergibt sich anhand der Relation zwischen Gruppe 1 und 2 (äquivalent und geringfügiger Unterschied)
und 3 (verschieden) ein Verhältnis der Kriterien von sieben zu vier. Das untersuchte Musikinstrument zeigt eine große Ähnlichkeit auf und kann in der Benutzung als
äquivalent bezeichnet werden. Dies gilt vor allem, wenn man betrachtet, dass die dem
originalen Theremin unterscheidende Gruppe hauptsächlich technischer Natur ist und
5. Interpretation der Ergebnisse und Schlussfolgerungen
45
somit den Akteur beim Interagieren mit dem exemplarischen Musikinstrument nicht
tangiert.
46
5. Interpretation der Ergebnisse und Schlussfolgerungen
6. Online-Dokumentation
47
6 Online-Dokumentation
6.1 Onepager
Um eine abgerundete und umfassende Dokumentation dieser Arbeit und nicht zuletzt
eine große Reichweite der Nutzer des exemplarischen Prototyps zu erreichen, gibt es
eine Webseite: www.leaptomax.com, die diese Arbeit dokumentiert und bereitstellt.
Wesentliche Inhalte dieser Seite sind (siehe ebenfalls Abbildung 6.1):
• Ein Link zum Git Repository38 des LeaptoMax Objekts für MaxMSP. Dieses enthält
sowohl den Sourcecode des LeaptoMax Objekts (siehe Kapitel 3.2) als auch den
Sourcecode des exemplarischen Musikinstruments (siehe Kapitel 3.3).
• Ein Archiv mit MaxMSP Objekt (siehe Kapitel 3.2) und ein exemplarisches Musikinstrument für MaxMSP (siehe Kapitel 3.3).
• Die komplette Bachelor-Arbeit als pdf-Datei.
• Ein Download-Link, der eine Verbindung aus Punkt zwei und drei sowie alle
Projektdaten zur Verfügung stellt.
• Ein Download-Link, der die Standalone-Applikationen des exemplarischen Musikinstruments für Mac bereitstellt.
38
Ein Arbeitsbereich in dem Entwickler Versioniert und geteilt Arbeiten vgl:[ker]
48
6. Online-Dokumentation
Abbildung 6.1: Veranschaulichung der Online-Dokumentation
6. Online-Dokumentation
49
6.2 Git Repository
Um eine möglichst genaue, umfangreiche und zugleich versionierte Dokumentation des
Quellcodes des Prototyps zu erstellen, gibt es ein Git Repository: www.github.com/
tobiasschaeuble/leap-to-max. Dieses Repository enthält folgendes:
• „MaxObject”, in dem der komplette Quellcode des Xcode Projekts zur Erstellung
des MaxMSP Objekts vorhanden ist.
• „c74support”, das von cycling74 zur Verfügung gestellte SDK zur Erstellung von
MaxMSP Objekten.
• „sdk-bulid”, das vollständig kompilierte MaxMSP Objekt „LeapToMax.mxo” und
das Beispielinstrument „Theremin_exampel.maxpat”.
Das Git Repository ist auf Open Source Basis und ermöglicht Jedermann, daran zu
arbeiten und/oder Teile für eigene Projekte zu verwenden.
50
6. Online-Dokumentation
7. Zusammenfassung und Ausblick
51
7 Zusammenfassung und Ausblick
7.1 Zusammenfassung
Im Rahmen dieser Arbeit wird die sukzessive Entwicklung eines exemplarischen softwarebasierten Musikinstruments beschrieben, welches die LeapMotion als Bewegungssensor nutzt. Die somit berührungslose Interaktionsmöglichkeit wird an einem Prototypen
durchgeführt und detailliert erläutert. Mittels der Realisierung des funktionsfähigen
Prototyps wird aufgezeigt, dass die LeapMotion als Bewegungssensor für elektronische
Musikinstrumente verwendet werden kann. Das entwickelte Musikinstrument kann
aufgrund seiner Ähnlichkeit zum sogenannten „Theremin” (Musikinstrument, welches
bereits 1919 von Leon Theremin entwickelt wurde) mit diesem verglichen werden.
Es wird deshalb ein umfassender Kriterienkatalog zur Evaluierung der wichtigsten
Kriterien des exemplarischen Musikinstruments erstellt. Mittels der Ergebnisse der
Evaluierung werden abschließend Rückschlüsse auf den Einsatz und die Nutzung der
LeapMotion als Musikinstrument aufgezeigt. Eine umfassende, im Rahmen dieser
Thesis entwickelte Online-Dokumentation wird abschließend erläutert. Sie stellt unter www.leaptomax.com Daten sowie gewonnene Ergebnisse zur Verfügung und
ergänzt diese Arbeit um weitreichende Informationen.
52
7. Zusammenfassung und Ausblick
7.2 Kritische Würdigung des Prototyps
Der Kriterienkatalog in Kapitel 4.0.2 sowie die Evaluierung in Kapitel 4.1 lassen eine
gewisse Subjektivität erkennen. Dies ergibt sich hauptsächlich aus der Tatsache, dass
diese Arbeiten lediglich durch eine Person durchgeführt wurden. Des Weiteren werden
aus Gründen der Vereinfachung die Gestensteuerung und die Einzeltonspielweise im
Kriterienkatalog und im evaluierten Prototyp nicht betrachtet.
7.3 Ausblick
Da der Prototyp objektorientiert gestaltet wurde, bietet er sich als Basis zusammen mit
den Objekten und deren Konzepten für eine Weiterentwicklung und weiterführende
Nutzung an. Speziell das in Kapitel 3.3 beschriebene Objekt verfügt über ein großes
Potential an weiteren Einsatzmöglichkeiten, wie zum Beispiel:
• Erweiterung des exemplarischen Prototyps um die Interpretation weiterer Bewegungdatensätzen. Beispiele sind die in Anhang A Abbildung A.2 beschriebenen
Datensätze zu Geschwindigkeitsangaben oder Richtungsangaben.
• Weiterentwicklung des exemplarischen Prototyps zu einem elektronischen Musikinstrumente zweiter Formen (vgl. [HJ08] und Kapitel 2.1.2).
Darüber hinaus lassen sich in Bezug auf die aufgezeigten weiteren Einsatzmöglichkeiten auch die theoretischen Aspekte dieser Arbeit weiterentwickeln. So kann durch
hinreichende Erweiterung eine Verallgemeinerung des Kriterienkatalogs (siehe Kapitel
4.0.2) vorgenommen werden, die eine Evaluation jeglicher Art von Musikinstrumenten
ermöglicht.
A. Visueller Programmcode des exemplarischen Musikinstruments
A Visueller Programmcode des
exemplarischen Musikinstruments
Abbildung A.1: Hauptfenster des exemplarischen Musikinstruments
53
54
A. Visueller Programmcode des exemplarischen Musikinstruments
Das Haupfenster (siehe Abbildung A.1) beinhaltet alle weiteren Bestandteile des exemplarischen Prototyps, die sogenannten „Subpatches”, die in nachfolgenden Abbildungen
(siehe A.2 bis A.6) aufgeführt und detailliert beschrieben werden.
Im oberen linken Bereich des Haupfensters befindet sich ein Subpatch (siehe Abbildung
A.2), dessen automatische Aktivierung bei Start des exemplarischen Musikinstruments
mittels „loadbang” Objekt erfolgt.
Ebenfalls automatisch initialisiert wird die Ober- und Untergrenze des erzeugbaren
Klangs, welche durch Klaviaturen dargestellt werden (siehe Klaviatur min und max).
Diese Initialisierung und Auswahl der kontinuierlichen oder schrittweisen Klangfolge
wird an das Subpatch „scalethe freq” (siehe Abbildung A.4) weitergeleitet. Abhängig
von der gespielten Frequenz gibt das Subpatch den momentan erzeugten Klang an und
leitet ihn an die unten im Hauptfenster (siehe Abbildung A.1) befindliche Klaviatur
weiter (siehe Klavitatur „current”).
Die eigentliche Klangerzeugung findet im mittleren Bereich des Haupfensters, dem
„Single” Subpatch, statt. Das Subpatch „scalethe freq” erhält die zu spielende Frequenz
und erzeugt anhand dieser und der sogenannten „Echofunktion” mit zeitlicher Einstellung die eigentliche digitale Frequenz. Diese wird nach Lautstärkenanpassung mittels
„dac” Objekt an das Betriebssystem zur weiteren Ausgabe übermittelt.
Die Lautstärkenanpassung wird, gespeist von den Handballen-Datensätzen, im Subpatch
„scalevolume” ermittelt und an den Lautstärkeregler weitergegeben.
A. Visueller Programmcode des exemplarischen Musikinstruments
55
Abbildung A.2: Subpatch zur Datenaufbereitung und Visualisierung
Das Subpatch zur Datenaufbereitung verarbeitet die von der LeapMotion Software
kommenden Rohdaten zu MaxMSP verwendbaren Datensätzen und verteilt diese über
Sendeobjekte, wodurch sie MaxMSP-global abgegriffen werden können. Das ebenfalls
im Datenaufbereitungs-Subpatch enthaltene Subpatch Leap to Max (siehe Anhang A.3)
beinhaltet das in Kapitel 3.3 beschriebe Objekt, welches die LeapMotion-Daten in
MaxMSP zu Verfügung stellt (dies wird im Text unterhalb der Abbildung A.3 weiter
erläutert). Die verarbeiteten Daten stehen anschließend im Subpatch zur Datenaufbereitung (siehe Anhang A.2) zu Verfügung. Verschiedene Ausgaben visualisieren diese
Daten numerisch. Folgende Auflistung zeigt alle relevanten Daten (ausschließlich der
Fingerkoordinaten):
1. hand id: Identifikatiosnummer, die bei Detektion einer Hand erzeugt wird und der
Hand-Datensätze bis zum ihrem Verschwinden dieser Hand zugeordnet ist.
2. frame id: Fortlaufende Identifikatioszahl zur Identifikation des „Frame” (Einzelbild)
der LeapMotion.
3. Position x, y, und z: Absolute Positionsangabe des Mittelpunktes der Hand im
Abstand zur LeapMotion; gemessen in Millimeter (Entfernung zur Leapmotion)
56
A. Visueller Programmcode des exemplarischen Musikinstruments
[dev].
4. direction x, y und z: Relative Richtungsangabe der Hand zu den Fingern [dev].
5. velocity x, y und z: Relative Geschwindigkeitsangabe der Bewegung in Millimeter/Sekunde [dev].
6. normal x, y und z: Der Normalenvektor der Hand im Abstand zur LeapMotion.
.
Abbildung A.3: Subpatch zur Datenverteilung und Visualisierung
Das im Subpatch zur Datenaufbereitung befindliche Subpatch LeaptoMax spaltet die
von der LeapMotion kommenden Rohdaten in einzelne Datensätze auf. Diese sind im
Subpatch zur Datenaufbereitung (siehe Anhang A.2) näher erläutert und aufgeführt. Das
Aufspalten übernimmt das sogenannte „rout” Objekt. Aktiviert wird das in Kapitel 3.3
beschriebene LeaptoMax Objekt durch ein „qmetro” Objekt, welches im Hauptfenster
automatisch bei Programmstart aktiviert wird. Bei jedem Impuls des „qmetro” Objekts
gibt das „LeaptoMax” Objekt das aktuelle „Frame” an Rohdaten an das „route” Objekt
A. Visueller Programmcode des exemplarischen Musikinstruments
57
weiter. Um eine Überlastung des Systems durch MaxMSP zu verhindern, werden die
vom „qmetro” Objekt gesendeten Impulse reguliert. Die vom „route” Objekt aufgeteilten Rohdaten werden dann mittels „send” Objekt zur Verfügung gestellt. Um eine
Unterscheidung der verschiedenen Hand-Datensätze zu gewährleisten, zählt das „gate”
Objekt von max. 1 bis 5 (5 = 5 erkannte Hände). Wird keine Hand detektiert, gibt das
„gate” Objekt keine Daten aus. Das von [Aka] übernommene Subpatch „visualizer”
erzeugt die darunter befindliche zweidimensionale Visualisierung der Fingerspitzen.
Abbildung A.4: Subpatch zur Frequenzermittlung
Das dargestellte Subpatch in Abbildung A.4 zeigt das Erzeugen der zu spielenden
Frequenz als Gleitkommazahl. Hierzu wird aus dem Handballen-Datensatz die zKoordinate genutzt, um sie mit dem Objekt „scale” zu den Oktavfrequenzen zwischen
standardmäßig 130.813Hz (entspricht C3) und 1760Hz (entspricht A6)39 zu skalieren.
Diese Standardober- und -unterbegrenzungen der spielbaren Frequenzen können im
Bearbeitungsmodus des Hauptfensters (siehe Anhang A.1) variabel verändert werden
39
Frequenz-Ton Zuordnung beziehen sich auf die übliche gleichstufigen Stimmung
58
A. Visueller Programmcode des exemplarischen Musikinstruments
(Klaviatur min und max). Des Weiteren besteht im oben aufgeführten Subpatch (siehe
Abbildung A.4) die Möglichkeit, zwischen Halbtonschritten und Klang mit fließendem
Übergang zu wählen.
Abbildung A.5: Subpatch zur Ermittlung der Lautstärke
Das einfache Subpatch in Abbildung A.5 zeigt das Erzeugen eines Signals, das im
Hauptfenster (siehe Abbildung A.1) die Steuerung der Lautstärke ermöglicht. Dies
wird durch einfaches Anpassen der z-Koordinate der zweiten detektierten Hand mittels
„scale” Objekt realisiert. Das daraus resultierende Signal liegt im Bereich zwischen 0
und 70 und ist im typischen Dämpfungswert eines Klangs, in dB, angegeben.
A. Visueller Programmcode des exemplarischen Musikinstruments
59
Abbildung A.6: Subpatch zur Tonerzeugung
Das in Abbildung A.5 abgebildete Subpatch erzeugt den Klang der zu spielenden Frequenz anhand der zuvor in Subpatch „Scale the freq” (siehe Abbildung A.4) ermittelten
Frequenz. Hierbei erzeugt das „cycle” Objekt aus der reinen realen Zahl einen Klang
mit Frequenzwert der realen Zahl. Dabei ist ein „line” Objekt vorgeschalten, um eine
Glättung des Klangs zu realisieren (10ms Annäherung). Nach Erzeugung des Klangs
ist das Zuschalten eines Rückkopplungs- und Verzögerungsalgorithmus mittels „gate”
Objekt möglich. Ist das Zuschalten, welches im Hauptfenster (siehe Abbildung A.1)
aktiviert und deaktivert werden kann, nicht aktiv, wird lediglich der Klang als reine
Sinusfrequenz an das Hauptfenster weitergegeben.
60
A. Visueller Programmcode des exemplarischen Musikinstruments
B. Interview mit David Stützel
61
B Interview mit David Stützel
Persönliches Interview, geführt von Tobias C. S. Schäuble mit David Stützel, Dozent an
der Musikhochschule Trossingen:
Tobias C. S. Schäuble:
Hallo David, ich schreibe grade meine Bachelor-Arbeit mit dem
Titel „„LeapMotion als Musikinstrument” Möglichkeiten der Nutzung eines Handund Fingerbewegungssensors für die softwarebasierte Klangerzeugung. Eine Untersuchung relevanter Faktoren anhand eines Prototyps”. Jetzt meine Frage: Kannst
du mir Literatur oder ähnliches empfehlen, in der Kriterien stehen, was ein Musikinstrument ausmacht? Ich würde mich, wenn du Zeit findest, auch über eine
Definition bzw. einen Kriterienkatalog von dir sehr freuen.
David Stützel:
„Hallo Tobias, Literatur fällt mir dazu keine ein, obwohl es bestimmt
welche gibt. Aber das ist eine so grundlegende Frage. Da kann man sich sehr
interessant drin verlieren. Z.B. ein Musikinstrument macht Musik, also müsste man
definieren, was Musik ist. Musik ist unter anderem auch eine Kunst. Also müsste
man definieren was Kunst ist.
Wenn man da eine eindeutige Antwort geben will, wird man schnell merken, dass
daraus entweder weitere Definitionen ableitbar sind, die man nicht gemeint hat oder
die unvollständig sind.
Ich würde sagen, dass etwas ein Musikinstrument ist, sobald man es als solches
benutzt, eventuell auch schon, sobald man es als solches ansieht. Sobald man über
62
B. Interview mit David Stützel
Tonhöhen redet, schliesst man ja Instrumente, die vielleicht nur eine Tonhöhe oder
„nur” ein Geräusch haben, aus.
Ich glaube, man kommt sogar schon in Schwierigkeiten, wenn man definiert, dass
es (das Instrument) Klänge, Töne, Geräusche, also im weitesten Sinne Hörbares
erzeugen muss, dann muss erst nachgewiesen werden, dass John Cages 4’33 keine
Musik ist oder dass man es nur auf Instrumenten spielen kann, die Klänge produzieren könnten (abgesehen davon, dass alle physischen Gegenstände Klänge
erzeugen können, d.h., wenn es ein Musikinstrument geben sollte, dass keine Klänge produzieren kann, dann müsste es ja so etwas wie eine Idee, ein Gedanke, eine
Erinnerung, ein Gefühl sein?).
Das ist vermutlich nicht, wonach du suchst. Wenn man nicht gleich allen elektronisch erzeugten Klängen, abgespielten Samples oder Aufnahmen absprechen
will ein instrument sein zu können, ist dein Instrument ja vermutlich „nur” ein
Hilfsmittel, um ein solches Instrument zu steuern, zu spielen, so wie eine Tastatur,
die das Anschlagen von Saiten, das Blasen von Orgelpfeiffen oder ein Midi-Gerät
steuern könnte. So ein Hilfsmittel kann auch zu einem Instrument werden, bei guter
Musik könnte man sagen, wird die Trennung zwischen Musiker und Instrument
und Musik und Komponist sogar „aufgehoben”.
Du kennst bestimmt ein Theremin? Eines der frühen elektronischen Musikinstrumente, das auch schon mit Bewegungen der Hände in der Luft zu spielen ist.
Was vielleicht auch eine für dich relevante Frage sein könnte, ist, ob man ein „traditionelles” Musikinstrument spielt und übt, dass seine ganz eigenen Probleme und
Schwierigkeiten, Besonderheiten, Klänge, Geschichte, Bau, Physik, Möglichkeiten,
Tradition mit sich bringt, mit dem man sich ja oft über viele Jahre auseinandersetzt;
und z.B. einem Midi-Instrument, bei dem die Tonerzeugung, der Klang mit z.B. der
Spieltechnik nicht mehr direkt etwas zu tun haben muss.
Was mir gerade noch dazu einfällt: Ist ein Klavier nicht auch ein Instrument, das
mithilfe von mechanischem „Finger- und Handtracking” Musik macht?"[Stü13]
Literaturverzeichnis
63
Literaturverzeichnis
[AHK+ 98] A LBRECHT, G ; H OLDERMANN, CS ; K ERIG, T ; L ECHTERBECK, J ;
S ERANGELI, J: "Floetenäus Baerenknochen-Die fruehesten Musikinstrumente? In: Archäologisches Korrespondenzblatt 28 (1998), S. 1–19
[AJM]
A NDREW J. M ILNE, Robin Laney David B. Sharp Anthony Prechtl Simon H. Anna Xambó X. Anna Xambó: Hex Player—A Virtual Musical
Controller Hex Player—A Virtual Musical Controller Hex Player—A Virtual Musical Controller Hex Player—A Virtual Musical Controller. http:
//www.nime.org/proceedings/2011/nime2011_244.pdf. –
zugegriffen am 15.01.2011
[Aka]
A KAMATSU, Masayuki: aka.leapmotion. https://github.com/
akamatsu/aka.leapmotion. – zugegriffen am 14.09.2013
[ale]
ALEC 93:
Theremin (Whistle).
http://www.freesound.org/
people/alec93/sounds/217685/. – zugegriffen am 20.02.2014
[ars]
ARSTECHNICA . NET :
LeapMotion
Produkt
Bild.
http:
//cdn.arstechnica.net/wp-content/uploads/2013/
07/lmc-unboxed-cables.jpg. – zugegriffen am 24.01.2014
[Bad13]
BADER, Rolf: Nonlinearities and Synchronization in Musical Acoustics
and Music Psychology. Berlin, Heidelberg : Springer Berlin Heidelberg,
2013. – Online–Ressource (XII, 517 p, digital) S. http://dx.doi.
org/10.1007/978-3-642-36098-5
64
[Bai13]
Literaturverzeichnis
BAIN, Reginald: Max/MSP Software Design for Music, Math and Computer Science Outreach. In: ATMI National Conference (2013)
[chi]
CHIP. DE :
Nintendo mit dem Wii Kontroller. http://www.chip.de/
ii/1/3/5/1/5/8/0/9/nin-wii-e24f34e9c1a2fd49.jpg. –
zugegriffen am 05.02.2014
[Cro95]
In: C ROMBIE, David: Piano. Evolution, Design and Performance. 34.
1995. – ISBN 1–871547–99–7
[cyca]
CYCLING 74:
MaxMSP.
http://cycling74.com/products/
max/. – zugegriffen am 18.07.2013
[cycb]
CYCLING 74:
Systemvoraussetzungen MaxMSP. http://cycling74.
com/downloads/sys-reqs/. – zugegriffen am 10.02.2014
[cycc]
CYCLING 74. COM :
MAX 6 API Documentation. http://cycling74.
com/sdk/MaxSDK-6.0.4/html/index.html. – zugegriffen am
21.10.2013
[dev]
DEVELOPER . LEAPMOTION . COM :
Public
Member
Functions.
https://developer.leapmotion.com/documentation/
Languages/Java/API/classcom_1_1leapmotion_1_
1leap_1_1_hand.html. – zugegriffen am 18.01.2014
[DJ06]
D IG, Danny ; J OHNSON, Ralph: How do APIs evolve? A story of refactoring. In: Journal of software maintenance and evolution: Research and
Practice 18 (2006), Nr. 2, S. 83–107. ISBN 1532–0618
[Duda]
D UDEN:
Instrument.
http://www.duden.de/node/652220/
revisions/1166913/view. – zugegriffen am 15.01.2011
[Dudb]
D UDEN:
Musik.
http://www.duden.de/node/658460/
revisions/1116720/view. – zugegriffen am 15.01.2011
Literaturverzeichnis
[Dvo08]
65
In: DVORAK, JosephL.: Emerging User Interfaces. Springer US, 2008,
269-307
[gur]
GURDONARK :
Faux Theremin Sample. http://www.freesound.
org/people/gurdonark/sounds/32483/. –
zugegriffen am
20.02.2014
[HJ08]
H ANS J ÖRG, Friedrich:
Tontechnik für Mediengestalter.
In:
X.media.press (2008). http://link.springer.com/book/10.
1007/978-3-540-71870-3
[JMC]
J OSEP M C OMAJUNCOSAS, John O’Connell Enric G. Alex Barrachina B. Alex Barrachina:
Nuvolet : 3D Gesture-driven Collaborative
Audio Mosaicing. http://www.nime.org/proceedings/2011/
nime2011_252.pdf. – zugegriffen am 15.01.2011
[Kae67]
K AEGI, Werner: Was ist elektronische Musik. Orell Füssli, 1967
[ker]
KERNEL . ORG :
git.wiki.kernel. https://git.wiki.kernel.org/
index.php/GitFaq#General_Questions. –
zugegriffen am
03.01.2014
[Lea]
L EAP M OTION . COM:
LeapMotion.
https://www.leapmotion.
com/product. – zugegriffen am 18.07.2013
[LY]
L EE, Jeong seob ; Y EO, Woon S.: Sonicstrument: A Musical Interface with Stereotypical Acoustic Transducers. http://www.nime.
org/proceedings/2011/nime2011_024.pdf. – zugegriffen am
15.01.2011
[mag]
MAGAZIN . DE
Controller.
linux: Freihändige Gestensteuerung mit dem Leap-Motionhttp://www.linux-magazin.de/Ausgaben/
2013/10/Leap-Motion. – zugegriffen am 24.01.2014
66
[med]
Literaturverzeichnis
MEDIA . NPR . ORG :
Leon
Theremin.
http://media.
npr.org/assets/img/2013/02/07/thereminpic_
custom-9d554abc953090a42ef8fd9b9b7a900bc18b6dc5-s6-c30.
jpg. – zugegriffen am 18.01.2014
[MH10]
In: M ICHAEL H ARENBERG, Daniel W.:
Klang (ohne) Körper.
www.transcript-verlag, 2010, S. 229
[neu]
NEUERDINGS . COM :
LeapMotion Ankündigung. http://neuerdings.
com/2013/09/21/hp-envy-17-leap-motion-se/. – zugegriffen am 20.01.2014
[nim]
NIME . ORG :
International Conference on New Interfaces for Musical Ex-
pression. http://www.nime.org/. – zugegriffen am 07.01.2011
[PW99]
P IERCE, John R. ; W INKLER, Klaus: Klang: Musik mit dem Ohren der
Physik. Spektrum, 1999. – ISBN 3827405440
[Ram]
R AMKISSOON, Izzi:
The Bass Sleeve: A Real-time Multimedia Ge-
stural Controller for Augmented Electric Bass Performance.
http:
//www.nime.org/proceedings/2011/nime2011_224.pdf. –
zugegriffen am 15.01.2011
[rea]
REALTHEREMIN :
scifi scare c.
http://www.freesound.org/
people/realtheremin/sounds/119013/. –
zugegriffen am
20.02.2014
[Sch06]
In: S CHRÖDER, Hermann-Dieter: Digitalisierung. VS Verlag für Sozialwissenschaften, 2006. – ISBN 978–3–531–14417–7, 95-97
[Stü13]
S TÜTZEL, David: Persönliches Interview, geführt von Tobias C. S. Schäuble.
2013 (Trossingen, 25.11.2013)
[t3n]
T 3 N . DE :
als
millimetergenaue
Kinect-Konkurrenz.
3D-Bewegungssteuerung
http://t3n.de/news/
Literaturverzeichnis
67
leap-motion-millimetergenaue-389145/. – zugegriffen am
24.01.2014
[tec]
TECHCRUNCH . COM :
LeapMotion Launch. http://techcrunch.
com/2013/06/24/leap-motion-developer-beta/. – zugegriffen am 20.01.2014
[the]
THEAVERAGEGAMER . COM :
ler und Erfassungskamera.
Sony Playstation mit Move Kontorlhttp://www.theaveragegamer.
com/wp-content/uploads/2010/09/PlayStationMove_
AllTheKit.jpg. – zugegriffen am 05.02.2014
[Tro05]
In: T ROGEMANN, Georg: Ästhetik und Naturwissenschaften. Springer
Vienna, 2005. – ISBN 978–3–211–20438–2, 207-214
[Ull84]
U LLMANN, Dieter: Chladni und die Entwicklung der experimentellen
Akustik um 1800. In: Archive for History of Exact Sciences 31 (1984), Nr.
1, 35-52. http://dx.doi.org/10.1007/BF00330242. – DOI
10.1007/BF00330242. – ISSN 0003–9519
[Wil]
W ILLEMER, Arnold:
Aufteilung der Quelltexte.
http://www.
willemer.de/informatik/cpp/aufteil.htm. – zugegriffen
am 02.02.2014
[wor]
WORLDOFVIDEOGAMES . DE :
Microsoft Xbox mit der Kinect Kamera.
http://worldofvideogames.de/wp-content/uploads/
2010/10/xbox_360_250gb_and_kinect_20100727_
1765570292.jpg. – zugegriffen am 05.02.2014
68
Literaturverzeichnis
Abbildungsverzeichnis
69
Abbildungsverzeichnis
1.1
Veranschaulichung der Struktur dieser Arbeit . . . . . . . . . . . . .
3
2.1
LeapMotiongerät inklusive USB-Verbindungskabel . . . . . . . . . .
10
2.2
Direkte Konkurrenzprodukte zur LeapMotion . . . . . . . . . . . . .
11
2.3
Zwei Künstler, deren Hände erkannt und zu einem Musikstück interpretiert werden. [JMC] . . . . . . . . . . . . . . . . . . . . . . . . .
2.4
14
A Real-time Multimedia Gestural Controller for Augmented Electric
Bass Performance [Ram] . . . . . . . . . . . . . . . . . . . . . . . .
15
2.5
In MacMSP geschriebene Software zum Bedienen [AJM] . . . . . . .
15
3.1
Veranschaulichung der Struktur des Prototyps . . . . . . . . . . . . .
18
3.2
LeapMotion-Visualisierung der Aufnahme . . . . . . . . . . . . . . .
20
3.3
Leon Theremin mit seiner Erfindung „Das Theremin” . . . . . . . . .
25
3.4
Genereller Ablauf der Daten in MaxMSP . . . . . . . . . . . . . . .
27
3.5
Exemplarisches Musikinstrument im Präsentationsmodus . . . . . . .
29
4.1
Veranschaulichung und Zusammenhänge des Kriterienkataloges . . .
34
6.1
Veranschaulichung der Online-Dokumentation . . . . . . . . . . . . .
48
A.1 Hauptfenster des exemplarischen Musikinstruments . . . . . . . . . .
53
A.2 Subpatch zur Datenaufbereitung und Visualisierung . . . . . . . . . .
55
A.3 Subpatch zur Datenverteilung und Visualisierung . . . . . . . . . . .
56
A.4 Subpatch zur Frequenzermittlung . . . . . . . . . . . . . . . . . . . .
57
70
Abbildungsverzeichnis
A.5 Subpatch zur Ermittlung der Lautstärke . . . . . . . . . . . . . . . .
58
A.6 Subpatch zur Tonerzeugung . . . . . . . . . . . . . . . . . . . . . . .
59
Eidesstattliche Erklärung
71
Eidesstattliche Erklärung
Hiermit versichere ich, dass ich die vorliegende Arbeit selbständig verfasst und keine
anderen als die angegebenen Quellen und Hilfsmittel benutzt habe. Die Stellen meiner
Arbeit, die dem Wortlaut oder dem Sinn nach anderen Werken entnommen sind, habe
ich unter Angabe der Quellen als Entlehnung kenntlich gemacht. Dasselbe gilt sinngemäß für Tabellen, Karten und Abbildungen. Diese Arbeit wurde in dieser oder einer
ähnlichen Form noch nicht im Rahmen einer anderen Prüfung vorgelegt.
Karlsruhe, den 28.02.2014,
Tobias C. S. Schäuble
72
Eidesstattliche Erklärung
C. CD-Rom
C CD-Rom
Inhalt der CD-Rom
Hörbeispiele
exemparisches Musikinstrument
vgl.1 theremin-whistle.aiff.mov
vgl.2 gurdonark.mov
vgl.3 realtheremin.mov
with steps without echo.mov
orginal Theremin
1 theremin-whistle.aiff [ale]
2 gurdonark.aiff [gur]
3 realtheremin.aiff [rea]
Prototype
c74support
(...)
MaxObject
Info.plist
LeapToMax
Xcode
(...)
collect.xcodeproj
(...)
LeapToMax.cpp
(...)
maxmspsdk.xcconfig
README.md
sdk-build
externals
LeapToMax.maxhelp
LeapToMax.mxo
Theremin exampel.maxpat
Theremin.app
Bachelor-Thesis-Schaeuble-2014.pdf
73

Documentos relacionados