Eine Geometrie-Engine zur Berechnung von 3D

Transcrição

Eine Geometrie-Engine zur Berechnung von 3D
Eine Geometrie-Engine zur
Berechnung von 3D-Sound mit
Raumakustik-Effekten in Echtzeit
Diplomarbeit im Studiengang Informatik
vorgelegt von
Tomas Neumann
[email protected]
Oktober 2004
Technische Universität
Carolo-Wilhelmina zu Braunschweig
Institut für ComputerGraphik
Prof. Dr. techn. Dieter W. Fellner
Erklärung
Hiermit erkläre ich, dass die vorliegende Arbeit selbstständig und nur unter Verwendung
der aufgeführten Hilfsmittel von mir erstellt wurde.
Braunschweig, den 24. Oktober 2004
Tomas Neumann
i
ii
Danksagung
Diese Diplomarbeit entstand am Institut für ComputerGraphik unter der Leitung von Prof.
Dr. techn. Dieter W. Fellner und unter der intensiven Betreuung von Dipl. Inf. Sven Havemann. Ich danke Beiden für das Vertrauen in meine Person und der Möglichkeit das
Spektrum des Instituts um ein neues Forschungsgebiet zu erweitern und interdisziplinär zu
bearbeiten. Herrn Prof. Dr. techn. Dieter W. Fellner danke ich für die Anstellung an seinem
Institut und für die Bereitstellung eines Arbeits- und Forschungsplatzes. Ich danke den Firmen TerraTec Electronic GmbH und Creative Technologies Ltd. für die Bereitstellung von
Audio-Equipment. Allen Mitarbeitern des Instituts gilt mein Dank bezüglich der Hilfe bei
den vielen Unwegsamkeiten. Besonderer Dank gilt Andreas Halm für viele Anregungen im
Bereich der Programmierung.
Ich danke den Herren Dr.-Ing. Klaus Wogram und Dr.-Ing. Ingolf Bork in der Arbeitsgruppe 1.73 Raumakustik der Abteilung 1 Mechanik und Akustik der PhysikalischTechnischen Bundesanstalt (PTB) für die fachliche Beratung.
Für die Fehlersuche und zahlreiche Anregungen danke ich Karoline Mauer und meinem
lieben Bruder Michael.
Mein herzlichster Dank geht an meine Eltern, Gerlint Neumann und Dr. med. Udo-R.
Neumann, für schier endlose Geduld, finanzielle Unterstützung und Motivation in schwachen Momenten.
iii
Zusammenfassung
Diese Arbeit behandelt die Entwicklung einer Geometrie-Engine für 3D-Sound. Ein AudioProgrammierer muss ein 3D-Audiosystem so einstellen, dass glaubwürdige Hörereignisse bei einem Hörer ausgelöst werden. Bei der Entwicklung interaktiver Anwendungen
ist akustisches Fachwissen nötig, um komplexe Akustik-Effekte wie Verhallung, Verdeckung oder Schallausbreitung in verschiedenen Umgebungen anzunähern. Im Gegensatz
dazu kann ein 3D-Audiosystem mit Geometrie-Engine automatisch die Einstellung von
Hallräumen unter dynamischer Berücksichtigung von audio-relevanter Geometrie vornehmen. Dem Programmierer wird eine einfache Schnittstelle angeboten, um die technische
Bedienung der Sound-API zu überwinden. Durch die Einführung von Geometrie-AkustikPrimitiven (GAPs) wird eine zukunftssichere und abstrakte Repräsentation einer AkustikSzene möglich. Das zur Manipulation der GAPs entwickelte Geometrie-Akustik-Interface
berücksichtigt die fortschreitende Entwicklung von Audio-Simulationen.
Abstract
This project examines the development of a geometry-engine for 3D-sound. A programmer
for 3D-sound has to adjust a 3D-audio system in such a manner to provoke an authentic auditory event for a listener. To mimic acoustic effects like reverberation, occlusion or sound
propagation in different surroundings acoutic expertise is required while developing interactive sound applications. In contrast an audio system using a geometry-engine automatically adjusts dynamic reverb settings depending on relevant acoustic geometry. A simple
interface is offered to the programmer to overcome the technical usage of a sound API.
With the introduction of geometric acoustic primitives (GAPs) an acoustic scene can be
represented in an abstract and future-proof way. The geometric acoustic interface, which is
used to manipulate the GAPs, considers the ongoing development in acoustic simulations.
iv
Inhaltsverzeichnis
1
2
Einleitung
1
1.1
Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
1.2
Motivation der Arbeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4
1.3
Zielsetzung der Arbeit . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6
1.4
Aufbau der Arbeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9
Grundlagen von 3D-Audio
2.1
2.2
11
Audio-Konzepte in virtuellen 3D-Welten
. . . . . . . . . . . . . . . . . . 12
2.1.1
Listener
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.1.2
Soundobjekte
2.1.3
Koordinatensystem . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.1.4
Wiederholungsraten . . . . . . . . . . . . . . . . . . . . . . . . . 15
. . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
Aktuelle Forschungsansätze . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.2.1
Schallausbreitung durch Beam-Tracing . . . . . . . . . . . . . . . 16
2.2.2
Clustering und Culling in komplexen Audioszenen . . . . . . . . . 17
2.3
Akustiksimulatoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.4
Techniken der digitalen Schall-Positionierung . . . . . . . . . . . . . . . . 19
2.5
2.6
2.7
2.4.1
Quantitative Differenz . . . . . . . . . . . . . . . . . . . . . . . . 19
2.4.2
Temporale und qualitative Differenz . . . . . . . . . . . . . . . . . 20
Techniken der digitalen Schall-Wiedergabe . . . . . . . . . . . . . . . . . 20
2.5.1
Lautsprecher-Systeme . . . . . . . . . . . . . . . . . . . . . . . . 20
2.5.2
HRTF-Filter
2.5.3
Wellenfeld-Synthese . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.5.4
Wiedergabe über Knochenschall . . . . . . . . . . . . . . . . . . . 22
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3D-Sound in Echtzeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.6.1
3D-Sound Standards . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.6.2
3D-Sound-Engine und Reverb-Engine
2.6.3
Sound-APIs
2.6.4
3D-Sound in der Spiele-Industrie . . . . . . . . . . . . . . . . . . 32
. . . . . . . . . . . . . . . 29
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3D-Sound in Virtual-Reality Umgebungen
. . . . . . . . . . . . . . . . . 34
2.7.1
3D-Sound in VRML . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.7.2
DAVE
2.7.3
TRIPS - Echtzeit 3D Sound in OpenSG . . . . . . . . . . . . . . . 34
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
v
vi
INHALTSVERZEICHNIS
2.7.4
3
Komponenten der Geometrie-Engine
37
3.1
Anforderungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.2
GAPs: Die Geometrie-Akustik-Primitive
3.3
3.4
4
blue-c . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
. . . . . . . . . . . . . . . . . . 40
3.2.1
Listener
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.2.2
Sound
3.2.3
Material
3.2.4
Wall
3.2.5
Portal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.2.6
Obstacle
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.2.7
Medium
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.2.8
Room . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
Das XML-Format . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
Das Geometrie-Akustik-Interface
. . . . . . . . . . . . . . . . . . . . . . 46
3.4.1
Systemverwaltung . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.4.2
GAPs erzeugen und löschen . . . . . . . . . . . . . . . . . . . . . 47
3.4.3
GAPs semantisch verbinden und platzieren . . . . . . . . . . . . . 47
3.4.4
GAPs manipulieren
3.4.5
Weitere Hilfsmethoden
. . . . . . . . . . . . . . . . . . . . . . . 49
3.4.6
Praktische Anwendung
. . . . . . . . . . . . . . . . . . . . . . . 49
. . . . . . . . . . . . . . . . . . . . . . . . . 48
3.5
Die Geometrie-Engine . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.6
Der Sound-Kontext . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.7
Implementierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.7.1
Datentypen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.7.2
Geometrie-Klassen . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.7.3
Akustik-Klassen . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.7.4
GAP-Basisklasse . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.7.5
GAP-Geometrie-Basisklasse . . . . . . . . . . . . . . . . . . . . . 53
3.7.6
Weitere Klassen . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
Berechnungen der Geometrie-Engine
57
4.1
Vereinfachungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.2
Verhallung
4.3
4.4
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.2.1
Nachhallzeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.2.2
Frühe Reflexionen . . . . . . . . . . . . . . . . . . . . . . . . . . 62
Berechnung von virtuellen Sounds . . . . . . . . . . . . . . . . . . . . . . 64
4.3.1
Generierung von virtuellen Sounds . . . . . . . . . . . . . . . . . 65
4.3.2
Positionierung von virtuellen Sounds . . . . . . . . . . . . . . . . 65
4.3.3
Soundpfade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
4.3.4
Ausprägung von virtuellen Sounds
. . . . . . . . . . . . . . . . . 66
Darstellung der Akustik-Effekte . . . . . . . . . . . . . . . . . . . . . . . 66
4.4.1
Positionierung und Orientierung . . . . . . . . . . . . . . . . . . . 66
4.4.2
Verhallung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
vii
INHALTSVERZEICHNIS
5
4.5
Einstellungen der Geometrie-Engine . . . . . . . . . . . . . . . . . . . . . 69
4.6
Optimierungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
Schnittpunktberechnung . . . . . . . . . . . . . . . . . . . . . . . 70
4.6.2
Sichtbarkeitsliste der Wände . . . . . . . . . . . . . . . . . . . . . 71
Überprüfung der Geometrie-Engine
5.1
5.2
5.3
6
4.6.1
Test-Szenarien
73
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
5.1.1
Büroszene
5.1.2
Höhlenwanderung . . . . . . . . . . . . . . . . . . . . . . . . . . 74
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
Technische Messergebnisse
. . . . . . . . . . . . . . . . . . . . . . . . . 75
5.2.1
Büroszene
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
5.2.2
Höhlenwanderung . . . . . . . . . . . . . . . . . . . . . . . . . . 75
Qualitätsüberprüfung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
Diskussion und Ausblick
79
A Analoge Schallwelt
83
A.1 Schall-Erzeugung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
A.1.1 Schwingungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
A.1.2 Schallgeschwindigkeit . . . . . . . . . . . . . . . . . . . . . . . . 85
A.1.3 Schalldruck
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
A.1.4 Schallschnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
A.1.5 Schallintensität . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
A.1.6 Schallkennimpedanz . . . . . . . . . . . . . . . . . . . . . . . . . 86
A.1.7 Die Einheit Bel . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
A.1.8 Schalldruckpegel . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
A.2 Physikalisches Phänome der Schall-Ausbreitung
A.2.1 Schallinterferenzen
. . . . . . . . . . . . . . 88
. . . . . . . . . . . . . . . . . . . . . . . . . 88
A.2.2 Reflexion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
A.2.3 Schallabsorption . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
A.2.4 Beugung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
A.2.5 Brechung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
A.3 Akustische Effekte der Schall-Ausbreitung
. . . . . . . . . . . . . . . . . 92
A.3.1 Schalldämmung . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
A.3.2 Schalldämpfung . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
A.3.3 Bündelung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
A.3.4 Streuung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
A.3.5 Verhallung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
A.3.6 Obstruktion
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
A.3.7 Exklusion
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
A.3.8 Okklusion
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
A.3.9 Doppler-Effekt . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
A.3.10 Akustische Eigenschaften von Medien
. . . . . . . . . . . . . . . 94
A.3.11 Akustische Eigenschaften von Materialien
. . . . . . . . . . . . . 94
viii
INHALTSVERZEICHNIS
A.4 Berechnungsmodelle der Raumakustik .
A.4.1 Äquivalente Absorptionsfläche .
A.4.2 Nachhallzeit . . . . . . . . . . .
A.4.3 Hallradius . . . . . . . . . . . .
B Psycho-Akustik
B.1 Anatomie des menschlichen Ohres
B.1.1 Äußeres Ohr . . . . . . .
B.1.2 Mittelohr . . . . . . . . .
B.1.3 Innenohr . . . . . . . . .
B.2 Physiologie des Hörens . . . . . .
B.3 Rezeption des Schallsignals . . .
B.3.1 Direktschall . . . . . . .
B.3.2 Frühe Reflexionen . . . .
B.3.3 Nachhall . . . . . . . . .
B.3.4 Knochenschall . . . . . .
B.3.5 Cochlea-Implantate . . .
B.4 Räumliches Hören . . . . . . . .
B.4.1 Temporale Veränderung .
B.4.2 Qualitative Veränderung .
B.4.3 Räumliche Auflösung . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
C Digitale Schallwelt
C.1 Digitalisierung . . . . . . . . . . . . . . .
C.1.1 Abtastrate . . . . . . . . . . . . .
C.1.2 Bitauflösung . . . . . . . . . . . .
C.1.3 Dynamik . . . . . . . . . . . . . .
C.1.4 Signal-Rausch-Abstand . . . . . .
C.2 Digitale Audio-Formate . . . . . . . . . .
C.2.1 PCM / WAV . . . . . . . . . . . .
C.2.2 MP3 und andere Komprimierungen
C.3 Digitale Schall-Erzeugung . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
94
94
95
96
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
97
98
98
98
99
99
100
100
101
101
101
102
102
102
102
103
.
.
.
.
.
.
.
.
.
105
105
106
106
107
107
107
108
108
108
Abbildungsverzeichnis
1.1
Schema einer verhallten Impulsantwort. . . . . . . . . . . . . . . . . . . .
3
1.2
Aufbau und Struktur der Arbeit. . . . . . . . . . . . . . . . . . . . . . . .
9
2.1
30 Jahre Computerspiele-Entwicklung. . . . . . . . . . . . . . . . . . . . . 12
2.2
First Person Ansicht in Farcry. . . . . . . . . . . . . . . . . . . . . . . . . 13
2.3
Top-View Ansicht in Warcraft 3. . . . . . . . . . . . . . . . . . . . . . . . 13
2.4
Vierfacher Split-Screen bei Outrigger. . . . . . . . . . . . . . . . . . . . . 14
2.5
Beam-Tracing Ansatz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.6
Modell der Hagia Irene in Odeon 6.5. . . . . . . . . . . . . . . . . . . . . 18
2.7
Verschiedene Techniken der Schallpositionierung. . . . . . . . . . . . . . . 19
2.8
Interaktive Manipulation einer Impulsantwort. . . . . . . . . . . . . . . . . 23
2.9
Wege des Direkt- und Hall-Signals im I3DL2 Mix. . . . . . . . . . . . . . 25
2.10 Die legendäre SoundBlaster 2.0. . . . . . . . . . . . . . . . . . . . . . . . 32
2.11 Bedienoberfläche von EAGLE. . . . . . . . . . . . . . . . . . . . . . . . . 33
2.12 blue-c. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.13 T.C.Electronic M-ONE XL Hallgerät. . . . . . . . . . . . . . . . . . . . . 36
3.1
Bisheriges Schichtmodell. . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.2
Vorgeschlagenes Schichtmodell. . . . . . . . . . . . . . . . . . . . . . . . 38
3.3
Die acht GAPs in einer Szene. . . . . . . . . . . . . . . . . . . . . . . . . 41
3.4
Hörerabhängiger Sound. . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.5
GAP-Klassenhierarchie. . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.1
Strahlschuss durch Sphere-Points erzeugt Volume-Points. . . . . . . . . . . 59
4.2
Das Reverb-Volumen spannt sich aus Treffern in der Szene auf. . . . . . . . 60
4.3
Vollständiger Absorber. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.4
Berechnung der frühen Reflexionen. . . . . . . . . . . . . . . . . . . . . . 63
4.5
Prinzip der Virtuellen Sounds. . . . . . . . . . . . . . . . . . . . . . . . . 64
4.6
Positionierung der virtuellen Sounds. . . . . . . . . . . . . . . . . . . . . . 65
4.7
Aufbau der Roomselection. . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.8
Sichtbarkeits-Test zwischen Wänden. . . . . . . . . . . . . . . . . . . . . 72
4.9
Wall 4 schneidet nur AABB von Wall 1 und Wall 3. . . . . . . . . . . . . . 72
5.1
Office-Szene mit vierfacher Geometrie, 2 Listener und 4 Sounds. . . . . . . 74
ix
x
ABBILDUNGSVERZEICHNIS
5.2
5.3
5.4
Höhlenwanderung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
Messergebnisse der Office-Szene. . . . . . . . . . . . . . . . . . . . . . . 76
Messung mit dynamischer und globaler Sichtbarkeitsbrechnung. . . . . . . 77
A.1
A.2
A.3
A.4
A.5
A.6
A.7
A.8
Audiodaten in verschiedenen Darstellungen. . . . . . . . . . .
Das nach oben offene Frequenzspektrum. . . . . . . . . . . .
Mathematische Interferenzen. . . . . . . . . . . . . . . . . . .
Reflexionen an planaren Flächen. . . . . . . . . . . . . . . . .
Reflexion an Strukturen mit unterschiedlichen Wellenlängen λ.
Leistungsverteilung beim Eindringen in ein zweites Medium. .
Beugung an verschieden großen Öffnungen. . . . . . . . . . .
Brechung in ein dichteres Medium. . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
84
84
88
89
89
90
91
91
B.1
B.2
B.3
B.4
Schema des menschlichen Ohres. . . . . . . . . . . .
Frequenzabhängigkeit des Gehörs. . . . . . . . . . .
Schema einer Impulsantwort eines verhallten Signals.
Verschiedene Laufzeiten an den Ohren. . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
98
99
101
103
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Tabellenverzeichnis
2.1
2.2
Empfohlende Wiederholungsraten. . . . . . . . . . . . . . . . . . . . . . . 16
Gemessener Absorptionsgrad verschiedener Materialien. . . . . . . . . . . 19
3.1
3.2
3.3
3.4
3.5
Methoden der Systemverwaltung. . . . . . . . . . .
Methoden zum Erzeugen und Löschen von GAPs. . .
Methoden zum Verbinden und Platzieren von GAPs.
Methoden zur Manipulation von GAPs. . . . . . . .
Weitere Hilfsmethoden. . . . . . . . . . . . . . . . .
5.1
GAP-Verteilung der drei Office-Szenen. . . . . . . . . . . . . . . . . . . . 74
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
46
47
48
48
49
A.1 Eigenschaften exemplarische Medien. . . . . . . . . . . . . . . . . . . . . 86
A.2 Richtwerte für Schallpegel verschiedener Geräusche. . . . . . . . . . . . . 87
C.1 Übliche Abtastraten. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
C.2 Übliche Bitauflösungen. . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
C.3 Dynamik gängiger Audiotechniken und -ereignisse. . . . . . . . . . . . . . 107
xi
xii
TABELLENVERZEICHNIS
Kapitel 1
Einleitung
«Und plötzlich war ein schreckliches Getöse um uns rum und der Himmel
war voller Viecher, die aussahen wie riesige Fledermäuse und sie alle stürzten
auf uns herab. Kreischend wie ein Kamikazeangriff auf den Wagen, der mit
100 Meilen Geschwindigkeit und herunter gelassenen Verdeck nach Las Vegas
fuhr.»
(Aus dem Buch Fear and Loathing in Las Vegas von Hunter S. Thompson)
1.1
Einführung
Gehör und Emotionen Dieses Zitat aus ”Fear and Loathing in Las Vegas” verbildlicht
die Emotionalität, mit der wir Menschen über unser Gehör Dinge wahrnehmen können.
Dieses Organ besitzt Fähigkeiten, die bewusst und unbewusst Einfluss auf unser tägliches
Leben haben (siehe Anhang B). So erfahren und verarbeiten wir Menschen mit dem Gehör
mehr Informationen, als Vielen bewusst ist. Wir Menschen können auch mit geschlossenen
Augen Hindernisse erhören und haben eine Vorstellung von der Umgebung um uns herum,
wenn wir etwas hören. Die Wirkung des Hörens ist unabhängig von der eigentlichen Lautstärke. Wir genießen ein Crescendo im Konzertsaal oder entspannen bei Vogelgezwitscher,
fühlen uns andererseits gestresst von Straßenlärm oder beunruhigt von dem Summen einer
Mücke.
Die akustischen Eigenschaften kommerzieller Produkte werden wissenschaftlich
genau untersucht und schon während des Designprozesses spezifiziert [Rue]. Das satte
Stampfen einer Harley-Davidson soll Freiheitsdrang, das geräuschvolle Entlangsausen
von Schmutz im Staubsaugerrohr Genugtuung auslösen. Der Autobauer Porsche
hat eine sehr erfolgreiche Gruppe von Akustikern [Pas], die vom Motor-Surren bis
zum Einschnappen des Aschenbechers jedes Geräusch nach ihren Vorstellungen
formen. Selbst Nahrungsmittel wie Müsli oder Kartoffel-Chips werden auch nach ihrer
Geräuschentwicklung produziert. Je breiter und chaotischer das Frequenzspektrum1
beim Zerkauen, desto besser und frischer schmeckt ein Kartoffel-Chip [Spi03]. Auch
1 Gesamtheit
der Frequenzen von einem schwingenden System.
1
2
KAPITEL 1. EINLEITUNG
in der Filmindustrie ist die Untermalung eines Filmes mit Musik und Geräuschen
oft entscheidend für den Eindruck eines Filmes. Es gibt Untersuchungen, wonach
Computergrafiken besser aussehen, wenn gleichzeitig etwas Ansprechendes zu hören ist
[Beg94]. Das Geräusch alleine ist jedoch nicht ausreichend, um den komplexen Vorgang
der Schallausbreitung und Rezeption zu beschreiben.
Raumakustik Ein ganzer Forschungsbereich, die Raumakustik, beschäftigt sich mit der
Verhallung (siehe Anhang A.3.5) von Geräuschen und dem Schallschutz [Scha] in und
außerhalb von Gebäuden. Dem direkten Signal einer Schallquelle folgt der umgebungsspezifische Nachhall. Wird ein Schallsignal von der Umgebung beeinflusst, so überlagern
sich verzögerte Schallimpulse zu einem Hallsignal. Die physikalischen Phänomene (siehe
Anhang A.2), die bei der Schallausbreitung auftreten können sind:
• Interferenz: Die Überlagerung von Schallwellen.
• Absorption: Das Abschwächen des Schallsignals in Medien.
• Beugung: Das Ablenken von Schallwellen an Hindernissen.
• Brechung: Die Richtungsänderung beim Eintreten in ein Medium.
• Reflexion: Das Zurückwerfen der Schallwellen an einer Oberfläche.
Dabei erfährt das Schallsignal frequenzabhängig unterschiedlich starke Veränderungen.
Raumgefühl Jeder kennt den klanglichen Unterschied zwischen dem Inneren einer Kathedrale wie dem Kölner Dom und dem eigenen Badezimmer, oder kann ihn durch seine
Erfahrung erahnen. Ein Geräusch im Kölner Dom hallt scheinbar endlos nach, während
ein Badezimmer einen sehr kompakten und kurzen Nachhall produziert. Unser Gehör versorgt uns Menschen mit einem Raumgefühl, indem es die verschachtelten Informationen
des Nachhalls auswertet und sie mit anderen Hörerfahrungen vergleicht. Es muss ein besonderes Augenmerk auf die Physiologie2 des Gehörs gerichtet werden, um die akustische
Wahrnehmung zu verstehen (siehe B.2). So ist die Geschwindigkeit, mit der ein Nachhall
verebbt, ein wichtigerer Indikator als die Länge des Nachhalls.
Auditives Ereignis Betrachtet man die akustische Wahrnehmung nach dem UrsacheWirkung-Prinzip, so kommen bemerkenswerte Betrachtungsweisen zum Vorschein. Ein
Schallereignis beschreibt die Ursache eines Schallsignals, das von einer Schallquelle erzeugt wird. Diese Signale werden vom Gehör als eine Reizfolge aufgenommen und vom
Zentralnervensystem verarbeitet. Dabei kommt es zu einem unbewussten Abgleich des Gehörten mit erlernten Hörerfahrungen. Mehrere Hörer können ein und das selbe Schallereignis ganz unterschiedlich wahrnehmen, da jeder ein eigenes subjektives Hörerlebnis, das
auditive Ereignis (auditory event), erfährt [Bla97]. Ein Schallereignis ist aber nicht zwingend der einzige Grund für ein Hörerlebnis, wie z.B. beim Tinnitus3 . Auch können bei der
2 Die Physiologie (von griechisch Natur und Vernunft) befasst sich mit den physikalischen, informationsverarbeitenden und biochemischen Funktionen von Lebewesen.
3 Tinnitus aurium = lat. das Klingen des Ohres, z.B. durch Stress oder Knalltraumata.
1.1. EINFÜHRUNG
3
Lokalisierung Abweichungen zwischen der Position des Schallereignisses und der wahrgenommenen Position des auditiven Ereignis auftreten.
Temporale Aufteilung des auditiven Ereignisses Die nach dem zeitlichen Eintreffen
beim Hörer sortierten Schallimpulse (siehe Anhang B.3), die ein auditives Ereignis hervorrufen, bilden eine Impulsantwort4 . Sie kann grob in drei temporale Bereiche unterschieden
werden (siehe Abb. 1.1):
• Der direkte Schallanteil, der Direktschall
• Die frühen Reflexionen, die an markanten Reflektoren entstehen
• Die späten Reflexionen im Raum, die einen diffusen Nachhall bewirken
Abbildung 1.1: Schema einer verhallten Impulsantwort.
Informationsgewinn Ein auditives Ereignis liefert eine Vielzahl von Informationen.
Man kann diese Informationen in zwei logische Bereiche trennen:
• Informationen über die Schallquelle: Das Ohr erhält durch mehrere Effekte einen
Eindruck, wie nahe die Schallquelle ist, wo sie sich befindet, wie laut sie ist oder ob
sich die Schallquelle relativ zum Hörer bewegt.
• Informationen über die Umgebung: Durch das wahrgenommene Hallsignal können Informationen darüber erfasst werden, wie die Umgebung beschaffen ist, in der
sich die Schallquelle bzw. der Hörer befindet. Man erlangt ein Gefühl, ob Objekte in
der Nähe sind und von welcher Art diese sind.
Trainiert man diese Informationsgewinnung bewusst, so sind Menschen in der Lage z.B.
Laternenpfähle allein aus Schallreflexionen zu orten und zu umgehen. Eine Gruppe von
Erblindeten in Amerika lernt die Umgebung durch Reflexionen selbsterzeugter Zungenschnalzer abzutasten und qualitativ klassifizieren zu können. Eine Häuserwand reflektiert
4 Ausgangssignal
eines Systems, dem am Eingang ein Dirac-Impuls zugeführt wird.
4
KAPITEL 1. EINLEITUNG
anders als eine Hecke oder ein Abgrund, bei dem das freie Schallfeld keinerlei Reflexionen zurückwirft. Doch auch für einen durchschnittlich trainierten Hörer sind Umgebungen
akustisch unterscheidbar und der Nachhall liefert wichtige Hinweise (auditory cues).
Künstlich generierte auditive Ereignisse Immer dann, wenn mit Hilfe von Technik Audiosignale reproduziert oder erzeugt werden, wie zum Beispiel beim Telefon, Radio oder
am Computer, entstehen künstlich erzeugte auditive Ereignisse beim Hörer. Der Begriff
des auditiven Ereignisses ist wichtig für das weitere Verständnis, da mit dieser Arbeit die
Qualität von künstlich erzeugten auditiven Ereignissen verbessert werden soll. Ein künstlich provozierte Hörerlebnis soll gleichwertig mit einem auditiven Ereignis sein, das in der
realen Welt entstehen würde. Der Nutzer vor dem Computer im Arbeitszimmer soll ein
künstliches Händeklatschen im virtuellen Kölner Dom genauso wahrnehmen, als befinde
er sich tatsächlich im Kölner Dom, obwohl das eigentliche Schallereignis die schwingende
Membran von Lautsprechern ist. Folglich kann sogar die Natur von Schallereignis und
Hörerlebnis unterschiedlich sein. Das Hörerlebnis des Rezipienten ist dadurch nicht falsch
oder unkorrekt [Bla97].
1.2
Motivation der Arbeit
Entwicklungspotential Die Visualisierung von CAD-Werkzeugen in der Architektur
ermöglicht glaubwürdige, also photorealistische, grafische Eindrücke von geplanten Gebäuden. Doch können diese Werkzeuge bisher keinen akustischen Eindruck mit der gleichen Selbstverständlichkeit generieren. Dazu sind Spezialanwendungen nötig, so genannte
Akustiksimulatoren. Computerspiele sind stark beschränkt bei der dynamischen Veränderung des produzierten Raumgefühls. Insgesamt ist der akustische Eindruck der Verhallung
bei interaktiven Anwendungen unbefriedigend. Es gibt die verschiedensten Techniken zur
Erzeugung und Darstellung5 von künstlichen Audiosignalen, auf die in Kapitel 2 eingegangen wird. Doch haben diese Techniken bisher alle gemein, dass dazu feste diskrete Werte
oder Berechnungen auf einer statischen Szenenbeschreibung verwendet werden.
Bau von künstlichen 3D-Welten Durch die rasante Entwicklung in der Computergrafik
sind virtuelle 3D-Welten aus Computerspielen, Filmen oder Simulationen nicht mehr wegzudenken. Das Erstellen von komplexen 3D-Welten ist eine aufwändige Arbeit. In diesem
Bereich tätige Firmen beschäftigen Spezialisten für die Komponenten der 3D-Welt, die als
in sich stimmig wahrgenommen werden soll. 3D-Modellierer erschaffen animierte Figuren
und so genannte Level-Designer bauen die Architektur der 3D-Welt. Physikalische Modelle
simulieren Phänomene wie die Gravitation und künstliche Intelligenz steuert das Verhalten
der virtuellen Wesen. Optische Spezial-Effekte werden von Grafik-Programmieren erstellt.
5 Unter
Darstellung versteht man die Umsetzung von realen oder abstrakten Dingen, Sachverhalten, Ereignissen oder auch Gefühlen in konkrete Zeichen und Modelle. Dies kann dabei durch diverse Methoden geschehen
z.B. in Bild, Ton, Schrift, als dreidimensionales Modell oder durch Tanz.
1.2. MOTIVATION DER ARBEIT
5
Bis heute typischerweise nicht nur am Ende einer Aufzählung der Komponenten, sondern auch beim Produktionsablauf ist der Audiobereich [Gal02]. Oft unerwähnt oder sogar
vergessen werden die Komponisten, die ansprechende Melodien kreieren, und die SoundProduzenten, die die virtuelle Welt vertonen. Schon für die ersten Computerspiele wurden
eigene Musikstücke komponiert, welche die Audioeigenschaften der verwendeten Systeme
ausreizten. Mit der technischen Entwicklung vom monoton Piepsen über mehrstimmige
MIDI6 -Stücke bis zur digitalen Aufzeichnung von Instrumenten ist es heutzutage keine Seltenheit mehr, wenn ein komplettes Orchester für eine Computerspielproduktion den
Soundtrack einspielt. Zu den Aufgaben der Sound-Produzenten gehört es, die Geräusche
zu kreieren, aufzunehmen und zu bearbeiten, die später beim Nutzer ein auditives Ereignis
auslösen.
Die vollständige, physikalisch-basierte Berechnung von Hallsignalen ist sehr aufwändig und noch nicht interaktiv möglich. So wie in der Computergrafik verschiedene Beleuchtungsmodellen auch nur praktische Annäherungen an die theoretische Beleuchtungsgleichung von Kajiya [Kaj86] sind, gibt es in der Akustik verschieden gute Annäherungen
an die Verhallung.
Interaktive Verhallung Um in interaktiven Anwendungen ein auditives Ereignis künstlich auszulösen, sind verschiedenste Techniken nötig. So ist z.B. durch temporale Verzögerung des Audiosignals eine Positionierung möglich. Durch Frequenz-Veränderungen
können Akustik-Effekte (siehe Anhang A.3) nachgeahmt werden, die durch Objekte hervorgerufen werden. Eine Verhallung kann durch Verwendung von Hall-Modellen erreicht
werden. Das resultierende Hallsignal wird nicht durch direkte Geometrie-Informationen
erzeugt, sondern durch Anwendung eines Regelwerkes. Dasselbe Verfahren findet man in
Hallgeräten aus der Studiotechnik. Im Hallgerät selbst findet aber keine Berechnung der
Schallausbreitung in einem modellierten Raum statt. Das resultierende Hallsignal wird nur
basierend auf stochastischer Daten von heuristischen Regeln generiert, die man durch Parameter variieren kann. So kann in einem Hallraum z.B. durch einen Parameter die Länge
des Nachhalls eingestellt werden. In diesen Techniken und Hall-Modellen stecken die Ergebnisse jahrzehntelanger Forschung und aufwändiger Versuchsreihen, die zur Zeit eine
angemessene Annäherung bieten und es daher vertretbar ist, dieses komprimierte Wissen
zu nutzen (siehe Abschnitt 2.6). Vergleichbar ist dies mit den Texturen7 in der Computergrafik, die ja auch nur Annäherungen an feinere Struktur- und Material-Informationen
darstellen.
Physikalische Berechnung der Akustiksimulatoren Ein Akustikingenieur, der die
Klangverhältnisse einer neu zu bauenden Konzerthalle möglichst exakt wiedergeben
möchte, benutzt andere Hallberechnungen in Akustiksimulatoren. Diese sind sehr
aufwändig und komplex, berechnen aber auch eine sehr gute numerische Annäherung
an die zu erwartenden Halleigenschaften. Außerdem ist man nicht auf den Aspekt der
6 MIDI = Musical Instrument Digital Interface ist ein Datenübertragungs-Protokoll für musikalische Steuerinformationen in semantischer Form zwischen digitalen Instrumenten oder PCs.
7 Digitales Bild zur Speicherung und Approximierung von Eigenschaften einer Oberfläche, das das Aussehen
eines virtuellen Körpers beeinflußt.
6
KAPITEL 1. EINLEITUNG
Echtzeit angewiesen, wie es im Gegensatz dazu bei dem Betrachten oder Erleben von
interaktiven 3D-Welten essenziell ist.
Approximationen der Spiele-Industrie Interaktive Computerspiele müssen fundamentale Vereinfachungen in der Erzeugung der Hallsignale hinnehmen, da sie dem AudioBereich nur geringe Rechenzeit einräumen. Die 3D-Welt wird dazu in Environments8 unterteilt, innerhalb derer Hallräume mit statischen Parametern definiert sind. Unabhängig
von der Position eines Hörers oder einer Schallquelle in der virtuellen Welt erfahren die
Signale dort immer die gleiche Verhallung. Darum spricht man auch von ”eingedostem”
Hall [Factor5].
Beim Betreten eines neuen Environments werden die Hallräume überblendet. Das Einstellen der Eigenschaften der Environments benötigt akustisches Fachwissen und zusätzlichen Aufwand, wenn sich der Spielbereich während der Entwicklung ändert. Dabei kommt
es speziell bei Firmen der Unterhaltungsindustrie nicht unbedingt auf physikalische Korrektheit, sondern auf die Verstärkung der Empfindung und der Stimmung des Nutzers an.
Seit wenigen Jahren ist eine grobe Approximierung der Akustik-Effekte von Objekten möglich, die im direkten Schallweg liegen [GPG3]. Zukünftige Entwicklungen werden
vorraussichtlich verbesserte Berechnungen der Schallausbreitung möglich machen und aktuelle Implementierungen in Audio-Systemen ersetzen. Dies hat zur Folge, dass akustische
Szenenbeschreibungen, die in expliziter Parameterform vorliegen, unbrauchbar werden.
Vorberechnete Schallausbreitung Ein anderer interaktiver Ansatz (siehe 2.2.1) zur Berechnung der Schallausbreitung verwendet vorberechnete Reflexionen einer Schallquelle
und generiert daraus direkt das berechnete Hallsignal. Dabei kann zwar eine große Anzahl
von Geometrie berücksichtigt werden, doch ist dies zur Zeit nur mit großen Einschränkungen möglich. So ist in diesem Ansatz die detaillose Geometrie statisch, die Signaldämpfung
wird frequenzunabhängig approximiert und bisher werden Beugung und Brechung nicht
berücksichtig. Außerdem wird das Audiosignal nur binaural9 erzeugt, und viele Techniken aus dem Feld der auditiven Wahrnehmung bleiben ungenutzt. Dieser Ansatz ist vielversprechend, doch muss die aufwändige Berechnung wiederholt werden, wenn sich die
Geometrie verändert. Dynamische Szenen sind daher nicht möglich.
1.3
Zielsetzung der Arbeit
Deskriptive Repräsentation Leistungsfähige Computer eröffnen nun die Möglichkeit,
z.B. die Parameter der Hall-Modelle dynamisch herzuleiten, statt sie im Vorfeld statisch zu
definieren. Dazu ist es nötig, eine Szene unter Berücksichtigungen der Akustik mit einigen
wenigen Grundbausteinen in einer Szenenbeschreibung abbilden zu können. So schlägt
diese Arbeit vor, Objekte, die bisher eher grafisch verstanden werden, mit in das Audio8 engl. für Umgebung. Hier: eingegrenzter Bereich einer 3D-Welt. Der englische Begriff wird benutzt, um
Verwechslungen mit dem Wort ”Hallraum” zu vermeiden.
9 Für zwei Ohren betreffend oder mit beiden Ohren hörend.
7
1.3. ZIELSETZUNG DER ARBEIT
System aufzunehmen. Als Beispiel kann an dieser Stelle etwa ein Raum und ein Portal10
genannt werden. Ein Raum hat eine Volumen, Wände mit speziellen Audioeigenschaften
und ist über Türen mit anderen Räumen verbunden. Ein Portal, z.B. eine Tür, kann geschlossen oder zum Teil geöffnet sein. Ein Geräusch aus einem anderen Raum wandert
direkt durch die Wände oder den Gang entlang und gelangt durch eine Tür zum Hörer. Unabhängig davon, mit welchem Aufwand oder welcher Genauigkeit die Schallausbreitung in
einem solchen Szenario berechnet würde, bleibt die Abstraktion einer geöffneten Tür oder
die eines großen Raumes erhalten.
Definition von GAPs In dieser Arbeit werden neuartige Geometrie-Akustik-Primitive
(GAPs) vorgestellt, die in Kombination mit einander eine komplexe Akustik-Szene beschreiben können sollen. Ohne die Erklärung vorweg zu nehmen, sind die Definitionen der
acht GAPs hergeleitet aus den folgenden abstrakten Begrifflichkeiten:
• Schallquelle
• Hörer
• Wand
• Hindernis
• Portal
• Raum
• Ausbreitungsmedium
• Akustik-Material
Adaptive Berechnung Die Verwaltung der GAPs obliegt einer weiteren
Software-Komponente, der Geometrie-Engine. Sie steuert den Zugriff und leitet aus
den GAPs Informationen her, die zur Veränderung des Schallsignals, und dadurch
zu einem überzeugenden auditiven Ereignis bei einem Hörer führen sollen. Durch die
Verwendung von GAPs können Akustik-Effekte jeweils mit der Leistungsfähigkeit der
Computer-Systeme verbessert und auf dem aktuellen Stand der Technik approximiert
werden. So kann mit der Zeit mehr Geometrie berücksichtigt werden und die
Akustik-Effekte genauer angenähert werden, ohne dass die Abstraktion der GAPS an
Gültigkeit verlieren. Wie und durch welche Implementierung die Akustik-Effekte realisiert
werden, bleibt aber auch in Zukunft unabhängig von einer abstrakten Repräsentation
eines geeigneten Geometrie-Akustik-Interfaces11 . Eine verständliche Abstraktion von
audiorelevanten Objekten zu GAPs, bietet also einem Entwickler mehr Effizienz und
längere Nutzungszeiten.
Dynamische Manipulation Damit GAPs berücksichtigt werden können, müssen Instanzen von ihnen erzeugt werden. Dies soll dynamisch während der Laufzeit einer Applikation
über das Geometrie-Akustik-Interface geschehen, oder durch das Einlesen einer Szenenbeschreibung im XML12 -Format. Jedes GAP kann mehrfach in einer Szene vorhanden sein,
10 Architektur: Tor oder Pforte. Informatik: Zugang zu Diensten oder Informationen (Webportal). Hier als offene
Verbindung zweier Räume gemeint.
11 engl. Schnittstelle
12 XML = Extensible Markup Language. Standard zur Definition von Auszeichnungssprachen.
8
KAPITEL 1. EINLEITUNG
auch die virtuellen Hörer. So soll das System auch in verteilten Anwendungen mit mehreren PCs einsetzbar sein.
Verteilte Anwendungen Ein Audio-System mit GAPs und der Geometrie-Engine soll
auch in Virtual-Reality-Umgebungen verwendet werden können. Dabei werden die aufwändigen Akustik-Berechnungen zentral auf einem eigenen System durchgeführt. Eine
skalierbare Anzahl von Sound-Servern (siehe 2.7.3), die jeweils einem virtuellen Hörer
oder einer Hörposition entsprechen, brauchten nur Ressourcen schonend bei der GeometieEngine ihre Parameterwerte abzufragen und diese an ihre Soundkarte zu übertragen.
Innovative Approximationen Durch die interne Struktur der GAPs kann schnell evaluiert werden, wie ein Geräusch in einen Raum eindringt und dieser Effekt mit heutiger Technik angenähert werden. Ein Teil des Schallsignals dringt stark gedämpft durch die Wand in
den Raum. Ein oft größerer Anteil breitet sich durch Räume und Portale aus und erreicht
den Raum des Hörers durch eine Tür. Durch eine passende Datenstruktur ist es möglich,
effizient zu entscheiden, ob es einen Weg durch Räume und Türen gibt, entlang dessen sich
die Schallwellen ausbreiten können. So könnte eine virtuelle Schallquelle erzeugt werden, die aus der Richtung eines Portals erklingt, statt aus der Richtung der ursprünglichen
Schallquelle.
Ziel dieser Arbeit Diese Arbeit soll dem Nutzer und dem Entwickler einer komplexen
3D-Welt, die aus dynamischer Geometrie und Geräuschen besteht, spürbare Verbesserungen anbieten. Dem Nutzer sollen dynamisch generierte Hallsignale dargeboten werden, die
ihn mit Informationen und einem stimmigen Raumgefühl versorgen. Dazu werden Techniken vorgeschlagen, die Qualität von künstlich produzierten auditiven Ereignissen in interaktiven Anwendungen zu erhöhen. Dem Entwickler einer 3D-Welt soll durch die Verwendung von GAPs ein effizientes Akustik-Geometrie-Interface zur Verfügung stehen. Eine
dynamische, beschreibende Repräsentation einer Akustik-Szene durch abstrakte Objekte
erleichtert das Verständnis und die Wiederverwendbarkeit von erstellten Daten.
Die Geometrie-Engine soll aus dem aufgespannten Raum der kombinierten GAPs aktuelle Ausprägungen der Hallparameter berechnen. Zur Darstellung wird die Erfahrung
aus jahrelangen Forschungen genutzt. Die Halleinstellungen werden nicht mehr proprietär
in Parameterform gespeichert, sondern als abstrakte und nachvollziehbare Szenenbeschreibung durch die Kombination aus GAPs. Die Generierung und Darstellung der Schallsignale
ist von der Geometrie-Engine entkapselt, so dass in Zukunft auch neue Hall-Modelle erforscht und verglichen werden können. Dabei werden unter anderem dynamische Geometrie, bewegliche Schallquellen und Hörer, frequenzabhängige Dämpfung, virtuelle Schallquellen, dynamische Verhallung und eine umfangreiche Materialsammlung unterstützt.
Als weiteres Ziel soll der Leser dieser schriftlichen Ausarbeitung einen Überblick erlangen über das weite Feld der Akustik, der menschlichen Rezeption von Schallereignissen
und der Repräsentation und Berechnung von 3D-Sound am Computer. Durch zahlreiche Literaturverweise und Informationen im Text sowie durch die Anhänge soll diese Arbeit auch
als Orientierungshilfe für Neueinsteiger im Bereich 3D-Audio dienen.
9
1.4. AUFBAU DER ARBEIT
1.4
Aufbau der Arbeit
Diese Arbeit besteht aus sechs Kapiteln. Nach dieser Einführung wird im zweiten Kapitel
auf die Grundlagen von 3D-Sound eingegangen. Im dritten Kapitel werden die Komponenten der Geometrie-Engine aufgeführt. Kapitel 4 geht auf die Berechnungen der GeometrieEngine ein. Eine Überprüfung der Geometrie-Engine findet im fünften Kapitel statt. Diese
Arbeit schließt mit einer Diskussion und einem Ausblick im sechsten Kapitel. Die Anhänge A-C bieten die Möglichkeit auf Fachwissen der Gebiete Akustik, Psycho-Akustik
und Digital-Audio und auf Begriffserklärungen zurückzugreifen. In Abbildung 1.2 ist dargestellt, an welchen Stellen die Abschnitte aus Kapitel 2 in dieser Arbeit Verwendungen
finden und wie die Arbeit aufgebaut ist.
Anhang A
1 Einleitung
3 Geometrie-Engine
2.1 Konzepte
3.2 GeometrieAkustik-Primitive
Statisch
3.3 GeometrieAkustik-Interface
2.2 Beam-Tracing
2.3 AkustikSimulatoren
Dynamisch
3.4 Geometry-Engine
3.5 Sound-Kontext
3.6 Implementierung
Anhang B
2.4 Positionierung
Anhang C
2.5 Wiedergabe
4 Berechnung
2.6 Echtzeit
5 Überprüfung
2.7 Virtual Reality
6 Diskussion und
Ausblick
Abbildung 1.2: Aufbau und Struktur der Arbeit. Die Pfeile geben die inhaltliche Abhängigkeit, die Striche den textlichen Ablauf der Abschnitte an.
10
KAPITEL 1. EINLEITUNG
Kapitel 2
Grundlagen von 3D-Audio
«The score was 5-4, his favour, when his paddle made contact with the ball.
There was a beautifully resonant ’pong’ sound, and the ball bounced back to
the other side of the screen.»
(Aus dem Buch Zap! The Rise and Fall of Atari von Scott Cohen)
Scott Cohen schreibt in ”Zap! The Rise and Fall of Atari” über das erste kommerzielle
Videospiel und wie ein einfaches Piepsen eine intensive Hörerfahrung auslösen kann. Seitdem hat sich die Technik der Akustikberechnung und die Visualisierung der Ergebnisse
[Mah01] weiter entwickelt. Die Realisierung von 3D-Audio im Computer hängt von der
erwünschten Zielsetzung ab, und daher sind unterschiedliche Ansätze entwickelt worden.
Man kann die Zielsetzung grob in drei Bereiche unterteilen.
• Akustiksimulationen: Die Berechnung von Halleigenschaften in zukünftigen Konzertsälen oder anderen Bauten liefert durch physikalische Methoden präzise numerische Annäherung an die akustischen Begebenheiten einer realen Szene. Durch den
großen Rechenaufwand sind diese Simulatoren nicht interaktiv.
• Nachvertonung einer Animation: Durch den Einsatz von Studio-Technik wird in
diesem Post-Produktions-Schritt bei einer Film-Sequenz oder einem graphischen
Clip ein hoher kinematischer Eindruck erreicht.
• Interaktive Darstellung von 3D-Audio: Durch Echtzeit-Techniken sollen virtuelle
Sounds in einer virtuellen Szene so verhallen, dass das Resultat ein glaubwürdiges
auditives Ergebnis bei einem Hörer auslöst. Da dies während des Programmlaufs
z.B. eines Computerspieles oder einer anderen zumeist graphischen Interaktion geschieht, beruht dieser Ansatz auf der Verwendung von Hall-Modellen. Die physikalische Schallausbreitung wird approximiert, um die Anforderung an dynamische
Darstellung zu erfüllen.
In diesem Kapitel wird auf die Generierung von 3D-Audio in Echtzeit eingegangen, und
die Akustiksimulationen werden zum Vergleich herangezogen.
11
12
KAPITEL 2. GRUNDLAGEN VON 3D-AUDIO
2.1
Audio-Konzepte in virtuellen 3D-Welten
In dem Verlauf der letzten Jahre haben sich die Fähigkeiten von Soundchips und damit die
Qualität der Klangwiedergabe von Soundkarten und anderen technischen Akustikgeräten
ähnlich rasant verbessert, wie Grafikchips und die daraus entwickelten Anwendungen. Die
Abbildung 2.1 zeigt diese Entwicklung exemplarisch an der grafischen Darstellung zweier Computerspiele. Die Evolution der akustischen Darstellung reicht von einem Piepsgeräusch im legendären Spiel Pong [Pong] in a) bis zur Wiedergabe von Orchestermusik und
realitätsnahen Geräuschen mit Dolby-Digital1 auf aktuellen Spiele-Platformen in b).
(a) Pong von 19722
(b) Call of Duty von 20033
Abbildung 2.1: 30 Jahre Computerspiele-Entwicklung.
Chuck Russom gewann im Jahr 2004 den Game Developers Choice Award4 für die
Soundeffekte in dem Spiel Call of Duty [CoD]. Die Geräusche der alten Waffen beim
Schießen und Nachladen wurden aufwändig dgitalisiert. Zusätzlich spielte ein 70-köpfiges
Orchester in den Sony Aufnahme-Studios in Los Angeles die musikalische Untermalung
[Gia03] ein.
Damit die Audioerfahrung räumlich wirkt, haben sich Konzepte herausgebildet, die den
Verfahren der Computergrafik ähnlich sind. Im Folgenden werden Konzepte beschrieben,
um Akustik-Szenen zu repräsentieren und darzustellen.
2.1.1
Listener
Der Listener oder Hörer ist das abstrakte Abbild des Nutzers in der virtuellen Szene. Im
Weiteren wird Listener verwendet, wenn der Hörer in der virtuellen Szene gemeint ist, um
Verwechslungen mit einem realen Schallempfänger zu vermeiden. Der Listener ist durch
die diskrete Angabe seiner (Kopf-)Position, der Blickrichtung, oder besser Hörrichtung
und der Ausrichtung, wo für ihn Oben ist, beschrieben. Diese Vektoren werden position,
lookat und up genannt. Wenn der Listener sich in der Szene bewegt, wird die Richtung der
Geschwindigkeit in dem Vektor velocity gespeichert.
1 Dolby
Digital = ein digitales Sechs-Lautsprecher-System
http://www.pong-story.com/pcpong.htm
3 Bildquelle: http://www.callofduty.com
4 Auszeichnung der International Game Developers Association
2 Bildquelle:
2.1. AUDIO-KONZEPTE IN VIRTUELLEN 3D-WELTEN
2.1.1.1
13
First-Person
Bei Anwendungen, die aus der Ich-Perspektive (First-Person) grafisch dargestellt sind, ist
das Konzept des Listener direkt auf den grafischen Kontext übertragbar. Typische Beispiele
sind so genannte Ego-Shooter oder Renn-Simulationen (siehe Abb. 2.2). Hier liegt das
Audio-Koordinatensystem mit dem grafischen Koordinatensystem übereinander und die
Angaben der Kamera/Listener und der Objekte/Sounds stimmen überein. Dabei muss auf
die Skalierung geachtet werden, um die akustischen Effekte korrekt darzustellen.
Abbildung 2.2: First Person Ansicht in Farcry.5
2.1.1.2
Top-View
Wenn eine Anwendung eine Szene oder das Abbild des Nutzers von oberhalb beobachtet,
spricht man von einer Aufsicht oder der Top-View (siehe Abb. 2.3). Dies ist bei strategischen Echtzeit-Simulationen oder geschichten- und rätselbasierten Spielen, so genannten
Adventures üblich. Dabei erlaubt das Spieledesign eine Mischung aus dem Audioumfeld
des Charakters des Nutzes, dem Avatar, oder dem Audioumfeld der Kamera. Die Koordinatensysteme von Grafik und Audio und die Koordinaten von Objekt und Sound liegen dabei
nicht zwingend übereinander.
Abbildung 2.3: Top-View Ansicht in Warcraft 3.6
5 Bildquelle:
6 Bildquelle:
http://www.crytek.de
http://www.blizzard.com/war3x/
14
KAPITEL 2. GRUNDLAGEN VON 3D-AUDIO
2.1.1.3
Split-Screen
An einem System können auch zwei oder mehrere Nutzer gleichzeitig agieren. In abwechselnder, so genannter hot-seated, Spielweise entspricht das Audioverhalten dem eines
Einzelspielers. Sind dagegen mehrere grafische Kontexte der Nutzer gleichzeitig sichtbar,
spricht man vom Split-Screen Modus (siehe Abb. 2.4). Für jeden Nutzer wird eine eigene
virtuelle Kamera im Grafik-System und ein Listener benötigt, damit abhängig von seiner
Position Soundquellen gemischt und dann auf dem angeschlossenen Lautsprecher-System
ausgegeben werden. Diese multi-Listener 3D-Sound-Unterstützung ist bisher nur teilweise
umgesetzt, da eine räumliche Positionierung der virtuellen Schallquellen nicht stattfindet,
sondern nur eine Abschwächung über die relative Entfernung berücksichtig wird. Dazu
werden die Positionen der virtuellen Schallquellen in die Koordinatensysteme der Listener
überführt und nur die virtuelle Schallquelle abgespielt, der jeweils die kürzeste Distanz zu
einem Listener hat. Es werden nicht mehrere hörerabhängige Sound-Eindrücke für eine
virtuelle Schallquelle dargestellt.
Abbildung 2.4: Vierfacher Split-Screen bei Outrigger.7
2.1.2
Soundobjekte
Soundobjekte sind virtuelle Audioemitter, die eine Schallquelle darstellen. Es gibt mehrere technische Möglichkeiten das Audiomaterial dem Soundobjekt zur Verfügung zu stellen. Das Audiomaterial kann aus einer Datei oder einer anderen Quelle komplett oder dynamisch geladen oder andersartig generiert werden. Des Weiteren wird der Begriff des
Sounds für eine virtuelle Schallquelle in einer künstlichen 3D-Welt eingeführt. Damit soll
eine Verwechselung mit einer physikalischen Schallquelle verhindert werden.
2.1.2.1
Ambienter Sound
Ambiente Sounds sind Geräusche oder Hintergrundmusik, die nicht räumlich positioniert
sind, also eher zur Untermalung oder Verdichtung des Gesamteindrucks dienen. Bei ambienten Sound kann das Audiomaterial in beliebiger Abmischung vorliegen, da es einfach
pro Kanal oder anteilig auf die Lautsprecher verteilt wird.
7 Bildquelle:
http://www.thegnet.ch/dreamcast/outtrigger/preview.htm
2.1. AUDIO-KONZEPTE IN VIRTUELLEN 3D-WELTEN
2.1.2.2
15
3D-Sound
Ein Soundobjekt, das an einer bestimmten Position im virtuellen Raum liegt, wird 3DSound genannt. Das Audiomaterial muss in mono vorliegen, da es als Punktschallquelle
abgestrahlt wird und ein Stereosignal nicht eindeutig wiedergegeben werden kann. Desweiteren sollte es möglichst dry, das heißt ohne Reflexionen oder Nachhall aufgenommen
oder produziert sein, da dies sonst den späteren räumlichen Eindruck stark beeinflussen
kann.
Omni-Sound Ein Omni-Sound strahlt sein Signal zu allen Richtungen mit der gleichen
Stärke ab und auch die Abnahme der Lautstärke mit der Entfernung ist in alle Richtungen
uniform. Insofern simuliert ein Omni-Sound eine kugelförmige Schallquelle.
Gerichteter Sound Ein gerichteter Sound simuliert einen Emitter, der sein Signal in eine bestimmten Richtung stärker abstrahlt als in andere. In dem Soundmodell von VRML
(siehe 2.7.1) werden beispielsweise zwei Ellipsen benutzt, um diese Schallausbreitung zu
definieren. Physikalisch kann man die Repräsentation einer Schallquelle zu einem gerichteten Sound durch die Vereinfachung von blockierenden Hindernissen verstehen. So besitzen
z.B. eine Trompete oder ein Radio durch die jeweilige Bauform ein ungleichförmiges Abstrahlmuster.
2.1.3
Koordinatensystem
Koordinatensysteme dienen der Spezifizierung und Animation von Objekten im Raum. Koordinatensysteme spielen dann eine wichtige Rolle, wenn Positionen oder Vektoren an
die Audio-Schnittstellen übergeben werden. Obwohl bei der Schädelvermessung und in
der Psychoakustik spärische Polarkoordinaten gängig sind (siehe Anhang B.1), verwenden
Sound-Systeme das kartesische Koordinatensystem im Euklidischen Raum mit drei Dimensionen. Dabei unterscheiden man in links- und rechts-händige Koordinatensysteme. Bildlich leicht zu erklären ist das rechtwinklige Abspreizen von drei Fingern einer Hand. Zeigt
der Zeigefinger nach oben, der Daumen seitwärts und steht der Mittelfinger senkrecht dazu ab, so beschreibt die rechte Hand ein rechts-händiges, die linke Hand ein links-händiges
Koordinatensystem. Es gibt keine affine Abbildung, die beide in einander überführt. Mathematisch ist eine Umwandlung leicht durch das Spiegeln der Z-Achse erreichbar. Die zwei
später ausführlicher beschriebenen gängigsten Audio-Pakete, DirectSound3D und EAX,
verwenden unterschiedliche Orientierungen.
2.1.4
Wiederholungsraten
Das Gehör ist in der Lage schneller Reizfolgen zu verarbeiten als das Auge. Diese Erkenntnis führt aber nicht zu pauschalen Anforderungen an ein Audio-System. Man muss die Wiederholungsraten einzelner Aspekte wie Tonhöhe, Positionen oder Nachhall eines künstlich
produzierten Hallsignals getrennt betrachten. So verlangen Veränderungen des eigentlichen
Audiomaterials, wie bei künstlichen Motor-Geräuschen, hohe Wiederholungsraten, da das
Gehör Sprünge in Tonänderungen leicht erkennt.
16
KAPITEL 2. GRUNDLAGEN VON 3D-AUDIO
Die Orientierung des Kopfes ist ein wichtiger Faktor zur Positionierbarkeit von auditiven Ereignisse. Darum sollte alle Aspekte, die hörerabhängig sind, mit mindestens 20
Hz wiederholt werden. Messungen zeigen keine signifikante Verbesserung bei Erhöhung
der Wiederholungsrate auf über 20 Hz [San96]. Für die Aktualisierung der Verhallungsparameter können noch geringere Wiederholungsraten angesetzt werden. Daher ist es in
einem Audio-System erstrebenswert verschiedene Aktualisierungen getrennt von einander
vornehmen zu können, die unabhängig von der grafischen Darstellungen sind. Die Tabelle 2.1 zeigt einige Bereiche und deren Wiederholungsraten, wie sie ein Hersteller einer
Sound-API vorschlägt.
Tabelle 2.1: Empfohlende Wiederholungsraten.
Dynamisches Audiomaterial
Listener Position/Orientierung
Sound Position
Listener Reflexions-/ Nachhall-Richtungsvektoren
Nachhallparameter Aktualisierung
> 60 Hz
30 Hz
30 Hz
30 Hz
15 Hz
Durch System-Verzögerungen leidet die Positionierbarkeit von einem Sound. Durch
Versuche [Wen01] ist dies ab Verzögerungen von 96 ms festgestellt worden.
2.2
Aktuelle Forschungsansätze
Aus dem breiten Feld der aktuellen Forschungsprojekte werden exemplarisch zwei Arbeiten angeführt. Ein Ansatz realisiert die geometrische Ableitung der Impulsantwort eines
Nachhalls. Dies ist bisher nur mit Einschränkungen möglich, so dass ein zweiter Ansatz
unter anderem die Verwendung von Sound-APIs der Spiele-Industrie vorschlägt.
2.2.1
Schallausbreitung durch Beam-Tracing
In der Grafikgruppe der Princeton Universität [PGG] wird ein Ansatz von 3D-Sound
verfolgt, der auf dem so genannten Beam-Tracing Verfahren basiert [TFNC01, FTC02,
FTC03]. Statt eines eindimensionalen Strahls wird ausgehend vom Sound eine Art Pyramidenstumpf aufgespannt, der durch Geometrie reflektiert oder aufgetrennt wird. So wird
die Schallausbreitung von nicht beweglichen Sounds vorberechnet. Zu einem Punkt im
Raum können dann die, von einem Sound ausgehenden, Beams schnell berechnet werden. Akustisch werden für einen Listener so die Reflexionen bestimmt, die ihn erreichen
(vergleiche Abb. 2.5). Die Impulsantwort wird zusammengestellt und kann dann binaural
ausgegeben werden. Die Berechnung unterstützt bisher keine material- oder frequenzabhängige Absorption, keine Streuung, keine Transmission und keine dynamische Geometrie.
Dieser Ansatz ermöglicht interaktiven 3D-Sound unter Berücksichtigung von komplexen
Geometrie-Informationen mit wenig Dateilreiche.
Nicht aufgeführt ist, ob HRTF-Methoden berücksichtigt werden, die die Reflexionen
an Pinna und Schultern nachbilden (siehe 2.5.2 und Anhang B.1). Da keine Audiomate-
2.3. AKUSTIKSIMULATOREN
17
rialien verwendet werden, ist auch der Verzicht auf eine semantische Szenenbeschreibung
vertretbar. Diese ist aber unumgänglich, wenn das System die fehlenden Berechnungen
einmal unterstützen sollte. Im Grunde könnte der Beam-Tracing-Ansatz als ein eigenes
Sound-Modul in dem später erklärten Sound-Kontext dieser Arbeit implementiert werden.
Abbildung 2.5: Frühe Reflektionen eines Sounds (rot) für einen beweglichen Listener
(weiss) anhand des Beam-Tracing Ansatzes.9
2.2.2
Clustering und Culling in komplexen Audioszenen
Dieses Verfahren aus dem INRIA10 verringert die Last der Audioberechnung, in dem die
Sounds nach ihrer Hörbarkeit selektiert werden und nahe bei einander liegende Sounds
zu Gruppen zusammen gefasst werden [TGD03]. Das Mischen der Sounds einer Gruppe
wird auf die GPU11 der Grafikkarte ausgelagert. So können hunderte von Sounds räumlich
verwalten werden.
Dieses Verfahren beschäftigt sich allein mit der Positionierung und nicht mit der Verhallung von Sounds. Es profitiert von aktuellen Sound-APIs des Massenmarktes. Bei der
Positionierung der Sounds wird die Hardware der Soundkarte genutzt, und die künstliche
Verhallung geschieht durch die Reverb-Engines der verwendeten Sound-API.
2.3
Akustiksimulatoren
Besonders bei der Planung von Bauten, die akustische Eigenschaften erfüllen sollen, kann
schon frühzeitig die zu erwartende Verhallung und die erreichte Signalqualität sehr genau
abgeschätzt werden. Dabei kommen Akustiksimulatoren zum Einsatz. Die Abbildung 2.6
zeigt das Modell der Hagia Irene [Hagia] in Istanbul, die zu einer Tonhalle umgebaut
wurde.
9 Bildquelle:
http://www.cs.princeton.edu/~funk/acoustics.html
= (franz.) Institut National De Recherche en Informatique et en Automatique
11 GPU = Graphics Processing Unit
10 INRIA
18
KAPITEL 2. GRUNDLAGEN VON 3D-AUDIO
Abbildung 2.6: Modell der Hagia Irene in dem Akustik-Simulator Odeon 6.5 gefüllt mit
Reflexionen hoher Ordnung.
Einige der bekanntesten Akustiksimulatoren sind:
• Catt [CATT] Entwicklung der Technischen Universität Chalmers in Schweden
• Odeon-6.5 [Odeon] Entwicklung der Technische Universität in Dänemark [DTU]
• Ramsete [Ramsete] Entwicklung der Universität Parma in Italien
• EASE [EASE] Entwicklung der Firma SDA aus Deutschland
Akustiksimulatoren werden verwendet, um Parameter der ISO-Norm 3382 [ISO3382] zu
bestimmen, die nicht mit den Parametern des I3DL2 Standards (siehe 2.6.1.2) verwechselt
werden dürfen. Da auch die Akustiksimulatoren von Vereinfachungen ausgehen [AFS03]
und ein gewisses Fehlermaß produzieren, weichen die berechneten Resultate von den Messergebnissen ab [Bor02]. Je nach zur Grunde liegender Technik erlauben Akustiksimulatoren eine Bestimmung der Nachhallzeit, der Schallfeldausbreitung oder generieren sogar
Audiosignalen mit der berechneten Verhallung.
Konzertsäle haben typischerweise eine Nachhallzeit von ca. 1,5 Sekunden, wobei diese
von der Besucheranzahl abhängt, da auch das Publikum Schalldämmung und Schalldämpfung verursacht. Sprechsäle haben typischerweise kürzere Nachhallzeiten, da die Sprache sonst ungenau und unscharf wahrgenommen wird. Die Berechnungszeit einer RaumImpulsantwort bezüglich einer festen Listener- und Sound-Position liegt je nach Computer und Akustiksimulator bei einigen Sekunden. Auf Grund der Berücksichtung komplexer
Geometriemodelle und einer Vielzahl an Materialien berechnen diese Programme Reflexionen bis zur 50.000ten Ordnung oder bis die Schallleistung vollständig absorbiert ist. Akustiksimulationen berücksichtigen die Schalldämpfung an akustischen Materialdaten, die mit
bis zu 8 Messwerten im Oktavenabstand vorliegen. In Tabelle 2.2 sind exemplarisch einige
der knapp 500 Materialen aus dem Datensatz der Software Odeon 6.5 aufgeführt. Dieser
Datensatz durfte für diese Arbeit verwendet werden.
19
2.4. TECHNIKEN DER DIGITALEN SCHALL-POSITIONIERUNG
Tabelle 2.2: Gemessener Absorptionsgrad verschiedener Materialien.
Material / Frequenz in Hz
63
125
250
500
1.000
2.000
4.000
8.000
Doppelverglasung, 30 mm
Solide Holztür
Rauher Asphalt
Sperrholz Panele, 1 cm
Wasseroberfläche (Pool)
Teppich, dick auf Zement
Publikum auf Holzstühlen
sitzend, ca. 2 Pers./m2
0,15
0,14
0,02
0,28
0,008
0,02
0,24
0,15
0,14
0,02
0,28
0,008
0,02
0,24
0,05
0,10
0,03
0,22
0,008
0,06
0,40
0,03
0,06
0,03
0,17
0,013
0,14
0,78
0,03
0,08
0,03
0,09
0,015
0,37
0,98
0,03
0,10
0,04
0,10
0,02
0,60
0,96
0,02
0,10
0,07
0,11
0,02
0,65
0,87
0,02
0,10
0,07
0,11
0,025
0,65
0,87
2.4
Techniken der digitalen Schall-Positionierung
Schon erste Audio-Anwendungen am Computer versuchten beim Hörer einen interaktiven räumlichen Eindruck durch ein künstlich erzeugtes, auditives Ereignis zu erwecken.
Die Überprüfung dieser Hörerlebnisse ist sehr aufwändig [Groe02]. Eine Übersicht einiger Ergebnisse findet sich in [Lok02]. Anfänglich wurde die räumliche Positionierung des
auditiven Ereignisses durch unterschiedliche Lautstärkereglung der Audiokanäle erreicht.
Fortgeschrittene Techniken erreichen dies durch Veränderungen am Frequenzspektrum und
an den Laufzeiten der Signale. Beide Techniken haben gemein, dass sich die wiedergegebenen Signale einzelner Kanäle des zu Grunde liegenden Lautsprecher-Systems unterscheiden (siehe Anhang B.4).
2.4.1
Quantitative Differenz
Durch unterschiedliche Lautstärkereglung der Audiokanäle kann eine grobe
Soundpositionierung erreicht werden (siehe Abb. 2.7 a) ). Auch an Hifi-Anlagen findet
sich ein Regler für die Verteilung der Lautstärke. Man nennt ihn Balance oder Panning.
Werden zwei Kanäle (stereo) genutzt, kann eine eindimensionale Positionierung
auf der Verbindungslinie der Lautsprecher erreicht werden. Bei Quad-Sound, mit
zwei Stereo-Kanälen, kann eine eindimensionale Platzierung auf dem von den vier
Lautsprechern gebildeten Kreis erreicht werden. Eine Verschiebung der virtuellen
Schallquelle in die Tiefe oder in der Höhe ist mit der Panning-Methode nicht möglich.
(a) Lautstärke-Veränderung der Audiokanäle
(b) Laufzeit- und Frequenz-Veränderung der Audiokanäle
Abbildung 2.7: Verschiedene Techniken der Schallpositionierung.
20
2.4.2
KAPITEL 2. GRUNDLAGEN VON 3D-AUDIO
Temporale und qualitative Differenz
Das Gehör wandelt die temporale und qualitative Differenz der eingehenden Schallimpulse in einen räumlichen Eindruck um (siehe Anhang B.4). Heutige Verfahren zur künstlichen Schall-Positionierung basieren auf der Nachahmung der IID und ITD des Signals
auf verschiedenen Kanälen (siehe Abb. 2.7 b) ). Mikrofon-Aufnahmen im Gehörgang, die
Verwendung eines Kunstkopfes und weiterführende Forschungen in dem Gebiet haben effiziente Filtertechniken hervor gebracht. Über die binaurale Head-related Transfer Funktion
(HRTF) kann über Kopfhörer ein guter räumlicher Eindruck entstehen.
2.5
Techniken der digitalen Schall-Wiedergabe
Moderne Soundkarten und Hifi-Anlagen besitzen Ein- und Ausgänge für digitale Audiosignale im SPDIF12 -Format über optische TOSLINK13 oder coaxiale14 Buchsen. Das
menschliche Ohr kann ohne Implantate nur analoge Schwingungen wahrnehmen, so daß
das digitale Audiosignal umgewandelt werden muss. Durch einen Lautsprecher wird es in
Schwingungen (siehe Anhang A.1.1) der Luft konvertieren, die wir Menschen dann hören
können. Der Lautsprecherbau umfasst ein sehr großes Aufgabengebiet. Der konzeptionelle
Unterschied verschiedener Lautsprechersysteme hat dabei fundamentale Auswirkung auf
die Qualität des auditiven Ereignisses.
2.5.1
Lautsprecher-Systeme
Da Luft für uns Menschen das wichtigste Schall übertragende Medium ist, sind Techniken
entwickelt worden, die dieses Medium mit kontrollierbaren Schallereignissen füllt.
Der erste, MagnaVox getaufte, kommerzielle Lautsprecher wurde von dem Dänen
Jensen15 [CEA] erfunden. Mehrere Lautsprecher bilden ein Lautsprecher-Systemen. Zur
Darstellung eines räumlichen Eindrucks unterscheidet man zwischen raumbezogener
und kopfbezogener Wiedergabe [Bla97]. Verständlicher sind die Bezeichnungen
Lautsprecher-Stereo16 und Kopfhörer-Stereo [Seng1], die streng von einander
zu trennen [Seng2] sind. Bei Lautsprecher-Stereo entsteht ein Gebiet sehr guter
Hörqualität (Sweet-Spot) [Gar98]. Verlässt ein Hörer den Sweet-Spot, verändert sich das
Laufzeit-Verhalten und es treten Interferenzen der Amplituden auf. Der räumlichen
Eindrucks verschlechtert sich deutlich.
2.5.1.1
Mono
Mono oder monaural bezeichnet die Wiedergabe einer einzelnen Tonspur. Nicht nur ein
einzelner Lautsprecher, so wie er in frühen Fernsehmodellen verbaut wurde, strahlt ein
Mono-Signal ab. Auch mehrere Lautsprecher, denen das selbe Signal zugeführt wird, sind
mono.
12 SPDIF
= Sony/Philips Digital Interface, Format zur Übertragung digitaler Audiodaten
= Kabelverbindung zur optischen Übertragung von Audiodaten
14 Zentraler Leiter umschlossen von Isolierung und Abschirmung.
15 Peter L. Jensen (1886-1961)
16 Siehe auch http://de.wikipedia.org/wiki/Interchannel-Signale
13 TOSLINK
2.5. TECHNIKEN DER DIGITALEN SCHALL-WIEDERGABE
2.5.1.2
21
Lautsprecher-Stereo
Liegen mehrere (wenn auch nur leicht) unterschiedliche Tonspuren vor, spricht man von
Stereo, da ein stereophoner Eindruck entsteht.
Stereo Soll ein Stereo-Signal über zwei Lautsprecher abgestrahlt werden, so nennt man
dies ein Stereo-Lautsprecher-System. Dieses Audiomaterial ist speziell für die raumbezogene Wiedergabe produziert, da im Raum Reflexionen, und störende Laufzeitveränderungen auftreten können.
Quad Die historische Bedeutung von Quad-Sound lag in der technischen Möglichkeit,
zwei Stereo-Ausgänge auf einer Soundkarte zu verbauen. Im Treiber der Soundkarte wurden die zwei zusätzlichen Kanäle genauso verwendet wie bei der Stereo-Wiedergabe zuvor,
nur dass zusätzliche Lautsprecher hinter oder neben dem Hörer platziert werden konnten.
Dolby-Digital Durch drei Stereoausgänge mit sechs eigenständigen Kanälen konnte die
Platzierung der Lautsprecher weiter optimiert werden. Dolby-Digital unterstützt drei Lautsprecher vor dem Hörer (Left, Center, Right), zwei hinter ihm (Left Rear, Right Rear) und
einen Subwoofer17 für den LFE18 -Kanal. Diese Konfiguration wird auch als 5.1-System
bezeichnet und wird von gängigen Kino-, DVD und Computerspiele-Produktionen unterstützt. Weitere Konfiguration mit einem zusätzlichen Kanal sind möglich, die Dolby-Digital
Surround EX 6.1 und Dolby-Digital Surround EX 7.1 heissen.
2.5.1.3
Kopfhörer-Stereo
Ein Kopfhörer besteht aus zwei Lautsprechern, die sich in unmittelbarer Nähe und fixer
Position zu den Ohren befinden. Umschließen die Kopfhörermuscheln die Ohren vollständig, spricht man von circumauralen Kopfhörern. Liegen sie auf der Pinna, spricht man
von supraauralen Kopfhörer. Intraaurale Kopfhörer befinden sich innerhalb des Gehörgangs
[Bla97]. Bei dieser Wiedergabe können keine Interferenzen zwischen den beiden Lautsprechern auftreten und auch die Veränderung des abgestrahlten Signals durch Luftabsorption
oder zusätzliche Verhallung ist minimal. Kopfhörer bieten hervorragende Eigenschaften zur
Soundpositionierung, da die fixe Position der Lautsprecher sehr gute temporale Verschiebungen zulässt. Man spricht von kopfbezogener Stereofonie. Problematisch ist die Rezeption von Audiomaterial in raumbezogener Abmischung mit Kopfhörern. Da der Großteil des
globalen Musikmaterials in raumbezogener Abmischung vorliegt, wird oft fälschlicherweise eine im-Kopf-Positionierung wahrgenommen.
2.5.2
HRTF-Filter
HRTF steht für ”Head-related Transfer Function” und beschreibt einen Filter, der durch
akustischen Veränderungen beim Hörer selbst entsteht [Lok02, Gar99]. Die entstehenden
Reflexionen und Beugungen an Schulter, Kopf und Pinna können winkelabhängig [Beg94]
17 Spezieller
18 LFE
Lautsprecher zur Wiedergabe tieffrequenter Schallwellen.
= Low Frequency Effects
22
KAPITEL 2. GRUNDLAGEN VON 3D-AUDIO
betrachtet werden. HRTFs werden durch Aufnahmen im Gehörgang eines so genannte
Kunst-Kopfes oder am lebenden Hörer gemessen. Die Filter sind leistungsstarke Verfahren
um ein Schallsignal zusätzlich zu verändern und effektiv ein auditives Ereignis auszulösen.
Die Daten der HRTFs sind in der Regel nicht öffentlich und die Hersteller von Sound-APIs
verwenden ihre eigene Filter [FJT02], die einen breiten Durchschnitt der physiologischen
Unterschiede abbilden. Sensaura stellte 1999 ein kostenpflichtiges System mit dem Namen ”Virtual Ear” vor [SEN4], mit dem ihre Filter durch vier Parameter verändert werden
konnten. Durch individuelle Hörtests des Kunden soll so eine bessere Wiedergabequalität
erreicht werden.
2.5.3
Wellenfeld-Synthese
Die akustische Darstellung auf Grund der Wellenfeld-Synthese erzeugt eine physikalische
Schallquelle im Raum. Diese löst direkt ein authentisches auditives Ereignis aus statt mit
Hilfe von Laufzeit- oder Pegeldifferenzen. Nach dem H UYGENS´sche Prinzip aus der Wellentheorie ist eine große Welle durch die Überlagerung mehrerer kleiner Wellen möglich.
A. J. B ERKHOUT entwickelte daraus die Theorie der Wellenfeld-Synthese an der Universität Delft (Niederlande), die auch das Fraunhofer Institut weiter erforscht und vermarktet [IDMT]. Unter dem Markennamen Iosono ist in Illmenau ein Kino mit dieser Art der
Schall-Wiedergabe ausgestattet worden. Große Flächen der Raumbegrenzung werden mit
einer Vielzahl von einzeln ansteuerbaren Lautsprechern ausgestattet, die dann an beliebigen
Positionen im Raum Schallquellen erzeugen können.
2.5.4
Wiedergabe über Knochenschall
Es gibt auch moderne Ansätze, die nicht über den Luftschall auditive Ereignisse erzeugen
können. Der in B.3.4 beschriebene Knochenschall kann Studien zur Folge in Zukunft interessante Lösungen bieten. So passt die Tonwiedergabe eines Mobilfunk-Gerätes in einen
Backenzahn [AL02], was auch unerwünschtes Mithören erschweren würde. Auch Lösungen am Armband, indem man das Gerät an den Schädel oder einen Finger unterhalb des
Ohres drückt, sind denkbar.
2.6
3D-Sound in Echtzeit
Echtzeit-Techniken werden verwendet, wenn Interaktion mit beweglichen Listener und Sounds in der Szene verlangt ist. Stand der Technik sind stochastische Verfahren zur Verhallung, welche mit verschiedenen Parametern beeinflussbar sind. Dieser Ansatz liefert zwar
kein präzises Abbild einer spezifischen Umgebung, doch werden glaubhafte auditiven Ereignisse [FJT02] erzeugt, die der Verhallung gerecht werden. Abbildung 2.8 zeigt einige
verständliche Parameter zur Manipulation der Impulsantwort. Diese Parameter des I3DL2
Soundstandards werden im Kapitel 2.6.1.2 ausführlich erklärt.
Bisherige Ansätze beruhen auf dem statischen Einstellen der Parameter in Environments durch einen Sound-Designer. Im interaktiven Markt können Soundkarten Halleffekte darstellen, die den Raum nachahmen, in dem sich der Listener befindet. Neuere Tech-
2.6. 3D-SOUND IN ECHTZEIT
23
Abbildung 2.8: Interaktive Manipulation einer Impulsantwort.
Parameter:
a) Verzögerung zur ersten frühen Reflexion
b) Länge der markanten frühen Reflexionen
c) Länge des Nachhalls
d) Abschwächung der frühen Reflexionen zum Direkt-Signal
e) Abschwächung des Nachhalls zum Direkt-Signal
f) Dichte und Verteilung der frühen Reflexionen
niken erlauben bis zu vier Hallräume [EAX] oder das Einstellen individuellen Verhallung
von Sounds durch DirectSound3D (siehe 2.6.3.1) mit eingeschränkten Parametern. Die Repräsentation der Hallräume durch Environments stößt an ihre Grenzen, wenn dynamische
Geometrie die Szene verändert, wie es in manchen Anwendungen [HL2] schon der Fall
ist. Aktuelle Physik-Modelle [HAVOK] unterstützen nicht nur kleinere Objekte, sondern
können massive Veränderung der Szene berechnen, z.B. durch einstürzende Gebäude oder
zerstörte Wände. Dies macht es auf der einen Seite notwendig die Veränderung der akustischen Verhältnisse einer Szene aus den Geometrieinformationen herzuleiten, auf der anderen Seite wird dadurch die interaktive Verhallung ohne Environments ermöglicht.
Die Anforderung an Interaktivität führte zu stochastischen Modellen, mit denen Anwendungen in Echtzeit 3D-Sound erzeugen können. Diese Modelle sind mit der Zeit
verbessert worden und werden auch für die nächste Zeit in diesem Marktbereich maßgeblich Verwendung finden. Diese Arbeit baut konzeptionell auf diese Techniken auf.
Es folgt deshalb eine Übersicht von Sound-Standards, daraus entwickelten ProgrammierSchnittstellen, so genannte Sound-APIs, Techniken der künstlichen Verhallung und der Bedeutung von 3D-Sound in der Computerspiele Industrie.
2.6.1
3D-Sound Standards
Im Jahr 1994 gründete sich die Interactive Audio Special Interest Group (IA-SIG) auf
einer Konferenz von Entwicklern von Computerspielen. Eine der schon Ende 1999 wieder
geschlossenen Arbeitsgruppen, die 3D Working Audio Group (3DWG), verabschiedete zwei
wichtige Standards, auf die der gesamte interaktive 3D-Sound aufbaut.
24
KAPITEL 2. GRUNDLAGEN VON 3D-AUDIO
2.6.1.1
I3DL1 Standard
Im Jahr 1998 wurde der erste Standard von der 3DWG spezifiziert. Er sollte den Hersteller von Soundkarten und Entwicklern von Sound-APIs Richtlinien und Techniken zur
Hand geben, um interaktive Audio-Applikationen zu ermöglichen. Besonderes Augenmerk
lag bei der Anforderung nach Interaktivität und einigen plattform-übergreifenden Mindestvorrausetzungen. Wenige Parameter sollten möglichst realistische Soundpositionierung ermöglichen. Verabschiedet wurden die ”Interactive 3D Audio Rendering and Evaluation
Guidelines (Level 1)” [IASIG98], die mit I3DL1 abgekürzt werden. Diese sollten den Eindruck dreidimensionaler Schall-Positionierung spezifizieren und ihn durch verschiedenen
Wiedergabe-Techniken (Kopfhörer, Stereo, Quad, etc.) ermöglichen (siehe 2.5). Neben einer Reihe von Vorschlägen der technischen Realisierung und der Evaluierung eines solchen
Standards wurden auch dedizierte Anforderungen gestellt. So muss ein I3DL1-kompatibles
Audiosystem mindestens acht Sounds mit mindestens 22 kHz Abtastrate und 16 Bit Bitauflösung wiedergeben können (siehe Anhang C). Die Parameter zur Emulation von AkustikEffekten sind an dieser Stelle aber von größerem Interesse. Für jeden Listener und jeden
Sound individuell einstellbar sind:
• Position
• Orientierung
– Richtungsvektor: Blickrichtung
– Richtungsvektor: Oben
• Geschwindigkeit
Dabei erfolgt die Angabe der Position durch eine globale Raumkoordinate (x,y,z) und die
Orientierung durch Angabe von zwei Vektoren für die lokale Ausrichtung (siehe 2.1.1). Ein
Bewegungsvektor gibt die Richtung und die Geschwindigkeit bei einer Bewegung an. Ein
Sound soll zusätzlich zur Orientierung noch ein Abstrahlungsmuster haben. Durch diese
Parameter können folgende Akustik-Effekte approximiert werden:
• Räumliche Positionierung
• Abschwächung durch Entfernung
• Doppler-Effekt (siehe Anhang A.3.9)
• Gerichtete Schallquellen
Um den Effekt einer gerichteten Schallquelle anzunähern, ist die Definition der Orientierung und des Abstrahlmusters eines Sounds notwenig. Einen ähnlichen und physikalisch nachvollziehbaren Effekt würde man bei einem Omni-Sound durch die Verwendung
von Geometrie erreichen, welche die Schallausbreitung beeinflusst. Zusammenfassend beschreibt der I3DL1 Standard überwiegend räumliche Angaben der Sender und Empfänger
in einer Audioszene.
2.6. 3D-SOUND IN ECHTZEIT
2.6.1.2
25
I3DL2 Standard
Schon ein dreiviertel Jahr später, also Ende 1999, wurde bereits der zweite Standard
[IASIG99] spezifiziert, der I3DL2 genannt wird. Neben der Erhöhung der Anzahl auf 16
abspielbare Sounds, wurden die Anforderungen an den Listener und die Sounds erhöht:
• Dynamische Verhallungseffekte per Parameter einstellbar
• Individueller Tiefpass-Filter und Abschwächung des Direktschall-Signals
• Individueller Tiefpass-Filter und Abschwächung des Verhallungs-Signals
Mit diesen Techniken sollten folgende Akustik-Effekte erreicht werden:
• ”Raumeffekt” mit
– frühen Reflexionen
– spätere Verhallung
• Obstruktion und Okklusion
Abbildung 2.9: Wege des Direkt- und Hall-Signals im I3DL2 Mix.
Des Weiteren wurde die Forderung nach Interaktivität erneuert und gefordert, dass eine
Nutzereingabe mit geringer Verzögerung auch Veränderungen des Klangbildes zur Folge
haben soll. Um den oben genannten ”Raumeffekt” zu erreichen, wurde ein sehr komplexes
Geflecht von Parametern eingeführt, die konzeptionell, teilweise widersprüchlich, an den
Listener oder an den Sound gebunden sind. Durch diese Parameter werden das Direkt- und
das Hall-Signal auf Grund von heuristischen Regeln so verändert (siehe Abb. 2.9), dass
glaubwürdige auditive Ereignisse bei einem Hörer ausgelöst werden.
Einige Implementierungen unterstützen mehr Parameter, als der I3DL2 Standard verlangt. Im Folgenden werden die Parameter zur Einstellung des Nachhalls aufgeführt und
erklärt. Um rechtlichen Probleme zu vermeiden, wird dies an Hand der Umsetzung der
Sound-API FMOD durchgeführt, da die APIs der Firmen Microsoft und Creative Labs
nicht von Dritten veröffentlicht werden dürfen.
26
KAPITEL 2. GRUNDLAGEN VON 3D-AUDIO
Nachhallparameter des Listeners Aus wohl historischen Gründen findet man einige
Parameter, die man eher bei einem Sound erwartet, beim Listener. Dies hat zur Folge, dass
normalerweise diese Parameter nur einmal instanziiert werden, obwohl es Effekte gibt, die
für jeden Sound neu eingestellt werden müssten. Erklären kann man sich diese konzeptionelle Bindung an den Listener durch Kostengründe und dem Einsatz eines einzigen Hallprozessors auf einer Soundkarte. Dies ist auch der Grund, warum oft von einem Raumeffekt
(Room Effect) gesprochen wird, da sich der Listener jeweils nur in einem Raum befindet.
Es folgt eine Auflistung der Parameterbeschreibungen.
HF Reference
Min.
Std.
Max.
Einh.
1.000 5.000 20.000
Hz
LF-Reference
Min. Std. Max. Einh.
20
250 1.000
Hz
Environment
Min. Std. Max. Einh.
0
0
25
Environment Size
Min. Std. Max.
1,0
7,5
100,0
Einh.
m
Environment Diffusion
Min. Std. Max. Einh.
0,0
1,0
1,0
Air Absorption HF
Min. Std. Max. Einh.
-100 -5,0
0,0
mB
Room Rolloff Factor
Min. Std. Max. Einh.
0,0
0,0
10,0
mB
Room
Min.
Std.
Max. Einh.
-10.000 -1.000
0
mB
Room HF
Min.
Std. Max. Einh.
-10.000 -100
0
mB
Room LF
Min.
Std. Max. Einh.
-10.000
0
0
mB
Decay Time
Min. Std. Max. Einh.
0,1
1,49
20
s
Referenzwert ab der Berechnungen für hohe Frequenzen
(HF) einsetzen
Referenzwert ab der Berechnungen für niedrige Frequenzen
(LF) einsetzen
Einer von 26 vordefinierten Hallräumen. Dieser Parameter
beeinflußt andere, und ist vorhanden um abwärts kompatibel
zu sein. Es wird abgeraten, ihn zu benutzen.
Raumgröße in Metern. Dieser Parameter führt zu generischen Werten der Parameter Decay Time, Reflection, Reflection Delay, Reverb, Reverb Delay, Decay HF Ratio, Echo Time und Modulation Time.
Dichtegrad der Reflexionen in der Verhallung.
Entfernungsabhängige Abschwächung durch ein Medium
bei hohen Frequenzen in mB (siehe Anhang A.1.7). Ein niedrigerer Wert beschreibt neblige und feuchte Luft, während
ein höherer Wert z.B. trockene Wüstenluft imitiert.
Globale Abschwächung von dem Nachhallsignal abhängig
von der Distanz des Listeners zum Sound in mB.
Globale Intensität des Raum-Effekts, definiert die Filter Einstellungen bei mittleren Frequenzen in mB.
Globale Intensität des Raum-Effekts, definiert die TiefpassFilter Einstellungen bei hohen Frequenzen in mB.
Globale Intensität des Raum-Effekts, definiert die HochpassFilter Einstellungen bei tiefen Frequenzen in mB.
Nachhallzeit bei mittlerer Frequenz in Sekunden.
27
2.6. 3D-SOUND IN ECHTZEIT
Decay HF Ratio
Min. Std. Max. Einh.
0,1
0,83
2,0
Decay LF Ratio
Min. Std. Max. Einh.
0,1
1,0
2,0
Reflections
Min.
Std.
Max. Einh.
-10.000 -2.602 1.000
mB
Reflections Delay
Min.
Std.
Max. Einh.
0,0
0,007
0,3
s
Reflections Pan
Min.  Std.  Max. Einh.
0, 0
 0, 0 
|0|
|1|
Vec
0, 0
Reverb
Min.
Std. Max. Einh.
-10.000 200 2.000
mB
Reverb Delay
Min.
Std.
Max. Einh.
0,0
0,011
0,1
s
Reverb Pan
Min.  Std.
0, 0
 0, 0
|0|
0, 0
Echo Time
Min.
Std.
0,075 0,25
Max.
Einh.
|1|
Vec


Max.
0,25
Echo Depth
Min. Std. Max.
0,0
0,0
1,0
Modulation Time
Min. Std. Max.
0,04 0,25
4,0
Modulation Depth
Min. Std. Max.
0,0
0,0
1,0
Einh.
s
Verhältnis der Nachhallzeit bei hohen Frequenzen zu der
Nachhallzeit bei mittleren Frequenzen.
Verhältnis der Nachhallzeit bei tiefen Frequenzen zu der
Nachhallzeit bei mittleren Frequenzen.
Intensität der frühen Reflexionen relativ zum Room Parameter in mB.
Zeitverzögerung der ersten frühen Reflexion relativ zum Direktimpuls in Sekunden.
Normierter Richtungsverktor der frühen Reflexion im Koordinatensystem des Listeners. Der Standardwert gibt eine
Gleichverteilung der Reflexionen aus allen Richtungen an.
Ein Richtungsvektor der Länge eins beschreibt eine maximal fokusierte Richtungsangabe.
Intensität des Nachhalls relativ zum Room Parameter in mB.
Zeitverzögung des Nachhalls relativ zur ersten Reflexion,
gleichbedeutend mit der Länge der frühen Reflexionen, in
Sekunden
Normierter Richtungsverktor des Nachhalls im Koordinatensystem des Listeners (siehe Reflections Pan).
Zeitverzögerung der periodischen Wiederholung des Signals
in der Verhallung in Sekunden. Der Standard Wert liegt bei
0,25 Sekunden, was einer Wiederholungsrate von vier pro
Sekunde entspricht. Dieser Parameter wird primär für Musik
verwendet, um die Echos mit dem Takt zu synchronisieren.
Einh.
-
Grad der Ausprägung des Echo Effektes.
Einh.
s
Im Gegensatz zur Echo Time beschreibt diese Parameter die
Wiederholungsrate der Modulation, die eine Tonhöhenveränderung bewirkt.
Einh.
-
Grad der Modulationstiefe.
28
KAPITEL 2. GRUNDLAGEN VON 3D-AUDIO
Nachhallparameter des Sounds
stellt werden.
Für jeden Sound können folgende Parameter einge-
Direct
Min.
Std.
Max.
Einh.
-10.000
0
1.000
mB
Min.
Std.
Max.
Einh.
-10.000
0
0
mB
Min.
Std.
Max.
Einh.
-10.000
0
0
mB
Min.
Std.
Max.
Einh.
-10.000
0
0
mB
Relative Korrekturintensität des Direktschallanteils in mB.
Direct HF
Relative Korrekturintensität des Direktschallanteils bei hohen Frequenzen in mB.
Room
Relative Intensität in mB, mit der das Signal in den Raumeffekt des Listeners eingespeist wird.
Room HF
Relative Intensität bei hohen Reflexionen in mB, mit der das
Signal in den Raumeffekt des Listener eingespeist wird.
Obstruction
Min.
Std.
Max.
Einh.
-10.000
0
0
mB
Abschwächung der Intensität des Direktschalls bei hohen
Frequenzen in mB.
Obstruction LF Ratio
Min.
Std.
Max.
Einh.
Verhältnis der Intensität des Nachhalls bei niedrigen Fre-
0,0
0,0
1,0
-
quenzen zu der Intensität des Direktschalls bei hohen Frequenzen in mB.
Exclusion
Min.
Std.
Max.
Einh.
-10.000
0
0
mB
Abschwächung der Intensität des Nachhalls bei hohen Frequenzen in mB.
Exclusion LF
Min.
Std.
Max.
Einh.
Verhältnis der Intensität des Nachhalls bei niedrigen Fre-
0,0
1,0
0,0
-
quenzen zu der Intensität des Direktschalls bei hohen Frequenzen in mB.
Occlusion
Min.
Std.
Max.
Einh.
-10.000
0
0
mB
Abschwächung der Intensität des Direktschalls und der Verhallung bei hohen Frequenzen in mB.
Occlusion LF Ratio
Min.
Std.
Max.
Einh.
Verhältnis der Intensität des Direktschalls und der Verhal-
0,0
0,25
1,0
-
lung bei tiefen Frequenzen zu der Intensität des Direktschalls
und der Verhallung bei hohen Frequenzen in mB.
Occlusion Room Ratio
Min.
Std.
Max.
Einh.
Relatives Maß zur Steuerung der Dämpfung und Filterung
0,0
1,5
10,0
-
des Nachhalls. Bei 0,0 findet keine Abschwächung statt, bei
1,0 entspricht sie der Abschwächung der Obstruction. Bei
1,5 erfährt das Signal eine zusätzliche, frequenzunabhängige
Abschwächung um die Hälfte des Wertes der Occlusion.
29
2.6. 3D-SOUND IN ECHTZEIT
Occlusion Direct Ratio
Min.
Std.
Max.
Einh.
Relatives Maß der Dämpfung und Filterung des Direkt-
0,0
1,0
10,0
-
schalls. Bei 0,0 findet keine Abschwächung statt, bei 1,0 entspricht sie der Abschwächung der Exclusion. Bei 1,5 erfährt
das Signal eine zusätzliche, frequenzunabhängige Abschwächung um die Hälfte des Wertes der Occlusion.
2.6.1.3
Ausblick auf I3DL3
Bisher wurde kein dritter Standard I3DL3 verabschiedet, und seit fast vier Jahren findet
man keine konkreten Angaben dazu. Eine Suche im Internet liefert zwei sinnvolle Ergebnisse aus dem Jahr 2000. In dem bisher einzigen Vorschlag [Jot00] der Firma Creative Labs
sind die konzeptionelle Ungereimtheiten von I3DL2 soweit korrigiert, dass viele Parameter vom Listener beim Sound zu finden sind und damit mehrfach instanziierbar werden.
So wären die frühen Reflexionen dann pro Sound einstellbar. Weiterhin wird vorgeschlagen, neben den bisherigen Begriffen des Listeners und des Sounds ein drittes Konstrukt
einzuführen. Dabei handelt es sich um ein Gebiet mit festen Verhallungsparametern, einem
Environment. Es scheint so, also ob die Nachhallzeit in einem Environment fest definiert
werden und diese nicht ortsabhängig von der Position des Sounds abhängen soll.
2.6.2
3D-Sound-Engine und Reverb-Engine
Innerhalb der Sound-APIs sorgen zwei Module für die Darstellung des 3D-Sounds
[3DSS1]. Die 3D-Sound-Engine umfasst die Techniken zur Positionierung der Sounds.
Die Reverb-Engine ist verantwortlich für die Verhallung des Sounds in einer virtuellen
Umgebung. Im Endkunden-Bereich hat es bisher vier erwähnenswerte Entwickler von
3D-Sound- und Reverb-Engines gegeben: Aureal, Creative Labs, Qsound und Sensaura.
Creative Labs began im Jahr 1999 einen langen Rechtsstreit mit Aureal und übernahm im
Jahr 2000 trotz einer Niederlage vor Gericht den finanziell geschwächten Konkurrenten
[Cre1]. Obwohl Sensaura erfolgreich Lizenzverträge [SEN1] z.B. mit Via [VIA], Nvidia
[SEN3] oder Terratec [SEN2] abschloss, wurde auch diese Firma von Creative Labs im
Jahr 2004 übernommen [TI].
Die verschiedenen Anbieter der Reverb-Engines verwenden jeweils konzeptionell ähnliche Ansätze. Das Soundsignal wird mit einer heuristisch erstellen Impulsantwort verändert. Die einzige Reverb-Engine, die ansatzweise die Impulsantwort auf Grund von geometrischen Informationen ableiten konnte, wurde von Aureal entwickelt. Die Erfahrung und
Patente auf diesem Gebiet liegen nun bisher ungenutzt im Besitz von Creative Labs. Ob
Creative Labs in zukünftigen Sound-APIs diese Expertise verwenden wird, ist unbekannt.
Neuartige Halleffekte unterstützen die exakte Verhallung in ausgemessenen Umgebungen. Dazu wird eine Umgebung durch einen Impuls beschallt und die Impulsantwort aufgenommen. Der Halleffekt ”faltet”19 das Audiomaterial mit der gemessenen Impulsantwort.
19 Die Faltung liefert für zwei Funktionen f und g eine dritte Funktion als ”Überlappung” zwischen f und einer
gespiegelten, verschobenen Version von g.
30
KAPITEL 2. GRUNDLAGEN VON 3D-AUDIO
Das Resultat ist die exakte Verhallung des Signals in der ausgewählten Umgebung, mit festen Positionen von Sender und Empfänger. Diese Art der Hallgenerierung wird verstärkt in
der Studio-Technik verwendet. Die Berechnung ist aufwändig, und es gibt Ansätze sie auf
der leistungsstarken Grafikkarte auszulagern [BIO].
2.6.3
Sound-APIs
Eine Schnittstelle, die ein Betriebssystem20 oder ein Softwaresystem anderen Programmen zur Verfügung stellt, wird Application Programming Interface, kurz API, genannt.
Sound-APIs sind die Programmierschnittstellen, die ein Programm verwendet, um über
Soundtreiber die Soundkarte zu steuern. Für verschiedene Soundchips und Soundkarten
gibt es eigene proprietäre Soundtreiber. Auf diese bauen Sound-APIs auf, die widerrum
jeweils Vor- und Nachteile aufweisen [3DSS2]. Im Folgenden werden die bekanntesten
Sound-APIs vorgestellt und die gesammelten subjektiven Erfahrungen mit den Systemen
angeführt.
2.6.3.1
DirectSound3D
In der API-Sammlung DirectX von Microsoft findet sich auch das Audio-Paket DirectSound3D (DS3D). Seit den frühen Versionen gehört die grundlegende Implementierung
dazu und ist seit DirectX 3.0 auch kompatible zu I3DL2. Microsoft selbst war maßgeblich
an der Verabschiedung der 3DWG-Standards beteiligt und hat diese in ihrem DirectSoundModul umgesetzt. Um einen einzigen Soundbuffer zu initialisieren und einen 3D-Sound
abzuspielen sind ca. 50 Zeilen Quellcode notwenig [RAD1]. Der Einsatz von DS3D ist damit aufwändig und auf Windows-basierten Betriebssysteme beschränkt. Da aber auf diesen
Plattformen die Soundtreiber die Hardwarefunktionen der Soundchips voll unterstützen, ist
DirectSound3D eine gute Wahl zur Audioausgabe.
2.6.3.2
EAX
EAX [EAX] steht für Environmental Audio Extension von Creative Labs. Die aktuelle Version EAX 4.0 ist über ein Anmeldeverfahren für Entwickler anfragbar. Creative Labs vergibt
hausintern unterschiedliche Rechte an kommerzielle Partner und wissenschaftliche Forscher an öffentlichen Einrichtungen. Die Betreuung des Autors resultierte in widersprüchlichen Zusagen einer erfolgten Anmeldung und in Verzögerungen beim Zugang eines Programmes von einem halben Jahr.
EAX, in den Versionen 1.0 und 2.0, ist auch für Drittanbieter von anderen Soundkarten verwendbar. Creative Labs entschied sich dazu, die Versionen 3.0 und 4.0 nicht
zur Lizensierung freizugeben. Von der Nutzung der API für wissenschaftliche Zwecke mit
Lizenzvereinbarungen kann abgeraten werden.
20 Programm
zur grundlegenden Verwendung einer Computers.
2.6. 3D-SOUND IN ECHTZEIT
2.6.3.3
31
OpenAL
Im Jahr 2000 veröffentlichte Loki Entertainment, ein Hersteller von kommerziellen Spielen
für Linux-Systeme, eine plattform-übergreifende freie Sound-API namens OpenAL [OAL].
Intern nutzt OpenAL die EAX-Technologie der Firma Creative Labs. Heavy Gear 2 war
das erste Spiel von Loki für Linux mit einer OpenAL-Implementierung. Zur Zeit werden
einige Soundchips von Creative Labs, Nvidia und Apple unterstützt. Es ist unklar, ob eine
Hardware-Unterstützung der Soundchips implementiert ist.
Einige Fähigkeiten der Soundkarten von Creative Labs können über Erweiterungen, so
genannte Extensions, angesprochen werden, die geometrische Akustik-Effekte nachahmen
können. Diese Art der Unterstützung führt aber zu einer Inkonsistenz der Schnittstelle.
Zwar soll OpenAL theoretisch plattform-unabhängig sein, doch die überwiegende Mehrzahl der Applikationen, die OpenAL einsetzen, werden für Linux-Systemen veröffentlicht. Obwohl die API etwas unhandlich und die Hardware-Unterstützung unklar ist, kann
OpenAL für Linux-Systeme ähnlich empfohlen werden wie DirectSound für WindowsSysteme.
2.6.3.4
A3D
Aureal war eine kalifornische Firma, die unter anderen die Soundchips Vortex1 und Vortex2 (ca. 3 Mio. Transitoren21 ) selbst verbaut und verschiedene Soundkarten-Herstellern
damit beliefert hat. Ihr Soundtreiber sah bisher als einziger eine explizite Übergabe von
3D-Geometrie vor, die innerhalb des Treibers zur Generierung der Impulsantwort verwendet wurde. Berichten zur Folge berücksichtigte die Implementierung frühe Reflexionen an
der übergebenen Geometrie. Die Sound-API A3D 2.0 von Aureal war weit am Markt verbreitet und auch die Version 3.0, die nie offiziell veröffentlicht wurde, ist als Testversion
ohne Kundenbetreuung weiterhin nutzbar. Von einem Gebrauch außer zu Test- und Vergleichszwecken wird somit abgeraten.
2.6.3.5
QSound
QSound [QSL] ist der Name einer Sound-API und der Firma, die Lizenzen für 3D-SoundTechniken anbietet. Kunden finden sich vor allem unter Spieleherstellern und nicht unter Hardwareherstellern. Die 3D-Sound-Engine heisst Q3D und die Reverb-Engine wurde
QEM (QSound Environmental Modeling) genannt. Eine I3DL2 Unterstützung wird nicht
erwähnt.
2.6.3.6
FMOD
FMOD [FMOD] von Firelight Technologies ist ein verbreitetes, kommerzielles Soundsystem, das mehrere Audiotreiber und Sound-APIs umfasst und eine gemeinsame Schnittstelle anbietet. Zur Zeit werden die sieben Plattformen Windows, Windows CE, Apple MacOS, Linux, Nintendo GameCube, Sony Playstation 2 und Microsoft XBOX unterstützt.
21 Elektronisches
Halbleiterbauelement zum Schalten und Verstärken von elektrischem Strom.
32
KAPITEL 2. GRUNDLAGEN VON 3D-AUDIO
Für die Programmierung auf den verschiedenen Systemen werden die selben FMODAufrufe verwendet. Die unbegrenzte Lizensierung zur kommerziellen Nutzung der Plattformen Windows und Linux kostet 5.000 USD. Die nicht-kommerzielle Nutzung ist kostenlos.
Die Entwickler von FMOD betreuen ebenso Forscher an öffentlichen Einrichtungen wie
kommerzielle Lizenznehmer und nehmen Ideen und Hinweise für die Weiterentwicklung
von FMOD auf. Zur Zeit ist die Version 3.73 verfügbar und eine komplett überarbeitete
Version 4.0 ist angekündigt.
2.6.3.7
Miles Sound System
Ein weiteres kommerzielles Soundsystem ist das Miles Sound System [RAD2] von RAD
Game Tools, das seit 1991 auf dem Markt ist und in über 3.200 Spielen zum Einsatz kommt.
Es unterstützt die Plattformen Windows, MacOS und Microsoft XBOX. Die aktuelle Version unterstützt auch die I3DL2 Akustikeffekt. Da eine kostenlose Lizensierung nicht möglich war, kann der Autor keine Beurteilung der Benutzung oder der Sound-Qualität vornehmen werden. Die Kosten für eine unbegrenzte Lizensierung der Windows Plattform liegen
bei 12.000 USD.
2.6.4
3D-Sound in der Spiele-Industrie
Computerspiele haben die Qualität der interaktiven 3D-Sound Darstellung, ähnlich wie die
der grafischen Darstellung, vorangetrieben. Da bei den ersten Spielen der Speicherplatz
auf den damaligen Medien stark begrenzt war, sollte eine Soundkarte meist Hintergrundmusik generieren und erst zweitrangig Soundeffekte abspielen. So konnte der Soundchip
YM3812 von Yamaha, mit dem 1988 die legendäre SoundBlaster 2.0 (siehe Abb. 2.10)
von Creative Labs bestückt war, neunstimmig Töne abspielen[SB], die durch überlagerte
Sinusschwingungen (siehe Anhang A.2.1) erzeugt wurden. Aufnahmen waren auf einem
Mono-Kanal mit 22kHz möglich. Die Klangqualität setzte damals Maßstäbe für den Massenmarkt und ist mit heutiger Technik kaum noch zu vergleichen. Die Basis dieses Chips
ist millionenfach im Kern einer Southbridge22 verbaut.
Abbildung 2.10: Die legendäre SoundBlaster 2.0.23
22 Hardwarekomponente
23 Bildquelle:
einer PC-Hauptplatine zur Anbindung peripheren Geräte.
http://www.dearhoney.idv.tw/MUSEUM/soundcard-01.php
2.6. 3D-SOUND IN ECHTZEIT
33
Die Computerspiele-Industrie hat gegenüber dem Jahr 1988 veränderte Anforderungen
an Sound-APIs, die mehr Sounds verwalten und auf Mehrkanal-Lautsprecher-Systemen
wiedergeben sollen. Heutzutage kann eine Soundkarte vorproduzierte Musik von hoher
Qualität wiedergeben und gleichzeitig viele Soundeffekte im 3D-Raum simulieren. Die
Forderung nach niedriger Prozessorbelastung im einstelligen Prozentsatz ist zu einer selbsterfüllenden Regel geworden. Die Anforderungen der Spiele-Industrie an Sound-APIs sind:
• Minimale Prozessorbelastung
• Maximale Wiedergabequalität
• Akustik-Effekte unterstützen die Spielerfahrung
In dem Computerspiel Farcry von Crytek sind pro Spielbereich durchschnittlich 2000 Sounds definiert, von denen bis zu 40 gleichzeitig wiedergegeben werden [Crytek]. Man kann
dem Entwickler eines Computerspieles keine Ungenauigkeit unterstellen, wenn beispielsweise die Akustik-Effekte physikalisch falsch oder übertrieben eingestellt sind, falls dies
zur Intensivierung des Spielerlebnis führen sollte. Schließlich wird in der Mehrheit von
Science-Fiction-Filmen die Außenaufnahme eines Raumschiffes im Vakuum mit einem futuristischen Motorendröhnen untermalt.
2.6.4.1
EAGLE
EAGLE24 [Cre2] ist ein Werkzeug der Firma Creative Labs, um den Soundstandard EAX
ihrer Soundkarten zu verbreiten und die Nutzung zu erleichtern. Wie in Abbildung 2.11
dargestellt, erfährt der Nutzer eine grafische Repräsentation der gängigen I3DL2 Parameter,
die dann innerhalb eines Environments fest eingestellt werden. Grafische Editoren erlauben
die Einstellung von Hallräumen, Hindernissen und Szenenbeschreibungen. Das Werkzeug
und die Entwicklungsumgebung stand erst am Ende dieser Arbeit zur Verfügung, so dass
kein Import dieser Daten möglich war. Konzeptionell sollte dies möglich sein.
Abbildung 2.11: Bedienoberfläche von EAGLE.
24 EAGLE
= Environmental Audio Graphical Librarian Editor
34
2.7
KAPITEL 2. GRUNDLAGEN VON 3D-AUDIO
3D-Sound in Virtual-Reality Umgebungen
Virtual-Reality (VR) Umgebungen stellen innovative Ansätze der Forschung dar und nutzen immer häufiger die Rechenleistung verteilter Computer-Systeme. Dadurch können
mehr Ressourcen für die Berechnung von 3D-Sound investiert werden. Dieses Kapitel gibt
einen Einblick über verwendete Techniken in exemplarisch ausgewählten Installationen.
2.7.1
3D-Sound in VRML
VRML25 [VML96] ist eine Szenenbeschreibungssprache, die zur Darstellung von 3DModellen, speziell im Internet, verwendet wird. In VRML sind auch Sound Objekte definiert [VAT]. Der Sound Node beschreibt einen Knoten im Szenengraphen. Der Listener
ist als Knoten nicht explizit vorhanden, sondern wird direkt durch die Kameraposition hergeleitet.
2.7.2
DAVE
DAVE26 ist die VR-Installation an der TU-Braunschweig, die als erste VR-Lösung die Stereoskopie durch eine Vernetzung der Projektortechnik erreicht, statt über die Synchronisation der verwendeten Grafikkarten [Dave02]. Die DAVE kann direkt unter OpenGL genutzt werden oder verteilte OpenSG27 -Applikationen ausführen. Als Audiosystem unter
OpenSG wurde TRIPS entwickelt.
2.7.3
TRIPS - Echtzeit 3D Sound in OpenSG
TRIPS28 [NFF03] ist ein Audiosystem, das vom Autor für die DAVE entwickelt wurde
und im Rahmen eines Eurographics Partner Events während des Symposiums OpenSG’03
in Darmstadt vorgestellt wurde. Es nutzt direkt die Infrastruktur von OpenSG als Szenengraph aus und hebt die Programmierschnittstelle auf ein effizientes und abstraktes Niveau.
So werden z.B. Positionsangaben direkt als semantischer Verweis auf einen SzenegraphKnoten, statt als Vektor von drei diskreten Werten übergeben. Ein Sound wird automatisch
mit der zugehörigen grafischen Repräsentation im virtuellen Raum mit bewegt. Durch die
Verbindung mit dem Szenengraph aktualisiert TRIPS selbständig Positionen und VelocityWerte und es ist skalierbar auf mehreren Systemen. Da eine OpenSG-Anwendung gleichzeitig auf verschiedenen Betriebsystemen lauffähig ist, kann ein dedizierter Sound-Server
angebunden werden. Dieser Computer kann unter Windows von aktuellen Soundtreibern,
Hardware-Unterstützung und den neusten Sound-APIs profitieren. Durch die Integration in
einen Szenengraph wurde die Sound-API effizienter und leistungsfähiger. Im Gegensatz zu
DirectSound ist nur noch ein Bruchteil von Programmierzeilen nötig.
25 VRML
= Virtual Reality Modeling Language
= Definitely Affordable Virtual Environment
27 Projekt zur Entwicklung eines freien Szenengraph-Systems.
28 TRIPS (3 x S) = Scalable Spatial Sound Library for OpenSG
26 DAVE
2.7. 3D-SOUND IN VIRTUAL-REALITY UMGEBUNGEN
2.7.3.1
35
Konzept
TRIPS setzt auf die Sound-API FMOD auf und besteht grundsätzlich aus zwei verschiedenen OpenSG FieldContainern29 : dem AudioNode und den Soundobjekten. Diese FieldContainer werden bei einer Änderung im System aktualisiert. Somit ist es möglich, dass auf
einem Hauptrechner eine Applikation läuft und dort der Audiokontext manipuliert wird.
Die Änderungen werden dann auf einen anderen Rechner, der Soundfähigkeiten besitzt,
übertragen und dort als eigentliches Soundereigniss erzeugt.
OSGTRIPSAudioNode Der Audio-Knoten OSGTRIPSAudioNode hält Informationen
über den Listener in der Szene. Dieser Knoten wird auf dedizierten Soundrechnern kopiert
und aktualisiert.
OSGTRIPSSound Der Sound-Knoten OSGTRIPSSound hält die Informationen für ein
Sound-Objekt in der Szene. Die Wiedergabe dieser Sound kann gesteuert werden, und dies
wird an die verschiedenen Soundrechner übertragen.
Skalierbares TRIPS Der Audio-Knoten wird auf alle Soundrechner übertragen und
kann dort individuelle Ausprägung erfahren. Somit können mehrere Listener erzeugt werden, die jeweils ihr akustisches Bild mit einer Soundkarte darstellen. Dadurch kann TRIPS
multi-Listener unterstützen und kann beliebig skaliert werden, während der Hauptrechner
von der Soundlast befreit wird. Durch TRIPS wurde gezeigt, dass multi-Listener durch das
Verbinden von Sound-Servern über ein Netzwerk möglich ist. Ein anderes Projekt führt
diesen Gedanken zu kleinen Sound-Boxen fort [Sta03].
2.7.4
blue-c
blue-c heißt der Aufbau einer Virtual-Reality Umgebung an der ETH-Zürich der Forschungsgruppe um Prof. G ROSS. Diese Lösung (siehe Abb. 2.12) ist in der Lage, durch
schaltbare Projektionswände hindurch per Videoaufnahmen von dem Hauptakteur ein 3DModel zu generieren [GWN03].
Abbildung 2.12: blue-c an der ETH-Zürich.30
29 Konstrukt
zur Speicherung von Daten mit besonderen Fähigkeiten.
http://blue-c.ethz.ch
30 Bildquelle:
36
KAPITEL 2. GRUNDLAGEN VON 3D-AUDIO
Das Audiosystem von blue-c ist mit der API der VR-Umgebung verknüpft und bietet räumliche Positionierung von Schallquellen durch die Nutzung von bis zu acht Lautsprecher mit der Panning-Methode (siehe 2.4.1 und Anhang B.4). Die Akustik-Effekte der
Verhallung werden durch ein eigenständiges Hallgerät aus der Studiotechnik gesteuert.
Verwendet wird ein M-ONE-XL Effektprozessor (siehe Abb. 2.13), der vergleichbare Freiheitsgrade wie der I3DL2 Standard besitzt. Die Signalqualität ist durch den Einsatz hochwertiger Wandler und DSPs31 klarer als bei einer Soundkarte im Massenmarkt.
Dieses System ist grundsätzlich mit den selben Problemen behaftet, wie die SoundAPIs der Soundkarten. Ein Programmierer muss die Hallparameter einstellen, und diese
geschieht unabhängig von der Position der Schallquellen. Wie bei I3DL2 ist auch bei Hallgeräten der Ansatz des Hallraumes verwirklicht, der abhängig von der Position des Hörers
eingestellt wird. Es kann nur ein einziger Halleffekt berechnet werden und nur der Anteil
der Verhallung der verschiedenen Sounds kann geregelt werden. Dies geschieht abhängig
von der Distanz des Sounds zum Listener, aber unabhängig davon in welcher Umgebung
sich ein Sound befindet. Begründet wird dies [NSG02], durch die zumeist abstrakten Anwendungen der VR-Umgebung. Trotzdem soll durch diese Art der Verhallung ein realistischen Eindruck der Umgebung geliefert werden. Das Konzept von mehreren Hören in einer
VR-Umgebung wird nicht behandelt, und auch die kontrollierte Veränderung im Frequenzspektrum der Soundsignale ist nicht möglich.
Abbildung 2.13: T.C.Electronic M-ONE XL Hallgerät.32
Zusammenfassung von Kapitel 2
In diesem Kapitel wurden grundlegende Begrifflichkeiten und Methoden zur Realisierung
von 3D-Sound im Computer angeführt. Sound und Listener sind fundamentale Konstrukte
zur Repräsentation von Sender und Empfänger. Sowohl in den Ansätzen mit Vorberechnung wie auch denen mit Echtzeit-Anforderungen finden sie Verwendung. Zur Verdeutlichung der Vor- und Nachteile von Vorberechnungen wurden ein Beam-Tracing-Ansatz sowie Akustiksimulatoren beschrieben. Um die Ansätze zur dynamischen Sound-Darstellung
zu erklären, wurde auf die verabschiedeten Sound-Standards I3DL1 und I3LD2 eingegangen. Sound-APIs, die diese Sound-Standards individuell implementiert haben, wurden vorgestellt und bewertet. Die Problematik der multi-Listener Unterstützung wurde speziell für
die VR-Forschung anhand des Projekts TRIPS dargestellt.
31 DSP
= Digitaler Signal-Prozessor
http://www.tcelectronic.com/M-OneXL
32 Bildquelle:
Kapitel 3
Komponenten der
Geometrie-Engine
«-Wir brauchen ein System, in dem die Politiker sich zusammensetzen und ein
Problem besprechen, sich darauf einigen, was das Beste für das gesamte Volk
ist und es dann tun.
-Das ist genau das, was wir machen. Das Problem ist nur, dass oft keine Einigkeit erzielt wird.
-Nun, dann sollte man es eben erzwingen. [..]
-Das hört sich sehr nach einer Diktatur für mich an.
-Naja, wenn es funktioniert.»
(Aus dem Film Star Wars - Episode II - Angriff der Klonkrieger)
Bisher musste eine Anwendung die I3DL1 und I3DL2 Werte berechnen und sie dann explizit an die verwendete Sound-API [RMM00] übergeben (siehe Abb. 3.1). Wie in Kapitel
2.6.1.2 aufgeführt wird, ist dies ein aufwändiger Vorgang und führt auch zu einer unübersichtlichen Platzierung der nötigen Aufrufe der Sound-Api [NFF03]. Daher wird die Verhallung in Environments nur mit statischen Werten definiert.
Applikation
I3DL1
I3DL2
Sound-API
Soundkarte
Abbildung 3.1: Bisheriges Schichtmodell: Die Applikation steuert direkt die Sound-API
durch I3DL1 und I3DL2 Parameter.
37
38
KAPITEL 3. KOMPONENTEN DER GEOMETRIE-ENGINE
In dieser Arbeit werden vier Erweiterungen des bisherigen Schichtmodells
eingeführt, die den Ablauf vereinfachen und verbessern sollen (siehe Abb. 3.2). Zuerst
werden Geometrie-Akustik-Primitive (GAPs) definiert, die nötig und sinnvoll sind, um
geometrische, akustische und semantische Informationen in eine Szenenbeschreibung
abzubilden. Daraus wird die Schnittstelle eines Geometrie-Akustik-Interfaces
(GAI) entwickelt, die abstrakte und verständliche Parameter entgegen nimmt. Das
Interface verwaltet den Zugriff auf die Geometrie-Engine, welche die geometrischen
und akustischen Berechnungen durchführt. Die Geometrie-Engine initialisiert
den Sound-Kontext, der wiederum Zugriff auf interne Berechnungsergebnisse der
Geometrie-Engine hat. Der Sound-Kontext kann modular verschiedene Sound-Systeme
unterstützen, welche die passenden Einstellungen an den jeweiligen Soundtreiber
vornimmt. Aufrufe der Sound-API werden im jeweiligen Sound-Kontext konzentriert.
Geometrie-Engine und Sound-Kontext könnten auf verschiedenen Computern laufen,
und über ein Netzwerk kommunizieren. Dadurch wird das System skalierbar und die
aufwändigen Berechnungen müssten nur zentral auf einem PC durchgeführt werden.
Applikation
GAPs
Geometrie-Akustik-Interface
Geometrie-Engine
Sound-Kontext
EAX
DS3D
FMOD
etc.
N-S
Soundkarte
Abbildung 3.2: Vorgeschlagenes Schichtmodell: Die Applikation nutzt nur verständliche
GAPs und steuert die Geometrie-Engine über das GAI. Die Ausgabe des Sound-Kontextes
ist modular und kann auch auf No-Sound (N-S) eingestellt werden.
3.1
Anforderungen
An jede der vier Erweiterungen des Schichtmodells stellen sich eigene Anforderungen. Sie
werden an dieser Stelle skizziert und im weiteren Verlauf des Kapitels detailiiert beschrieben und eine Implementierung vorgeschlagen.
• Geometrie-Akustik-Primitive
– Verständlich und allgemeinsprachlich bekannte Begriffe
– Kombinierbar zur Abbildung beliebiger Akustik-Szenen
∗ Geometrische Informationen
3.1. ANFORDERUNGEN
39
∗ Akustische Informationen
∗ Semantische Informationen
– Verständliche und nachvollziehbare Parameter und Freiheitsgrade
– Speicherung einer Szenenbeschreibung im XML-Format
• Geometrie-Akustik-Interface
– Manipulation der Geometrie-Akustik-Primitive
– Trade-Off1 zwischen Qualität und Genauigkeit
– Import einer Szenenbeschreibung im XML-Format
– Hilfsfunktionen wie grafische Ausgabe oder Werteabfrage
• Geometrie-Engine
– Berechnung von komplexen Akustik-Effekten
∗ Obstruktion
∗ Exklusion
∗ Okklusion
– Approximation der Schallausbreitung durch virtuelle Schallquellen
– Mehrere Listener
– Bewegliche Listener
– Bewegliche Sounds
– Bewegliche Geometrie
– Dynamischer Öffnungsgrad von Portalen
– Unterschiedliche Wiederholungsraten von Teilsystemen
– Gute Fehlertoleranz
– Ableitung von Werten des aktuellen I3DL2 Standards
– Lauffähigkeit auf einem System ohne Soundausgabe
• Sound-Kontext
– Austauschbare Sound-APIs
– Skalierbarkeit durch mehrere Sound-Server
– Konzeptionelle Abkapselung zur Geometrie-Engine
Einschränkungen In der Betrachtung der Einschränkungen eines Audio-Systems sind
drei Betrachtungswinkel möglich. Es gibt Details in einer Akustik-Szene, die bisher nicht
durch die GAPs erfasst werden. Einige Aspekte der Schallausbreitung werden nicht berechnet. Schlussendlich gibt es Unzulänglichkeiten der Darstellung der berechneten AkustikSzene.
1 engl.
Ausgleich, Kompromiss, Tausch
40
KAPITEL 3. KOMPONENTEN DER GEOMETRIE-ENGINE
• Repräsentation
– Wall und Portal sind nach dem Einfügen nicht beweglich. Sound, Listener und
Obstacle können während der Laufzeit animiert werden.
– Unterschiedliche Öffnungsarten (einseitige Tür, Doppeltür, Schiebetür, Blende)
der Portal sind bisher nicht repräsentierbar.
– Auf Grund bestehender Datensätze hält ein Material nur Messwerte der Absorption.
• Berechnung
– Auf Vereinfachungen der Geometrie-Engine wird in 4.1 eingegangen.
• Darstellung
– Einige der berechneten Ergebnisse von Sounds (Verhallung) sind im I3DL2
Standard durch Parameter an den Listener gebunden.
– Die vollständige Kontrolle über die generierten Impulsantwort pro Sound ist
zur Zeit nicht möglich.
3.2
GAPs: Die Geometrie-Akustik-Primitive
Um ein Interface zu entwickeln, ist zuvor die Definition von Primitiven2 nötig. Im Bereich der Computergrafik sind Linien, Dreiecke oder eine Textur allgemein als Grafikprimitive bekannt. In dieser Arbeit werden Geometrie-Akustik-Primitiven (GAPs) eingeführt,
mit denen die Geometrie-Engine und das Geometrie-Akustik-Interface arbeiten. Durch die
Kombination von GAPs soll es möglich sein, eine beliebige Akustik-Szene abbilden und
Akustik-Effekte ableiten zu können. Der höhere Abstraktionsgrad erleichtert dabei das
Verständnis des Geometrie-Akustik-Interfaces. Es soll erreicht werden, Informationen in
einer Szenenbeschreibung aufzubauen, die später ohne das fachliche Wissen eines AudioProgrammierers genutzt werden können. Die I3DL2 Parameter sollen so eingestellt werden, dass ein ähnliches oder besseres akustisches Ergebnis erreicht wird, als durch statische
Environments. Die Auswahl der fundamentalen GAPs, mit denen man beliebige akustische
Szenen beschreiben kann, begründet sich auf folgende Überlegungen:
Damit Reflexionen auftreten, ist eine Fläche oder Wand nötig, die als Reflektor dient.
Ein Boden wird dabei als eine gekippte Wand aufgefaßt. Eine einzige Wand kann einen
Bereich beschreiben, wie auf einem freien Feld der Ackerboden. Mehrere Wände können
diesen Bereich, der Raum genannt wird, weiter abgrenzen. Da Schall durch geöffnete Türen oder Fenster entweicht oder eindringt, werden Portale definiert, die zwei Räume miteinander verbinden. Mobiliar oder sonstige bewegliche Gegenstände, die Schalldämmung
verursachen, werden als Hindernisse aufgefasst, die unterschiedlich genau geometrisch
modelliert seien können.
2 Primitive sind abstrakte, implementierungs-unabhängige Objekte zwischen dem Nutzer eines Schichtabhängigen Dienstes und des Anbieter.
3.2. GAPS: DIE GEOMETRIE-AKUSTIK-PRIMITIVE
41
Abbildung 3.3: Die acht GAPs in einer Szene: Listener, Sound, Wall, Portal, Obstacle,
Room, Material und Medium.
Durch die bisherigen GAPs ist die Geometrie und der räumliche Zusammenhang einer
Szene erfassbar. Doch wie kombiniert man die akustischen Eigenschaften mit der bisherigen Szenebeschreibung? Eine Art Sender strahlt Signale aus und ein Empfänger nimmt
diese auf. Beide befinden sich innerhalb von Räumen. Da die Schallübertragung als Materialwelle geschieht, wird ein Raum mit einem Medium gefüllt. Schalldämpfung geschieht
an der Trennfläche von verschiedenen Medien. Darum werden alle geometrischen Objekte
wie Wände, Portale und Hindernisse mit einem Audiomaterial belegt.
Durch die Kombination dieser acht Primitiven (siehe Abb. 3.3) ist es auch ohne akustisches Fachwissen möglich, eine komplexe Akustik-Szene durch eine Szenenbeschreibung
zu repräsentieren. Die Geometrie-Engine ist in der Lage alle physikalischen Phänomene
aus dem Anhang A.2 auf die GAPs anzuwenden. Sie leitet die I3DL2 Parameter ab und approximiert so die Akustik-Effekte. Mit einer eindeutigen Nummerierung über eine GAP-ID
kann jedes GAP identifiziert werden. Folgende acht GAPs werden durch ihre Eigenschaften definiert.
3.2.1
Listener
Der Listener als Abbild eines Hörers ist bereits ausführlich in 2.1.1 beschrieben worden.
Die Definition als GAP unterschiedet sich kaum von der bisherigen Definition. Zu den üblichen Eigenschaften wie Position, Ausrichtung, und Geschwindigkeit kommt die eindeutige
GAP-ID und die Zugehörigkeit in welchem Raum der Listener sich befindet.
42
3.2.2
KAPITEL 3. KOMPONENTEN DER GEOMETRIE-ENGINE
• ListenerID
• RoomID
• Position
• Look-at
• Velocity
• Up
Sound
Die bisherige Definition eines Sounds in 2.1.2 als Abbild einer Schallquelle in der Szene wird beibehalten und durch die GAP-ID erweitert. Durch einen Schalter wird zwischen
ambientem Sound und Omni-Sound unterschieden. Ein 3D-Sound besitzt eine Position und
Geschwindigkeit, und ihm ist eindeutig ein Raum zugeordnet, in dem er sich befindet. Der
Speicherort des Audiomterials wird im Parameter Filename abgelegt und die Synchronisierung verschiedener Teilinstanzen des Sounds wird durch den Zeitmesser Timer ermöglicht.
Die Spezifizierung eines Abstrahlmusters und der Orientierung ist nicht notwendig, da eine
gerichtete Abstrahlung durch Hinzufügen von Geometrie in die Szene erreicht wird.
• SoundID
• RoomID
• is3D
• Filename
• Position
• Timer
• Velocity
3.2.3
Material
Das GAP Material hat eine GAP-ID, einen beschreibenden Namen und besteht aus einer
variablen Liste mit frequenzabhängige Materialeigenschaften, den Material-Frequenzen.
Akustiksimulatoren rechnen üblicherweise mit winkel-unabhängige Messdaten der Absorption mit acht Messwerten im Oktavenabstand. Solch ein Datensatz von ca. 500 Materialien wurde in GAP-Materialien konvertiert. Da keine weiteren Messwerte zur Verfügung
standen, konnte die Reflexionsqualität bisher nicht berücksichtigt werden. Ein frequenzabhängiger Streuungsgrad gibt zum Beispiel an, wie spekulär oder diffus eine eingehende
Reflexion wieder abgestrahlt wird. Um dennoch die Reflexionseigenschaften grob beeinflussen zu können, besitzt ein Material einen frequenzunabhängigen Rauheitswert.
3.2.4
• MaterialID
• Name
• MaterialFrequencies
• Coarseness
Wall
Das Wand-Primitiv Wall definiert eine unbewegliche Fläche mit Audioeigenschaften. Eine Wall hält eine GAP-ID und ist eindeutig einem Raum zugeordnet. Die geometrischen
3.2. GAPS: DIE GEOMETRIE-AKUSTIK-PRIMITIVE
43
Informationen liegen im Feld Geometry, die akustische Information wird über die ID eines
Materials angegeben. Wall ist geometrisch als eine Fläche ohne Dicke abgebildet. Eine Dicke wird dennoch angegeben, um akustische Eigenschaften der Wand einfach beeinflussen
zu können. Die Dicke wirkt als linearer Multiplikator der Materialeigenschaften.
• WallID
• RoomID
• Geometry
• Thickness
• MaterialID
3.2.5
Portal
Ein Portal verbindet zwei Räume und definiert einen Teil ihrer gemeinsamen Grenzfläche.
Es besitzt die gleichen Eigenschaften wie Wall. Hinzu kommt eine Referenz auf einen zweiten Raum und einen dynamischen Öffnungsgrad zwischen null und eins, der beschreibt,
inwieweit Schall durch diese Öffnung hindurch dringen kann. Der Öffnungsgrad wirkt als
linearer Faktor auf die Materialeigenschaften.
• PortalID
• RoomID
• Aperture
• RoomID2
• Geometry
• Thickness
• MaterialID
3.2.6
Obstacle
Ein Obstacle ist ein bewegliches Hindernis oder Objekt in einem Raum. Es hält eine GAPID und ist eindeutig einem Raum zugeordnet. Im Gegensatz zu Wall oder Portal ist Obstacle
nicht zwingend planar, sondern kann über das Feld Geometry dreidimensionale Ausmaße
annehmen. Die Ausrichtung und Positionierung ist veränderbar (z.B. in Form einer Transformationsmatrix3 ). Ein Obstacle ist mit einem Audio-Material überzogen. Die Dicke wirkt
wie bei Wall und Portal als Multiplikator auf die Materialeigenschaften.
3.2.7
• ObstacleID
• RoomID
• Geometry
• Thickness
• MaterialID
• Transformation
Medium
Das GAP Medium beschreibt ein elastisches Material, das einen Raum füllt und in dem
sich Schall mit einer gewissen Geschwindigkeit fortpflanzt (siehe Anhang A.1.2). Es hält
3 Durch
eine Matrix angegebene Abbildung zur Änderung der Position, Rotation und Skalierung.
44
KAPITEL 3. KOMPONENTEN DER GEOMETRIE-ENGINE
eine GAP-ID, einen beschreibenden Namen und ähnelt dem GAP Material. Bei gasförmigem Medium sind die Angaben für Temperatur und Feuchtigkeit zu berücksichtigen. Die
Schallkennimpedanz (siehe Anhang A.1.6) wurde mit aufgenommen, um die Berechnung
der Schalldämmung beim Wechsel von Medien (z.B. Luft/Wasser) zu ermöglichen.
3.2.8
• MediumID
• Name
• Temperature
• Impedance
• Humidity
• Sonic Speed
Room
Ein Room beschreibt das Abbild eines Raumes, der von Wänden eingefasst wird, aber nicht
geschlossen sein muss. Er kann durch Portale mit anderen Räumen verbunden sein, und
Obstacles können in ihm platziert sein. Dazu hält Room drei ID-Listen von Wall, Portal
und Obstacle. Ein Room ist gefüllt mit einem Medium.
• WallIDs
• RoomID
• PortalIDs
• MediumID
• ObstacleIDs
3.3
Das XML-Format
Zur Speicherung der Repräsentation der GAPs wurde ein eigenes XML-Format entwickelt,
da bestehende Formate wie X3D zu komplex und nicht angemessen schienen. Über Schlüsselwörter können die Eigenschaften der GAPs direkt gespeichert werden. Zusätzlich zu den
acht GAPs kamen neue Konstrukte hinzu, um die Lesbarkeit und die Verständlichkeit zu
erhöhen. Es folgt ein Ausschnitt einer Szenenbeschreibung:
<listener id="200"/>
<sound id="203" file="./media/footsteps.wav"/>
[..]
<medium id="301" name="normal_air" temperature="20" impedance="420" humidity="60"/>
<medium id="304" name="water" temperature="10" impedance="1400000"/>
[..]
<material id= "500" name="Wooden floor on joists (Ref. 16)">
<freqprop frequency= "63" absorption="0.15"/>
<freqprop frequency= "125" absorption="0.15"/>
<freqprop frequency= "250" absorption="0.11"/>
<freqprop frequency= "500" absorption="0.1"/>
<freqprop frequency="1000" absorption="0.07"/>
<freqprop frequency="2000" absorption="0.06"/>
<freqprop frequency="4000" absorption="0.07"/>
<freqprop frequency="8000" absorption="0.07"/>
</material>
[..]
<wall id="10" material="500" thickness="1.0">
3.3. DAS XML-FORMAT
45
<face>
<Vec3f x="0.0" y="9.0" z="4.11"/>
<Vec3f x="0.0" y="9.0" z="0.0"/>
<Vec3f x="0.0" y="12.0" z="0.0"/>
<Vec3f x="0.0" y="12.0" z="4.11"/>
</face>
</wall>
[..]
<obstacle id="59" material="520" thickness="1.0">
<face>
<Vec3f x="0.0" y="0.0" z="1.5"/>
<Vec3f x="0.0" y="0.0" z="-1.5"/>
<Vec3f x="0.4" y="0.0" z="-1.5"/>
<Vec3f x="0.4" y="0.0" z="1.5"/>
</face>
<face>
<Vec3f x="0.4" y="0.0" z="1.5"/>
<Vec3f x="0.4" y="0.0" z="-1.5"/>
<Vec3f x="0.4" y="1.7" z="-1.5"/>
<Vec3f x="0.4" y="1.7" z="1.5"/>
</face>
</obstacle>
[..]
<room id="1" medium="301">
<walls>10 11 12 13 14 15 16</walls>
<obstacles>59</obstacles>
</room>
<room id="2" medium="304">
<walls>20 21 22 23 24</walls>
<obstacles></obstacles>
</room>
[..]
<portal id="1012" material="90" thickness="0.5" aperture="1.0" room1="1" room2="2">
<face>
<Vec3f x="3.0" y="10.0" z="4.11"/>
<Vec3f x="3.0" y="10.0" z="0.0"/>
<Vec3f x="3.0" y="11.0" z="0.0"/>
<Vec3f x="3.0" y="11.0" z="4.11"/>
</face>
</portal>
Nachdem ein Listener und ein Sound für spätere Manipulation vorbereitet werden, folgen
exemplarisch die Angaben für zwei Medien und einem Material. Die Materialeigenschaften werden durch beliebig viele Untereinträge definiert, die aus dem Absorptionsgrad und
der einer entsprechenden Frequenz bestehen. Ähnliche Untereinträge werden benutzt, um
Geometrieinformationen zu speichern. Wall darf genau ein Face, Obstacle beliebig viele Faces besitzen. Ein Face wiederum kann aus drei oder vier Raumpunkten aufgespannt
werden. Zwei Räume werden mit jeweiligen Medien definiert, und ihnen sind ihre Wände
und Hindernisse zugeteilt. Schließlich folgt die Definition eines Portals mit der Angabe der
akustischen, logischen und geometrischen Eigenschaften.
46
3.4
KAPITEL 3. KOMPONENTEN DER GEOMETRIE-ENGINE
Das Geometrie-Akustik-Interface
Aus den Gometrie-Akustik-Primitiven wurde ein nutzerfreundliches Geometrie-AkustikInterface (GAI) entwickelt. Es reduziert zwar die Freiheitsgrade zur allgemeinen
Benutzung, ermöglicht aber weiterhin speziellen Einstellungen. Das folgende Beispiel
der Velocity-Berechnung macht dies deutlich. Normalerweise muss der Anwender einer
Sound-API den Velocity-Wert selber bestimmen und diskret als Vektor übergeben.
Dazu wird die Differenz der letzten und der aktuellen Position bestimmt und durch die
verstrichene Zeit geteilt. Die Geometrie-Engine übernimmt diese und ähnliche Aufgaben
selbständig.
Wenn der Anwender übertriebene oder spezielle Velocity-Werte nutzen möchte, so
kann er diese einfach durch die Schnittstelle überschreiben und erzwingen. Das GAI dieser
Arbeit stellt weitere Methoden zur Verfügung, um die allgemeine Nutzung zu vereinfachen.
Die Verwendung des GAI geschieht zur Laufzeit und resultiert in der Berücksichtigung der
Änderungen in Echtzeit.
3.4.1
Systemverwaltung
Die Methoden aus Tabelle 3.1 definieren die essentiellen Aufrufe zur Systemverwaltung.
So kann eine Instanz des GAP-Systems erzeugt und zerstört werden. Der Sound-Kontext
kann mit einer unterstützten Sound-API geladen und initialisiert werden. Das System wird
zur Berücksichtigung aller vorherigen Änderungen bei jedem Durchlauf der Anzeigeschleife der Anwendung aktualisiert.
Die Wiederholungsrate der verschiedenen internen Teilsysteme, wie Positionierung
oder Verhallung, kann individuell geregelt werden, was die Qualität und die Genauigkeit
der Berechnungen beeinflußt. Positionierung und Orientierung können somit häufiger aktualisiert werden als Verhallungsparameter (siehe Abschnitt 3.5), was in den Spezifikationen verlangt wurde.
Tabelle 3.1: Methoden der Systemverwaltung.
Rückgabe
Funktionsaufruf
Erklärung
Zeiger
createManagerPtr ()
Erzeugt eine Instanz des GAP-Systems durch eine
statische Methode und liefert den Zeiger darauf.
bool
createSoundAPIContext (
soundapitype)
Erzeugt einen Sound-Kontext vom ausgewählten
Typ.
bool
initializeSoundAPIContext ()
Initialisiert den Sound-Kontext mit der ausgewählten SoundAPI.
bool
Update ()
Aktualisiert die Geometrie-Engine und berücksichtigt die letzten Änderungen der GAPs
bool
Shutdown ()
Löscht die Instanz des GAP-Systems, alle über sie
erzeugte GAPs und alle von ihr erzeugten Strukturen.
3.4. DAS GEOMETRIE-AKUSTIK-INTERFACE
3.4.2
47
GAPs erzeugen und löschen
Mit den Methoden aus Tabelle 3.2 können GAPs während der Laufzeit erzeugt und wieder
gelöscht werden. Diese Methoden sind essentiell, um die Anforderung nach dynamischer
Geometrie und beweglichen Sounds zu erfüllen. Desweiteren gibt es zwei allgemeine Hilfsmethoden zur GAP-ID Verwaltung.
Tabelle 3.2: Methoden zum Erzeugen und Löschen von GAPs.
Rückgabe
Funktionsaufruf
Erklärung
GAPID
givefreeGAPID ()
Liefert eine unbenutzte GAP-ID
bool
isGAPIDUsed (GAPID)
Testet eine GAP-ID auf Benutzung
bool
createListener (ListenerID)
Erzeugt einen Listener mit der Listener-ID
bool
removeListener (ListenerID)
Löscht den Listener und seine Ausprägungen
bool
createSound (SoundID,
Filename)
Erzeugt einen Sound mit der Sound-ID
bool
removeSound (SoundID)
Löscht den Sound und seine Instanzen
bool
createWall (WallID)
Erzeugt eine Wall mit der Wall-ID
bool
createWall (WallID, Geometry)
Erzeugt eine Wall mit Wall-ID und Geometrie
bool
removeWall (WallID)
Löscht die Wall
bool
createRoom (RoomID)
Erzeugt einen Room mit der Room-ID
bool
removeRoom (RoomID)
Löscht den Room
bool
createPortal (PortalID)
Erzeugt ein Portal mit der Portal-ID
bool
createPortal (PortalID,
RoomID1, RoomID2)
Erzeugt ein Portal und verbindet die zwei Räume
bool
removePortal (PortalID)
Löscht das Portal
bool
createObstacle (ObstacleID)
Erzeugt ein Obstacle mit der Obstacle-ID
bool
removeObstacle (ObstacleID)
Löscht das Obstacle
bool
createMaterial (MaterialID)
Erzeugt ein Material mit der Material-ID
bool
createMaterial (MaterialID,
Material)
Erzeugt neues Material als Kopie des angegebenen
Materials
bool
removeMaterial (MaterialID)
Löscht das Material
bool
createMedium (MediumID)
Erzeugt ein Medium mit der Medium-ID
bool
createMedium (MediumID,
Medium)
Erzeugt neues Medium als Kopie des angegebenen
Medium
bool
removeMedium (MediumID)
Löscht das Medium
3.4.3
GAPs semantisch verbinden und platzieren
Die Methoden aus Tabelle 3.3 sind zur Verknüpfung und Platzierung der GAPs vorgesehen.
So wird die Szene zusätzlich um semantische Informationen erweitert.
48
KAPITEL 3. KOMPONENTEN DER GEOMETRIE-ENGINE
Tabelle 3.3: Methoden zum Verbinden und Platzieren von GAPs.
Rückgabe
Funktionsaufruf
Erklärung
bool
connectRoomsWithPortal
Verbindet die zwei Räume mit dem Portal
(RoomID1, RoomID2, PortalID)
bool
disconnectRoomsWithPortal
Hebt die Verbindung der Räume des Portals auf
(RoomID1, RoomID2, PortalID)
bool
placeWallInRoom (WallID,
Weist einem Raum eine Wand zu
RoomID)
3.4.4
GAPs manipulieren
Mit den Methoden aus Tabelle 3.4 kann man die individuellen, geometrischen und akustischen Attribute der verschiedenen GAPs verändern.
Tabelle 3.4: Methoden zur Manipulation von GAPs.
Rückgabe
Funktionsaufruf
Erklärung
bool
editListener (ListenerID,
Verändert die Position, Orientierung und Ge-
Position, Velocity, Lookat,
Up)
schwindigkeit des Listeners
editSound (SoundID, Position,
Verändert die Position, Geschwindigkeit und Laut-
Velocity, Volume)
stärke des Sounds
bool
editPortal (PortalID,
Aperture)
Verändert den Öffnungsgrad des Portals MediumID
bool
editObstacle (ObstacleID,
Transformation)
Verändert die Position, Skalierung und Orientiertung des Obstacles
bool
editMedium (MediumID, Name,
Temperature, Humidity)
Verändert den Namen, die Temeperatur und Feuchtigkeit des Mediums
bool
insertFace (GAPID, Face)
Fügt ein Face zur Geometrie eines GAPs hinzu
bool
assignMaterialToGAP (GAPID,
Weist das Material dem GAP zu
bool
Material)
bool
assignMediumToRoom (RoomID,
Medium)
Weist das Medium dem Room zu
Individuell Für jedes GAP gibt es eine individuelle Methode zur Manipulation der Ausprägung eines GAPs.
Geometrisch Mit der Methode InsertFace kann man Geometrie einem GAP übergeben.
Ein Face ist ein Menge aus drei oder vier Punkten im Raum, die eine ebene Fläche definieren. Die Vorderseite der Fläche wird durch die Reihenfolge der Raumpunkte gegen den
Uhrzeigersinn bestimmt.
Akustisch Die letzten beiden Methoden beschreiben den Zugriff auf die akustischen Eigenschaften der GAPs Material und Medium.
3.4. DAS GEOMETRIE-AKUSTIK-INTERFACE
3.4.5
49
Weitere Hilfsmethoden
Die Methoden aus Tabelle 3.5 dienen der besseren Bedienung und der Kontrolle. Eine
Szenenbeschreibung oder ein Materialdatensatz kann per XML-Datei importiert werden.
Syntaktische und semantische Fehler werden dabei berücksichtigt.
Durch die Angabe des Skalierungsfaktors wird die gesamte Szene entsprechend verkleinert oder vergrößert. Dabei entspricht der Standardwert 1 = 1m. Der Faktor 3,28 skaliert
die Szene zum Beispiel auf die Maßeinheit Fuss. Alle Laufzeit- und Akustik-Berechnungen
werden in der Geometrie-Engine abhängig von diesem Wert berechnet, wie z.B. das Hallvolumen (siehe 4.2.1.1).
Die Render-Methode setzt OpenGL-Befehle ab, welche die aktuell geladene Szenenbeschreibung in einem vorhandenen Grafikfenster darstellen. So kann man verschiedene
akustische Informationen optisch überprüfen und mit der grafischen Szene vergleichen.
Tabelle 3.5: Weitere Hilfsmethoden.
Rückgabe
Funktionsaufruf
Erklärung
bool
readXMLFile (Filename)
Liest eine Scenen- oder Materialbeschreibung im
XML-Format ein
bool
setScaleFactor (Factor)
Setzt den globalen Skalierungsfaktor
bool
renderToGL ()
Setzt OpenGL-Befehle ab, welche die aktuelle Szene grafisch darstellen
3.4.6
Praktische Anwendung
Betrachtet man die einzelnen Methoden des GAIs unter Berücksichtung der praktischen
Anwendung, so ergibt sich typischerweise folgender Ablauf:
GAPManager* GAPMPtr = GAPManager::createManagerPtr();
GAPMPtr->createSoundAPIContext(GAP::GAP_SOUNDAPI_FMOD);
GAPMPtr->initializeSoundAPIContext();
GAPMPtr->readXMLFile("material.xml");
GAPMPtr->readXMLFile("office4.xml");
Zuerst wird eine Instanz des GAP-Systems erzeugt. Dann kann dessen Sound-Kontext ausgewählt und initialisiert werden. Schließlich wird der Material-Datensatz und eine Szene
geladen.
GAPMPtr->editListener(listenerid, &lposition, NULL, &lookat, &up);
GAPMPtr->editSound(soundid, &sposition, NULL, 100);
GAPMPtr->editObstacle(359, &transform);
GAPMPtr->editPortal(1034, abs(sin(t)));
GAPMPtr->Update();
Während das Programmlaufs können die GAPs beliebig manipuliert werden. Die
Geometry-Engine wird dann aufgefordet alle Änderungen zu berücksichtigen. Dies findet
innerhalb der Hauptschleife des Programms statt.
50
KAPITEL 3. KOMPONENTEN DER GEOMETRIE-ENGINE
GAPMPtr->Shutdown();
delete GAPMPtr;
Mit dem Herunterfahren der GAP-Instanz wird die Sound-API beendet und das Löschen
aller GAPs und sonstiger internen Strukturen erreicht.
3.5
Die Geometrie-Engine
Die Geometrie-Engine bildet den Kern der Akustik-Berechnungen. Sie verwaltet die GAPs
und kontrolliert mit der GAI den Zugriff auf diese. Sie enthält Methoden, die komplexe
Berechnungen auf den GAPs ausführen. Die Geometrie-Engine führt die Aufrufe der GAI
aus und verändert die Szene.
Entwicklungsziel war ein robustes Grundsystem, das eine Vielzahl von dynamischen
Objekten verwalten kann. Intern wurde deshalb in einen fehlertoleranten Ablauf investiert,
der eine Vielzahl von Überprüfungen erfordert und deshalb eine geringere Performance
verursacht. Der Vorteil dagegen liegt im beliebigen Einfügen und Löschen von GAPs, um
multi-Listener und dynamisch Geometrie zu ermöglichen.
Die Geometrie-Engine wird regelmäßig von einer Anwendung durch die
Update-Methode aufgerufen. Alle zwischenzeitlichen Änderungen der GAPs werden
berücksichtigt und stoßen weitere interne Berechnungen an. Für jeden Listener werden
die Ausprägungen der Sounds berechnet und die Parameterwerte des I3DL2 Standards
hergeleitet, die der Sound-Kontext dann darstellt.
Durch die zentrale Update-Methode werden nur die Neuberechnungen durchgeführt,
die z.B. durch eine Positionsveränderung nötig geworden sind. Abhängig von
den gewünschten Aktualisierungsraten der verschiedenen Teilsysteme führt die
Geometrie-Engine akustische Berechnungen durch und speichert diese in den Instanzen
der GAPs. So können die elementaren Werte zur Positionierung öfter aktualisiert werden,
als Werte des Nachhalls (siehe 2.1.4 und 4.5).
Folgene Methoden sind die wichtigsten Bestandteile der Geometrie-Engine:
• Sound-abhängige Verhallung
• Listener-abhängige Sound-Ausprägung
– Reflexionen
– Schallausbreitung durch virtuelle Sounds
– Obstruktion, Exklusion und Okklusion der Sounds
• Pfadsuche zwischen Sound und Listener durch Room-Portal-Struktur
• Paarweise Sichtbarkeitstests von Walls
Einen detaillierten Einblick in die Berechnungen der Akustik-Effekte und die Einstellungen
der Geometrie-Engine gibt Kapitel 4.
3.6. DER SOUND-KONTEXT
3.6
51
Der Sound-Kontext
Der Sound-Kontext ist die eigentliche Sound-Komponente. Sie ist von der GeometrieEngine weitestgehend abgekapselt und stellt die berechneten Parameter über eine modular
ausgewählte Sound-API dar. Der hörerabhängig Eindruck eines Sounds (siehe 3.7.3 und
4.3) wird durch mehrere Soundbuffer realisiert, die von der Sound-API erzeugt und verwaltet werden. Der Sound-Kontext stellt Methoden zur Verfügung um Teilinstanzen eines
Sounds (Hauptsound und virtuelle Sounds) pro Listener zu erzeugen, zu manipulieren und
zu entfernen.
Ein funktionsfähiges Sound-Modul wurde mit FMOD implementiert, da diese SoundAPI mehrere Betriebssysteme unterstützt. Es ist möglich, weitere oder eigene Sound-APIs
einzubinden, indem neue Sound-Module entwickelt werden. Somit wäre ein direkter Vergleich der Sound-APIs oder eigenen Entwicklungen möglich, da sie auf der gleichen Szenenbschreibung arbeiten würden. Zu Testzwecken wurde auch ein No-Sound Modul integriert, der keinen Soundtreiber verlangt und keine akustische Ausgabe tätigt. Somit ist das
System auch auf Computern ohne Soundkarte lauffähig.
3.7
Implementierung
Die Implementierung erfolgte in der Programmiersprache C++ und umfasst 15 Datentypen,
ca. 40 Klassen und über 10.000 Zeilen Quellcode. Im Folgenden werden exemplarisch
einige Datentypen, Klassen und Konzepte erklärt.
3.7.1
Datentypen
Ausgehend von grundlegenden Fließ-Komma- und Ganzzahl-Datentypen sind neue Datentypen und Speicherkonstrukte entwickelt worden. Darunter befinden sich die folgenden
zwei, die für die weiteren Abschnitte vorgestellt werden.
GAPVec3f: Ein Vektor aus drei GAPFloats als x-, y- und z-Komponente
GAPIDField: Ein Datenfeld zur Speicherung der eindeutigen GAP-ID
I3DL2-Listener-Reverb: Ein Datenfeld mit allen I3DL2 Listener Parameter
I3DL2-Sound-Reverb: Ein Datenfeld mit allen I3DL2 Sound Parameter
3.7.2
Geometrie-Klassen
Geometrie-Klassen speichern geometrische Informationen und bieten Methoden zu geometrischen Berechnungen an.
GAPFace Ein GAPFace speichert die Eckpunkte einer planaren Fläche, die aus drei oder
vier Raumpunkten als GAPVec3f besteht. Sie bietet Methoden zur Schnittpunktberechnung
durch Strahlenschuss und Flächenberechnung.
52
KAPITEL 3. KOMPONENTEN DER GEOMETRIE-ENGINE
GAPGeometry Die GAPGeometry speichert mindestens ein GAPFace. Es gibt Methoden, um ein GAPFace hinzuzufügen, zur Schnittpunktberechnung aller GAPFaces und zur
Berechnung der Gesamtfläche.
3.7.3
Akustik-Klassen
Die Akustik-Klassen speichern akustische Informationen und bieten Methoden akustische
Eigenschaften einzustellen und abzufragen.
GAPMaterialFrequency
Die GAPMaterialFrequency speichert beliebig viele
frequenzabhängige Messwerte eines Materials. Dies können der Absorptions-, der
Reflexions-, der Transmissions- und der Streuungsgrad sein. In dieser Arbeit konnte
nur der Absorptionsgrad berücksichtigt werden, da Datensätze zu den drei weiteren
Materialeigenschaften nicht vorlagen. Es wurden die knapp 500 Materialen aus dem
Akustiksimulator Odeon 6.5 verwendet, die durch acht Absorptionsgrade definiert sind
(siehe 2.3).
Listener-dependent Sound Ein essentielles Konstrukt zum Verständnis dieser Arbeit ist
der hörerabhängige Sound, oder Listener-dependent-Sound (LDS). Die Abbildung 3.7.3
verdeutlicht, dass eine Schallquelle bei zwei Hörern völlig unterschiedliche auditive Ereignisse hervorrufen kann. Für jeden Hörer existiert ein individuelles Bild der Schallquelle.
Die Schallquelle als solche ist aber nicht mehrmals vorhanden. Daher wurde ein LDS nicht
als GAP definiert. Es existiert nur als Kombination aus einem Listener und einem Sound.
Mathematisch kann dies als Kreuzprodukt der Mengen von Listener und Sound dargestellt
werden:
f : (L × S) → LDS.
Abbildung 3.4: Ein Sound S wird von zwei Listener unterschiedlich als LDS1 und LDS2
wahrgenommen.
Wenn es n Listener und m Sounds in der Szene gibt, so existieren n · m viele LDSs. Ein
LDS wird dazu genutzt, die hörerabhängige Ausprägung der Soundparameter zu verwalten und zu speichern. Neben den Datenfelder I3DL2-Listener-Reverb und I3DL2-Sound-
53
3.7. IMPLEMENTIERUNG
Reverb werden die virtuellen Sounds (siehe 4.3) als Eindruck der Schallausbreitung eines
Sounds für den entsprechenden Listener verwaltet. Es können wahlweise die Parameter für
einen Listerner oder interpolierte Parameter für mehrere Listener an den Sound-Kontext
übergeben werden.
Das Konzept der multi-Listener ist in VR-Umgebungen besonders wichtig. Wie in Kapitel 2.1.1.3 beschrieben ist, werden mehrere Listener in Sound-APIs nicht vollständig unterstützt. Durch das skalierbare Sound-System TRIPS (siehe 2.7.3) wurde gezeigt, dass die
Realisierung von multi-Listener durch die Verbindung von Sound-Servern über ein Netzwerk möglich ist. Durch die Verwendung von LDSs kann nun auch die Verhallung als
eigenes Bild eines Sounds für mehrere Listener individuell berechnet werden.
3.7.4
GAP-Basisklasse
In der Abbildung 3.5 ist die GAP-Klassenhierarchie verdeutlicht. Alle GAPs sind von einer
gemeinsamen Basisklasse4 GAPBase abgeleitet. Somit besitzen alle GAPs die folgenden
Attribute und Methoden.
Attribute:
Methoden:
• GAPIDField ObjectID
• getObjectID()
• GAPIDField ParentRoomID
• getParentRoomID()
Abgeleitete5 Klassen:
3.7.5
• GAPListener
• GAPSound
• GAPRoom
• GAPMaterial
• GAPGeomBase
• GAPMedium
GAP-Geometrie-Basisklasse
Eine zweite Basisklasse, die durch Einbindung der GAPGeometry spezielle GeometrieEigenschaften besitzt, ist die GAPGeomBase Klasse, die von GAPBase abgeleitet wurde.
Sie besitzt folgende zusätzliche Attribute und Methoden.
Attribute:
Methoden:
• GAPGeometry Geometry
• insertFace()
• GAPMaterial Material
• calculateIntersect ()
• GAPFloat Thickness
• getArea ()
4 Basis-,
Ober- oder Superklasse: Objekt mit einer Datenstruktur und Eigenschaften.
abgeleitete Klasse besitzt durch Vererbung die Struktur und Eigenschaften der Basisklasse und kann
individuell erweitert werden.
5 Eine
54
KAPITEL 3. KOMPONENTEN DER GEOMETRIE-ENGINE
Drei GAPs sind von der Geometrie-Klasse abgeleitet, da sie mindestens durch eine
Fläche definiert sind.
Abgeleitete Klassen:
• GAPWall
• GAPObstacle
• GAPPortal
GAPBase
GAPGeomBase
-ObjectID
-ParentRoomID
+getObjectID()
+getParentRoomID()
+getPosition()
+Update()
-Geometry
-MaterialID
-Thickness
+getArea()
+calculateIntersect()
+insertFace()
GAPWall
-VisibleWalls
GAPPortal
GAPRoom
-Medium
-ChildrenWallIDs
-ChildrenObstacleIDs
-ChildrenportalIDs
-BoundingBox
+insertWall()
+insertObstacle()
+insertPortal()
+removeWall()
+removeObstacle()
+removePortal()
+getEquivalentAbsorption()
GAPListener
-Position
-Orientation
-Velocity
-Aperture
-ParentRoom2ID
+getParentRoom2ID()
+setParentRoom2ID()
+getotherParentRoomID()
GAPSound
-Position
-Velocity
-Filename
-Volume
-ReverbVolume
-LDSs
+calculateReverbVolume()
+getDecayTime()
GAPMedium
-Name
-Impedance
-Temperature
-Humidity
+getSonicSpeed()
+getAbsorption()
GAPMaterial
-Name
-Impedance
-MaterialFrequencies
+getAbsorption()
+setAbsorption()
Abbildung 3.5: GAP-Klassenhierarchie.
GAPObstacle
-Transformation
-BoundingBox
-Reflection-Flags
55
3.7. IMPLEMENTIERUNG
3.7.6
Weitere Klassen
Weiteren Klassen sind entwickelt worden, die im Rahmen dieser Arbeit nur aufgezählt
werden:
• GAPManager
• GAPReverbVolume
• GAPI3DListenerContext
• GAPI3DSoundContext
• GAPXMLImporter
• GAPVisibilityList
• GAPIDMap
• GAPReflectionsRay
• GAPSoundpath
• GAPI3DVirtualSoundContext
• GAPVirtualSoundVector
Zusammenfassung von Kapitel 3
In diesem Kapitel wurden auf die einzelnen Komponenten der Geometrie-Engine eingegangen. Nachdem die Anforderungen festgehalten wurden, sind die GAPs, das GAI, die
Geometrie-Engine und der Sound-Kontext hergeleitet und ihr Aufgabenbereich vorgestellt
worden. In dem Abschnitt über die Implementierung wurde auf die Klassenhierarchie und
im speziellen auf den hörerabhängigen Sound LDS eingegangen, der für die multi-Listener
Unterstützung entwickelt wurde.
56
KAPITEL 3. KOMPONENTEN DER GEOMETRIE-ENGINE
Kapitel 4
Berechnungen der
Geometrie-Engine
«Bach war der erste Hacker. Das Cembalo war sein Computer. Kannst du
vorwärts und rückwärts spielen.»
(Aus dem Film 23 - Nichts ist so wie es scheint)
Aus den Informationen der kombinierten GAPs in einer Szenenbeschreibung können
Akustik-Effekte berechnet werden. Dazu sind einige neue Vereinfachungen und
Algorithmen nötig. Wie im Anhang A.4.2 erklärt, ist die Nachhallzeit einer Schallquelle
abhängig von ihrer Position. Darum sind Environments, wie aktuelle Implementierungen
sie nutzen, als kleinster Bereich zur Einstellung von Hallparametern recht ungenau.
Außerdem ist die Rezeption einer Verhallung abhängig von der Position und Ausrichtung
des Hörers. Es entstehen hörerabhängige Akustik-Effekte, wie die frühen Reflexionen oder
die Wahrnehmung virtueller Schallquellen durch offene Portale, die es zu berechnen gilt.
In diesem Kapitel werden Ansätze zur Volumenberechnung, der Reflexionsberechnung
und der Berechnung von virtuellen Sounds angeführt. Im Weiteren folgt die Erklärung zur
Darstellung der Akustik-Effekte durch diskrete Parameter des I3DL2 Standards.
4.1
Vereinfachungen
Um die verlangten Anforderungen an Interaktivität, beweglichen Sounds und dynamischer
Geometrie zu erfüllen, waren Vereinfachungen nötig. Zusätzlich haben fehlende Daten von
Materialbeschreibungen Vereinfachungen unausweichlich gemacht (siehe 3.2.3 und 3.7.3).
Es kann grob zwischen erforderlichen und optionalen, also selbst auferlegten, Vereinfachungen unterschieden werden:
57
58
KAPITEL 4. BERECHNUNGEN DER GEOMETRIE-ENGINE
Erforderliche Vereinfachungen:
• Winkel-unabhängige Reflexion durch fehlende Messdaten
• Keine Berücksichtigung des frequenzabhängigen Streuungsgrades durch fehlende
Messdaten
Optionale Vereinfachungen:
• Bisher keine Berechnung der Dämpfung entlang einer Reflexion
• Bisher keine größen-abhängige Berechnung und Berücksichtigung von Reflektoren
• Bisher keine Beugung bei der Abschätzung des Reverb-Volume (siehe 4.2.1.1)
• Bisher keine Berechnung und Berücksichtigung von Interferenzen
• Keine Richtungsänderung bei der Brechung
Die optionalen Vereinfachungen haben verschiedene Gründe, wie hoher Programmieraufwand, Performance-Verlust, oder niedrige Relevanz bezüglich der Physiologie des Gehörs.
4.2
Verhallung
Die berechnete Nachhallzeit ist von dem Sound, der Geometrie und den Messfrequenzen
abhängig. Die hörerabhängige Ausprägung der Verhallung eines Sounds ist zusätzlich abhängig vom Listener und seiner Position. Wenn man die Nachhallzeit eines Sounds frequenzabhängig bestimmen kann, so lässt sich daraus auch der hörerabhängige Eindruck
herleiten. Daher macht es Sinn, nicht das explizite Raumvolumen zu berechen, wie in
Akustiksimulatoren, sondern eine Annäherung des eigentlichen Verhallungsvolumen des
Sounds, das Hallvolumen, zu berechnen.
4.2.1
Nachhallzeit
Die Nachhallzeit ist definiert als die Zeit, die vergeht, damit ein Schalldruckpegel um 60 dB
fällt (siehe Anhang A.1.7 und A.4.2). Nach den Formeln von S ABINE und E YRING hängt
dies vom Raumvolumen und den akustischen Eigenschaften der verbauten Materialen ab.
Statt dem Raumvolumen wird das Hallvolumen des Sounds approximiert. Dadurch wird
die Berechnung der Nachhallzeit abhängig von der Position des Sounds. Es ist nötig, zwei
Größen zu bestimmen, das Hallvolumen und die äquivalente Absorptionsfläche.
4.2.1.1
Abschätzung des Hallvolumens
Das akustische Hallvolumen ist bei geschlossenen Räumen gleich dem Raumvolumen.
Wenn nun zwei Räume durch ein Portal miteinander verbunden sind, so trägt der zweite
Raum auch zum gesamten Hallvolumen und der Absorptionsfläche bei. Von den vielen Reflexionen gelangen auch einige in den anderen Raum, erzeugen ein Schalllfeld und werden
59
4.2. VERHALLUNG
dort absorbiert. Je nach Position der Schallquelle und der Größe des Portals ändert sich
dieser Wirkungsgrad.
Darum erscheint es sinnvoll, um den Sound eine Art “Blase” wachsen zu lassen, um
auch den Wirkungsgrad anderer Räume zu erfassen. Bei dieser Berechnung werden nur
Wände betrachtet, da ein nahes Hindernis die Berechnung des Volumens stark verfälschen
kann. Im Weiteren wird die Approximation des Hallvolumens Reverb-Volumen genannt.
Dieses Volumen wird pro Sound berechnet und nicht pro LDS, da davon ausgegangen werden kann, dass die Verhallung unabhängig vom Listener stattfindet. Die implementierte
Lösung ist in drei Arbeitsschritte unterteilt: Der Strahlschuss in die Szene hinein, das Aufspannen des Reverb-Volumens und die Bestimmung des Reverb-Volumens. Hindernisse
werden erst im dritten Schritt berücksichtigt.
Strahlschuss in die Szene In die Position des Sounds wird eine Einheitskugel gelegt,
auf der 1000 vordefinierte Punkte liegen, die Sphere-Points (SP) genannt werden. Dazu
werden randomisierte Richtungsvektoren erzeugt, die siebenfach an den Ebenen der Hauptachsen gespiegelt werden, erst einmal an der XY-Ebene, dann zweimal an der YZ-Ebene
und schließlich viermal an der XZ-Ebene. Dadurch wird erreicht, dass die Punkte zufällig,
aber dennoch gleichverteilt auf der Kugeloberfläche liegen (siehe Abb. 4.1 a) ).
(a) Schema in 2D: Zufällige
Richtungsvektoren werden an den
Hauptachsen gespiegelt und bilden die Sphere-Points.
(b) GAP Ansicht: Strahlschuss ausgehender von der
Soundposition durch ca. 100
Sphere-Points.
Abbildung 4.1: Strahlschuss durch die Sphere-Points in a) erzeugt Volume-Points in b).
Abhängig von der verlangten Genauigkeit des Reverb-Volumens wird ein Strahl von der
Sound-Position durch einen Punkt auf der Kugeloberfläche in die Szene mit allen Wänden
geschossen (siehe Abb. 4.1 b) ). Der Schnittpunkt, auf der dem Sound zugewandten Vorderseite einer Wall, mit der kürzesten Distanz zu der Soundposition, wird Volume-Point
(VP) genannt und dem Sphere-Point zugeordnet. Wird zu einem Strahlschuss kein Treffer
gefunden, so wird dieser Sphere-Punkt speziell markiert. Durch Triangulierung wird aus
einer Menge von Punkten ein Dreiecksnetz, ein Mesh, aufgebaut. Jeder Sphere-Point, der
einen Treffer hervorgerufen hat, wird direkt nach seiner Berechnung in das Mesh eingefügt,
das an der betroffenen Stelle neu trianguliert wird. Sphere-Points ohne Treffer in der Szene
werden nicht in das Mesh eingefügt.
60
KAPITEL 4. BERECHNUNGEN DER GEOMETRIE-ENGINE
Aufspannen des Reverb-Volumens Nachdem der Strahlschuss mit verschiedenen Richtungen mehrfach wiederholt wurde, kann zu jeder Zeit die Berechnung gestoppt werden.
Nun existiert eine Liste von Sphere-Points, den dazugehörigen Volume-Points und ein
Mesh von Sphere-Points, mit genau der Anzahl der Volume-Points. Das Aufblähen geschieht durch das Ersetzen der Positionen der Sphere-Points im Mesh mit den Positionen
der korrelierenden Volume-Points abzüglich der Sound-Position. So wird aus der Einheitskugel eine Art Blase (im mathematischen Nullpunkt) mit gültiger Triangulierung. (siehe
Abb. 4.2 a) und b) )
(a) Schema in 2D
(b) GAP Ansicht
Abbildung 4.2: Das Reverb-Volumen spannt sich aus Treffern in der Szene auf.
Bestimmen des Reverb-Volumens Um das von dem Mesh aufgespannte Volumen zu
berechnen, kann man die Volumina aller vom Mittelpunkt und den Eckpunkten eines Dreiecks aufgespanntern Tetraeder akkumulieren. Da der Mittelpunkt der Nullpunkt ist, kann
eine optimierte Berechnung des Spatprodukts durchgeführt werden, die das Volumen eines
Tetraeders angibt.
V0Tetra = 16 a · (b × c), wobei a, b und c Vektoren der Eckpunkte des Dreiecks auf der
Hülle der Blase sind.
Um das verdrängte Volumen der Hindernisse nicht zu unterschlagen, muss zuvor abgeschätzt werden, welchen Einfluss diese haben. Dazu wird ein Raumquotient qRoom berechnet, der das Verhältnis der Treffer eines Raumes hRoom zu allen Volume-Points hAll
angibt.
qRoom = hhRoom
All
Die Summe aller Tetraeder abzüglich der gewichteten Volumina der Hindernisse ergibt
das Reverb-Volumen VReverb . Aus zwei Gründen ist das berechnete Reverb-Volumen kleiner
als das eigentliche Hallvolumen. Zum einen bleibt durch den zufälligen Strahlschuss die
von Wänden gebildeten Ecken oft unberücksichtig. Außerdem bestimmen nur die direkten
Treffer die Hülle der Blase, statt frequenzabhängige Beugungseffekte zu berücksichtigen.
Daher wird das Reverb-Volumen mit einem einstellbaren Korrekturfaktor kReverb multipliziert, der bei einem Wert von 1.2 gute Resultate liefert.
61
4.2. VERHALLUNG
VReverb = kReverb (∑ V0Tetra − ∑ qRoom ·VObstacle )
4.2.1.2
Berechnung der Absorptionsfläche
In Anhang A.4.1 wird die äquivalente Absorptionsfläche A f ausführlich als vollständig
absorbierender Bereich einer Fläche erklärt. Sie ist eigentlich abhängig von der Soundposition, da der Einfallwinkel leicht unterschiedliche Absorptionsgrade verursacht. Der
Einfallswinkel ist in dem Datensatz der Materialien bisher nicht berücksichtigt. Die äquivalente Absorptionsfläche wird daher unabhängig von der Sound-Position approximiert. Als
Folge kann jedes einzelne Geometrie-GAP den Wert seiner äquivalenten Absorptionsfläche
zur Verfügung stellen.
Äquivalente Absorptionsfläche der GAPs Ein Room als Sammlung von mehreren
GAPs addiert die Absorptionswerte seiner Wände, Portale und Hindernisse und speichert
diesen Wert, solange der Room unverändert bleibt. Die Abfrage nach der äquivalenten Absorptionsfläche ist frequenzabhängig. Anfragen nach der äquivalenten Absorptionsfläche
zwischen Messfrequenzen werden interpoliert. Erstreckt sich das Hallvolumen über mehrere Räume, so wird der in 4.2.1.1 erwähnte Raumquotient qRoom benutzt, um auch die
äquivalente Absorptionsfläche angrenzender Räume anteilsmäßig zu berücksichtigen.
Vollständige Absorptionsflächen Ausgehend von einem Sphere-Point des Sounds kann
es vorkommen, dass innerhalb einer einstellbaren Reichweite kein Treffer in der Szene
nachweisbar ist. Wie in der Abbildung 4.3 a) angedeutet wird, kann das im Freifeld oder
durch eine Öffnung in der Szene, wie ein offenes Fester, geschehen. Die Abbildung b) zeigt,
dass sich das Reverb-Volumen im GAP-System nicht über ein Öffnung in der Szene hinaus
erstreckt. Die vollständig absorbierenden Bereiche der Oberfläche des Reverb-Volumens
sind nicht grafisch hervorgehoben worden.
Da der Sphere-Point nicht umgesetzt wird, würde der verlängerte Strahl genau ein Dreieck auf der Oberfläche des Reverb-Volumens treffen. Abhängig davon, ob noch andere
Strahlen dieses Dreieck getroffen haben, wird die Fläche dieses Dreiecks als vollständigen Absorber F gewichtet und geht zusätzlich in die Nachhallzeit-Berechnung ein. Ein
vollständiger Absorber ist frequenzunabhängig, sodass der Wert der vollständigen Absorptionsfläche pro Sound nur einmal berechnet wird.
4.2.1.3
Berechnung der Nachhallzeit
In dieser Arbeit wird die Nachhallzeit basierend auf der S ABINE’schen Formel der Nachhallzeit (siehe A.4.2) berechnet. Statt des Raumvolumes V wird das Reverb-Volumen
VReverb benutzt. Die Summe der äquivalenten Absorptionsflächen A f wird mit den Raumquotienten qRoom der jeweiligen Räume multipliziert und anschließend mit der vollständigen Absorptionsfläche FAll summiert. Danach ist die Nachhallzeit für die Frequenz f :
TRT 60GAP ( f ) = 0, 163
VReverb
∑ qRoom A f + FAll
s
62
KAPITEL 4. BERECHNUNGEN DER GEOMETRIE-ENGINE
(a) Schema in 2D
(b) GAP Ansicht
Abbildung 4.3: Keine Treffer erzeugen vollständige Absorber auf der Oberfläche des
Reverb-Volumes.
4.2.2
Frühe Reflexionen
Frühe Reflexionen werden explizit als Strahlengang zwischen Sound und Listener berechnet. Die Ordnungsgröße der Reflexionen ist dynamisch. Die Standardeinstellungen für die
untere Grenze ist eins und drei für die obere Grenze. Im Folgenden wird das Konzept der
Reflexionsberechnung und die Eigenschaften bei der Berechnung erklärt.
4.2.2.1
Konzept der Reflexionsberechnung
Es soll exemplarisch an einer Reflexion dritter Ordnung gezeigt werden, welche gängige
Technik angewendet wird (siehe Abb. 4.4 a) ). Die Abbildung b) zeigt frühe Reflexionen
bis zur 5ten Ordnung im GAP-System. Durch die Kombination der Reflektoren R1, R2 und
R3 entsteht ein eindeutiger Reflexionsgang. Zuerst wird die Schallquelle S an dem ersten
Reflektor R1 gespiegelt. Das Spiegelbild S’ wird an dem zweiten Reflektor R2 zu S”, dann
am dritten R3 zu S”’ gespiegelt. Nun wird überprüft, ob R3 einen Schnittpunkt mit dem
Strahl von S”’ zum Hörer L hat.
Gibt es auf R3 einen Schnittpunkt P3, so wird rekursiv auf Schnitt mit den vorherigen
Reflektoren überprüft. Gibt es auch auf R1 einen Schnittpunkt P1 auf dem Strahl von P2
nach S’, ist der Reflexionspfad dritter Ordnung gefunden: S, P1, P2, P3, L. Liegt einer
der Schnittpunkte P1, P2 oder P3 nicht auf dem entsprechenden Reflektor, existiert kein
gültiger Reflektionsgang und die Berechnung kann frühzeitig abgebrochen werden.
Die Reflektoren werden beliebig permutiert, um alle Möglichkeiten eines Reflexionsgangs zu betrachten. Wahrscheinlichkeitstheoretisch entspricht die Reflexionsberechnung
dem Lottospiel mit Berücksichtigung
der Ziehreihenfolge. Bei n Reflektoren und der Ord!
n
n!
nung k gibt es also
k! = (n−k)!
verschiedene Reflexionsgänge, die zu testen sind.
k
Ein frühes Erkennen von erfolgloses Konstellationen verhindert rendundante Berechnungen. Durch eine gute Vorauswahl der Reflektoren kann n verringert werden und der Rechenaufwand begrenzt werden (siehe 4.6.2).
63
4.2. VERHALLUNG
(a) Schema in 2D: Prinzipt der Reflexionsberechnung dritter Ordnung von L zu
S.
(b) GAP Ansicht: Frühe Reflexionen bis zur
5ten Ordnung zwischen Sound (gelb) und Listener um und an einem Hindernis (weiss).
Abbildung 4.4: Berechnung der frühen Reflexionen.
4.2.2.2
Berechnung der Reflexionen
Das Konzept zur Reflexionsberechnung wurde mit einem stack-basierten1 Ansatz implementiert, da so die Spiegelbild-Berechnung des Sounds optimert und Redundanzen ausgenutzt werden konnte. Reflektoren werden in das ReflectionRay-Objekt geschoben und
automatisch die entsprechenden Spiegelbilder des Sounds berechnet. Dieses Spiegelbild
bleibt gültig, bis der Reflektor wieder vom Stack entfernt wird.
Ist das Objekt gefüllt, wird die Evaluierung vorgenommen, die die Schnittpunkte auf
den Reflektoren berechnet und überprüft, ob der Reflexionspfad durch andere Objekte blockiert ist. Diese Berechnung ist sehr aufwändig und daher wurde versucht möglichst grundlegende Optimierungen zu verwenden. Zwei zu optimierende Ansätze sind die Auswahl der
Initital-Reflektoren und die Auswahl der Folge-Reflektoren.
Auswahl der Initital-Reflektoren Eine Fläche, die nicht in der Nähe eines Sounds ist,
wird mit großer Wahrscheinlichkeit auch keine gültige Reflexion hervorbringen. Die Auswahl der ersten Reflektoren ist von entscheidender Bedeutung zur Optimierung der gesamten Berechnung. Durch die Berechnung des Reverb-Volumens wurden schon wichtige
Rauminformationen in den Volume-Points gesammelt, die hier genutzt werden können. So
hat ein Treffer des Strahlschusses Wände in der Nähe des Sounds getroffen. Man kann annehmen, dass diese Wände gute Initial-Reflektoren sind. Weitere Initial-Reflektoren sind
die Flächen der Obstacles, die sich im selben Raum mit dem Sound befinden.
Auswahl der Folge-Reflektoren Die Auswahl der Folge-Reflektoren basiert auf den
Informationen, die in einem Vorberechnungsschritt oder bei dynamischen Szenen bei Veränderung der Geometrie berechnet werden. Das in Kapitel 4.6.2 genau erklärte Verfahren
der Wand-Sichtbarkeit, ist entscheidend bei der Optimierung dieses Problems. Wenn ein
Strahl reflektiert wird, so brauchen nur die Wände überprüft zu werden, die diese Wand als
sichtbare Wände erkannt haben (siehe 4.6.2). Da sich Obstacles dynamisch in der Szene
1 Stack: engl. Stapel. Eine stack-basierte Datenstruktur wird wie ein Stapel durch Auflegen und Entfernen von
Objekten nach dem LIFO(Last In First Out)-Prinzip verwaltet.
64
KAPITEL 4. BERECHNUNGEN DER GEOMETRIE-ENGINE
bewegen können, ist es nötig, alle Flächen der betrachteten Obstacles als Folge-Reflektoren
zu betrachten.
4.3
Berechnung von virtuellen Sounds
Die aktuellen Computerspiele, die akustische Verdeckung von Sounds approximieren,
dämpfen je nach Ausprägung den Direktschall und den Nachhall. Wenn also ein böses
Monster hinter einer Mauer lauert, dann hört der Listener ein dumpfes Signal, und
durch die Richtung des Direktschalls ahnt er, wo der Gegner sich aufhält. Doch in der
Wirklichkeit nimmt man oft ein anderes auditives Ereignis wahr. Da die Wand ja irgendwo
aufhört oder eine Tür die Räume verbindet, würde man ein leicht gebeugtes Signal hören,
das aus der Richtung der Tür oder von dem Ende der Mauer kommt. Im Alltag erfährt der
Hörer oft die Information, wie er zu einer Schallquelle kommt.
• Direktes Schallsignal: Wo ist die Schallquelle?
• Schallsignal durch ein Portal: Wie kommt man zur Schallquelle?
Abbildung 4.5: Prinzip der Virtuellen Sounds. Abhängig von der Position des Listeners
ändert sich die wahrgenommene Lautstärke.
Wenn Schallwellen durch eine Tür in einen Raum dringen, so übertönen sie zumeist
den stark gedämpften Direktschall, der als Transmission durch die Wand dringt. Man könnte also den Sound in Richtung der Tür positionieren und würde einen verbesserten Effekt
erzielen. Doch was wäre, wenn durch zwei Türen, rechts und links von dem Hörer, Schallwellen ankommen? Wenn der Hörer, wie in Abbildung 4.5 erkennbar, sich einer Tür nähert,
wird das Signal vor ihm lauter und hinter ihm leiser.
Eine Lösung wäre die Approximation der Schallausbreitung zusätzlich zum Hauptsound durch eigenständige virtuellen Sounds, die logisch mit den Portalen verbunden sind.
Dabei sind die virtuellen Sounds hörerabhängig, das bedeutet, dass für einen anderen
Listener völlig andere virtuelle Sounds entstehen. Die Liste mit den virtuellen Sounds wird
in dem Objekt des Listener-Dependent Sound verwaltet. Kein anderes System ist bekannt,
welches virtuelle Sounds in dieser Art verwendet und hörerabhängig verwaltet. Durch diese
Implementierung wird der komplexe Vorgang der physikalischen Schallwellenausbreitung
so approximiert, dass er in Echtzeit dargestellt werde kann.
4.3. BERECHNUNG VON VIRTUELLEN SOUNDS
4.3.1
65
Generierung von virtuellen Sounds
Ein Portal beschreibt die Grenzfläche zwischen zwei Räumen. Aber schon in der Nähe einer
Tür erlebt ein Hörer die akustischen Ausprägungen, die von der Öffnung hervorgerufen
werden. Tritt ein Hörer durch eine offene Tür, so entstehen nicht plötzlich und willkürlich
auditive Ereignisse durch weitere Türen in dem Raum. Vielmehr spalten oder vereinen sich
die ankommenden Schallwellen von mehreren Türen, je nach ihrer Ausprägung.
Darum wird um ein Portal ein Einflussbereich definiert. Betritt der Listener diesen
Bereich, so wird überprüft, ob im angrenzenden Raum prophylaktisch virtuelle Sounds
erzeugt werden sollen, wenn ihre Signalqualität einen Schwellwert überschreitet. Verlässt
der Listener den Einflussbereich des Portals wieder, ohne in den Raum eingetreten zu
sein, werden die virtuellen Sounds des angrenzenden Raumes wieder gelöscht. Betritt der
Listener aber den angrenzenden Raum und verlässt er den Einflussbereich des Portals auf
der anderen Seite, so werden die hinter ihm liegenden virtuelle Sounds gelöscht.
Der Einflussbereich der Portale wird auch dazu genutzt, virtuelle Sounds weich einzublenden und so eine unmerkliche Trennung und Verschmelzung von virtuellen Sounds
zu ermöglichen. Dazu wird die Lautstärke des virtuellen Sounds an dem betretenden Einflussbereich bis zum Mittelpunkt des Portals hin abgeschwächt, gleichzeitig werden die
virtuellen Sounds im angrenzenden Zimmer verstärkt.
4.3.2
Positionierung von virtuellen Sounds
Damit ein virtueller Sound wirken kann, muss ein gültiger Soundpfad (siehe 4.3.3) vom
Sound bis zum Portal gefunden werden. Der Soundpfad besteht aus sich abwechselnden
GAP-IDs der durchlaufenden Räume und Portale (z.B. R1-P5-R2-P6-R3). Bei der Berechnung wird eine Abschätzung der zurückgelegten Strecke und der benötigten Laufzeit vorgenommen. Die Position des virtuellen Sounds liegt am Ende des begradigten Soundpfades
in der Richtung des entsprechenden Portals aus Sicht des Listeners, wie in den Abbildungen 4.6 a) und b) gezeigt ist. Die virtuellen Sounds können auch außerhalb eines Raumes
liegen, da sie die Schallausbreitung nur approximieren.
(a) Schema in 2D: Für die Listener L1, L2 und
L3 sind die Positionen der jeweiligen virtuellen
Sounds unterschiedlich.
(b) GAP Ansicht:Die virtuellen
Sounds (rot) des ursprünglichen
Sounds (grün) können auch
ausserhalb der Szene liegen.
Abbildung 4.6: Die Position eines virtuellen Sounds liegt am Ende des begradigten Soundpfades.
66
4.3.3
KAPITEL 4. BERECHNUNGEN DER GEOMETRIE-ENGINE
Soundpfade
Für jedes Portal des Raumes des Listeners und des benachbarten Raumes, in dessen Einflußbereich des Portals der Listener sich befindet, wird eine Pfadsuche gestartet. Wenn
mehrere Pfade für ein Portal gefunden werden, werden diese evaluiert und einer ausgewählt.
Evaluation Jeder Soundpfad beschreibt eine Abfolge von Räumen und Portalen, die den
Listener mit einem Sound verbinden. Die zurückgelegte Strecke wird über die Mittelpunkte der Portale und Räume aufaddiert. Für jeden Soundpfad wird lokal ein Material angelegt, das die Eigenschaften der durchschrittenen Portale akkumuliert. Dazu werden die mit
dem Öffnungswinkel und der Dicke des Portals multiplizierten Materialen aller Portale
des Soundpfads aufsummiert. Der Soundpfad dessen Material das Signal am wenigstens
abschwächt, wird ausgewählt.
4.3.4
Ausprägung von virtuellen Sounds
Die Signalqualität der virtuellen Soundquelle wird angepasst. Dabei erfährt der Direktschall eine Abschwächung mit der Entfernung. Es braucht nicht auf Verdeckung in der
Szene geprüft zu werden, da die Position des virtuellen Sounds nur virtuell ist und nur die
Position des auditiven Ereignisses beim Hörer nachahmen soll. Die Signale für Direktschall
und Nachhall werden zusätzlich mit dem Material der akkumulierten Portaleigenschaften
gedämpft. Ist für den Listener das Portal von einem Hindernis verdeckt, so wird der Effekt
der Obstruktion, der die Beugung annähert, zusätzlich berücksichtigt.
4.4
Darstellung der Akustik-Effekte
Nachdem die Geometrie-Engine eine große Anzahl von Zwischenergebnisse berechnet und
gespeichert hat, können diese Resultate verwendet werden, um daraus die Werte der SoundParameter der verwendeten Sound-API abzuleiten. Wie in Kapitel 2.6.1.2 dargestellt, ist das
Einstellen der Parameter komplex und aufwändig. Es folgt die Erklärung der Ableitungen
einiger Parametern.
4.4.1
Positionierung und Orientierung
Die Listener werden durch ihre Position und Orientierung spezifiziert, die direkt aus der
Szenenbeschreibung übernommen werden. Pro Listener werden die Positionen von zwei
Arten von Sounds angegeben: der LDS und die virtuellen Sounds. Jeder LDS und seine virtuellen Sounds können individuell für einen Listener eingestellt werden. Die Position des
LDS entspricht der Position des Hauptsounds in der Szene. Die Positionen der virtuellen
Sounds sind durch die Soundpfade vorgegeben (siehe 4.3.2) und können direkt übernommen werden.
Wie im Anhang A.3.10 erklärt wird, hängt die Position des auditiven Ereignisses von
der Schallgeschwindigkeit des Mediums ab. Durch die radikal verkürzte IDT unter Wasser
4.4. DARSTELLUNG DER AKUSTIK-EFFEKTE
67
ortet ein Hörer eine beliebige Schallquelle nur relativ vor sich. Um diesen Effekt nachzuahmen, könnten die Positionen des LDS und seine virtuellen Sounds vor den Listener
platziert. Die Berechnung dieser medienabhängigen Soundpositionierung ist als Sonderfall
konzeptionell vorbereitet.
4.4.2
Verhallung
Die erzeugte Verhallung ist von vielen Parametern abhängig, die verwendet werden, um
eine künstliche Impulsantwort aufzubauen. In einigen Fällen verlangt die Sound-API Resultate, die für jeden Sound berechnet wurden, in einem Parameter des Listeners zusammenzufassen. Diese Herleitung gilt für den I3DL2 Standard (siehe 2.6.1.2) und würde für
einen zukünftigen I3DL3 Standard optimiert werden. Im Folgenden wird auf die Herleitung
der Parameterwerte des Listeners und der Sounds eingegangen.
Parameterherleitung für einen Listener
HF-Reference ist frei wählbar, da die Materialabfragen zwischen zwei Messwerten interpoliert werden.
LF-Reference ist frei wählbar, da die Materialabfragen zwischen zwei Messwerten interpoliert werden.
Environment wird nicht gesetzt, da dies ein high-level Parameter ist, der andere Parameter
kontrolliert.
Environment-Size wird nicht gesetzt, da dies ein high-level Parameter ist, der andere
Parameter kontrolliert.
Environment-Diffusion leitet sich von der Länge des gemittelten Richtungsvektors des
Reflection Pans her. Reflexionen aus vielen verschieden Richtungen resultieren in
einer kurzen Vektorlänge und erzeugen hohe Diffusität, spekuläre Reflexionen resultieren im Mittel in einer langen Vektorlänge und erzeugen niedrige Diffusität. Auch
die Rauheit der Materialien soll zukünftig berücksichtigt werden.
Room bleibt auf dem Standardwert, da die Intensität des ”Raumeffekts” für jeden Sound
individuell über die Reflexionen berechnet wird.
Room-HF bleibt auf dem Standardwert, da die Intensität des ”Raumeffekts” für jeden
Sound individuell über die Reflexionen berechnet wird.
Room-LF bleibt auf dem Standardwert, da die Intensität des ”Raumeffekts” für jeden
Sound individuell über die Reflexionen berechnet wird.
Decay-Time wird für jeden Sound eingestellt, obwohl der Parameter beim Listener angesiedelt ist. Er berechnet sich über die Nachhall-Formel (siehe 4.2.1) bei mittlerer
Referenz-Frequenz, die zwischen HF-Reference und LF-Reference liegt.
Decay-HF-Ratio wird für jeden Sound eingestellt und berechnet sich als Verhältnis der
Nachhallzeit bei HF-Reference zu der Nachhallzeit bei mittlerer Frequenz.
68
KAPITEL 4. BERECHNUNGEN DER GEOMETRIE-ENGINE
Decay-LF-Ratio wird für jeden Sound eingestellt und berechnet sich als Verhältnis der
Nachhallzeit bei LF-Reference zu der Nachhallzeit bei mittlerer Frequenz.
Reflections wird für jeden LDS eingestellt und berechnet sich als Produkt aus Minimalwert des Parameters und dem Verhältnis aus der Anzahl unblockierten Reflexionen
zu der Anzahl allen getesteten Reflexionen.
Reflections-Delay wird für jeden LDS eingestellt und berechnet sich als das Verhältnis aus
der Strecke der kürzesten Reflexion und der Schallgeschwindigkeit des Mediums.
Reflections-Pan wird für jeden LDS eingestellt und berechnet sich als Mittelwert aller
normierten Richtungsvektoren der unblockierten Reflexionen.
Reverb wird für jeden LDS eingestellt und berechnet sich als Produkt aus Minimalwert
des Parameters und dem Verhältnis der Anzahl der Volume-Points und der Anzahl
aller getesteten Strahlen, die das Reverb-Volume aufspannen.
Reverb-Delay wird für jeden LDS eingestellt und berechnet sich als das Verhältnis aus
der Strecke des vierfachen gemittelten Radius des Reverb-Volumes und der Schallgeschwindigkeit des Mediums.
Reverb-Pan wird für jeden LDS eingestellt und berechnet sich als Mittelwert aller normierten Richtungsvektoren der Volume-Points des Reverb-Volumes.
Echo-Time wird als Musikeffekt nicht berechnet, . Der Standardwert ist 0,25 s.
Echo-Depth wird als Musikeffekt nicht berechnet. Der Standardwert ist Null.
Modulation-Time wird bisher nicht berechnet, da die Modulation eine Tonhöhenverschiebung im Hallsignal verursacht, was eher aus harmonischen Gründen in der Musikproduktion verwendet wird.
Modulation-Depth wird nicht berechnet, siehe Modulation Time.
Air-Absorption-HF wird in Abhängigkeit des Mediums des Raums des Listeners eingestellt. Die Abschwächung berechnet sich für gasförmige Medien aus Temperatur und
Feuchtigkeit.
Room-Rolloff-Factor wird nicht berechnet, da jeder Sound eine individuelle Nachhallzeit
besitzt.
Parameterherleitung für einen Sound
Direct wird nicht berechnet, da eine Korrektur der Intensität durch die Verwendung von
virtuellen Sounds unnötig wird. Der Standardwert ist 0 mB.
Direct-HF wird nicht berechnet (siehe Direct). Der Standardwert ist 0 mB.
Room wird nicht berechnet (siehe Direct). Der Standardwert ist 0 mB.
Room-HF wird nicht berechnet (siehe Direct). Der Standardwert ist 0 mB.
4.5. EINSTELLUNGEN DER GEOMETRIE-ENGINE
69
Obstruction wird durch die Implementierung in [GPG3] berechnet. Obstruction wird auf
einen Sound angewendet, der sich im selben Raum wie der entsprechende Listener
befindet. Virtuelle Sounds, deren entsprechende Portale durch Objekte verdeckt sind,
werden auf die selbe Art zusätzlich abgeschwächt.
Obstruction-LF-Ratio wird noch nicht berechnet. Der Standardwert ist 0,0.
Exclusion wird direkt aus den frühen Reflexionen eines LDSs abgeleitet. Exclusion wird
nur auf Sounds angewendet, die sich nicht mit dem Listener in einem Raum befinden.
Exclusion-LF wird noch nicht berechnet. Der Standardwert ist 1,0.
Occlusion wird durch Akkumulieren von GAP-Materialien berechnet, die sich zwischen
dem Sound und dem Listener befinden. Occlusion wird nur auf Sounds angewendet,
die sich nicht mit dem Listener in einem Raum befinden.
Occlusion-LF-Ratio wird durch die frequenzabhängige Anfrage des akkumulierten Materials berechnet.
Occlusion-Room-Ratio wird nicht berechnet, da dies der Exclusion entspricht. Der Standardwert ist 1,5.
Occlusion-Direct-Ratio wird nicht berechnet, da dies der Exclusion entspricht. Der Standardwert ist 1,0.
4.5
Einstellungen der Geometrie-Engine
Zu Forschungszwecken wurden interne Parameter der Berechnungen der
Geometrie-Engine dynamisch verwaltet, statt diese konstant einzuprogrammieren. An
dieser Stelle werden einige dieser Parameter spezifiziert und ihre Bedeutung erklärt.
REVERBVOLUMEACCURACY [4 bis 1000, Std.: 32]
Für jeden Sound wird nach einem in Kapitel 4.2.1 erklärten Verfahren die Nachhallzeit auf
Grund mehrerer Faktoren berechnet. Einer der Faktoren ist das Reverb-Volumen, das durch
wiederholten Strahlschuss in die Szene berechnet wird. Die Standardanzahl der geschossenen Strahlen in die Szene liegt bei 32, kann aber zwischen 4 und 1000 liegen. Je höher der
Wert, desto genauer wird das Volumen bestimmt.
REVERBVOLUMETESTLENGTH [1 bis ∞, Std.: 50]
Während der Berechnung des Reverbvolumen werden viele Strahlen in die Szene geschossen. Die maximale Entfernung mit der ein Strahl auf einen Treffer mit der Geometrie getestet wird, kann in Meter angegeben werden.
ReflectionOrderMin [1 bis ReflectionOrderMax, Std.: 1]
ReflectionOrderMax [ReflectionOrderMin bis ∞, Std.: 3]
70
KAPITEL 4. BERECHNUNGEN DER GEOMETRIE-ENGINE
Jeder LDS speichert die erfolgten Reflexionen zwischen den Positionen des Listeners und
des Sounds ab. Um den Aufwand der Reflexionsberechnung zu steuern, kann man die
minimale und maximale Ordnung angeben. Standardmäßig werden Reflexionen der ersten,
zweiten und dritten Ordnung berechnet.
WALLVISIBILITYTESTLENGTH [1 bis ∞, Std.: 100]
Bei dem dynamischen Sichtbarkeitstest der Walls kann ein Wert angegeben werden, der die
maximale Entfernung von zu testenden Walls angibt. Dieser Wert wird in Meter angegeben
und wird mit dem Skalierungsfaktor intern verrechnet.
RefreshRateI3DL1Listener [1 bis ∞, Std.: 30]
RefreshRateI3DL2Listener [1 bis ∞, Std.: 15]
RefreshRateI3DL1Sound [1 bis ∞, Std.: 30]
RefreshRateI3DL2Sound [1 bis ∞, Std.: 15]
RefreshRateI3DL2Reverb [1 bis ∞, Std.: 15]
Die Teilbereiche der Geometrie-Engine können mit individuellen Wiederholungsraten aktualisiert werden. Die Werte werden in Hz angegeben.
4.6
Optimierungen
In diesem Abschnitt werden einige Verfahren zur Optimierung des Gesamtsystems angesprochen. Manchen Optimierungen liegen Vereinfachungen zu Grunde, die Auswirkungen
auf die Akustikeffekte haben.
4.6.1
Schnittpunktberechnung
Sehr oft ist es nötig, Schnittpunkte zu bestimmen, die auf einer Verbindungslinie von einem Startpunkt und einem Endpunkt liegen (siehe Abb. 4.7). In einigen Fällen reicht die
Information, ob ein Objekt den Strahl blockiert. Manchmal ist die explizite Berechnung
des ersten Schnittpunktes nötig, der ausgehend vom Startpunkt liegt. In beiden Fällen wird
überprüft, welche Räume von der aufgespannten BoundingBox des Strahl geschnitten werden.
Die Auswahl der betroffenen Räume (in gelb) wird Roomselection genannt. Jede Wall
und jedes Obstacle in diesen Räumen wird überprüft. Bei Bedarf wird aus den Schnittpunkten der Flächen (hellblau) der dem Startpunkt am nächsten liegende ermittelt. Diese
Methoden werden überall dort benutzt, wo Strahlen in die Szene geschossen werden. Vor
allem kommt dies bei der Berechnung des Direktschalls, des Reverb-Volumen und der frühen Reflexionen vor.
71
4.6. OPTIMIERUNGEN
Room 1
2
Room 2
Room 3
Start
Ende
Room 4
Room 5
Room 6
Abbildung 4.7: Aufbau der Roomselection (Room2, Room3, Room5, Room6) bei der
Schnittpunktberechnung.
4.6.2
Sichtbarkeitsliste der Wände
Da Walls im Gegensatz zu Obstacles nicht beweglich sind, kann für jede Wall eine IDListe von anderen Walls aufgebaut werden, die von ihr sichtbar sind. Diese Sichtbarkeitsliste kann von der Geometrie-Engine vorberechnet, durch eine XML-Datei importiert oder
dynamisch bei dem Einfügen einer neuen Wall berechnet werden. Benutzt wird diese Liste
bei der Berechnung von frühen Reflexionen, um die Zahl der möglichen Folge-Reflektoren
zu reduziern. Für die Vorberechnung der Sichtbarkeitsliste wird das folgende zweistufige
Auswahlverfahren verwendet.
Filterung der Wände Zwei Wände werden jeweils paarweise behandelt. Abhängig von
ihrer Entfernung, ihrer Fläche und ihrem Winkel zueinander wird ein Schwellwert berechnet, der mit dem Formfaktor der Radiosityberechnung vergleichbar ist. Dieser wird aber
nicht verwendet, um einen Energieaustausch zu approximieren, sondern um heuristisch die
Wände herauszufiltern, die wahrscheinlich keinen gemeinsamen Reflexionsstrahl erzeugen
können. Wandpaare, die zu weit von einander entfernt sind, deren Stellung zu einander
einen zu kleinen Raumwinkel aufweisen oder deren Vorderseiten nicht aufeinander zu zeigen, werden für den nächsten Schritt aussortiert und verworfen.
Gewichtung der Wände Für die restlichen Wandpaare werden alle Eckpunkte und der
Mittelpunkt der einen Wand per Strahlschuss in die Szene mit den Eckpunkten und dem
Mittelpunkt der anderen Wand verbunden und auf Sichtbarkeit getestet (siehe Abb: 4.8).
Überschreitet der Grad der Sichtbarkeit einen Schwellwert, so fügen beide Wände gegenseitig die Wall-ID der anderen Wand in ihre Liste der sichtbaren Wände ein.
Dynamische Berechnung Bei dynamischer Berechnung werden nur solche Paare von
Wänden neu berechnet, deren AABB2 durch die neu eingefügte Wand geschnitten wird.
Ein Beispiel wird in Abbildung 4.9 gezeigt. Weder die von Wall 1 und Wall 2 aufgespannte
AABB, noch die von Wall 2 und Wall 3 aufgespannte AABB wird von der neuen Wall 4
geschnitten. Die Sichtbarkeit dieser Paare wird nicht von Wall 4 beeinflusst. Wall 4 liegt
nur in der AABB von Wall 1 und Wall 3 und somit muß die Sichtbarkeit dieses Paares neu
2 AABB
= Axis Alligned Bounding Box, ein an den Hauptachsen ausgerichteter Begrenzungsquader
72
KAPITEL 4. BERECHNUNGEN DER GEOMETRIE-ENGINE
Abbildung 4.8: Sichtbarkeits-Test zwischen der rechten und linken Wand. Die mittlere
Wand blockiert teilweise die Sichtbarkeit.
berechnet werden. Um die Auswahl der Wand-Paare einzuschränken, kann die maximale
Entfernung zweier Walls verändert werden, die eine AABB aufspannen.
Abbildung 4.9: Wall 4 schneidet nur AABB von Wall 1 und Wall 3.
Zusammenfassung von Kapitel 4
In diesem Kapitel sind die einzelnen Berechnungen der Akustik-Effekte erklärt worden.
Zur Bestimmung der Nachhallzeit war es nötig ein Reverb-Volumen und die äquivalente Absorptionsfläche nach S ABINE zu bestimmen. Die frühen Reflexionen wurden durch
Spiegelung des Sounds einzeln berechnet. Das Konzept der virtuellen Sounds, welche die
Schallausbreitung durch Öffnungen approximieren, wurde hergeleitet und beschrieben. Es
wurden die Herleitung der Parameterwerte des I3DL2 Standards aufgeführt und Verfahren
beschrieben, um den Strahlenschuss und die Reflexionsberechnung zu optimieren.
Kapitel 5
Überprüfung der
Geometrie-Engine
«-Was passiert?
-Ich könnte es Dir beschreiben. Ich könnte Dir aber auch eine Kiste besorgen!»
(Elb zum Zwerg, der nicht über eine Mauer sehen kann. Aus dem Film Der
Herr der Ringe - Die zwei Türme)
Zur Überprüfung wurden Applikationen und Testverfahren entwickelt, die verschiedene
Anforderungen an die Geometrie-Engine stellen. Es wurden Messungen durchgeführt, die
verdeutlichen sollen, welche Berechnungen besonders aufwändig sind und wie das System
unter verschiedenen Voraussetzungen skaliert. In diesem Kapitel werden zuerst die entworfenen Applikationen und ihre Szenen, dann die daraus ermittelten Meßergebnissen und
schließlich die qualitative Überprüfung beschrieben.
5.1
Test-Szenarien
Die getesteten Applikationen bestehen aus unterschiedlichen Szenen-Beschreibungen. Für
die erste Anwendung wurde eine Büroetage mit Räumen und Türen in unterschiedlichen
Ausführungen entworfen. Die zweite Szene stellt eine Wanderung durch eine Höhle dar,
die durch zufällig generierte Breiten und Höhen verschiedene Ausprägungen annimmt.
5.1.1
Büroszene
Für das erste Beispiel Office-1x wurde eine Büroetage mit mehreren Zimmern entworfen.
Zwei darauf aufbauenden Szenen mit doppelter (2x) und vierfacher (4x) Geometrielast
(siehe Tab.: 5.1) wurden durch Spiegelung erstellt. Die dazugehörige Anwendung kann
dynamisch Listener und Sounds hinzufügen oder entfernen. Die Szenenbeschreibungen
lagen als XML-Datei vor, die beim Starten geladen wurde. Die Abbildung 5.1 zeigt die
grafische Ausgabe der Geometrie-Engine für die komplexe Szene Office-4x.
73
74
KAPITEL 5. ÜBERPRÜFUNG DER GEOMETRIE-ENGINE
Tabelle 5.1: GAP-Verteilung der drei Office-Szenen.
Walls
Portals
Obstacles
Rooms
Summe Geom. GAPs
Office-1x
Office-2x
Office-4x
87
12
1
9
109
174
25
2
18
219
348
53
4
36
441
Abbildung 5.1: Office-Szene mit vierfacher Geometrie, 2 Listener und 4 Sounds.
5.1.2
Höhlenwanderung
Die zweite Anwendung Höhlenwanderung ist eine Wanderung durch eine zufällig generierte Höhle (siehe Abb. 5.2 a) ), bei der während der Laufzeit die Geometrie der Szene
verändert wird. Um einen Sound und einen Listener herum wird nur ein Raum aufgebaut
(siehe Abb. 5.2 b) ), indem Wände hinzugefügt und entfernt werden. Die Anzahl und Größe
der Wände ist veränderbar.
(a) Grafische Ansicht
(b) GAP Ansicht
Abbildung 5.2: Höhlenwanderung.
5.2. TECHNISCHE MESSERGEBNISSE
5.2
75
Technische Messergebnisse
Beide Anwendungen wurden mit unterschiedlichen Einstellungen getestet. Über einen
Zeitraum von 60 Sekunden wurde die FPS1 -Angabe gemessen und gemittelt. Während
der Messung war die grafische und akustische Ausgabe ausgeschaltet, um die eigentliche
CPU2 -Last der Akustikberechnungen zu erfassen.
5.2.1
Büroszene
In der Büroszene wurden die aufwändigsten Benchmarks3 durchgeführt. Bei den Tests wurde für jeden Frame4 die Audioberechnungen durchgeführt. Wie in Kapitel 2.1.4 beschrieben, ist diese hohe Aktualisierungsrate nicht nötig, für die Testergebnisse aber aussagekräftiger. Die drei Szenen wurden mit unterschiedlicher Anzahl von Listener, Sounds und
Geometrie angezeigt und die FPS-Angabe ermittelt. Sounds und Listener haben sich auf
zufälligen Bahnen innerhalb der Szene bewegt.
Jeder Sound hat 32 Strahlen in die Szene geschossen, um sein Reverb-Volumen zu berechnen. Frühe Reflexionen für jeden Listener wurden bis zur dritten Ordnung berechnet.
Der Aufbau der Liste der sich gegenseitig sichtbaren Wände wurde nicht explizit gemessen,
da bei statischer Szenenbeschreibung dies vorberechnet werden kann und keinen Einfluss
auf den Ablauf der Anwendung hat. In der Abbildung 5.3 a) erkennt man die bei wachsender Anzahl von Sounds die Last von zusätzlichen Listenern in der Szene Office-1x. Auf
der Y-Achsen ist als Index das Produkt aus FPS-Anzahl, der Listener-Anzahl und der Anzahl der Sounds abgetragen. Der Aufwand der Listener skaliert linear, da die Messlinie
von einem Listener fast mit der von zwei Listener übereinander liegt. Ein zweiter Listener
generiert die doppelte Last. Die Last der Sounds skaliert linear, was man an den nahezu
horizontal verlaufenden Messlinien erkennt.
Die Abbildungen 5.3 b) und c) zeigt mit wachsender Anzahl von Sounds die Last von
zusätzlicher Geometrie der drei Büroszenen. Auf der Y-Achse ist als Index das Produkt aus
FPS-Größe, die Anzahl der Geometrie-GAPs und die Anzahl der Sounds abgetragen. Die
Messungen wurden ohne a) und mit einem Listener b) durchgeführt. Der lineare Mehraufwand bei steigender Sound Anzahl resultiert in fast horizontalen Messlinien. In a) steigt
die Messline der Szene Office-4x sogar leicht an, was eine bessere Performance relativ zur
Anzahl der Sound bedeutet. Bemerkenswert ist auch die relativ bessere Performance zur
steigenden Geometrie-Komplexität, was an dem ähnlich großen Abstand der Messlinien
der drei Szene erkennbar ist, trotz Vervierfachung der Geometrie. Dies ist auf die Optimierung des Strahlschusses mit der Roomselection aus Kapitel 4.6.1 zurückzuführen.
5.2.2
Höhlenwanderung
In der Anwendung Höhlenwanderung wird der Aufwand bei dynamischer Szenenbeschreibung gemessen. Es wurde der Rechenaufwand verglichen zwischen dem Sichtbarkeits1 FPS
= Frames per Second
Central Processing Unit, engl. für Hauptprozessor
3 Testverfahren zur Bestimmung zeit- und performanzbezogener Eigenschaften von Programmen.
4 engl. Einzelbild
2 CPU:
76
KAPITEL 5. ÜBERPRÜFUNG DER GEOMETRIE-ENGINE
1.200
FPS · Sounds · Listener
1.000
800
600
400
0 Listener
200
1 Listener
2 Listener
0
0
1
2
3
4
5
Anzahl Sounds
(a) Messung mit unterschiedlich vielen Listener
250000
FPS · Sounds · GAPs
200000
150000
100000
50000
Office-1x
Office-2x
Office-4x
0
1
2
3
4
5
Anzahl Sounds
(b) Messung mit unterschiedlich viel Geometrie (ohne Listener)
70.000
60.000
FPS · Sounds · GAPs
50.000
40.000
30.000
20.000
Office-1x
10.000
Office-2x
Office-4x
0
1
2
3
4
5
Anzahl Sounds
(c) Messung mit unterschiedlich viel Geometrie (mit einem Listener)
Abbildung 5.3: Messergebnisse der Office-Szene.
77
5.3. QUALITÄTSÜBERPRÜFUNG
test bei dynamisch eingefügten Wänden und dem wiederholten globalen Berechnen aller
Wände (siehe Abb. 5.4). Obwohl die Anwendung normalerweise einen Listener und einen
Sound beinhaltet, wurden diese für die Messungen entfernt. Dadurch ist dieser Test aussagekräftiger bezüglich des Aufwands der Sichtbarkeitstests, da die Berechnung des ReverbVolumens und der frühen Reflexionen eine statische Last für beide Szenarios bedeuten
hätten. Die Laufgeschwindigkeit durch die Höhle wurde deutlich erhöht, um möglichst oft
eine Veränderung der Szenebeschreibung zu provozieren.
2500
FPS · Walls
2000
1500
1000
500
dynamisch optimiert
statisch global
0
16
24
32
40
48
Anzahl Walls
Abbildung 5.4: Messung mit dynamischer und globaler Sichtbarkeitsbrechnung.
Beide Messlinien starten in einem gemeinsamen Punkt, was mit der groben Einteilung
der Bounding-Boxen erklärt werden kann. Erst bei Wänden mit kleineren Flächen greift
die Optimierung aus Kapitel 4.6.2. Die Messlinien zeigen deutliche Veränderungen in der
Performance. Während das globale Verfahren bei zunehmender Anzahl der Walls stark
einbricht, profitiert das dynamische Verfahren relativ zur Anzahl der Wände bis 32. Dann
fällt die Leistung ab, aber langsamer als beim globalen Verfahren, was am relativen Abstand
der beiden Messlinien erkennbar ist. Erklärbar ist dies durch den quadratischen Zuwachs
der Tests auf Schnitt der Bounding-Boxen.
5.3
Qualitätsüberprüfung
Im Rahmen dieser Diplomarbeit wurde auf aufwändige Hörtests zur Überprüfung subjektiver Hörerlebnisse verzichtet. Dies ist zu rechtfertigen, da in den Sound-APIs solche Messungen massiv eingeflossen sind. So wurden bei Qsound mehr als 550.000 Test [Mut02]
durchgeführt, bis man sich für die Einstellungen geeinigt hatte. Verschiedene Sound-APIs
erzeugen abhängig von der Soundkarte und dem verwendeten Soundtreiber deutlich unterschiedliche Darstellungen [3DSS1, 3DSS2]. Trotzdem kann angenommen werden, dass
z.B. das Einstellen der Nachhallzeit auf 5 Sekunden jeweils in einer Verhallung von 5 Sekunden resultiert.
Hörtests durchzuführen ist aufwändig [Bla97, Groe02] und müsste für verschiede
Sound-APIs erfolgen. Die subjektive Überprüfung, ob diese Verhallung glaubwürdig
klingt, ist durch die Hörtests der Hersteller von Sound-APIs bereits erfolgt und
78
KAPITEL 5. ÜBERPRÜFUNG DER GEOMETRIE-ENGINE
wäre somit redundant. Für die subjektive Evaluation von künstlicher Verhallung in
interaktiven Anwendungen gibt es noch keine befriedigende Testverfahren [FJT02].
Auch andere Ansätze, die neue Wege der interaktiven Verhallung erforschen, wie der
Beam-Tracing-Ansatz oder die Audio-Lösung in blue-c, haben keine Hörtests in diesem
Bereich in ihren Veröffentlichungen [NSG02, TFNC01, FTC02, FTC03, TGD03]
angeführt.
Zusammenfassung von Kapitel 5
In diesem Kapitel wurde die Funktionsfähigkeit der Geometrie-Engine anhand praktischer
Tests verifiziert. Dazu wurden Büro-Szenen und eine Höhle entworfen und Messungen darin durchgeführt. Anhand der Büro-Szenen konnte die Skalierung des Systems bei wachsender Anzahl von Sounds, GAPs und Listener verdeutlicht werden. Durch die HöhlenAnwendung konnte nachgewiesen werden, dass dynamische Geometrie in Echtzeit behandelt werden kann und zu einer sinnvollen Verhallung führt. Es wurde erklärt, warum ein
subjektives Testverfahren zur auralen Überprüfung nicht nötig ist.
Kapitel 6
Diskussion und Ausblick
«Schwer zu sehen, in ständiger Bewegung die Zukunft ist.»
(Aus dem Film Star Wars - Episode V - Das Imperium schlägt zurück)
In dieser Arbeit wird eine Geometrie-Engine vorgestellt, die anhand von Informationen
aus einer dynamischen Szenenbeschreibungen Werte für die Parameter des aktuellen aber
komplexen Sound-Standards I3DL2 abstrahiert. Dazu werden acht Geometrie-AkustikPrimitive definiert, mit denen eine Akustik-Szene geometrisch, akustisch und logisch beschrieben werden kann. Durch die Verwendung allgemeinsprachlicher Begriffe und verständlichen Parameter lassen sich diese GAPs leicht kombinieren, um beliebige AkustikSzenen zu repräsentieren. Diese Szenenbeschreibung kann in einer XML-Datei gespeichert
werden.
Es geht in dieser Arbeit primär um die Überprüfung der Berechnung von Parameterwerten, da Sound-APIs eine verlässige Lösung für interaktive Akustik-Effekte anbieten,
obwohl die daraus resultierende Darstellungen mitunter voneinander abweichen. Bei interaktiven Anwendungen werden diese Werte vom Sound-Designer mehr oder weniger willkürlich für ein Environment statisch gewählt. Die Akustiksimulatoren führen andere, sehr
aufwändige Berechnungen durch, die mit Messdaten numerisch verglichen werden können. Die Herleitung der Berechnung der Parameterwerte durch die Geometrie-Engine, wie
die Nachhallzeit eines Sounds, basiert auf Verfahren der Akustik, die numerisch überprüft
werden können.
Die Geometrie-Engine berechnet verschiedene, komplexe Akustik-Effekte und approximiert diese innovativ, wie etwa die Platzierung von virtuellen Sounds in der Flucht von
Portalen. Eine hohe Fehlertoleranz wird berücksichtigt, damit das System auch bei dynamischer und fehlerhafter Verwendung zu Forschungszwecken stabil lauffähig bleibt. Die
Qualität dieser Parameterwerte ist abhängig von der Genauigkeit der Szenenbeschreibung
und der eingestellten Genauigkeit der Berechnungen. Es kann gezeigt werden, dass aus der
Kombination von acht GAPs einer Szenenbeschreibung die Werte der Sound-Parameter
abgeleitet werden können.
79
80
KAPITEL 6. DISKUSSION UND AUSBLICK
Das Geometrie-Akustik-Interface, das den Zugriff auf die Geometrie-Engine kontrolliert, beschränkt auf sinnvolle Weise die Freiheitsgrade der Geometrie-Engine und vereinfacht die Nutzung. Mit dem GAI können die GAPs und somit die Szene während der Laufzeit verändert werden, dynamische Geometrie wird dabei berücksichtigt. Das GAI bietet
auch die Kontrolle über Berechnungsparameter, die den Aufwand und die Qualität beeinflussen.
Die Verwendung des Sound-Kontextes mit der modularen Anbindung von Sound-APIs
bietet dem System Raum für weitere Forschung und eröffnet durch die Abkapslung von der
Geometrie-Engine die Nutzung in verteilen Systemen.
Statt einer Szenenbeschreibung aus Environments mit festen I3DL2 Parameterwerten
werden die geometrischen, akustischen und logischen Informationen in einer Szenenbeschreibung durch abstrakte GAPs gespeichert. Dadurch ist die Szenenbeschreibung getrennt von aktuellen Implementierungen heutiger Sound-Standards im interaktiven Bereich
wie I3DL2. So bietet beispielsweise die Verwendung einer Material-Datenbank mit knapp
500 Datensätzen und achtfach gemessener Absorptionsgrade langfristige Szenenbeschreibungen und kurze Entwicklungszeiten zur Unterstützung zukünftiger Sound-APIs.
Die vorbereitete Trennung von Geometrie-Engine und Sound-Kontext könnte in Zukunft über eine Netzwerkverbindung durchgeführt werden. Damit wäre das System skalierbar und die Rechenlast würde auf einem System zentriert werden, während dedizierte
Sound-Server nur ihre jeweiligen Werte abrufen und dann darstellen. Somit könnte die
Darstellung auch auf leistungsschwächeren Systemen erfolgen, was die Verwendung von
multi-Listener in VR-Umgebungen deutlich begünstigt. Durch die Modularität des SoundKontextes sind auch weitere Anbindungen von Sound-APIs oder die Entwicklung eigener
Sound-Engines möglich.
Der Ansatz acht GAPs als Grundkonstrukte einer semantischen Szenenbeschreibung zu
verwenden, hat gute Erfolge gezeigt. Statt aus einer Triangle-Soup1 Informationen zu extrahieren, agieren die GAPs und verwendeten Klassen durch ihre Eigenschaften in der Art
und Weise miteinander, dass sie akustisch relevante Berechnungen ermöglichen. Die vereinfachte Repräsentation einer Akustik-Szenen durch eine Szenenbeschreibung mit akustischen Attributen eignet sich für die Ableitung der Sound-Parameter des I3DL2 Standards.
Doch ist das System als Ganzes so konzipiert, beliebige akustische Anfragen zu ermöglichen und verschiedene Implementierungen einzubauen und miteinander zu vergleichen.
Während die Spezifikation der definierten GAPs ausreichend erscheint, könnten sie in
Zukunft individuell erweitert werden. So wäre eine Spezialisierung der Portale denkbar, mit
weiteren Parameter wie Öffnungsart (seitlich schwingend, aufschiebend, sphärisch) und der
Angabe der Aufhängungspunkte. Auch die Geometrie-Informationen könnten um abstrakte
Begrifflichkeiten erweitert werden. Statt ein Fass mit vielen Flächen beschreiben zu wollen,
könnten geometrische Grundobjekte definiert werden, wie Kugel, Zylinder, Kegel oder
Bogen. Dadurch würde eine distanzabhängige Berechnung von Reflexionen ermöglicht.
1 Triangle-Soup: engl. Dreiecks-Suppe, beschreibt eine ungeordnete Menge an Dreiecken ohne Zusammenhangsinformation, die ein Modell oder eine Szene darstellen.
81
Natürlich lässt eine solche Arbeit viel Raum für weitere Optimierung und zukünftige
Forschung. Auf Grund bisher fehlender Datenbestände können zur Zeit z.B. der Streuungsgrad oder die winkelabhängige Absorption nicht berücksichtigt werden. Auch die Beugung
an verschieden großen Reflektoren ist vereinfacht worden. Ebenfalls sind konzeptionelle
Optimierungen möglich. Da das Gehör eine begrenzte räumliche Auflösung besitzt, wäre
eine interne Aufteilung des Raumes in ein diskretes Gitter mit Audio-Voxel2 möglich, für
die Werte vorberechnet werden können. Dieser Ansatz zur Verbesserung der Vorausberechnung kann unter verschiedenen Annahmen betrachtet werden.
• Hörer-unabhängige Berechnungen (z.B. Nachhallzeit)
– Statische Geometrie
Für jeden Audio-Voxel könnten wichtige Werte, wie die Nachhallzeit vorberechnet werden.
– Dynamische Geometrie
Eine Vorberechnung wäre möglich, doch bei einer Veränderung der Szene
müsste überprüft werden, ob sich ein Voxel verändert hat, dann müssten Werte
entsprechend nachberechnet werden. Insgesamt könnte diese Lösung von redundanten Sound-Positionen profitieren.
• Hörer-abhängige Berechnungen (z.B. frühe Reflexionen)
– Statische Geometrie
Theoretisch wäre eine Vorberechnung aller frühen Reflexionen möglich. Da
aber ein paarweiser Abgleich jedes Audio-Voxels mit allen anderen quadratisch
und eine Verfeinerung des Raumes kubisch wächst, liegt die Aufwandsabschätzung dieses Problems bei O(n6 ). Nur eine sinnvolle Begrenzung potentieller
Audio-Voxel würde diesen Ansatz möglich machen.
– Dynamische Geometrie
Auch hier wäre eine Vorberechnung möglich, die aktualisiert werden müsste,
wenn die Szene sich verändert. Insgesamt könnte diese Lösung von redundanten Listener-Positionen profitieren.
Interne Vektorberechnungen können durch die Verwendung spezieller Befehlssätze des
Hauptprozessors beschleunigt werden [SSE]. Die Verlagerung von Berechnungen auf die
GPU einer Grafikkarte ist auch denkbar.
Irgendwann in der Zukunft wird man entsprechend leistungsfähige Systeme besitzen,
die die Qualität der Akustiksimulatoren in Echtzeit erreichen. Bis dahin sollte ein möglicher Weg zur Berechnung komplexer Akustik-Effekte auf einer dynamischen Szenenbeschreibung entwickelt werden. Daher sind sinnvolle Approximationen und effektive Darstellungsformen nötig. Die definierten GAPs, das GAI, die Geometrie-Engine kombiniert
mit der Darstellung durch leistungsfähige Sound-APIs bieten eine Lösung in diesem Bereich an.
2 Voxel: engl. aus Volume und Pixel, bezeichnet eine quaderförmige Zelle innerhalb eines regelmäßig aufgeteilten Quaders oder unbegrenzten Raumes.
82
KAPITEL 6. DISKUSSION UND AUSBLICK
Der hier dargestellten Ansatz kann in einer grafisch rechenintensiven Applikation wie
einem Computerspiel genutzt werden, wenn einige Vereinfachungen durchgeführt werden.
So kann für aktuelle Sound-API die Anzahl der berücksichtigten Absorptionsgrade reduziert, Redundanz in der Berechnung der Strahlschüsse berücksichtigt und die Fehlertoleranz des Systems zurückgefahren werden, um eine Leistungssteigerung zu bewirken.
Der folgende Anhang vertieft und erklärt den Inhalt auf den Gebieten der Akustik,
der Psycho-Akustik und Digital Audio. Als Teil der Aufgabenstellung verschafft diese
Arbeit einem Neueinsteiger schnell einen Überblick in dieses Gebiet und bietet zahlreiche
Quellennachweise und zusätzliche Hinweise.
Anhang A
Analoge Schallwelt
«Die Echos wurden zwar leiser, weigerten sich jedoch hartnäckig, ganz zu
verklingen. Sie tanzten hin und her und prallten fröhlich von den Wänden ab.»
(Aus dem Buch Die Farben der Magie von Terry Pratchett)
Das Geräusch bei der Geburt unseres Universum [Cra03] hat wohl niemand gehört. Und
auch die Schallwellen von Blitz und Donner waren offensichtlich eher auf dieser Welt als
Wesen, die diese wahrnehmen konnten. Schall ist nach dem DIN [DIN] Standard 1320 definiert als die Schallereignisse, die wir Menschen wahrnehmen können, doch treten Schallwellen auch ohne unsere Anwesenheit und ausserhalb unseres Hörspektrums auf. Folgende
Abschnitte sollen dem Leser mit den physikalischen Grundlagen der Schallerzeugung und
der Ausbreitung vertraut machen. Falls nicht zusätzliche Quellen explizit erwähnt sind,
gelten für den Anhang A [Veit96, FV98, Wiki].
A.1
Schall-Erzeugung
Da Schall eine Materialwelle ist, benötigt er zur Ausbreitung ein Medium. Im Gegensatz
zu Licht ist Schall im Vakuum nicht existent. Damit ein Geräusch entsteht und sich ausbreitet, sind eine Schallquelle und ein Medium nötig. Als Schallquelle bezeichnet man einen
schwingenden Körper, der mit einem elastischen Medium verbunden ist, das die Schwingung aufnimmt und transportiert. Das kann ein Gas, eine Flüssigkeit oder ein Festkörper
sein. Die Teilchen, die das Medium bilden, werden in Schwingung versetzt und geben sie
an ihre benachbarten Teilchen weiter. Dadurch kommt es zu Dichteänderungen, die sich
bewegen. Auf diese Weise spricht man davon, dass sich der Schall in einem Schallfeld
ausbreitet oder fortpflanzt. Ein anschauliches Beispiel ist ein Stein, der in einen See geworfen wird und dort Wellen verursacht. Genau wie im See die Wasserteilen sich zwar
heben und senken, sich aber nicht mit der Welle bewegen, bleiben die Teilchen im elastischen Medium am Ort und schwingen nur auf kleinstem Raum. Eine Schallwelle ist also
die sich fortpflanzende Druckveränderung. Nicht die schwingenden Teilchen, sondern die
Schallwellen breiten sich in einem Medium mit einer gewissen Schallgeschwindigkeit aus.
Die physikalische Definition von Schall ist daher die räumliche und zeitliche wellenartige
83
84
ANHANG A. ANALOGE SCHALLWELT
Schwankung der Druckverhältnisse im elastischen Medium. Im Folgenden werden Begriffe
erklärt, die für das weitere Verständnis der Schall-Erzeugung wichtig sind.
A.1.1
Schwingungen
Die Auslenkung der Schwingung im Medium wird Amplitude genannt. Ein reiner Ton besteht aus einer Sinusschwingung mit fester Periodendauer T, die in Sekunden angegeben
wird. Solche reinen Töne kommen in der Natur allerdings nicht vor. Die Frequenz f ist
der reziproke Wert von T und wird in Hertz1 angegeben. Den Abstand benachbarter gleicher Schwingungszustände bezeichnet man als Wellenlänge λ. Liegen nach der HarmonieLehre mehrere Töne übereinander, entsteht ein Klang. Ist die Verteilung von Frequenzhöhe
und Amplitudenstärke rein zufällig, entsteht weißes Rauschen. Im Gegensatz zu einzelnen
Punkten im Frequenzspektrum bei Tönen und Klängen zeigen Geräusche ein kontinuierliches Frequenzspektrum.
(a) Wellenform-Darstellung
(b) Spektralform-Darstellung
Abbildung A.1: Audiodaten (weisses Rauschen und fünf Töne) in verschiedenen Darstellungen.
Die Abbildung A.1.1 zeigt exemplarisch eine halbe Sekunde weißes Rauschen gefolgt von fünf reinen Tönen bei 440 Hz, 880 Hz, 1760 Hz, 3520 Hz und 7040 Hz. Bei
der Wellenform-Darstellung a) sieht man den Amplitudenausschlag und bei der SpektralDarstellung b) erkennt man deutlich die unterschiedliche Frequenzverteilung. Das Frequenzspektrum ist nach oben hin offen und ist willkürlich in vier Bereiche unterteilt (siehe
Abb. A.2). Im Bereich von 16 Hz bis 20.000 Hz spricht man von Schall. Darunter liegt der
Infraschall, darüber beginnt der Ultraschall. Frequenzen größer 1 GHz nennt man Hyperschall.
Abbildung A.2: Das nach oben offene Frequenzspektrum.
1 Nach
Heinrich Rudolf H ERTZ (Kurzzeichen Hz): 1 Hz = 1/sec
A.1. SCHALL-ERZEUGUNG
A.1.2
85
Schallgeschwindigkeit
Die Geschwindigkeit, mit der sich eine Schallwelle ausbreitet, wird als Schallgeschwindigkeit c (in m/s) bezeichnet. Die Schallgeschwindigkeit kann als das Produkt von Frequenz f und Wellenlänge λ beschreiben werden: c = f ·λ. Der Aggregatzustände beeinflußt
die Schallgeschwindigkeit eines Mediums. In Luft ist die Schallgeschwindigkeit abhängig von Temperatur, Luftfeuchtigkeit, Luftdruck und Kohlendioxidgehalt. Während jedoch
die Größen Luftfeuchtigkeit, Luftdruck und Gasverhältnis zu vernachlässigen sind, hat die
Temperatur einen entscheidenden Einfluß. Annäherungsweise kann man für Luft annehmen:
q
◦
c = 331, 4 ϑ+273
273 m/s, ϑ = Temperatur in C (einheitenlos).
Üblicherweise wird für Luft mit einer Temperatur von 15◦ C mit c = 340m/s gerechnet.
In Flüssigkeiten und Festkörpern gelten für die Schallgeschwindigkeit anderen Herleitungen, die in der referenzierten Fachliteratur nachgeschlagen werden kann. In Tabelle A.1
sind einige Medien und ihre Schallgeschwindigkeiten aufgeführt.
A.1.3
Schalldruck
Der Schalldruck p ist die wichtigste lineare Schallfeldgröße2 . Wie oben erwähnt, kommt
es zu lokalen Druckverhältnisse in einem Medium, wenn es einen Schall transportiert. Zur
Beschreibung dieser Schallwelle kann der Verlauf des Drucks an einem bestimmten Ort
benutzt werden. Druck ist die Kraft F, die auf eine Fläche A ausgeübt wird. Kraft wird in
Newton gemessen: 1 N ist die Kraft, die man braucht um 1 kg um 1 m/s2 zu beschleunigen
(die Gravitationskraft der Erde beschleunigt 1kg um 9.81 m/s2 ).
Die allgemeine Einheit des Drucks ist die Kraft pro Fläche, sie wird mit Pascal bezeichnet. 1 Pa = 1 N/m2 = 1 kg/ms2 . Der annähernd statische atmosphärische Luftdruck
liegt etwa bei 101.325 Pa. In der Akustik wird der Schalldruck in Mikropascal (µPa) gemessen und ist als die Druckschwankung eines Schallsignals definiert, die den Luftdrucks
überlagert.
p=
F
A
Zu erwähnen ist, dass eine Angabe des Schalldrucks wertlos ist, ohne eine Angabe des
Messabstand, da die Amplitude des Schalldrucks bei Kugelstrahlern mit 1/r der Entfernung
abnimmt.
A.1.4
Schallschnelle
Unter der Schallschnelle v (in m/s) versteht man die Wechselgeschwindigkeit, mit der die
Teilchen im Medium um ihren Ruhepunkt [Veit96] schwingen. Die Schallschnelle darf
nicht mit der Schallgeschwindigkeit verwechselt werden.
2 Mit
Schallfeldgröße werden in der Akustik lineare Größen zur Beschreibung eines Schallfelds bezeichnet.
Dazu gehören Schalldruck, Schalldruckpegel, Schallschnelle, Schallschnellepegel, Schallauslenkung, Schnellepotential, Schallfluss, Hörfläche.
86
ANHANG A. ANALOGE SCHALLWELT
A.1.5
Schallintensität
Die Schallintensität I (in mancher Literatur auch J) ist eine Schallenergiegröße3 und entspricht dem Produkt aus dem Schalldruck p und der Schallschnelle v und wird in W/m2 =
N/ms = kg/s3 angegeben.
I = p·v
Die Amplitude der Schallintensität nimmt im Freifeld mit 1/r2 der Entfernung bei einem
Kugelstrahler ab.
A.1.6
Schallkennimpedanz
Das Produkt aus Materialdichte ρ und Schallgeschwindigkeit c wird Schallkennimpedanz
oder Schallimpedanz Z0 genannt. Auch das Verhältnis von Schalldruck p und Schallschnelle v beschreibt Z0 .
Z0 = ρ · c =
p
v
= Ns/m3 .
Die Schallkennimpedanz kann unter anderm zur Berechnung des Schallreflexionsfaktors (siehe A.2.2) genutzt werden. In Tabelle A.1 erkennt man die Abhängigkeit der Schallkennimpedanz von den Größen Dichte und Schallgeschwindigkeit.
Tabelle A.1: Eigenschaften exemplarische Medien.
Medium
Schallge- schwindigkeit (m/s)
Dichte (kg/m3 )
Schallkennimpedanz (Ns/m3 )
Luft (trocken) +20◦ C
Luft (trocken) -20◦ C
Wasserstoff 0◦ C
Helium
Wasserdampf 130◦ C
Wasser 20 ◦ C
Knochen (kompakt)
Holz
Beton
Eis
Glas
Stahl
344
319
1260
981
450
1.483
3.600
4.500
4.000
3.200
5.300
5.050
1,21
1,396
0,090
0,1785
0,54
998,2
1.700
600
2.100
920
2.500
7.700
416,24
445,32
113,40
175,11
243,00
1.480.330
6.120.000
2.700.000
8.400.000
2.944.000
13.250.000
38.885.000
A.1.7
Die Einheit Bel
Bel (B) beschreibt eine Verhältniszahl zur Angabe von Leistungspegeln zum Logarithmus
der Basis 10. In der Physik wird Pegel als das Verhältnis von Leistungen betrachtet. Ein
Bel definiert also
das Leistungsverhältnis 10:1.
B= log10
I1
I2
, wobei I1 and I 2 quadratische Energiegrößen sind.
3 Die Schallenergiegröße ist in der Akustik eine physikalische quadratische Größe zur Kennzeichnung der in ei-
nem Schallfeld vorhandenen Schallenergie. Dazu gehören Schallintensität, Schallintensitätspegel, Schallleistung,
Schallleistungspegel, Schallenergiedichte, Schalldichte.
87
A.1. SCHALL-ERZEUGUNG
Als Untereinheit wurde das Dezibel (dB) als zehnten Teil eines Bels eingeführt. 1 dB
entspricht dem Leistungsverhältnis
von ca. 1,259:1.
I1
, wobei I1 and I 2 quadratische Energiegrößen sind.
I2 dB= 20 log10 pp21 , wobei p1 and p2 lineare Feldgrößen sind.
dB= 10 log10
Bel, als uneigentliche Einheit, ist dimensionslos und nicht im SI4 -Einheitssystem vertreten. Benannt nach dem Physiker Alexander Graham B ELL wird sie vor allem in der
Akustik, aber auch in vielen anderen Bereichen angewendet, bei denen mit Leistungspegeln gerechnet wird. Das Rechnen mit Leistungspegeln ist gewöhnungsbedürftig. Die Verdopplung der Leistung entspricht der Addition des Pegels etwa um den Wert drei.
Es gilt:
xdB + xdB = 10 log10
10 log10 2 = xdB + 3, 01
p1
p2
2
+ 10 log10
p1
p2
2
= 10 log10 2
p1
p2
2
= 10 log10
p1
p2
2
+
Beispiel: 20 dB + 20 dB ≈ 23 dB
In den Sound-APIs wird die Abschwächung eines Signals in mB angegeben, was
entspricht.
A.1.8
1
100 dB
Schalldruckpegel
Da die Größenunterschiede gängiger Schalldrücke mehrere Größenordnungen umfasst,
werden üblicherweise Schallereignisse logarithmisch als Pegel dargestellt. Der Schalldruckpegel L p ist das logarithmische Maß für das Verhältnis zwischen dem gemessenen
Schalldruck p und einem Bezugsschalldrucks p0 . Aufgrund der verallgemeinerten Empfindlichkeit des menschlichen Ohres wurde der Bezugsschalldruck willkürlich auf 20 µPa
festgelegt (siehe Anhang B.2). Dieser Schalldruck entspricht einem Schalldruckpegel von
0 dB. Es gilt: L p = 20 log
p
p0
in dB
Der maximale Schalldruckpegel würde durch eine maximale Schwankung des Schalldrucks entstehen. Da der Luftdruck bei etwa 100.000 Pa liegt, und der Schalldruck diesen
auf ein Vakuum reduzieren, und zum zweifachen Luftdruck verdoppeln könnte, ergäbe dies
etwa einen maximalen Schalldruckpegel von 190 dB. Beim Explosionsknall kommt es zu
einem Sonderfall.
In der Tabelle A.2 finden sich einige praktischen Beispiele für Schalldruckpegel im
Alltag:
Tabelle A.2: Richtwerte für Schallpegel verschiedener Geräusche.
Verkehrslärm an lauter Strasse
Sehr laute Sprache
Normale Sprache
Ruhiger Raum tagsüber
Ruhiger Raum nachts
4 frz.:
70-80 dB
70 dB
60 dB
30-35 dB
15-25 dB
Système International d’Unités, Internationales Einheitensystem
88
ANHANG A. ANALOGE SCHALLWELT
A.2
Physikalisches Phänome der Schall-Ausbreitung
Schallwellen breiten sich im Medium aus und sie erfahren mit zurückgelegter Strecke
eine Abschwächung, oder sie treffen auf Hindernisse. Es können mehrere verschiedene
physikalische Phänomene und daraus resultierende Akustik-Effekte auftreten:
A.2.1
Schallinterferenzen
Schallwellen können sich örtlich überlagern und auslöschen (siehe Abb. A.3), da sich die
Druckverhältnisse im Medium akkumulieren oder abschwächen. Diese gegenseitigen Beeinflussungen der Schallwellen nennt man Schallinterferenzen [Krum]. In einem Raum
können durch regelmäßige Reflexionen (s.u.) so genannten stehenden Schallwellen entstehen. Interferenzen treten auch bei den Schallfeldern von Lautsprechern auf.
Ein Nutzen von Interferenzen wird sich durch Anti-Schall erhofft. Das schon 1933 von
Paul L UEG angemeldete Patent beschreibt ein Verfahren, um Lärm gezielt auszulöschen. In
diesem Bereich wird aktiv geforscht z.B. an der Bergischen Universität Wuppertal [DASP]
oder von der Firma Sennheiser [Senn1]. Erste Produkte sind Computer-Lüfter oder ein
Kopfhörer zur Lärmminderung [Senn2].
Abbildung A.3: Mathematische Interferenzen: Zwei Schwingungen (rot/grün) resultieren
in der schwarzen Schwingung.6
A.2.2
Reflexion
Eine schallharte7 Fläche kann als Reflektor fungieren, wenn sie etwa 5-mal größer ist, als
die Wellenlänge einer planaren, aufprallenden Schallwelle. In diesem Zusammenhang ist
das Bild der Schallstrahlen hilfreich, die wie Lichtstrahlen an einer Fläche reflektiert werden (siehe Abb. A.4 a) ). Nach dem Reflexionsgesetz entspricht der Einfallswinkel dem
Ausfallswinkel und Einfallsstrahl und Ausfallstrahl liegen in einer Ebene. Ist die ankommende Schallwelle gebeugt, wie in b), kann man die Reflexion an einer Fläche auch als
neue, halbkugelförmige Schallquelle verstehen.
6 Bildquelle:
7 Schallhart
http://www.livinggraphs.com/enu/products/mw/images/mwwimage.jpg
beschreibt den Übergang von einem sehr dünnen Medium in ein sehr dichtes Medium.
A.2. PHYSIKALISCHES PHÄNOME DER SCHALL-AUSBREITUNG
(a) Reflexion von planaren Schallwellen
89
(b) Reflexion von gebeugten Schallwellen
Abbildung A.4: Reflexionen an planaren Flächen.
Der frequenzabhängige Schallreflexionsfaktor r beschreibt das Verhältnis des Schalldrucks pr der reflektierten Schallwelle und dem Schalldruck pe der einfallenden Schallwelle. Der Schallreflexionsfaktor kann auch als Verhältnis der Differenz und der Summe der
Schallkennimpedanzen Z0 der verschiedenen Medien ausgedrückt werden.
r=
pr
Z02 − Z01
=
pe
Z02 + Z01
Der Schallreflexionsgrad ϕ beschreibt das Verhältnis der Schallintensität der reflektierten Schallwelle Ir und der Schallintensität der einfallenden Schallwelle Ie oder als Quadrat des Reflexionsfaktors r.
ϕ=
Ir
= r2
Ie
2
= 0, 9998
So ist beispielsweise ϕ von Glas aus Luft kommend ca. ϕ = 13.250.000−416
13.250.000+416
2 = 0, 6384 (Vergleiche Tabelle
und aus Wasser kommend ca. ϕ = 13.250.000−1.480.330
13.250.000+1.480.330
A.1).
Die Reflexionseigenschaften hängen auch vom Einfallswinkel ab und am besten wird
der Schall gespiegelt, wenn er senkrecht auf die Fläche trifft.
Die Abbildung A.5 verdeutlicht die frequenzabhängige Reflexionseigenschaften an Flächen mit Strukturen. Besitzt die Oberfläche Strukturen, die etwa 5-mal größer sind als die
Wellenlänge λ, so wird die Schallwelle spekulär reflektiert (a). Sind die Wellenlänge und
die Größe der Strukturen etwa gleich groß, so ist die Reflexion diffus (b). Ist die Wellenlänge dagegen etwa 5-mal so groß wie die Strukturen so findet eine spekuläre Reflexion an
der gedachten Rückseite der Wand statt (c).
(a) Reflexion mit relativ kleiner (b) Reflexion mit ähnlich großer (c) Reflexion mit relativ großer
Wellenlänge
Wellenlänge
Wellenlänge
Abbildung A.5: Reflexion an Strukturen mit unterschiedlichen Wellenlängen λ.
90
ANHANG A. ANALOGE SCHALLWELT
A.2.3
Schallabsorption
Trifft eine Schallwelle auf eine Fläche, so wird nur ein Teil reflektiert. Ein gewisser Teil der
Leistung tritt in das andere Medium ein, wobei man von Schallabsorption spricht. Diese
Leistung wird dem Schallfeld vor der Fläche entzogen. Dabei ist der Schallabsorptionsgrad
α abhängig von der Frequenz des Schallsignals. Da sich Reflexion und Absorption ergänzen gilt α + ϕ = 1. Die absorbierte Leistung erfährt Dissipation und Transmisson. Für den
Schalldissipationgrad δ und den Schalltransmissionsgrad τ auf. Es gilt α = δ + τ.
Abbildung A.6: Leistungsverteilung beim Eindringen in ein zweites Medium.
A.2.3.1
Dissipation
Dissipation beschreibt den Vorgang der Energieumwandlung in Reibungswärme und der
damit ansteigenden Entropie. In der Akustik wird also Schallenergie durch die Schwingung
der Moleküle des Mediums in Wärme umgewandelt.
A.2.3.2
Transmission
Transmission ist die Durchwanderung von Schallwellen durch ein Medium oder das Durchdringen eines Hindernisses. Besonders in der Bauakustik wird die Transmission behandelt,
da sich der Schall auch innerhalb von Rohren oder Wänden auf Haupt- und Flankenwegen
fortpflanzt.
A.2.4
Beugung
Licht wirft hinter einem Hindernis einen Schatten, da die Wellenlänge des Lichts in der
Regel sehr viel kleiner ist als die Ausmaße des Hindernisses. Die Beugung des Lichts spielt
im Alltag keine Rolle. Dagegen ist Beugung des Schalls ein bekanntes Phänomen, da die
Wellenlängen um einige Dimensionen größer sind.
Bei der Schallausbreitung vor einer Wand kann eine Schattenwirkung auftreten, doch
beeinflusst die Größe des Hindernisses die Ausprägung sehr stark. Dies gilt gleichermaßen
bei der Schallausbreitung durch eine Öffnung oder Blende (siehe Abb. A.7). Ist die Öffnung
A.2. PHYSIKALISCHES PHÄNOME DER SCHALL-AUSBREITUNG
91
wie in a) größer als die Wellenlänge, so entsteht ein scharf abgegrenztes Schallbild hinter
der Öffnung.
Ist die Blende so groß wie die Wellenlänge des Schalls oder noch kleiner wie in b),
so erfahren ebene Schallwellen eine so starke Beugung, dass hinter der Öffnung neue
Kugelschallwellen entstehen.
(a) Beugung an relativ großer Öffung
(b) Beugung an relativ kleiner Öffung
Abbildung A.7: Beugung an verschieden großen Öffnungen und Schallwellen mit der Wellenlänge λ.
A.2.5
Brechung
Trifft eine Schallwelle gegen eine Trennfläche zweier Medien, so wird der Schall nicht nur
reflektiert, sondern ein Teil tritt auch in das andere Medium ein. Dabei erfahren die Schallwellen eine Richtungsänderung, die abhängig von dem Verhältnis der Schallgeschwindigkeiten in den beiden Medien ist. Das Medium mit der kleineren Schallgeschwindigkeit wird
das akustisch dichtere Medium genannt, in dem die Brechung stets zur Normalen erfolgt
(siehe Abb. A.8). Der alltägliche Effekt der Richtungsabweichung bei der Brechung von
Schall ist eher vernachlässigbar. In der Ultraschalltechnik werden so genannte Schalllinsen
zur Fokusierung von Schallsignalen verwendet. Beim Eintreten des Schalls in ein anderes Medium wird der Schalldruckpegel abhängig von der Differenz der Eigenschaften der
Medien abgeschwächt.
Abbildung A.8: Brechung in ein dichteres Medium.
92
ANHANG A. ANALOGE SCHALLWELT
A.3
Akustische Effekte der Schall-Ausbreitung
Akustik-Effekte sollen Eigenschaften oder Veränderungen des Schallsignals beschreiben,
die als Kombination verschiedener physikalischer Phänomene auftreten.
A.3.1
Schalldämmung
Die Schalldämmung wird die Behinderung der Schallausbreitung durch schallreflektierende Hindernisse genannt. Durch eine erhöhte Reflexion wird der Schall diffus und gemindert. Die Schalldämmung wird oft mit der Schalldämpfung verwechselt und muss unterschieden werden [Koll].
A.3.2
Schalldämpfung
Die Schalldämpfung geschieht durch die Behinderung der Schallausbreitung durch schallschluckende Hindernisse. Durch ein hohe Absorption wird die Schallenergie dem Schallfeld entzogen und teilweise in Wärme umgewandelt und so gemindert. Pflanzt sich der
Schall im Medium fort, so wird der Schall auch gedämpft.
A.3.3
Bündelung
Bündelung bezeichnet einen Sonderfall der Reflexion an konkav8 gekrümmten Flächen.
Dabei kann es abhängig von der Krümmung und der Schallquellenposition zu verschiedene
Arten der Fokussierung kommen.
A.3.4
Streuung
Streuung bezeichnet einen Sonderfall der Reflexion an gekrümmten Flächen. Sie kann
sowohl an konvexen9 wie an konkaven Flächen auftreten, abhängig von der Krümmung
und der Schallquellenposition.
A.3.5
Verhallung
Verhallung nennt man die Ausbreitung einer Schallwelle in einer Umgebung. Dabei können alle physikalischen Phänomene verantwortlich sein. Die Reflexionen an Flächen sind
der offensichtliche Grund, warum eine Schallwelle sich überall in einem Raum verbreitet.
Mit jeder Reflexion fächert sich das Signal weiter auf, bis schließlich das eingeschlossene
Medium von einer Vielzahl an Reflexionen durchflutet ist. Bei jeder Reflexion tritt eine
Dämpfung auf, die abhängig vom Winkel und der Materialeigenschaft das wieder abgestrahlte Signal beeinflusst.
Der Schall kann sich um Kanten beugen oder Interferenzen bilden, die den Schalldruck
in manchen Bereichen verstärken oder abschwächen. Dabei spricht man von stehenden
Wellen. Hält der Schallimpuls an, so ist das Schallfeld gefüllt von verschiedenen Schalldruckpegeln, die allgemein als Hall bezeichnet werden. Zum Beispiel ist in der Nähe eines
8 lat.:
9 lat.:
concav, ausgehöhlt, einwärts gewölbt
convex, gerundet, nach außen gewölbt
A.3. AKUSTISCHE EFFEKTE DER SCHALL-AUSBREITUNG
93
offenen Fensters weniger Hall als in der Mitte eines Raumes. Nach Ende des Schallimpulses ist die Schallenergie nach einer gewissen Zeit vollständig absorbiert.
A.3.6
Obstruktion
Mit Obstruktion [IASIG99] wird die Verdeckung der Schallquelle mit einem Objekt und
damit eine Behinderung des Direktschalls gemeint. Je nach Größe des Hindernisses kann
man von einer eher ungestörten Ausbreitung des Halls ausgehen.
A.3.7
Exklusion
Die Exklusion [3DSS2] beschreibt den Ausschluss des Hallsignals, während der Direktschall weitesgehend ungehindert zu einem Hörer vordringen kann. Dies ist zum Beispiel
bei einer Öffnung der Fall, wenn die Schallquelle und der Hörer auf unterschiedlichen Seiten der Öffnung positioniert sind.
A.3.8
Okklusion
Die Okklusion [IASIG99] entsteht durch das Abschliessen einer Schallquelle von einem
Hörer. Weder der Direktschall noch der Hall kann ungehindert den Hörer erreichen. Das
Schallsignal beim Hörer wird durch Transmission erzeugt.
A.3.9
Doppler-Effekt
Dieser Abschnitt könnte auch unter B.3 angeführt werden, da der Doppler-Effekt erst bei
der Wahrnehmung Gestalt annimmt. Doch da die Ursachen rein physikalischer Natur sind,
wird er in dieser Stelle erklärt. Der Doppler-Effekt ist im Alltag gegenwärtig und wird
schon von Kindern beim Spielen oft nachgeahmt. Christian D OPPLER (1803- 1853) formulierte 1842 folgende Aussage: «Die Schwingungszahl einer Wellenbewegung an einem
Beobachtungsort ändert sich, wenn der Beobachter und die Erregungsstelle der Welle gegeneinander bewegt werden.»
Bei einem vorbeifahrenden Wagen werden die Schallschwingung im Medium in
Fahrtrichtung gestaucht und hinter dem Fahrzeug entzerrt. Dies resultiert in einer höheren
bzw. niedrigeren Frequenz des Schallsignals. Wie aus den Kapiteln über Schwingung
erklärt, bedeutet eine Erhöhung der Frequenz eine Erhöhung der Tonlage und umgekehrt
eine niedrigere Frequenz eine tiefere Tonlage. Genau diesen Effekt approximiert das
Formel1-begeisterte Kind mit der hohen Tonlage eines i’s und dem nachfolgenden
tiefen Ton des u’s. Die Berechnung der Frequenzänderungen bei ruhender Schallquelle
und bewegten Empfänger unterscheiden sich von denen bei bewegter Schallquelle und
ruhendem Empfänger. Formeln sind in [Veit96, Uhl] zu finden. Der Doppler-Effekt
tritt auch bei Lichtwellen auf und ist Grund für die 1929 von H UBBLE entdeckte
Rot-Verschiebung der meisten Sterne im expandierenden Universum [Haw88].
94
A.3.10
ANHANG A. ANALOGE SCHALLWELT
Akustische Eigenschaften von Medien
Die Schallausbreitung hängt von den Materialeigenschaften der verschiedenen Medien ab.
Die wichtigste Eigenschaft ist der Aggregatzustand, d.h. ob ein Medium fest, flüssig oder
gasförmig ist. Die Schallgeschwindigkeit in dem Medium ist eine wichtige Größe, die in
Kapitel A.1.2 erklärt wurde. Der akustische Unterschied zwischen verschiedenen Schallgeschwindigkeiten ist besonders nach dem Einatmen von Helium hörbar. Durch die höhere Schallgeschwindigkeit (siehe Tabelle A.1) des Heliums wird die Frequenz beeinflusst
was in einer höheren Tonlage resultiert, weil c = f + λ ⇒ f = c/λ. Da die Schallgeschwindigkeit in normaler Luft temperaturabhängig ist, klingen auch Instrument in unterschiedlichen Umgebungen unterschiedlich hoch. Auch die räumliche Richtungsbestimmung bei der Wahrnehmung ist abhängig von der Schallgeschwindigkeit und den über
die Distanz verursachten Frequenzveränderungen. Unter Wasser kann der Mensch deshalb
kaum Schallquellen orten, weil die Schallgeschwindigkeit dort fast viermal so hoch ist wie
in Luft.
A.3.11
Akustische Eigenschaften von Materialien
Wie in Kapitel A.3.10 schon angedeutet, hängt die Ausprägung der physikalischen Phänomene von der Materialbeschaffenheit ab. Eine Holzvertäflung reflektiert anders als Glas,
eine Schneedecke absorbiert anders als eine raue Betonwand. Zusammenfassend kann
man sagen, dass der Einfallwinkel, der Schallabsorptionsgrad, der Schalltransmissionsgrad, Schallreflexionsgrad und der Schallstreuungsgrad wichtige Parameter zur Beschreibung von Materialien sind.
Um diese zu erhalten müssen aufwendige Messungen vorgenommen werden. Es gibt
zahlreiche Materialdaten bezüglich des winkel-unabhängigen Schallabsorptionsgrades.
Doch wie in A.2.2 erklärt, ist die Reflexion auch abhängig von der Größe des Reflektors.
Es gibt Untersuchungen [Bor02], wonach die geometrische Komplexität eines Modells
durch gut gewählte Schallstreuungsgrade drastisch reduzieren werden kann. Leider liegen
in den Materialbeschreibungen noch keine Streuungsgrade vor, um von der Aussage
profitieren zu können.
A.4
Berechnungsmodelle der Raumakustik
Um die komplizierten Phänomene und Effekte erfassen zu können, sind Begriffe definiert
und Berechnungen entwickelt worden, die das Feld der Akustik genauer beschreiben. In
diesem Abschnitt werden einige wenige Ansätze aus der Raumakustik genauer erklärt.
A.4.1
Äquivalente Absorptionsfläche
Eine Fläche mit dem Flächeninhalt S besitzt abhängig von der Frequenz f einen speziellen
Schallabsorptionsgrad α f . Dann ist die frequenzabhängige äquivalente Absorptionsfläche
A f = S · α f . Zur Verdeutlichung denke man sich eine Wand mit 10m2 Fläche und einem
Absorptionsgrad α1000 = 0, 1 bei 1.000 Hz. So ist A1000 = 10m2 · 0, 1 = 1m2 . Das entspricht
95
A.4. BERECHNUNGSMODELLE DER RAUMAKUSTIK
9 m2 eines vollständig reflektierenden Materials und 1 m2 eines vollständigen Absorbers.
Die äquivalente Absorptionsfläche beschreibt also die Fläche eines hypothetischen vollständigen Absorbers und wird in Sabin [TFD] angegeben. Dabei entspricht die Fläche von
einem Quadrat-Fuss einem Sabin.
A.4.2
Nachhallzeit
Die Art und Weise wie ein Schallsignal verhallt, ist maßgeblich für die Charakteristik einer
Umgebung verantwortlich. Die Nachhallzeit (Reverb Time) TRT 60 ( f ) ist willkürlich definiert als die Zeit, die vergeht, damit der Schalldruckpegel in einem Schallfeld nach Ende
eines Impulses um 60 dB, also auf ein Tausendstel, fällt. Nach DIN 1804110 [DIN] sollte
die Nachhallzeit in kleinen bis mittelgroßen Räumen unter einer Sekunde liegen. Konzertsäle dagegen haben etwa eine Nachhallzeit von 1,5 bis 2 Sekunden [Tenn02]. Offensichtlich
ist dieser Wert frequenzabhängig, da der Absorptionsgrad an Reflektoren frequenzabhängig
ist.
W.C. S ABINE (1869-1919) hat frühzeitig eine Formel zur empirischen Berechnung der
Nachhallzeit angegeben, die heute noch überwiegend in geschlossenen Räumen mit einem
durchschnittlichen Absorptionsgrad bis 0,3 ihren Nutzen findet. Nach S ABINE ist:
TRT 60Sabin ( f ) = 0, 163
V
∑Af
s
Dabei ist V das Raumvolumen und ∑ A f die Summe der äuqivalenten Absorptionsflächen aller Flächen im Raum. Für Räume mit niedrigen Nachhallzeiten wird die Berechnung nach E YRING empfohlen, die aus dem Produkt der Reflexionsgrade hergeleitet ist.
Die Nachhallzeit nach E YRING ist:
V
TRT 60Eyring ( f ) = 0, 163
− ln(1 − αRaum )Sges
s
Dabei ist αRaum der räumlicher Mittelwert des Schallabsorptionsgrades und Sges die
Gesamtfläche aller Raumbegrenzungen in m2 . Die S ABINE’sche Nachhallfomel wird in
großen Umgebungen ungenau, da die Schalldämpfung des Mediums nicht berücksichtig
wird. Beide Formeln gelten in geschlossenen Räumen, da sonst V unendlich groß wäre.
Anzumerken ist auch, dass diese Berechnungen nicht von der Position einer Schallquelle abhängen, da es in geschlossenen Räumen nur zu leichten Schwankungen in dem
Schalldruckpegel des Halles kommt. Doch kann man sich leicht vorstellen, dass die Nachhallzeit von der Position der Schallquelle abhängt, wenn sie sich auf ein offenes Fenster
zu bewegt. Je mehr sie sich dem vollständigen Absorber nähert, desto mehr Schallleistung
wird dem Schallfeld entzogen, da sich der vom Fenster bedeckte Raumwinkel vergrößert.
10 DIN
18041: Hörsamkeit in kleinen bis mittelgroßen Räumen. (1968)
96
A.4.3
ANHANG A. ANALOGE SCHALLWELT
Hallradius
Geht man von einem akustischen Kugelstrahler aus, so nimmt in einem freien Schallfeld11
der Schalldruckpegel des Direktschalls mit 1/r der Entfernung ab. In einem Raum mit Reflexionen hingegen bildet sich überall ein annähernd gleicher Schalldruckpegel durch vielfache Reflexionen, der allgemein als Hall bezeichnet wird. Die Punkte, an denen der Direktschall den gleichen Pegel hat wie der Hall, definieren den Hallradius rH einer Schallquelle.
Überwiegt der Anteil des Direktschalls den Anteil des Hall bei einem Hörer, so befindet
dieser sich innerhalb des Hallradius. Der Hallradius ist wichtig zur Beschreibung der Deutlichkeit von Signals, vor allem von Sprache. Man kann den frequenzabhängigen Hallradius
mit Hilfe q
der äquivalenten Absorptionsfläche A (in m2 ) berechnen.
√
A
rH = 50
≈ 0, 14 A m
Beispiel a): Ein kubischer Raum mit einer Seitenlänge von 3 m hat Begrenzungsflächen,
die bei einer bestimmten Frequenz den Absorptionsgrad 0,1 haben. Somit ist A = 5,4 m2
und rH = 0,329 m.
Beispiel b): Ein quadratischer Raum mit einer Seitenlänge von 20 m und einer Höhe
von 3 m hat Begrenzungsflächen, die bei einer bestimmten Frequenz den Absorptionsgrad
0,2 haben. Somit ist A = 128 m2 und rH = 1,6 m.
11 Umgebung,
in der kaum Reflexionen auftreten (oft fälschlich mit schall-frei bezeichnet).
Anhang B
Psycho-Akustik
«Wenn Du auslöschst Sinn und Ton — was hörst Du dann?»
(Frage japanischer Zen-Meister an ihre Schüler)
Dieses Kapitel beschreibt die Psycho-Akustik, was als der Vorgang der menschlichen Rezeption von Schallsignalen verstanden wird. Ein Geräusch oder die Musik, die wir Menschen wahrnehmen, sind die neuronalen Stimulationen in unserem Gehirn, wenn die Schallwellen auf unser Trommelfell treffen und dieses in Schwingung versetzt wird. Das Hörorgan, welches im Innenohr liegt, ist das erste Sinnesorgan, welches bereits nach 4 12 Monaten
nach der Befruchtung vollständig funktionsfähig ist.
Der Volksmund hat den Ausspruch ”Das Auge schätzt, das Ohr misst.” geprägt. Versucht man einen Vergleich der Fähigkeiten der beiden Sinnesorgane, so ergeben sich einige
Das Hörspektrum beim menschlichen Ohr liegt zwischen 16Hz und 20.000Hz. Eine Oktave
ist durch die Frequenz-Verdopplung definiert. Ausgehend vom Kammerton A’ bei 440Hz
liegt die entsprechende höhere Oktave A” also bei 880Hz. Somit ist das Hörspektrum des
Ohres etwa 10 Oktaven breit. Das Sehspektrum des menschlichen Auge ist ”nur” eine Oktave breit, von etwa 380nm (Violett) bis 760nm (Purpur). Die Dynamik des Bereiches von
0dB, der unteren Hörschwelle, bis zur Schmerzgrenze bei etwa 130dB, entspricht etwa dem
10 Billionenfachen. Den Ausschlag des Trommelfells um 0,000.000.01mm, das ist weniger als die Größe eines Wasserstoffatoms, kann das Ohr wahrnehmen. Paradoxerweise wäre
dieser Ausschlag kleiner als die Wellenlänge des sichtbaren Lichtes. Somit kann man die
Schwankung der Luftmoleküle zwar hören, aber nicht sehen. Hinzu kommt, dass das Ohr
aufeinander folgende Reize etwa 7mal schneller verarbeiten kann als das Auge. Wenn wir
mit der Schnelligkeit unseres Ohres Fernsehen könnten, würden wir statt Bewegungen einzelne Standbilder oder sogar einzelne Linien sehen. Im Folgenden wird die Anatomie des
menschlichen Ohres und einige seiner Fähigkeiten genauer behandelt. Falls nicht zusätzliche Quellen explizit erwähnt sind, gelten für den Anhang B [Bla97, Spi03, Wiki].
97
98
B.1
ANHANG B. PSYCHO-AKUSTIK
Anatomie des menschlichen Ohres
Die Ohren liegen nach den Konventionen der Schädelvermessung auf einer horizontalen
Ebene. Wenn man von der Symmetrie des Kopfes oder der Ohren spricht, so meint man
nur die Spiegelung an der Sagitalebene1 , die senkrecht von Vorne und Hinten durch den
Schädel verläuft. Das menschliche Ohr kann funktionell und anatomisch in drei Abschnitte
unterteilt werden (vergleiche Abb. B.1). Als medizinisches Fachbuch kann [HNO] empfohlen werden.
Abbildung B.1: Schema des menschlichen Ohres.2
B.1.1
Äußeres Ohr
Das äußere Ohr besteht aus der Ohrmuschel (Pinna) und dem äußeren Gehörgang bis zum
Trommelfell. Dieser Bereich ist zur Außenwelt offen und somit im Normalfall mit Luft
gefüllt, beim Tauchen jedoch mit Wasser. Durch die anatomische Form der Pinna besteht
eine starke Abhängigkeit bezüglich der Richtung und der Frequenz des Schalls, der zum
Trommelfell geleitet wird. Die Pinna wirkt wie ein Schallfänger und ein Richtungsfilter,
indem sie Schall oberhalb von 1.500 Hz deutlich und individuell modifiziert. Sie ist maßgeblich für das räumliche Hören verantwortlich, welches in B.4 erklärt wird. An dieser
Stelle sei nur kurz auf die beweglichen Ohren der Katzen hingewiesen, die im Gegensatz
zu den Menschen ohne den Kopf zu drehen genauer eine Schallquelle fokussieren können.
B.1.2
Mittelohr
Das Mittelohr ist der mit Luft gefüllt Hohlraum, welcher von dem Trommelfell (Membrana
Tympani) und der knöchernen Abgrenzung des Innenohrs eingefasst ist. Durch die E U STACH ’sche Röhre besteht ein Luftkanal zum Nasenrachen, der zum so genannten Druckausgleich zwischen Mittel- und äußerem Ohr genutzt wird. Die drei Gehörknöchelchen
verstärken den ankommenden Schall etwa 22-fach durch das Hebelgesetz und geben ihn
mechanisch über das ovale Fenster an das Innenohr weiter. Dazu überträgt der am Trommelfell befestigte Hammer (Malleus) die Schwingung über den Amboß (Incus) and den
1 Die Sagittalebene wird von der sagittalen (lat. “Pfeil”, von hinten nach vorne) und vertikalen Achse aufgespannt.
2 Bildquelle: http://www.regiosurf.net/supplement/wahrn/hoeren/hoeren.htm
99
B.2. PHYSIOLOGIE DES HÖRENS
Steigbügel (Stapes) weiter, der wiederum mit der elastischen Membran des Innenohrs, dem
ovalen Fenster, verwachsen ist. Bei hoher Schallbelastung reduzieren kleine Muskeln die
Verstärkung und verringern somit eine Schädigung des Innenohrs.
B.1.3
Innenohr
Das mit der Körperflüssigkeit Perilymphe gefüllte Innenohr besteht aus der Hörschnecke
(Cochlea) und dem Gleichgewichtsorgan und ist durch das ovale und runde Fenster mit
dem Mittelohr verbunden. Die Flüssigkeit dient dem Schutz und der Versorgung der hoch
sensiblen Organe und der Wahrnehmung zweier Sinne. Der Orientierungssinn erfolgt durch
drei Bogengänge, der Hörsinn in der Cochlea. Die Hörschnecke enthält zwei Kammern, getrennt durch die Basilarmembran, die mit empfindlichen Haaren bedeckt ist und mit dem
Hörnerv (Nervus Statoacusticus) verbunden ist, der die Nervenimpulse zum Gehirn leitet.
Die Basilarmembran dient der Wahrnehmung des Schalls, da die Hörschnecke in unterschiedlichen Bereichen für verschiedene Frequenzen mehr oder weniger empfindlich ist.
Dadurch kann das Gehirn verschiedene Tonhöhen unterscheiden. Da im Zentralnervensystem (ZNS) die Nervenimpulse von beiden Ohren zusammengeführt werden, werden dort
auch Störimpulse herausgefiltert und die räumliche Zuordnung der Schallquellen durchgeführt.
B.2
Physiologie des Hörens
Unser Ohr reagiert bereits auf sehr feine Druckschwankungen. Eine Abweichung von 0,2
Milliardstel vom Luftdruck wird schon wahrgenommen. Man hat diesen kleinsten, gerade
noch wahrnehmbaren Schalldruck als Bezugsschall verwendet. Die Hörschwelle liegt daher als Schalldruckpegel ausgedrückt bei 0 dB. Wie man in der Abbildung B.2 a) sieht ist
der Mensch bei verschiedenen Frequenzen unterschiedlich empfindlich für den Schall.
(a) Frequenzabhängige Hörschwelle
(b) Frequenzabhängige gefühlte Lautstärke
Abbildung B.2: Frequenzabhängigkeit des Gehörs.3
Wie in Kapitel A.1.3 erwähnt, überlagert der Schalldruck den dauerhaften Luftdrucks,
der etwa bei 100.000 Pa liegt. Eine Kniebeuge verursacht etwa eine Veränderung des
3 Bildquelle:
http://www.dasp.uni-wuppertal.de/ars_auditus
100
ANHANG B. PSYCHO-AKUSTIK
Schalldrucks um 10 Pa. Ein normales Gespräch verursacht Schalldruckschwankungen von
etwa 0,01 Pa bis 1 Pa. Ein Mensch mit einem normalen Gehör ist in der Lage von 0 dB
bis etwa 130 dB zu hören. Je nach Mensch führt ein andauernd hoher Schalldruckpegel ab
70dB zu Schädigung und ab 120 dB bis 130 dB erfährt man den Schall schmerzhaft, man
spricht von der Schmerzgrenze.
Wie die Abbildung B.2 b) zeigt, ist auch das Lautstärkeempfinden frequenzabhängig.
Eine Erhöhung um etwa 10 dB wird als Verdopplung der gehörten Lautstärke wahrgenommen, obwohl eine Erhöhung um 3 dB ja einer Verdopplung des Schalldrucks entspricht.
Um ein angepasstes Bild der gefühlten Lautstärke zu bekommen, kann der Schalldruckpegel mit einem Korrekturfilter angepasst werden. Am häufigsten wird der A-Filter benutzt,
welches man mit dB(A) gekennzeichnet wird. Obwohl das Ohr Schalldruck logarithmisch
wahrnimmt, hat der Mensch das logarithmische Maßsystem kein Gefühl. Es ist daher äußerst schwierig, Schallpegel zu schätzen. Ein Akustiker weiß lediglich aus Erfahrung, für
welche Geräusche er einen bestimmten Schallpegel anzusetzen hat (siehe Tab.: A.2).
B.3
Rezeption des Schallsignals
Die Rezeption eines Schallereignisses resultiert in einem auditiven Ereignis beim Hörer.
Dabei müssen das Schallereignis und das auditive Ereignis nicht in ihren Eigenschaften
übereinstimmen. Viele Versuche zeigen, dass das wahrgenommene Ereignis z.B. in der
Position, Amplitude oder Entfernung teilweise stark von der physikalischen Schallquelle
abweichen kann, was aber nicht zwingend zur Folge hat, dass das auditive Ereignis falsch
wäre. Es gibt auch visuelle Effekte, wie den Effekt, eine grafische Wiederholung ab 60 Hz
als ein Standbild aufzufassen, die zeigen, dass auch das Auge die physikalische Welt anders
wahrnimmt, ohne dabei etwas ”falsch” zu machen. Nur einige dieser Effekte werden im
Rahmen dieser Arbeit erwähnt. Ein durch Luftschall übertragenes auditives Ereignis wird
in drei temporale Bereiche, dem Direktschall, den frühen Reflexionen und dem Nachhall,
unterteilt. Die Abbildung B.3 zeigt die schematische Impulsantwort4 eines Signals in einer
Umgebung. Allgemein unterscheidet man zwischen so genannten frühen Reflexionen und
dem Nachhall, der aus der Überlagerung zahlreichen Reflexionen entsteht.
B.3.1
Direktschall
Die Schallwellen, die auf dem direkten Weg von der Schallquelle über ein Medium den
Rezeptor, in diesem Fall das menschliche Ohr, erreichen werden Direktschall genannt. Sie
erfahren nur eine Dämpfung hinsichtlich des Mediums abhängig von der Länge der zurückgelegten Strecke. Im Allgemeinen kann man davon ausgehen, dass etwa ab 3 Meter
Abstand zu einer kugelförmigen Schallquelle, sich die Schallwellen planar ausbreiten. Darunter muss man die Wölbung der Schallwellen in Betracht ziehen, da sie temporale Effekt
in der Wahrnehmung verursachen.
4 Ausgangssignal
eines Systems, dem am Eingang ein Dirac-Impuls zugeführt wird.
B.3. REZEPTION DES SCHALLSIGNALS
101
Abbildung B.3: Schema einer Impulsantwort eines verhallten Signals.
B.3.2
Frühe Reflexionen
Das menschliche Hörorgan ist in der Lage sehr schnelle Folgen von Reizen zu verarbeiten.
Da der Mensch auf Grund der Reflexionen ein Raumgefühl entwickelt und nicht nur Schallquellen, sondern auch Objekte sogar hinter sich wahrnehmen kann, ist eine nähere Betrachtung der Reflexionen nötig. Frühe Reflexionen (early Reflections) sind die Reflexionen, die
mit nicht mehr als 80 ms Verzögerung beim Hörer eintreffen, relativ zum Direktschall. Bei
einem mit Luft gefüllten Raum entspricht diese Laufzeit einer Strecke von etwa 27 Metern.
Wenn bei niedriger Verhallungsdichte weniger als 2.000 Reflexionen [CM78] pro Sekunde
am Ohr eintreffen, werden diese als Einzelimpulse wahrgenommen, auch wenn dies nicht
bewusst geschieht. Jede Reflexion kommt dabei aus einer eigenen Richtung mit eigenen
Ausprägung. Wenn ein Schall über n Reflektoren den Rezeptor erreicht, spricht man von
Schall n-ter Ordnung. Frühe Reflexionen geben dem Menschen entscheidende Hinweise
darauf, welche Objekte in der Nähe sind und wie diese beschaffen sind.
B.3.3
Nachhall
Der Nachhall (Reverberation) beschreibt die Vielzahl von diffusen Reflexionen hoher Ordnung, die relativ zum Direktschall nach 80 ms beim Hörer eintreffen. Der Nachhall gibt
dem Menschen entscheidende Hinweise in welcher Umgebung er sich befindet. Die Geschwindigkeit des Abklingen eines Nachhalls ist ein entscheidender Hinweis auf das auditive Raumgefühl. Durch eine hohe Verhallungsdichte nimmt das Ohr keine Einzelimpulse
mehr war [CM78].
B.3.4
Knochenschall
Gelangt die von einer Schallquelle abgestrahlte Energie nicht über Schwingungen der
Membrana Tympani zum Innenohr sondern direkt dorthin, spricht man von Knochenschall
oder Körperschall. Der Knochenschall liegt im Alltag etwa 50 dB unter dem Luftschall
und spielt daher bei Menschen mit funktionsfähigen Gehör eine untergeordnete Rolle. Der
taube B EETHOVEN biss auf ein Stück Holz, welches an seinem Klavier angebracht war,
um mit Hilfe des Knochenschalls weiter komponieren zu können.
102
B.3.5
ANHANG B. PSYCHO-AKUSTIK
Cochlea-Implantate
Neuere Techniken machen es möglich bei Menschen mit Gehörlosigkeit direkt durch elektronische Impulse ein Hörereignis auszulösen [Coch]. Cochlea-Implantate reizen die Hörschnecke nach einer Signalverarbeitung an zwölf unterschiedlichen Stellen. Dadurch werden die Sinneszellen ähnlich gereizt, als wenn sie durch entsprechende Schallimpulse angeregt wären.
B.4
Räumliches Hören
Der Begriff des räumlichen Hörens ist im Grunde genauso ein Pleonasmus wie ein runder
Kreis. Das auditive Erlebnis, welches ein Mensch durch die Rezeption von Schall erlebt,
kann nicht unräumlich sein. Zu jederzeit findet im ZNS eine Verarbeitung des Signals
statt, welches aufgrund mehrere Effekte zu einer Positionierung des auditiven Ereignisses
führt. Eine gängige Art der Beschreibung von Positionen von Schallquellen und auditiven
Ereignissen geschieht durch ein eigenes Koordinatensystem des Hörers. Dabei liegt der
Mittelpunkt einer Kugel auf der Höhe beider Ohren und in deren Mitte. Dann kann durch
die Angabe des horizontale Winkels (Azimuth), des vertikalen Winkels (Elevation) und die
Distanz jeder Punkt eindeutig beschrieben werden.
Bei der Wiedergabe von künstlichen Schallereignissen kann es zu ungewollten Erfahrungen kommen. So kann es z.B. beim Hören mit Kopfhören zu einer unerwünschten Positionierung des auditiven Ereignisses innerhalb oder ausserhalb (out-of-head-sensation) des
eigenen Kopfes führen. Die individuelle Frequenzveränderungen durch die Schultern und
der Pinna ist besonders wichtig bei der auditiven Erfahrung. Das Gehör wertet temporale
und qualitative Hinweise in einem Schallsignal aus.
B.4.1
Temporale Veränderung
Durch die unterschiedliche Lage der beiden Ohren treffen Schallimpulse von einer Schallquelle, die nicht auf der Sagittalebene liegen, zu unterschiedlichen Zeiten ein. Die Zeitdifferenz zwischen den Impulsen an den beiden Ohren wird Interaural Time Difference
[IASIG98], im Folgenden ITD, genannt. Das ZNS verarbeitet die ITD maßgeblich am Anfang von Schallereignissen und sie ist wichtig zur Positionierung auditiver Ereignisse auf
der horizontalen Ebene. Die Abbildung B.4 verdeutlicht 4s als Laufzeitdifferenz bei einem
Ohrabstand d und Richtungswinkel α der Schallwellen.
B.4.2
Qualitative Veränderung
Liegt eine Schallquelle auf einer der beiden Seiten der Ohren, so empfängt ein Ohr den
Schallimpuls deutlicher als das andere. Dies liegt zum einen an den unterschiedlichen Streckenlängen, deutlicher aber an der verursachten Beugung am abgewandten Ohr und die
zusätzlich Frequenzveränderung an beiden Ohren durch die Pinna und den Schultern. Der
qualitative Unterschied der ankommenden Signale wird Interaural Intensity Difference
5 Bildquelle:
http://www.dasp.uni-wuppertal.de/ars_auditus
B.4. RÄUMLICHES HÖREN
103
Abbildung B.4: Verschiedene Laufzeiten an den beiden Ohren.5
[IASIG98] oder kurz IID genannt. Es hat sich herausgestellt, dass besonders die Positionierung auditiver Ereignisse mit vertikaler Ausrichtung oder hinter dem Hörer durch die
IID ausgelöst werden.
B.4.3
Räumliche Auflösung
Die räumliche Auflösung der auditiven Ereignisse ist abhängig von deren Richtung. Vor
einem Hörer liegt die horizontale Auflösung bei etwa 1◦ , rechtwinklig zu dem Hörer ist
die Ungenauigkeit der Ortung etwa drei bis zehnmal so stark, hinter dem Hörer ist die Ungenauigkeit (localisation blur) nur etwa doppelt so groß wie von vorne. Da die Laufzeiten
bei einer vertikalen Ausrichtung der Schallquelle keine Laufzeitveränderung verursacht,
liegt die Genauigkeit der Ortung bei minimal 4◦ , bei unbekannten Geräuschen auch deutlich darüber. Bandbegrenzte Schallsignale kleiner als 2/3 einer Oktave sind überhaupt nicht
auditiv ortbar. Diese Experimente zeigen, dass die wahrgenommene Richtung eines auditiven Ereignisses nicht von der Richtung der Schallquelle abhängt, sondern nur von den
Frequenzveränderungen des binauralen Schallsignals.
104
ANHANG B. PSYCHO-AKUSTIK
Anhang C
Digitale Schallwelt
«’Nein’, sagte der Knabe schließlich, und seine Stimme vibrierte eindrucksvoll. Um einen solchen Nachhall zu bewirken, sind entweder ausgeprägte okkulte Fähigkeiten erforderlich oder die teuren Geräte eines modern eingerichteten Audiostudios.»
(Aus dem Buch Der Zauberhut von Terry Pratchett)
Erst seit wenigen Jahrzehnten ist die Speicherung und die Verarbeitung von digitalem Audiomaterial möglich geworden, da die erforderliche Übertragungsgeschwindigkeit und der
nötige Speicherplatz vorhanden war. Mit der Einführung der CD1 als Speichermedium,
Anfang der 80er Jahre des vorherigen Jahrhunderts verbreitete sich digitalisiertes Audiomaterial auch rasant außerhalb eines Computers im Alltag.
Heutzutage gibt es zahlreiche Anwendungen bei denen digitalisierte Schallereignisse
gespeichert, komprimiert oder übertragen werden. Angefangen von den digitalen Übtragungsprotokollen von ISDN2 -, Netzwerk- oder Mobilfunk-Telefonie für die Sprachübertragung und deren Komprimierung reicht das Spektrum über MP33 -Musik und Geräte zur
Wiedergabe bis zur digitalen High-End Studiotechnik zur CD- oder DVD4 -Produktion.
Auch im so genannten Home-Entertainment-Bereich bieten DVD-Player, Spielekonsolen
und Hifi-Verstärker heutzutage Anschlüsse für digitale Tonübertragung.
Im Folgenden wird der Bereich der digitalen Audio-Technik beleuchtet, mit der Gewichtung auf Formate und Techniken, die vor allem in einem Computer zum Einsatz
kommen. Falls nicht zusätzliche Quellen explizit erwähnt sind, gelten für den Anhang C
[Co02, Wiki].
C.1
Digitalisierung
Damit Audiomaterial digital vorliegt, muss dieses entweder digital generiert werden, z.B.
durch physikalisch basierte Klangsynthesizer5 , oder es wird aus der analogen Form in eine
1 CD
= Compact Disc
= Integrated Services Digital Network
3 MP3 = MPEG1 Layer 3, Audiocodec
4 DVD = Digital Versatile Disc
5 Syntheziser: Elektronisches Instrument zur Generierung künstlicher Klänge oder Geräusche.
2 ISDN
105
106
ANHANG C. DIGITALE SCHALLWELT
digitale Abbildung überführt. Da in der analogen Klangwelt der Schall zeit- und wertkontinuierlich vorliegt, ist es nötig diese beiden Dimensionen diskret anzunähern. Dabei wird zu
einem festen Zeitpunkt ein Wert der Amplitude festgesetzt und gespeichert. Die Häufigkeit
der Abtastpunkte und die Genauigkeit des dann gespeicherten Pegels werden im Folgenden
erklärt.
C.1.1
Abtastrate
Die Abtastrate oder Samplerate gibt an, wie oft ein Audiosignal pro Sekunde abgetastet
wird und wird in Kilohertz (kHz) angegeben. Beispiele für Abtastraten sind in der Tabelle
C.1 zu sehen.
Tabelle C.1: Übliche Abtastraten.
niedrige Qualität
mittlere Qualität
MiniDisk
Hohe Qualität (Audio-CD)
DAT (Digital Audio Tape)
Ultra High (Studio)
11 kHz
22 kHz
33 kHz
44,1 kHz
48 kHz
96 kHz
Wie im Kapitel über das menschliche Hören aufgezeigt wurde, kann der Mensch Frequenzen etwa im Bereich 16 Hz bis 20 kHz wahrnehmen. Nach dem Abtasttheorem von
S HANNON muss ein bandbegrenztes6 Signal mit der Frequenz f mit der doppelten Frequenz, also 2 f , abgetastet werden, damit es später exakt rekonstruiert werden kann. Die
halbe Abtastfrequenz f wird auch N YQUIST-Frequenz genannt. Für das menschliche Ohrvermögen würde das eine Samplerate von 40 kHz ergeben. Nun erkennt man leicht, dass
die Wahl der Abtastrate einer CD mit 44,1 kHz kein Zufall war. Moderne Soundkarten der
vierten Generation bieten Abtastraten bis 96 kHz.
C.1.2
Bitauflösung
Die Bitauflösung oder Bitrate gibt an, mit welcher Genauigkeit die Amplitude an einem bestimmten Zeitpunkt gespeichert wird. Die Überführung in ein System mit begrenzter Auflösung wird Quantisierung genannt. Gängige Bitauflösungen liegen bei 8, 16, 20 oder 24 Bit.
Bearbeitet man Audiodaten nachträglich, so entstehen immer wieder neue Rundungsfehler,
die sich bei niedrigen Bitauflösungen durchaus hörbar auswirken können. Bei steigernder
Bitauflösung sinkt die Fehlerabweichung des kleinsten Fehlers. Die Tabelle C.2 zeigt die
Anzahl der diskreten Werte bei unterschiedlichen Bitauflösungen. Je mehr Speicherplatz
zur Verfügung steht, desto genauer wird die Dynamik des Signals quantisiert.
6 Ein bandbegrenztes Signal wird z.B. durch einen Tiefpass-Filter erzeugt, der hohe Frequenzen (Obertöne)
absenkt.
107
C.2. DIGITALE AUDIO-FORMATE
Tabelle C.2: Übliche Bitauflösungen.
Bitrate
8
16
20
24
C.1.3
Anzahl der Messwerte
Fehlerabweichung in %
28
= 256
216 = 65.538
220 = 1.048.576
224 = 16.777.216
0,390625
0,00152588
0,00009537
0,00000596
Dynamik
Die Dynamik bezeichnet die Differenz zwischen der kleinsten und größten Amplitude, die
ein Aufnahmegerät oder ein Abspielgerät darstellen kann. Im Allgemeinen wird dieser Wert
bei Mikrophonen angegeben, die den Schall aufnehmen. Aber auch für die verschiedenen digitalen Speicherformate, wie der Audio-CD oder einer magnetischen Kassette, kann
die Dynamik angegeben werden. Erinnern wir uns daran, dass Dezibel ein Verhältnis von
Kräftepegeln angibt. Im Dynamikbereich bezeichnet 0 dB also den unteren, darstellbaren
Grenzwert. Tabelle C.3 zeigt einige theoretische Dynamikwerte im Vergleich.
Tabelle C.3: Dynamik gängiger Audiotechniken und -ereignisse.
Vinyl Schallplatte
Analoge Musik-Kassette
8 Bit Abtastung
16 Bit Abtastung (Audio-CD)
Orchester
C.1.4
65 dB
55 dB
48 dB
96 dB
ca. 110 dB
Signal-Rausch-Abstand
Der Signal-Rausch-Abstand, der auch oft mit SNR (Signal to Noise Ratio) abgekürzt wird,
beschreibt das logarithmische Verhältnis des Signals zum Rauschen. Es beschreibt im Gegensatz zur theoretischen Qualitätsangabe der Dynamik, einen praktischen Wert zur Angabe von Aufnahme- und Wiedergabe-Qualität. Gemessen wird die SNR ebenfalls in dB, da
es sich um ein Verhältnis von Leistung handelt.
C.2
Digitale Audio-Formate
Um die digitalen Audiodaten auch speichern zu können, sind im Laufe der Zeit zahlreiche Formate entwickelt worden, die jedes für sich zu einem bestimmten Zeitpunkt gute
Existenz-Gründe hatte. Alle Formate können hier nicht aufgeführt werden und viele sind
inzwischen veraltet, andere waren von Beginn an proprietär oder hardware-abhängig. Einige Formate, auf die nicht näher eingegangen wird, sind: .SND, .VOC, .VOX, .AU, .AIFF,
.QT, .RA.
108
C.2.1
ANHANG C. DIGITALE SCHALLWELT
PCM / WAV
PCM (Pulse Code Modulation) ist eine Modulationsform, die ein analoges Signal binär
kodiert. Sie dient nicht nur bei der Übertragung von Sprache auf einem Netzwerk [Tan03],
sondern auch zur Speicherung von unkomprimierten Audiodaten. Dieses Format wird z.B.
bei Audio-CDs und DAT-Kassetten verwendet. Dabei werden für jede Audiospur diskret
die Daten abhängig von der Samplerate und der Bitrate abgespeichert. Neben der linearen
PCM, bei der die Quantisierungsintervalle gleich groß sind, gibt es auch die dynamische
PCM mit verschieden großen Quantisierungsintervallen. Die differenzielle PCM (DPCM)
speichert die Differenz aufeinanderfolgender Abtastwerte statt den Signalwerten.
Wird das PCM-Audiomaterial in einer WAV-Datei eingebunden entsteht eine unkomprimierte WAV-Datei. Der Informationsblock der WAV-Datei (Header) beschreibt in welchem
Format die Audiodaten vorliegen. Es können auch komprimierte Formate in einer WAVDatei verwendet werden.
C.2.2
MP3 und andere Komprimierungen
Es wird zwischen drei Arten der Kodierung unterschieden, die unterschiedliche Komprimierungsarten zulassen. Die direkte Kodierung (PCM), die Entrophiekodierung (z.B.
Huffmann) und die Quellenkodierung (z.B. DPCM, MP3). Eine Übersicht findet man in
[Hen04].
Während MP3 eine verlustbehaftete Komprimierung auf Basis der Psycho-Akustik
verwendet, kann auch eine Komprimierung durch das Aufteilen des Audiosignals in seine Komponenten erreicht werden. Dazu wird das Audiosignal mit Hilfe der F OURIER7 Transformation mathematisch in sein Frequenzspektrum zerlegt, und die Amplituden jeweils einzeln kodiert [Tan03].
Erste Komprimierungstechniken in dem Audiobereich waren µ-law und a-law Kompression, um speziell die Sprachqualität bei den damals sehr begrenzten Sample- und Bitraten zu erhöhen. Heutige Codecs8 arbeiten auf dem vollständigen Frequenzgang und erreichen sehr gute Wiedergabequalität. An dieser Stelle werden nur Fraunhofer MP3, Ogg
Vorbis und MPEG4 [MPEG4] genannt.
C.3
Digitale Schall-Erzeugung
Digitale Audiodaten können auch künstlich generiert werden. Dies geschieht zum Beispiel
in modernen Synthesizern oder Software-Synthesizern, die analoge Synthesizer oder physikalische Tonerzeugung virtuell nachahmen. Einer der bekanntesten Synthesizer dieser Art
ist der Nord Lead 2 der Firma Clavia [Clavia]. Andere Ansätze beschäftigen sich mit der
Berechnung von Geräuschen, ohne bestehendes Audiomaterial zu verwenden. Man spricht
von Physic-Modelling oder Sound-Synthese. Einen ausführlicher Überblick erhält man in
[Co02].
7 Durch die Fourier-Transformation kann eine Funktion als Summe von Sinus- oder Kosinusfunktionen verschiedener Frequenz, Phase und Amplitude dargestellt werden.
8 Akronym aus Kodierung und Dekodierung, Signal-Wandler.
Literaturverzeichnis
[3DSS1]
3D Sound Surge: Gamer’s Guide to 3D sound and reverb engines.
http://www.3dsoundsurge.com/features/articles/3DSoundEngines/
3DSoundEngines.html
[3DSS2]
3D Sound Surge: Gamer’s Guide to 3D sound and reverb APIs. http://www.
3dsoundsurge.com/features/articles/APIs/APIs.html
[AFS03]
W. Ahnert, S. Feistel, O. Schmitz: MODERN TOOLS IN ACOUSTIC DESIGN OF CONCERT HALLS AND THEATRES - USE AND LIMITATIONS
OF COMPUTER SIMULATION AND AURALISATION, XIII Session of the
Russian Acoustical Society Moscow, August 25-29, 2003. http://www.akin.
ru/Docs/Rao/Ses13/AA2.PDF
[AL02]
J. Auger, J. Loizeau: Audio Tooth Implant, 2002.
http://www.auger-loizeau.com
[Ars]
M. Kremer: Ars Auditus, Akustik-Gehör-Psychoakustik.
http://www.dasp.uni-wuppertal.de/ars_auditus/
[Beg94]
D. R. Begault: 3D Audio for Virtual Reality and Multimedia, Academic Press
Professional, Cambridge, 1994.
[BIO]
BionicFX, AVEX. http://www.bionicfx.com/
[Bla97]
Jens Blauert: Spatial Hearing - The Psychophysics of Human Sound Localization. MIT Press, 1997.
[BlueC]
blue-c Webseite. http://blue-c.ethz.ch
[Bor02]
I. Bork: Bericht vom 3. Ringvergleich zur Raumakustischen Simulation,
Physikalisch-Technische-Bundesanstalt (PTB) Braunschweig, DAGA, 2002.
http://www.ptb.de/de/org/1/_index.htm
[CATT]
CATT, Akustik Simulator. http://www.catt.se
[CEA]
CEA, The Consumer Electronics Association: Hall of Fame. http://www.ce.
org/publications/hall_of_fame/jensen_p_01.asp
[Clavia]
Clavia, Nord Lead 2. http://www.clavia.se/nordlead2/
109
110
LITERATURVERZEICHNIS
[CM78]
L. Cremer, H. Müller: Principles and Applications of Room Acoustics, Volume
1, Applied Science, 1978.
[Co02]
Perry R. Cook: Real Sound Synthesis for Interactive Applications, A K Peters
Ltd., 2002.
[Coch]
Institut für Angewandte Physik, Universität Innsbruck: Forschung Cochlea Implantate. http://info.uibk.ac.at/c/c7/c728/Cochlea.html
[CoD]
Call of Duty. Infinity Ward. http://www.callofduty.com
[Cra03]
J. G. Cramer: The Sound of the Big Bang. University of Washington, 2003.
http://faculty.washington.edu/jcramer/BBSound.html
[Cre1]
Creative: CREATIVE’S PURCHASE OF AUREAL’S ASSETS APPROVED.
http://us.creative.com/corporate/pressroom/releases/welcome.
asp?pid=6179
[Cre2]
Creative: EAGLE. http://developer.creative.com/landing.asp?cat=
1&sbcat=32&top=39
[Crytek]
Crytek GmbH: Marco Corbetta, Martin Mittring, persönliche Kommunikation.
http://www.crytek.de
[DASP]
DASP, Institut für Nachrichtentechnik, Bergische Universität Wuppertal, Prof.
Dr.-Ing. Detlef Krahé. http://www.dasp.uni-wuppertal.de
[Dave02]
Sven Havemann: Höhlenzeitalter, iX Magazin für professionelle Informationstechnik, Heise-Verlag, (11), November 2002.
http://www.graphics.tu-bs.de/dave
[DIN]
DIN, Deutsches Institut für Normung e.V.. http://www.din.de
[DTU]
Technische Universität Dänemark, Acoustic Technology.
http://www.dat.dtu.dk
[EASE]
EASE, Akustik Simulator. http://www.sda-softwaredesign.de
[EAX]
Creative: Evironmental Audio Extensions EAX 2.0, 1999.
http://www.soundblaster.com/eax
[Factor5]
Factor5: Thomas Engel, persönliche Kommunikation.
http://www.factor5.com
[FJT02]
Thomas Funkhouser Princeton University, Jean-Marc Jot Creative Technology Ltd., Nicolas Tsingos: SIGGRAPH 2002 Course Notes - “Sounds Good
To Me!”, Computational Sound for Graphics, Virtual Reality, and Interactive
Systems. http://www.cs.princeton.edu/~funk/course02.pdf
[FMOD]
Firelight Technologies Pty.: FMOD Sound System.
http://www.fmod.org
LITERATURVERZEICHNIS
111
[FTC03]
T. Funkhouser, N. Tsingos, I. Carlbom, G. Elko, M. Sondhi, J. West, G. Pingali, P. Min, A. Ngan: A Beam Tracing Method for Interactive Architectural
Acoustics, The Journal of the Acoustical Society of America (JASA), 2003.
http://www.cs.princeton.edu/~funk/jasa01.pdf
[FTC02]
T. Funkhouser, N. Tsingos, I. Carlbom, G. Elko, M. Sondhi, J. West: Modeling
Sound Reflection and Diffraction in Architectural Environments with Beam
Tracing, (invited paper) Forum Acusticum, Sevilla, Spain, September, 2002.
http://www.cs.princeton.edu/~funk/sevilla02.pdf
[FV98]
W.Fasold und E. Veres: Schallschutz und Raumakustik in der Praxis. Verlag
für Bauwesen, 1998.
[Gal02]
V. Gal, C. Le Prado, J.B. Merland, S.Natkin, and L. Vega: Processes and tools
for sound design in computer games. In Proceedings International Computer
Music Conference, September 2002.
http://deptinfo.cnam.fr/Enseignement/DESSJEUX/infoeleves/
ICMC20025.pdf
[Gar99]
W. Gardner: 3D Audio and Acoustic Environment Modeling, 1999. http://
www.harmony-central.com/Computer/Programming/3d-audio.pdf
[Gia03]
Michael Giacchina: Call of Duty soundtrack.
http://www.michaelgiacchino.com
[Gar98]
W. Gardner: 3-D Audio Using Loudspeakers. Kluwer Academic Publishers, Norwell, MA. USA, 1998. http://sound.media.mit.edu/Papers/
gardner_thesis.pdf
[GPG3]
Dante Treglia: Game Programming Gems 3, Charles River Media, 2002.
[Groe02]
Matti Gröhn: LOCALIZATION OF A MOVING VIRTUAL SOUND SOURCE IN A VIRTUAL ROOM, THE EFFECT OF A DISTRACTING AUDITORY STIMULUS, International Conference on Auditory Display, Kyoto,
Japan, July 2-5, 2002. http://www.icad.org/websiteV2.0/Conferences/
ICAD2002/proceedings/43_MattiGrohn.pdf
[GWN03] M. Gross, S. Würmlin, M. Naef, E. Lamboray, C. Spagno, A. Kunz, E. KollerMeier, T. Svoboda, L. Van Gool, S. Lang, K. Strehlke, A. Vande Moere, and
O. Staadt. blue-c: A spatially immersive display and 3D video portal for telepresence. In SIGGRAPH 2003 Conference Proceedings, ACM SIGGRAPH
Annual Conference Series, pp. 819827, July 2003. http://graphics.ethz.
ch/Downloads/Publications/Papers/2003/gro03/p_Gro03.pdf
[Hagia]
The Byzantine Monuments: THE CHURCH OF HAGIA EIRENE.
http://www.patriarchate.org/ecumenical_patriarchate/chapter_
4/html/hagia_eirene.html
[HAVOK] Havok: Havok 2 Physic Engine. http://www.havok.com
112
LITERATURVERZEICHNIS
[Haw88]
Stephen W. Hawking: Eine kurze Geschichte der Zeit, Die Suche nach dem
Urkraft des Universums. Rowohlt, 1988.
[Hen04]
Hendrich, Norman: Vorlesung Medientechnologie - Audiokodierung,
SS2004.
http://tech-www.informatik.uni-hamburg.de/lehre/
ss2004/vorlesungen/medientechnik/04-audio-kodierung.pdf
[HL2]
Valve Cooperation: Half-Life 2. http://www.half-life2.com
[HNO]
Strutz, J., Mann, W., Praxis der HNO-Heilkunde, Kopf- u. Halschirurgie, Georg Thieme Verlag, 2000.
[IASIG98] Interactive Audio Special Interest Group IASIG: 3D Audio Rendering and
Evaluation Guidelines Level 1, 1998.
http://iasig.org/pubs/pubs.shtml
[IASIG99] Interactive Audio Special Interest Group IASIG: 3D Audio Rendering and
Evaluation Guidelines Level 2, 1999.
http://iasig.org/pubs/pubs.shtml
[IDMT]
IDMT, Fraunhofer Institut für Digitale Medientechnologie, Thema Klangfeldsynthese. http://www.idmt.fraunhofer.de/projekte_themen/index.
htm?klangfeldsynthese
[ISO3382] Raumakustische
Grössen
nach
ISO-3382,
1997.
http://www.
virtuallyaudio.ch/publikationen/iso_3382/iso_3382.htm
[JOS]
Global JOS Index. http://ccrma.stanford.edu/~jos/GlobalJOSIndex.
html
[Jot97]
J.-M. Jot: ”Efficient models for reverberation and distance rendering in computer music and virtual audio reality”, Proc. 1997 International Computer Music
Conference.
http://citeseer.ist.psu.edu/jot97efficient.html
[Jot00]
J.-M. Jot: Proposal for IA-SIG 3D Audio Rendering Guideline Level 3
(13DL3), Game Developer Conference 2000.
http://www.gdconf.com/archives/2000/jeanmarc.pdf
[Kaj86]
J. T. Kajiya: The render equation. Computer Graphics 20, 1986
[Koll]
Birger Kollmeier, Medizinische Physik Uni Oldenburg. http://medi.
uni-oldenburg.de/html/teaching_download.html
[Krum]
Jürgen Krummenauer: Mapel in der Schule, Überlagerung von Wellen.
http://php.learnline.de/angebote/blickpunktmatnat/autoren/
krummenauer/maple/schueler/html/ueberlagerung1.htm
LITERATURVERZEICHNIS
113
[Lok02]
Lokki, T., Savioja, L., Väänänen, R., Huopaniemi, J., and Takala, T.: Creating Interactive Virtual Auditory Environments, IEEE Computer Graphics and
Applications, special issue ”Virtual Worlds, Real Sounds”, vol. 22, no. 4, pp.
49-57, July/August 2002.
http://csdl.computer.org/comp/mags/cg/2002/04/g4toc.htm
[Mah01]
Diana Phillips Mahoney: Thanks to advanced simulation and visualization
techniques, sound has never looked so good, Computer Graphics World August, 2001. http://cgw.pennnet.com/Articles/Article_Display.cfm?
Section=Articles&Subsection=Display&ARTICLE_ID=108474
[MPEG4] M4IF, MPEG Industry Forum. http://www.m4if.org
[Mut02]
J. Mutanen: I3DL2 and Creative EAX. Research Seminar on Digital Media,
2002. http://www.tml.hut.fi/Opinnot/Tik-111.590/2002s/Paperit/
mutanen_sempaper2002_OK.pdf
[NFF03]
T. Neumann, C. Fünfzig, D. Fellner: TRIPS - A Scaleable Spatial Sound Library for OpenSG. Eurographics Partner Event OpenSG, 2003.
http://www.eg.org/EG/DL/PE/OPENSG03
[NSG02]
M. Naef, O. Staadt, and M. Gross: Spatialized audio rendering for
immersive virtual environments. In Proceedings of the ACM Symposium on Virtual Reality Software and Technology 2002, pp. 6572,
November 2002. http://graphics.ethz.ch/Downloads/Publications/
Papers/2002/p_Nae02.pdf
[OAL]
OpenAL. http://www.openal.org
[Odeon]
Odeon, Akustik Simulator. http://www.dat.dtu.dk/~odeon/
[Pas]
Laurin Paschek: Die Akustik des neuen Porsche Cayenne. http://www.
all4engineers.de/preview.php?cms=&lng=de&alloc=33&id=25
[PGG]
Princton Graphics Group. http://www.cs.princeton.edu/gfx/
[Pong]
David Winter: Pong-Story. http://www.pong-story.com/pcpong.htm
[QSL]
QSound Labs. http://www.qsound.com
[RAD1]
Rad Game Tools: Miles Sound System Features.
http://www.radgametools.com/mssds.htm
[RAD2]
Rad Game Tools: Miles Sound System.
http://www.radgametools.com/miles.htm
[Ramsete] Ramsete, Akustik Simulator. http://www.ramsete.com
[RMM00] E. Riegelsberger, M. Mason, S. Mishra, Aureal Inc.: Advancing 3D Audio
through an Acoustic Geometry Interface, Game Developer Conference 2000.
http://www.gdconf.com/archives/2000/riegelsb.pdf
114
LITERATURVERZEICHNIS
[Rue]
Martin Rücker: Akustik-Design in der Autoindustrie.
http://www.sueddeutsche.de/automobil/artikel/929/21908/
[San96]
J. Sandvad: Dynamic aspects of auditory virtual environments. Proc. 100th
Audio Engineering Society Convention, preprint 4226, 1996.
[SB]
Soundblaster Spezifikationen.
http://www.tarigon.de/tramp/sblaster.html
[Scha]
Thomas Hart Dachausbau, Schallschutz.
http://www.trockenausbau-hart.de/schallschutz.php
[SEN1]
Sensaura: Sensaura announce 30 million milestone at ECTS 2000. http://
www.sensaura.com/news/pr.php?article=pr020.inc
[SEN2]
Sensaura: Terratec launch first ever Sensaura MultiDrive powered audio soundcard.
http://www.sensaura.com/news/pr.php?article=pr011.inc
[SEN3]
Sensaura: NVIDIA and Sensaura sign licensing agreement.
http://www.sensaura.com/news/pr.php?article=pr021.inc
[SEN4]
Sensaura: SENSAURA VIRTUAL EAR GIVES GAMERS CONTROL OF 3D
POSITIONAL AUDIO, 1999.
http://www.sensaura.com/news/pr.php?article=pr015.inc
[Seng1]
Eberhard Sengpiel: Forum für Mikrofonaufnahmetechnik und Tonstudiotechnik. http://www.sengpielaudio.com/Stereofonie-Welche.pdf
[Seng2]
Eberhard
Sengpiel:
Forum
für
Mikrofonaufnahmetechnik
und
Tonstudiotechnik.
http://www.sengpielaudio.com/
StereoFuerLautsprUndKopfhoerer1.pdf
[Senn1]
Sennheiser Electronic GmbH & Co. KG: NoiseGard.
http://www.sennheiser.com/noisegard/noisegard/index.html
[Senn2]
Sennheiser Electronic GmbH & Co. KG: PXC 250.
http://www.sennheiser.com/sennheiser/icm.nsf/root/04924
[Spi03]
Manfred Spitzer: Musik im Kopf. Schattauer, 3te Auflage, 2003
[SSE]
Diverse SSE Informationen: http://www.tommesani.com/Docs.html und
http://www.codeproject.com/cpp/sseintro.asp
[Sta03]
P. Stampfl: 3deSoundBox a Scalable, Platform-Independent 3D Sound System
for Virtual and Augmented Reality Applications, EG2003 Posters. http://
www.eg.org/EG/DL/Conf/EG2003/poster/papers/stampfl.pdf
[Tan03]
Tanenbaum, Andrew S., Computer Networks, Prentice Hall, 2004
LITERATURVERZEICHNIS
115
[TCE]
T.C. Electronic: M-One XL Effektgerät.
http://www.tcelectronic.com/M-OneXL
[Tenn02]
H. P. Tennhardt: Richtwerte für Nachhallzeiten großer Auditorien, Institut für Erhaltung und Modernisierung von Bauwerken e.V. an der
TU Berlin, 2002. http://www.iemb.de/veroeffentlichungen/infobl\
%E4tter/infoblatt-2-2002.pdf
[TFD]
Farlex Inc.: The Free Dictionary.
http://www.thefreedictionary.com/sabin
[TFNC01] N. Tsingos, T. Funkhouser, A. Ngan, I. Carlbom: Modeling Acoustics in Virtual Environments Using the Uniform Theory of Diffraction, Computer Graphics
(SIGGRAPH 2001), Los Angeles, CA, August, 2001.
http://www.cs.princeton.edu/~funk/sig01.pdf
[TGD03]
N. Tsingos, E. Gallo, G. Drettakis: Perceptual Audio Rendering of
Complex Virtual Environments, REVES/INRIA Sophia-Antipolis, 2003.
http://www-sop.inria.fr/reves/personnel/Nicolas.Tsingos/
publis/sig2004_final.pdf
[TI]
The Inquirer: Creative snaps up Scipher Sensaura business.
http://www.theinquirer.net/?article=13027
[Uhl]
K. Uhlmann, Universität der Bundeswehr München: Angewandte Physik,
Akustik. http://www.unibw-muenchen.de/campus/ETTI/we1/uhlmann/
AP_Ak_03.pdf
[VAT]
VRML 2.0 Audio Tutorial.
http://www.dform.com/inquiry/tutorials/vrmlaudio/
[Veit96]
Ivar Veit: Technische Akustik. Vogel Fachbuch, Kamprath-Reihe, 5te Auflage
1996.
[VIA]
VIA: Sensaura and VIA Announce Licensing Agreement for 3D Audio Technology. http://www.via.com.tw/en/Digital\%20Library/
PR030304VIA-Sensaura.jsp
[VML96] VRML 2.0 Spezifikation, 1996.
http://www.graphcomp.com/info/specs/sgi/vrml/spec/
[Wen01]
E. Wenzel: Effect of increasing system latency on localization of virtual sounds with short and long duration. Proceeding of ICAD 2001, Espoo, Finnland,
August 2001. http://www.acoustics.hut.fi/icad2001/proceedings/
papers/wenzel.pdf
[Wiki]
Wikimedia Foundation Inc.: Wikipedia - Die freie Enzyklopädie.
http://de.wikipedia.org
Index
äquivalente Absorptionsfläche, 58, 61, 94
A3D, 31
Abtastrate, 24, 106
Akustik-Effekte, 5, 24, 25, 57, 66
Akustiker, 1, 100
Faltung, 29
First-Person, 13
FMOD, 25, 31, 35, 51
frühe Reflexionen, 3, 62, 101
Frequenz, 84, 106
Frequenzspektrum, 1, 19, 84
Akustiksimulator, 5, 17
Gehör, 1, 15, 20, 100
Geometrie-Akustik-Interface, 7, 38, 46
Geometrie-Akustik-Primitiv, 7, 38, 40
Geometrie-Engine, 7, 38, 50
Geräusch, 2, 84
GPU, 17, 81
Amplitude, 20, 84, 106
auditives Ereignis, 2, 100
künstliches, 4, 19
Beam-Tracing, 16, 78
Bel, 86
Bezugsschall, 99
Hörer, 2, 12
Hörschwelle, 97, 99
Hörtest, 22, 77
Hall
-Modell, 5
-gerät, 5, 36
-radius, 96
-raum, 5, 36
-signal, 2
HRTF, 16, 20, 21
binaural, 6, 16, 20, 103
Bitauflösung, 24, 106
blue-c, 35, 78
Cochlea, 99, 102
Codec, 108
Darstellung, 4, 12, 29
DAVE, 34
Dezibel, 58, 87, 95, 107
DirectSound3D, 15, 23, 30
I3DL1, 24, 37
I3DL2, 25, 30, 37
I3DL3, 29, 67
IID, 20, 103
Impulsantwort, 3, 16, 22, 29, 67, 100
ITD, 20, 102
DirectX, 30
Direktschall, 3, 25, 64, 96, 100
Dissipation, 90
Dolby-Digital, 12, 21
Doppler-Effekt, 24, 93
Dynamik, 97, 107
Klang, 84
Knochenschall, 22, 101
Koordinatensystem, 13, 15, 102
Kugelstrahler, 85
EAGLE, 33
EAX, 15, 30
Environment, 6, 22, 29, 37
Exklusion, 39, 93
Eyring, 58
Lautsprecher, 4, 19, 20, 22, 88
116
117
INDEX
Listener, 12
GAP, 41
-ausbreitung, 2, 15, 16, 64
-beugung, 2, 90
-brechung, 2, 91
Material, 42, 94
Medium, 43, 94
Membrana Tympani, 98
MIDI, 5
Miles Sound System, 32
monaural, 20
Mono, 20
multi-Listener, 14, 35, 53
Nachhall, 2, 3, 64, 101
Nachhallzeit, 58, 61, 95
Nyquist, 106
-dämmung, 18, 92
-dämpfung, 18, 41, 92
-dissipationgrad, 90
-druck, 85–87
-druckpegel, 58, 87
-energiegröße, 86
-ereignis, 2
-geschwindigkeit, 66, 83, 85
-intensität, 86
-interferenz, 2, 88
-kennimpedanz, 86
-quelle, 2, 14, 83
Obstacle, 43
Obstruktion, 25, 39, 93
Okklusion, 25, 39, 93
OpenAL, 31
PCM (Pulse Code Modulation), 108
Physic-Modelling, 108
Pinna, 98
Portal, 43
Positionierung, 5, 102, 103
-reflexion, 2, 88
-reflexionsfaktor, 86, 89
-reflexionsgrad, 52, 89, 94
-schnelle, 85
-schutz, 2
-signal, 2, 22, 85, 95
-streuungsgrad, 52, 94
-transmission, 52, 64, 90
-transmissionsgrad, 52, 90, 94
-welle, 83
QSound, 31
Qsound, 77
Quad, 21
Quantisierung, 106
Raumakustik, 2, 94
Raumeffekt, 25, 26, 67
Raumgefühl, 2, 101
Reflektor, 40, 62, 88
Reverb-Engine, 17, 29
Reverb-Volumen, 59
Reverv-Volumen, 60
Room, 44
Sabine, 58, 61, 95
Sagitalebene, 98
Schall, 20, 83
-absorption, 2, 90
-absorptionsgrad, 52, 61, 90, 94
Schallfeld, 83
-ausbreitung, 18
-größe, 85
freies, 4, 96
schallhart, 88
Schmerzgrenze, 97, 100
Shannon, 106
Sound, 14
-API, 17, 22, 23, 29, 30
-Kontext, 38, 51
-Server, 8, 34
-chip, 12, 30–32
-karte, 8, 12, 20, 32, 106
-objekt, 14
-pfad, 65, 66
-positionierung, 19, 21, 24
-treiber, 30, 38, 51
3D-, 15
118
INDEX
ambienter, 14
GAP, 42
gerichteter, 15
Listener-dependent (LDS), 52, 59, 66, 70
Omni-, 15
virtueller, 8, 64
Soundkarte, 106
Sphere-Point, 59
Split-Screen, 14
Stereo
Kopfhörer-, 21
Lautsprecher-, 21
Szenenbeschreibung, 4, 17, 38, 40, 44
Tiefpass-Filter, 25, 106
Ton, 84
Top-View, 13
TRIPS, 34, 53
Verhallung, 2, 67, 92
Virtual-Reality, 8, 34, 35
Volume-Point, 59, 63
VRML, 15, 34
Wall, 42
WAV-Datei, 108
weißes Rauschen, 84
Wellenfeld-Synthese, 22
Wellenlänge, 84, 85, 88
Wiederholungsrate, 15, 46, 70
XML-Format, 7, 44

Documentos relacionados