Kapitel 2: Digitale Signale

Transcrição

Kapitel 2: Digitale Signale
ZHAW
NTM, 2007/08, Dqtm, Rumc, 1/14
1. Einleitung
Begriffe
Unter den Stichworten „Nachrichtentechnik“ und „Mobilkommunikation“ findet man unter
anderem die folgenden typischen Definitionen:
Wikipedia: “Die Nachrichtentechnik ist eine Ingenieurwissenschaft und beschäftigt sich
als Teilgebiet der Elektrotechnik mit der Übertragung und Speicherung von Nachrichten
(Information) unter Verwendung elektrischer Signale“.
Meyer’s Taschenlexikon 1992 zur Nachrichtentechnik: „Gesamte Technik für Aufnahme,
Speicherung, Übertragung, und Wiedergabe von Information in Bild und Ton.“
Wikipedia: „Mobilkommunikation bezeichnet Sprach- oder Datenkommunikation mittels
mobiler, drahtloser Endgeräte. Die Mobilkommunikation kann entweder in Netzwerken mit
fester Infrastruktur oder ad-hoc erfolgen.“
Der Begriff „Information“ hat etwas mit Neuheit oder Überraschung zu tun. Bei der Informationsweitergabe spricht man oft von „Nachrichten“, während man bei der Informationsverarbeitung meistens den Begriff „Daten“ verwendet. Nachrichten und Daten werden
physikalisch mit Signalen dargestellt.
Kursziel
Im Kurs „Nachrichtentechnik und Mobilkommunikation (NTM)“ beschäftigen wir uns also
hauptsächlich mit dem Übertragungsaspekt des Nachrichten- und Informationsaustausches,
insbesondere auch von und zu mobilen Endgeräten und insbesondere auf den OSISchichten 1 und 2a, dem Physical- und dem MAC- (Medium Access Control) Layer. Dabei
stehen primär die Grundlagen bzw. die Konzepte und sekundär die Realisierung im Vordergrund. Im Kurs werden auch einige „wireless“ Systeme als Ganzes behandelt.
Historischer Überblick
Die Nachrichten- und die Mobilkommunikation haben in den letzten Jahren massiv an
Bedeutung gewonnen. Die Datenübertragung ist Dank Fortschritten in den Bereichen
„Mikroelektronik“ und „Digitale Signalverarbeitung“ schneller, zuverlässiger und spektral
oder leistungsmässig effizienter geworden.
Es gibt auch immer mehr „wireless“ Standards und Systeme für neue Anwendungsfelder,
wie z.B. HF-Identifikationssysteme bzw. RFID-Systeme für die Logistik, Kurzdistanz-Funklösungen für „wireless“ Sensor-Netzwerke.
Die Nachrichtentechnik ist aber keine neue Disziplin. In Tabelle 1 sind einige wichtige
historische Meilensteine der Nachrichtenübertragung aufgelistet (ohne Anspruch auf
Vollständigkeit).
ZHAW
1837
1858
1876
1901
1906
1920
1927
1933
1936
1938
1944
1948
1948
1953
1960
1962
1965
1969
1980
1992
1993
NTM, 2007/08, Dqtm, Rumc, 2/14
S. Morse erfindet Telegraf und Morsealphabet
Erste Eindraht-Telegrafenverbindung über den Atlantik
A.G. Bell meldet Patent des „Telefons“ an
G. Marconi überträgt Telegramm mit Radiowellen über 1700 Meilen
L. de Forest erfindet Triode (Verstärkung analoger Signale)
Erste AM-Übertragungen
Erstes transatlantisches Telefongespräch via Kurzwellen
E. Armstrong erfindet FM-Radio
BBC strahlt erste Fernsehsendung aus
A. Reeves erfindet die Puls-Code-Modulation (PCM)
Entwicklung des ersten Computers
Erfindung des Transistors
C. Shannon begründet Informationstheorie
Erstes transatlantisches Telefonkabel (mit 51 Zwischenverstärker)
Erfindung des Lasers
Telstar I erlaubt erste transatlantische Fernsehübertragung
Erster geostationärer Satellit („early Bird“ bzw. Intelsat I)
Erste brauchbare Glasfaser für die optische Übertragung
Eine Raumsonde überträgt Bilder vom Jupiter und vom Saturn
Einführung digitaler Mobilfunk (GSM)
Erste ADSL-Verbindung
Tabelle 1: Einige Meilensteine der Nachrichtenübertragung.
Standardisierung
Die Telekommunikation ist schon seit sehr langer Zeit global („tele“ heisst „fern“). In der Informationsgesellschaft ist sie auch wirtschaftlich bedeutend geworden. Dabei spielen Standards
eine wichtige Rolle, einerseits wegen der Interoperabilität zwischen den Netzen und
Systemen verschiedener Hersteller und andererseits wegen der Investitionssicherheit für die
Industrie und den daraus resultierenden Gross-Serien (tiefere Preise).
Es gibt zahlreiche Normierungsgremien auf der Welt und sie spielen ganz unterschiedliche
Rollen, auf die hier nicht näher eingegangen werden kann. Im Folgenden sind einige wichtige Normierungsgremien aufgelistet:
• International Telecommunication Union (ITU-T/-R), UNO, Genf
• International Standards Organisation (ISO)
• ETSI in Europa und ANSI in den USA
• CEPT mit dem ERO (European Radio Office) und FCC in den USA
• IEEE (Normen im Datenkommunikationsbereich)
Die nationalen Regulierungsbehörden wie z.B. das BAKOM in der Schweiz oder das RegTP
in Deutschland nehmen die hoheitlichen und regulatorischen Aufgaben in den Bereichen
Telekommunikation und Rundfunk wahr. Die nationalen Regulierungsbehörden haben z.B.
das Spektrum für UMTS „vergeben“, basierend auf einer (technischen) CEPT-Decision, die
die einzelnen Länder unterschrieben haben. Zur Erinnerung: Das Spektrum ist das „Bauland“
der Mobilkommunikation.
ZHAW
NTM, 2007/08, Dqtm, Rumc, 3/14
Elemente eines Nachrichtensystems
Die meisten Nachrichtensysteme sind heute digital. Es gibt nur noch wenige analoge Nachrichtensysteme, in denen die analogen Quellensignale direkt, ohne vorherige Digitalisierung,
versandt werden. Das a/b-Telefoniesystem, der analoge Rundfunk im LW-, KW-, MW- und
UKW-Band, analoges Fernsehen sowie der Sprechfunk in der Luftfahrt sind die bekanntesten analogen Nachrichtensysteme, die heute noch in Betrieb sind. Aber auch diese Systeme
werden wohl bald durch digitale Nachrichtensysteme abgelöst.
Im Folgenden betrachten wir die wichtigsten Elemente eines digitalen Nachrichtensystems,
siehe Abbildung 1.
äquivalenter
digitaler Kanal
digitale
Quelle
QuellenEncoder
Chiffrierer
KanalEncoder
A/D-Umsetzung
Datenkompression
Verschlüsselung
Fehlerschutz
Modulator
Tx
andere Benutzer
(Multiple Access)
Interferenz
Rauschen
digitale
Senke
QuellenDecoder
Dechiffrierer
KanalDecoder
D/A-Umsetzung
Datendekompression
Entschlüsselung
Fehlerkorrektur
analoger
Kanal
Rx
Demodul.
Abbildung 1: Blockdiagramm eines digitalen Nachrichtensystems.
Die digitalen Daten der (Text-, Bild-, Ton-) Quelle sollen im Nachrichtensystem möglichst
zuverlässig und schnell bzw. bandbreiteneffizient zur Senke übertragen werden.
Quelle
Die Daten der Quelle liegen manchmal schon in digitaler Form vor. Oft müssen die Quellensignale aber vor der Übertragung noch digitalisiert werden.
In Abbildung 2 ist der Vorgang der Analog-Digital-Wandlung dargestellt. Zuerst wird das
analoge Signal mit Hilfe der Abtastung in ein zeitdiskretes Signal umgewandelt. Solange die
Abtastfrequenz fs [Hz] grösser ist als zweimal die Signalbandbreite B [Hz], d.h.
fs > 2·B ,
(1)
geht bei der Abtastung keine Information verloren (Abtasttheorem). Die Inverse der Abtastfrequenz Ts = 1/fs nennt man Abtastintervall.
ZHAW
NTM, 2007/08, Dqtm, Rumc, 4/14
Bei der Quantisierung werden die kontinuierlichen Amplitudenwerte dem nächstgelegenen
Quantisierungsniveau zugeordnet. Diese Rundungsoperation verursacht Rauschen. Man
kann zeigen, dass das Verhältnis von Signalleistung zum Quantisierungsrauschen SNR
[dB] proportional zur Wortbreite W [bit] des AD-Wandlers bzw. dessen Auflösung ist, d.h.
SNR [dB] ~ 6·W [bit].
(2)
Je feiner die Quantisierung ist, desto kleiner ist das Quantisierungsrauschen.
x(t)
analoges Signal
(zeit- und wertkontinuierlich)
t
Abtastung
zeitdiskretes,
wertkontinuierliches Signal
-Ts
Ts
t
Quantisierung
digitales Signal
(zeit- und wertdiskret)
t
Codierung
t
z.B. binäres Signal
Abbildung 2: Vorgang der Analog-Digital-Wandlung.
Abgetastete und quantisierte Signale bezeichnet man als digitale Signale. Die Umwandlung
eines digitalen Signals in ein anderes (z.B. binäres) digitales Signal schliesslich bezeichnet
man als Codierung. Die Datenrate beträgt nach der Digitalisierung
R [bit/s] = fs [Sample/s] · W [bit/Sample].
(3)
Beispiel
In der digitalen PCM-Telefonie werden die ca. 3 kHz breiten Sprachsignale mit 8 kHz
bzw. 8000 Samples/s abgetastet und mit 8 bit/Sample (nach dem A-law-KompressionsVerfahren) quantisiert. Die Datenrate für eine unidirektionale PCM-Telefonverbindung
beträgt deshalb 64 kbit/s.
Quellencodierung
Die Hauptaufgabe der Quellencodierung ist die Reduktion der Redundanz und/oder
Irrelevanz am Ausgang der Quelle, damit weniger Daten übertragen oder abgespeichert
werden müssen (Datenkompression).
Man unterscheidet zwei grundsätzlich verschiedene Quellencodierungsarten. Es gibt die
verlustlosen Quellencodierungsverfahren (Redundanzreduktion), mit denen der Empfänger
die Originaldaten wieder perfekt herstellen kann. Sie werden z.B. bei der zip-Datenkomprimierung verwendet.
ZHAW
NTM, 2007/08, Dqtm, Rumc, 5/14
Für die Nachrichtenübertragung werden die verlustbehafteten Quellencodierungsverfahren
wie z.B. MP3, JPEG oder MPEG aber immer wichtiger. Bei diesen Quellencodierungsverfahren werden nur noch die für das Auge oder das Ohr des Empfängers relevanten
Informationen übertragen (Irrelevanzreduktion).
Die Datenkompression hat eine hohe wirtschaftliche Bedeutung. Wenn weniger Daten übertragen werden müssen, kommt der Benutzer im Allgemeinen schneller in den Besitz einer
Nachricht und muss weniger Übertragungszeit bzw. -volumen bezahlen. Umgekehrt kann ein
Operator mit der gleichen Infrastruktur mehr Übertragungskapazität anbieten und damit mehr
Einnahmen generieren.
Beispiel
In Abbildung 3 ist die verlustlose Redundanzreduktion bei einer ternären Quelle mit verschieden wahrscheinlichen Symbolen dargestellt. Dank der Zuteilung des kurzen Codeworts {0} für das am häufigsten auftretende Quellensymbol „A“ ist es möglich, ein
Quellensymbol im Mittel mit nur 1.5 Bit darzustellen, statt mit 2 Bit / Symbol ohne
Quellencodierung.
ternäre
Quelle
A B C A A B A C ...
Symbole
A mit P(A) = 50%
B mit P(B) = 25%
C mit P(C) = 25%
QuellenEncoder
0’ 1 0’ 1 1’ 0’ 0’ 1 0’ 0’ 1 1 ...
Code
A => 0
B => 10
C => 11
Abbildung 3: Verlustlose Redundanzreduktion bei einer ternären Quelle.
Beispiel
Es folgen einige Benchmarks für verlustbehaftete Quellencodierungsverfahren:
Im Mobilfunkstandard GSM wird die Sprache mit einem Vocoder auf 13 kbit/s komprimiert, ohne dass die Sprachverständlichkeit „leidet“. Zum Vergleich: In der digitalen
Telefonie werden 64 kbit/s pro unidirektionaler Sprachverbindung verwendet, also fast
5 Mal mehr als beim GSM-Vocoder.
Mit dem MPEG/Audio-Standard MP3 können Audio-Stereosignale ziemlich klanggetreu
mit einer Datenrate von 128 kbit/s übertragen werden. Zum Vergleich: Die Netto-Datenrate für die Übertragung von 20 kHz breiten Audio-Stereosignalen in CD-Qualität beträgt
2 x 44.1 kSample/s x 16 Bit/Sample ≈ 1.4 Mbit/s, also ca. 11 mal mehr als mit der verlustbehafteten MP3-Kompression.
Der JPEG-Standard (Joint Photographic Experts Group) eignet sich gut für die verlustbehaftete Kompression von natürlichen Bildern. Es sind unterschiedliche Kompressionsfaktoren und, damit verbunden, unterschiedliche Qualitäten wählbar, siehe Abbildung 4.
Mit einem der vier MPEG-2 Substandards können Videobilder (720 x 576 Pixel, typisch
30 Hz Framerate) mit bis zu 15 Mbit/s für die DVD komprimiert werden. Es gibt auch
MPEG-2 oder MPEG-4 (Sub-) Standards, mit denen Videos mit kleinerer Datenrate,
dafür aber mit etwas weniger guter Qualität übertragen werden können.
ZHAW
NTM, 2007/08, Dqtm, Rumc, 6/14
24 Bit / Pixel
Originalbild mit True Color Auflösung (RGB).
1.5 - 2.0 Bit / Pixel (Kompressionsfaktor 12 ... 16)
Normalerweise nicht vom Original unterscheidbar.
Genügt den höchsten professionellen Anforderungen.
0.75 - 1.5 Bit / Pixel (Kompressionsfaktor 16 ... 32)
Exzellente Qualität.
Genügt den meisten Anforderungen.
0.5 - 0.75 Bit / Pixel (Kompressionsfaktor 32 ... 48)
Gute bis sehr gute Qualität.
Genügend für viele Anwendungen.
0.25 - 0.5 Bit / Pixel (Kompressionsfaktor 48 ... 96)
Bescheidene bis gute Qualität.
Genügend für gewisse Anwendungen.
Abbildung 4: Kompressionsfaktoren und Bildqualität bei JPEG.
Chiffrierung
Der Chiffrierer (engl. cipher) versteckt die Klartext-Information (plain text) in einem Chiffrat
(cipher text), mit dem Ziel
• der Geheimhaltung: Unbefugte sollen die Nachricht nicht lesen können.
• der Integrität: Unbefugte sollen die Nachricht nicht modifizieren oder löschen können.
• der Authentifikation:
Die Nachricht stammt vom richtigen Absender und geht an den richtigen Adressaten.
Jede Chiffrierung benutzt einen Algorithmus sowie einen Schlüssel. Die Verschlüsselung ist
dann gut, wenn der „Gegner“ den Klartext nur durch Ausprobieren aller möglichen Schlüssel
finden kann, selbst wenn er den Verschlüsselungsalgorithmus kennt und einen Chiffrierer
sowie einen Dechiffrierer besitzt.
Kanalkodierung (Forward Error Correction FEC)
Der Kanalencoder fügt gezielt Redundanz in den Datenstrom, um die Übertragungssicherheit
zu verbessern. Durch Hinzufügen von möglichst wenig Redundanz (z.B. Parity Bits) im
Sender sollen möglichst viele Übertragungsfehler im Empfänger detektiert bzw. korrigiert
werden können.
Beispiel
In Abbildung 5 ist ein Kanal-Encoder dargestellt, der für jedes Infowort mit der Länge von
4 Bit am Eingang ein Codewort mit der Länge von 7 Bit ausgibt. Die einzelnen Codeworte
bestehen aus 4 Informationsbits und 3 sogenannten Parity Bits.
Man kann überprüfen, dass sich die einzelnen Codewörter an mindestens 3 Stellen
unterscheiden (minimale Hammingdistanz ist 3). Damit können alle Fehlermuster mit
2 oder weniger Übertragungsfehlern detektiert und alle Fehlermuster mit 1 Fehler
korrigiert werden. Die Netto-Übertragungsrate ist allerdings nur noch 4/7 der BruttoÜbertragungsrate bzw. der Datenrate auf dem Kanal.
ZHAW
NTM, 2007/08, Dqtm, Rumc, 7/14
KanalEncoder
u
v
0000
1000
0100
1100
0010
1010
0110
1110
0001
1001
0101
1101
0011
1011
0111
1111
000
110
011
101
111
001
100
010
101
011
110
000
010
100
001
111
0000
1000
0100
1100
0010
1010
0110
1110
0001
1001
0101
1101
0011
1011
0111
1111
Abbildung 5: Beispiel eines Kanal- bzw. Fehlerschutzcodes.
Es gibt zwei grosse Codeklassen, nämlich die Blockcodes (siehe Abbildung 5) und die
sogenannten Faltungscodes (bzw. Trelliscodes). In der Praxis sind die Faltungscodes sehr
verbreitet, weil ein guter und effizienter Dekoder verfügbar ist (Viterbi-Dekoder).
In der Mobilkommunikation ist es durchaus üblich, mit Coderaten von R = 1/2 zu arbeiten,
d.h. die Datenrate durch Hinzufügen von redundanten Bits zu verdoppeln.
In einigen Nachrichtensystemen werden die Kanalkodierung und die Modulation in einem
Block „Trellis Coded Modulation (TCM)“ zusammengefasst.
Modulator
Der Modulator prägt die digitale Information einem analogen (Träger-) Signal so auf, dass
eine Informationsübertragung über einen analogen Kanal (z.B. einen Mobilfunkkanal) überhaupt möglich wird. Der Demodulator hat die Aufgabe, die Information aus dem verrauschten
Empfangssignal wieder „zurückzugewinnen“.
Beispiel
In Abbildung 6 ist die digitale Modulation mit 4-wertiger Phasenumtastung (engl. quadriphase shift keying bzw. QPSK) dargestellt. Es werden immer 2 Bits zu einem Symbol
zusammengefasst und ein Trägersignal mit einer definierten Phasenverschiebung von
einem Vielfachen von 900 gesendet.
180 Grad
1
1
0 Grad
1
0
90 Grad
0
0
-90 Grad
1
1
180 Grad
0
1
0 Grad
1
0
0
0
-1
0
1
2
3
4
5
6
Abbildung 6: Beispiel QPSK-Modulation.
7
8
9
10
11
12 t [μs]
ZHAW
NTM, 2007/08, Dqtm, Rumc, 8/14
Sender und Empfänger (RF-Teil)
In Abbildung 7 ist das Blockschaltbild eines Sende-Empfängers (TRx) dargestellt
(Heterodyn-Prinzip).
Up-Converter
(Mischer)
Power
Amplifier
Tx Front-End
(BP-) Filter
IQModulator
Daten
Antenne
Rx / Tx
Duplexer
IQDemodulator
Daten
Kanalbzw. IF-Filter
Base-Band
Down-Converter
(Mischer)
Low-Noise
Amplifier
IF-Band
Rx Front-End
(BP-) Filter
RF-Band
Amplitude
Frequenz
DC
fIF
fRx
HF-Kanäle
Abbildung 7: Blockschaltbild Sender und Empfänger (Heterodyn-Prinzip).
Mit dem IQ-Modulator können verschiedene Modulationen realisiert werden. Die Bedeutung
von IQ wird später im Kurs erklärt. Das modulierte Trägersignal wird auf eine feste Zwischenfrequenzlage fIF (engl. intermediate frequency) gebracht.
Der Up-Converter (Mischer) hat die Aufgabe, das modulierte Trägersignal aus der Zwischenfrequenzlage fIF in die endgültige Sendefrequenzlage fTX zu verschieben. In vielen Anwendungen sind mehrere Sendekanäle möglich, die Sendefrequenz fTX sollte also in einem bestimmten Frequenzraster gewählt werden können.
Die Leistungsendstufe (Power Amplifier bzw. PA) erzeugt die verlangte Sendeleistung, die je
nach Anwendung zwischen einigen Milliwatt für Kurzdistanz-Funksysteme bis zu einigen
Megawatt für Rundfunksender oder Radarsysteme betragen kann. Die Ausgangsleistung
kann meistens geregelt oder in Stufen über programmierbare Dämpfungsglieder eingestellt
werden. „Power Control“ wird in modernen Systemen immer wichtiger.
Vor und/oder nach dem Leistungsverstärker befinden sich Bandpassfilter (Tx Front End
Filter), welche dafür sorgen, dass die Vorschriften betreffend der Unterdrückung von Störsignalen in benachbarten Frequenzbändern bzw. Kanälen eingehalten werden.
Meist dient die Antenne sowohl als Sende- als auch als Empfangsantenne. Je nach Frequenzband und gewünschter Richtcharakteristik sind die verschiedensten Formen möglich
(λ/2-Dipol, λ/4-Stabantenne, Patch-Antenne, Mehrelement-Yagi Richtantenne, Parabolspiegel, magnetische Loop-Antenne, usw.).
ZHAW
NTM, 2007/08, Dqtm, Rumc, 9/14
Ein Duplexer arbeitet als Sende-/Empfangsweiche. Wird ein Frequenzduplexverfahren, wie
z.B. bei GSM, angewendet, so sind Sende- und Empfangsband verschieden und die Trennung geschieht direkt über die frequenzmässig versetzten Rx und Tx Front End Filter. Bei
Zeitduplexverfahren, wie z.B. beim Schnurlos-Telefon-Standard DECT, kann die Trennung
über einen Schalter geschehen, der die Antenne zwischen Sende- und Empfangspfad
umschaltet. Bei hohen Sendeleistungen muss darauf geachtet werden, dass die Isolation
zwischen Sende- und Empfangspfad gross genug ist, damit der Sender nicht den Empfänger
zustopfen kann.
Das Rx Front End Filter lässt meistens nur gerade das Frequenzband herein, in dem die
Übertragungsstrecke betrieben wird. Bei mehreren nicht nebeneinander liegenden Bändern
(Beispiel GSM auf 900 MHz und 1800 MHz) oder bei sehr breiten Empfangsbändern (Beispiel Kurzwellenband von 3 MHz ... 30 MHz), wird meist zwischen mehreren festen Front
End Filtern umgeschaltet.
Am Antennenanschluss liegen bei Anwendungen mit kleinen Sendeleistungen und/oder
grossen Reichweiten sehr schwache Signalpegel an, die sich nur knapp über dem thermischen Rauschen befinden und deshalb zuerst mit einem Vorverstärker mit möglichst wenig
Eigenrauschen, einem sogenannten low noise amplifier bzw. LNA verstärkt werden müssen.
Der Down-Converter bringt das gewünschte Empfangssignal auf der Mittenfrequenz fRX
durch eine Mischung in die fixe Zwischenfrequenzlage fIF. Dem Kanal- bzw. IF-Filter mit der
Mittenfrequenz fIF kommt die wichtige Aufgabe der Kanalselektion zu. Es besitzt meist sehr
steile Flanken und lässt somit nur den gewünschten Empfangskanal durch, bei gleichzeitiger
Unterdrückung sämtlicher Nachbarkanäle im gleichen Empfangsband. Gleichzeitig wirkt es
als Optimalfilter, in dem seine Durchlasskennlinie dem empfangenen Signalspektrum angepasst ist und somit ein optimales Signal-zu-Rauschverhältnis erzielt wird.
Mit dem IQ-Demodulator können die Daten auf dem Trägersignal in der Zwischenfrequenzlage fIF. wieder „entfernt“ bzw. demoduliert werden. Da die Daten in aller Regel mehr oder
weniger verrauscht sind, folgt nach der Demodulation spätestens nach dem FEC-Dekoder
eine Detektion zur Bestimmung der höchstwahrscheinlich gesendeten Bitfolge.
Dekoder
Die verschiedenen Dekoder in Abbildung 1 dienen der Fehlerkorrektur, der De-Chiffrierung
und der Datendekompression.
Beispiel GSM-Chipset
In Abbildung 8 ist ein nicht mehr ganz neuer GSM-Chipset abgebildet. Darin sind die
einzelnen, besprochenen Elemente eines digitalen Nachrichtensystems gut sichtbar.
ZHAW
Abbildung 8: GSM-Chipset (Quelle Siemens).
NTM, 2007/08, Dqtm, Rumc, 10/14
ZHAW
NTM, 2007/08, Dqtm, Rumc, 11/14
Kanal
Der Kanal bestimmt letztendlich die Kommunikationsmöglichkeiten wie z.B. die maximale
Datenrate oder die Reichweite.
Diese Tatsache soll an Hand des einfachen, oft verwendeten AWGN-Kanalmodells in
Abbildung 9 dargestellt werden, mit dem z.B. thermisches Rauschen gut modelliert werden
kann. AWGN steht für additive white Gaussian noise. Das Sendesignal mit der maximalen
Signalleistung S und der Bandbreite B wird durch Addition von Rauschen mit der Leistungsdichte N0 [W/Hz] gestört. Das Rauschen enthält alle Frequenzkomponenten und hat
gaussverteilte Amplitudenwerte.
Rauschleistungsdichte [W/Hz]
N0
Bandbreite B
Kanal
f [Hz]
Rauschen
(weiss im Spektrum, Amplitude Gaussverteilt)
KanalEingang
KanalAusgang
„Kanal“
Abbildung 9: AWGN-Kanalmodell für thermisches Rauschen.
Bei der Kommunikation über einen AWGN-Kanal hängt die Bitfehlerrate BER vom Signal-zuRauschverhältnis SNR [dB] ab.
Die Rauschleistung N [dBm] im Kanal mit der Bandbreite B [Hz] kann mit der folgenden
Faustformel gut approximiert werden:
N [dBm] ≈ -174 dBm + 10·log10(B)
(4)
In der Praxis vergleicht man verschiedene Nachrichtensysteme an Hand ihrer „BER-versusSNR“-Kurven, siehe Beispiel in Abbildung 10. Lesebeispiel: Wenn bei der Übertragung über
einen AWGN-Kanal 4-wertige Quadratur-Amplituden-Modulation (QAM) bzw. QPSKModulation (2 Bit pro Symbol) verwendet wird, muss die Signalleistung S mindestens 10 Mal
grösser als die Rauschleistung N sein (SNR ≥ 10 dB), damit die Symbolfehlerrate PM bzw.
die Bitfehlerrate BER ≤ 10-5 wird (1 Bitfehler auf 100'000 übertragene Bit). Überträgt man
schneller, z.B. 6 Bit pro Symbol mit 64-wertiger QAM-Modulation, braucht man für die gleiche
BER fast SNR ≥ 20 dB, d.h. fast 10 dB bzw. 10 mal mehr Signalleistung als mit der langsameren QPSK-Modulation. Normalerweise resultieren dann eine kürzere Autonomie (weniger
Betriebsstunden mit einem vorgegebenen Akku) oder eine kürzere Reichweite.
Mit Hilfe der minimal erforderlichen SNR-Werte für eine akzeptable BER (z.B. BER ≤ 10-2 für
Sprach- und BER ≤ 10-5 für Datenkommunikation) kann die Empfänger-Empfindlichkeit wie
folgt approximiert werden:
Empfindlichkeit [dBm] ≈ N [dBm] + SNR [dB]
(5)
ZHAW
NTM, 2007/08, Dqtm, Rumc, 12/14
Abbildung 10: BER-versus-SNR-Performance für QAM auf einem AWGN-Kanal, siehe [1].
Für das Link-Engineering interessiert die maximale Reichweite R. Die meisten Ausbreitungsmodelle für die Funkübertragung haben die Form
A [dB] = a + b·log10(R [km]) ,
(6)
wobei A die Dämpfung in der Luft, R die Reichweite zwischen Sender und Empfänger und
a und b Konstanten sind, die vom Funkkanal abhängen, siehe Abbildung 11.
ZHAW
NTM, 2007/08, Dqtm, Rumc, 13/14
A [dB]
b dB/Dekade
a (@ 1km)
R [km] logarithmisch
1
x
10x
Abbildung 11: Funkausbreitungsmodell bzw. Dämpfung A in Funktion der Reichweite R.
Beispiel: Für die Freiraumdämpfung Af gilt:
Af [dB] = 32.4 dB + 20·log10 (f [MHz]) + 20·log10 (R [km])
(7)
Im Freiraum nimmt die Dämpfung mit 20 dB zu, wenn man die Distanz verzehnfacht. Im
(zellularen) Mobilfunk sind es sogar 35-40 dB.
Die maximal tolerierbare Dämpfung Amax kann mit einem Linkbudget bestimmt werden. Sie
entspricht der Differenz zwischen der effektiv abgestrahlten Leistung EIRP (effective
isotropic radiated power) und der Empfindlichkeit, d.h.
Amax [dB] = EIRP [dBm] – Empfindlichkeit [dBm].
(8)
Durch Einsetzen von Amax in (7) und Auflösen nach R kann die maximale Reichweite Rmax
bestimmt werden.
Mehrfach-Zugriffsverfahren
In vielen Nachrichtensystemen können mehrere Benutzer dank einem Mehrfach-Zugriffsverfahren quasi-gleichzeitig über das gleiche Medium Daten übertragen. Die wichtigsten
Multiple-Access-Verfahren sind:
TDMA bzw. Time-Division-Multiple-Access
Den einzelnen Benutzern werden für die Übertragung kurze Zeitschlitze zugeteilt, in denen
sie das ganze, verfügbare Frequenzspektrum und damit die ganze Übertragungskapazität
alleine benützen können.
FDMA bzw. Frequency-Division-Multiple-Access
Den einzelnen Benutzern werden für die Übertragung einzelne Frequenzkanäle und damit
nur ein Bruchteil der Übertragungskapazität zugeteilt. Dafür können die Benutzer ihren Kanal
die ganze Zeit benützen.
CDMA bzw. Code-Division-Multiple-Access
Die einzelnen Benutzer verwenden ununterbrochen das ganze Frequenzspektrum (aber
nicht die ganze Übertragungskapazität) und benützen zwecks Unterscheidung je eine unterschiedliche Spreizung (Kennung).
SDMA bzw. Space-Division-Multiple-Access
Die einzelnen Verbindungen werden örtlich getrennt, z.B. mit Funkzellen, so dass sie sich
gegenseitig „kaum“ mehr stören.
ZHAW
NTM, 2007/08, Dqtm, Rumc, 14/14
Beispiel
Im Mobilfunkstandard GSM wird die Sprache mit einem Vocoder auf 13 kbit/s komprimiert. Danach werden die komprimierten Daten mit einem Kanalcode gegen Übertragungsfehler geschützt, so dass nach dem Kanalencoder eine Datenrate von 22.8
kbit/s resultiert. Die Übertragung über die Luft ist zudem verschlüsselt.
GSM ist ein FDMA- und ein TDMA-System. Im 900 MHz Band stehen 124 verschiedene,
200 kHz breite Frequenzkanäle mit je 8 Zeitschlitzen zur Verfügung. Eine Basisstation
besitzt typisch 2-6 Frequenzkanäle und kann deshalb theoretisch 16 bis 48 Sprachverbindungen gleichzeitig unterstützen.
Literatur
[1]
J.G. Proakis, M. Salehi, “Grundlagen der Kommunikationstechnik”, Pearson, 2004,
ISBN 3-8273-7064-7.
[2]
M. Meyer, „Kommunikationstechnik“, Vieweg, 2002.
[3]
J. Schiller, „Mobilkommunikation“, Pearson, ISBN 3-8273-7060-4.

Documentos relacionados