Kapitel 2: Digitale Signale
Transcrição
Kapitel 2: Digitale Signale
ZHAW NTM, 2007/08, Dqtm, Rumc, 1/14 1. Einleitung Begriffe Unter den Stichworten „Nachrichtentechnik“ und „Mobilkommunikation“ findet man unter anderem die folgenden typischen Definitionen: Wikipedia: “Die Nachrichtentechnik ist eine Ingenieurwissenschaft und beschäftigt sich als Teilgebiet der Elektrotechnik mit der Übertragung und Speicherung von Nachrichten (Information) unter Verwendung elektrischer Signale“. Meyer’s Taschenlexikon 1992 zur Nachrichtentechnik: „Gesamte Technik für Aufnahme, Speicherung, Übertragung, und Wiedergabe von Information in Bild und Ton.“ Wikipedia: „Mobilkommunikation bezeichnet Sprach- oder Datenkommunikation mittels mobiler, drahtloser Endgeräte. Die Mobilkommunikation kann entweder in Netzwerken mit fester Infrastruktur oder ad-hoc erfolgen.“ Der Begriff „Information“ hat etwas mit Neuheit oder Überraschung zu tun. Bei der Informationsweitergabe spricht man oft von „Nachrichten“, während man bei der Informationsverarbeitung meistens den Begriff „Daten“ verwendet. Nachrichten und Daten werden physikalisch mit Signalen dargestellt. Kursziel Im Kurs „Nachrichtentechnik und Mobilkommunikation (NTM)“ beschäftigen wir uns also hauptsächlich mit dem Übertragungsaspekt des Nachrichten- und Informationsaustausches, insbesondere auch von und zu mobilen Endgeräten und insbesondere auf den OSISchichten 1 und 2a, dem Physical- und dem MAC- (Medium Access Control) Layer. Dabei stehen primär die Grundlagen bzw. die Konzepte und sekundär die Realisierung im Vordergrund. Im Kurs werden auch einige „wireless“ Systeme als Ganzes behandelt. Historischer Überblick Die Nachrichten- und die Mobilkommunikation haben in den letzten Jahren massiv an Bedeutung gewonnen. Die Datenübertragung ist Dank Fortschritten in den Bereichen „Mikroelektronik“ und „Digitale Signalverarbeitung“ schneller, zuverlässiger und spektral oder leistungsmässig effizienter geworden. Es gibt auch immer mehr „wireless“ Standards und Systeme für neue Anwendungsfelder, wie z.B. HF-Identifikationssysteme bzw. RFID-Systeme für die Logistik, Kurzdistanz-Funklösungen für „wireless“ Sensor-Netzwerke. Die Nachrichtentechnik ist aber keine neue Disziplin. In Tabelle 1 sind einige wichtige historische Meilensteine der Nachrichtenübertragung aufgelistet (ohne Anspruch auf Vollständigkeit). ZHAW 1837 1858 1876 1901 1906 1920 1927 1933 1936 1938 1944 1948 1948 1953 1960 1962 1965 1969 1980 1992 1993 NTM, 2007/08, Dqtm, Rumc, 2/14 S. Morse erfindet Telegraf und Morsealphabet Erste Eindraht-Telegrafenverbindung über den Atlantik A.G. Bell meldet Patent des „Telefons“ an G. Marconi überträgt Telegramm mit Radiowellen über 1700 Meilen L. de Forest erfindet Triode (Verstärkung analoger Signale) Erste AM-Übertragungen Erstes transatlantisches Telefongespräch via Kurzwellen E. Armstrong erfindet FM-Radio BBC strahlt erste Fernsehsendung aus A. Reeves erfindet die Puls-Code-Modulation (PCM) Entwicklung des ersten Computers Erfindung des Transistors C. Shannon begründet Informationstheorie Erstes transatlantisches Telefonkabel (mit 51 Zwischenverstärker) Erfindung des Lasers Telstar I erlaubt erste transatlantische Fernsehübertragung Erster geostationärer Satellit („early Bird“ bzw. Intelsat I) Erste brauchbare Glasfaser für die optische Übertragung Eine Raumsonde überträgt Bilder vom Jupiter und vom Saturn Einführung digitaler Mobilfunk (GSM) Erste ADSL-Verbindung Tabelle 1: Einige Meilensteine der Nachrichtenübertragung. Standardisierung Die Telekommunikation ist schon seit sehr langer Zeit global („tele“ heisst „fern“). In der Informationsgesellschaft ist sie auch wirtschaftlich bedeutend geworden. Dabei spielen Standards eine wichtige Rolle, einerseits wegen der Interoperabilität zwischen den Netzen und Systemen verschiedener Hersteller und andererseits wegen der Investitionssicherheit für die Industrie und den daraus resultierenden Gross-Serien (tiefere Preise). Es gibt zahlreiche Normierungsgremien auf der Welt und sie spielen ganz unterschiedliche Rollen, auf die hier nicht näher eingegangen werden kann. Im Folgenden sind einige wichtige Normierungsgremien aufgelistet: • International Telecommunication Union (ITU-T/-R), UNO, Genf • International Standards Organisation (ISO) • ETSI in Europa und ANSI in den USA • CEPT mit dem ERO (European Radio Office) und FCC in den USA • IEEE (Normen im Datenkommunikationsbereich) Die nationalen Regulierungsbehörden wie z.B. das BAKOM in der Schweiz oder das RegTP in Deutschland nehmen die hoheitlichen und regulatorischen Aufgaben in den Bereichen Telekommunikation und Rundfunk wahr. Die nationalen Regulierungsbehörden haben z.B. das Spektrum für UMTS „vergeben“, basierend auf einer (technischen) CEPT-Decision, die die einzelnen Länder unterschrieben haben. Zur Erinnerung: Das Spektrum ist das „Bauland“ der Mobilkommunikation. ZHAW NTM, 2007/08, Dqtm, Rumc, 3/14 Elemente eines Nachrichtensystems Die meisten Nachrichtensysteme sind heute digital. Es gibt nur noch wenige analoge Nachrichtensysteme, in denen die analogen Quellensignale direkt, ohne vorherige Digitalisierung, versandt werden. Das a/b-Telefoniesystem, der analoge Rundfunk im LW-, KW-, MW- und UKW-Band, analoges Fernsehen sowie der Sprechfunk in der Luftfahrt sind die bekanntesten analogen Nachrichtensysteme, die heute noch in Betrieb sind. Aber auch diese Systeme werden wohl bald durch digitale Nachrichtensysteme abgelöst. Im Folgenden betrachten wir die wichtigsten Elemente eines digitalen Nachrichtensystems, siehe Abbildung 1. äquivalenter digitaler Kanal digitale Quelle QuellenEncoder Chiffrierer KanalEncoder A/D-Umsetzung Datenkompression Verschlüsselung Fehlerschutz Modulator Tx andere Benutzer (Multiple Access) Interferenz Rauschen digitale Senke QuellenDecoder Dechiffrierer KanalDecoder D/A-Umsetzung Datendekompression Entschlüsselung Fehlerkorrektur analoger Kanal Rx Demodul. Abbildung 1: Blockdiagramm eines digitalen Nachrichtensystems. Die digitalen Daten der (Text-, Bild-, Ton-) Quelle sollen im Nachrichtensystem möglichst zuverlässig und schnell bzw. bandbreiteneffizient zur Senke übertragen werden. Quelle Die Daten der Quelle liegen manchmal schon in digitaler Form vor. Oft müssen die Quellensignale aber vor der Übertragung noch digitalisiert werden. In Abbildung 2 ist der Vorgang der Analog-Digital-Wandlung dargestellt. Zuerst wird das analoge Signal mit Hilfe der Abtastung in ein zeitdiskretes Signal umgewandelt. Solange die Abtastfrequenz fs [Hz] grösser ist als zweimal die Signalbandbreite B [Hz], d.h. fs > 2·B , (1) geht bei der Abtastung keine Information verloren (Abtasttheorem). Die Inverse der Abtastfrequenz Ts = 1/fs nennt man Abtastintervall. ZHAW NTM, 2007/08, Dqtm, Rumc, 4/14 Bei der Quantisierung werden die kontinuierlichen Amplitudenwerte dem nächstgelegenen Quantisierungsniveau zugeordnet. Diese Rundungsoperation verursacht Rauschen. Man kann zeigen, dass das Verhältnis von Signalleistung zum Quantisierungsrauschen SNR [dB] proportional zur Wortbreite W [bit] des AD-Wandlers bzw. dessen Auflösung ist, d.h. SNR [dB] ~ 6·W [bit]. (2) Je feiner die Quantisierung ist, desto kleiner ist das Quantisierungsrauschen. x(t) analoges Signal (zeit- und wertkontinuierlich) t Abtastung zeitdiskretes, wertkontinuierliches Signal -Ts Ts t Quantisierung digitales Signal (zeit- und wertdiskret) t Codierung t z.B. binäres Signal Abbildung 2: Vorgang der Analog-Digital-Wandlung. Abgetastete und quantisierte Signale bezeichnet man als digitale Signale. Die Umwandlung eines digitalen Signals in ein anderes (z.B. binäres) digitales Signal schliesslich bezeichnet man als Codierung. Die Datenrate beträgt nach der Digitalisierung R [bit/s] = fs [Sample/s] · W [bit/Sample]. (3) Beispiel In der digitalen PCM-Telefonie werden die ca. 3 kHz breiten Sprachsignale mit 8 kHz bzw. 8000 Samples/s abgetastet und mit 8 bit/Sample (nach dem A-law-KompressionsVerfahren) quantisiert. Die Datenrate für eine unidirektionale PCM-Telefonverbindung beträgt deshalb 64 kbit/s. Quellencodierung Die Hauptaufgabe der Quellencodierung ist die Reduktion der Redundanz und/oder Irrelevanz am Ausgang der Quelle, damit weniger Daten übertragen oder abgespeichert werden müssen (Datenkompression). Man unterscheidet zwei grundsätzlich verschiedene Quellencodierungsarten. Es gibt die verlustlosen Quellencodierungsverfahren (Redundanzreduktion), mit denen der Empfänger die Originaldaten wieder perfekt herstellen kann. Sie werden z.B. bei der zip-Datenkomprimierung verwendet. ZHAW NTM, 2007/08, Dqtm, Rumc, 5/14 Für die Nachrichtenübertragung werden die verlustbehafteten Quellencodierungsverfahren wie z.B. MP3, JPEG oder MPEG aber immer wichtiger. Bei diesen Quellencodierungsverfahren werden nur noch die für das Auge oder das Ohr des Empfängers relevanten Informationen übertragen (Irrelevanzreduktion). Die Datenkompression hat eine hohe wirtschaftliche Bedeutung. Wenn weniger Daten übertragen werden müssen, kommt der Benutzer im Allgemeinen schneller in den Besitz einer Nachricht und muss weniger Übertragungszeit bzw. -volumen bezahlen. Umgekehrt kann ein Operator mit der gleichen Infrastruktur mehr Übertragungskapazität anbieten und damit mehr Einnahmen generieren. Beispiel In Abbildung 3 ist die verlustlose Redundanzreduktion bei einer ternären Quelle mit verschieden wahrscheinlichen Symbolen dargestellt. Dank der Zuteilung des kurzen Codeworts {0} für das am häufigsten auftretende Quellensymbol „A“ ist es möglich, ein Quellensymbol im Mittel mit nur 1.5 Bit darzustellen, statt mit 2 Bit / Symbol ohne Quellencodierung. ternäre Quelle A B C A A B A C ... Symbole A mit P(A) = 50% B mit P(B) = 25% C mit P(C) = 25% QuellenEncoder 0’ 1 0’ 1 1’ 0’ 0’ 1 0’ 0’ 1 1 ... Code A => 0 B => 10 C => 11 Abbildung 3: Verlustlose Redundanzreduktion bei einer ternären Quelle. Beispiel Es folgen einige Benchmarks für verlustbehaftete Quellencodierungsverfahren: Im Mobilfunkstandard GSM wird die Sprache mit einem Vocoder auf 13 kbit/s komprimiert, ohne dass die Sprachverständlichkeit „leidet“. Zum Vergleich: In der digitalen Telefonie werden 64 kbit/s pro unidirektionaler Sprachverbindung verwendet, also fast 5 Mal mehr als beim GSM-Vocoder. Mit dem MPEG/Audio-Standard MP3 können Audio-Stereosignale ziemlich klanggetreu mit einer Datenrate von 128 kbit/s übertragen werden. Zum Vergleich: Die Netto-Datenrate für die Übertragung von 20 kHz breiten Audio-Stereosignalen in CD-Qualität beträgt 2 x 44.1 kSample/s x 16 Bit/Sample ≈ 1.4 Mbit/s, also ca. 11 mal mehr als mit der verlustbehafteten MP3-Kompression. Der JPEG-Standard (Joint Photographic Experts Group) eignet sich gut für die verlustbehaftete Kompression von natürlichen Bildern. Es sind unterschiedliche Kompressionsfaktoren und, damit verbunden, unterschiedliche Qualitäten wählbar, siehe Abbildung 4. Mit einem der vier MPEG-2 Substandards können Videobilder (720 x 576 Pixel, typisch 30 Hz Framerate) mit bis zu 15 Mbit/s für die DVD komprimiert werden. Es gibt auch MPEG-2 oder MPEG-4 (Sub-) Standards, mit denen Videos mit kleinerer Datenrate, dafür aber mit etwas weniger guter Qualität übertragen werden können. ZHAW NTM, 2007/08, Dqtm, Rumc, 6/14 24 Bit / Pixel Originalbild mit True Color Auflösung (RGB). 1.5 - 2.0 Bit / Pixel (Kompressionsfaktor 12 ... 16) Normalerweise nicht vom Original unterscheidbar. Genügt den höchsten professionellen Anforderungen. 0.75 - 1.5 Bit / Pixel (Kompressionsfaktor 16 ... 32) Exzellente Qualität. Genügt den meisten Anforderungen. 0.5 - 0.75 Bit / Pixel (Kompressionsfaktor 32 ... 48) Gute bis sehr gute Qualität. Genügend für viele Anwendungen. 0.25 - 0.5 Bit / Pixel (Kompressionsfaktor 48 ... 96) Bescheidene bis gute Qualität. Genügend für gewisse Anwendungen. Abbildung 4: Kompressionsfaktoren und Bildqualität bei JPEG. Chiffrierung Der Chiffrierer (engl. cipher) versteckt die Klartext-Information (plain text) in einem Chiffrat (cipher text), mit dem Ziel • der Geheimhaltung: Unbefugte sollen die Nachricht nicht lesen können. • der Integrität: Unbefugte sollen die Nachricht nicht modifizieren oder löschen können. • der Authentifikation: Die Nachricht stammt vom richtigen Absender und geht an den richtigen Adressaten. Jede Chiffrierung benutzt einen Algorithmus sowie einen Schlüssel. Die Verschlüsselung ist dann gut, wenn der „Gegner“ den Klartext nur durch Ausprobieren aller möglichen Schlüssel finden kann, selbst wenn er den Verschlüsselungsalgorithmus kennt und einen Chiffrierer sowie einen Dechiffrierer besitzt. Kanalkodierung (Forward Error Correction FEC) Der Kanalencoder fügt gezielt Redundanz in den Datenstrom, um die Übertragungssicherheit zu verbessern. Durch Hinzufügen von möglichst wenig Redundanz (z.B. Parity Bits) im Sender sollen möglichst viele Übertragungsfehler im Empfänger detektiert bzw. korrigiert werden können. Beispiel In Abbildung 5 ist ein Kanal-Encoder dargestellt, der für jedes Infowort mit der Länge von 4 Bit am Eingang ein Codewort mit der Länge von 7 Bit ausgibt. Die einzelnen Codeworte bestehen aus 4 Informationsbits und 3 sogenannten Parity Bits. Man kann überprüfen, dass sich die einzelnen Codewörter an mindestens 3 Stellen unterscheiden (minimale Hammingdistanz ist 3). Damit können alle Fehlermuster mit 2 oder weniger Übertragungsfehlern detektiert und alle Fehlermuster mit 1 Fehler korrigiert werden. Die Netto-Übertragungsrate ist allerdings nur noch 4/7 der BruttoÜbertragungsrate bzw. der Datenrate auf dem Kanal. ZHAW NTM, 2007/08, Dqtm, Rumc, 7/14 KanalEncoder u v 0000 1000 0100 1100 0010 1010 0110 1110 0001 1001 0101 1101 0011 1011 0111 1111 000 110 011 101 111 001 100 010 101 011 110 000 010 100 001 111 0000 1000 0100 1100 0010 1010 0110 1110 0001 1001 0101 1101 0011 1011 0111 1111 Abbildung 5: Beispiel eines Kanal- bzw. Fehlerschutzcodes. Es gibt zwei grosse Codeklassen, nämlich die Blockcodes (siehe Abbildung 5) und die sogenannten Faltungscodes (bzw. Trelliscodes). In der Praxis sind die Faltungscodes sehr verbreitet, weil ein guter und effizienter Dekoder verfügbar ist (Viterbi-Dekoder). In der Mobilkommunikation ist es durchaus üblich, mit Coderaten von R = 1/2 zu arbeiten, d.h. die Datenrate durch Hinzufügen von redundanten Bits zu verdoppeln. In einigen Nachrichtensystemen werden die Kanalkodierung und die Modulation in einem Block „Trellis Coded Modulation (TCM)“ zusammengefasst. Modulator Der Modulator prägt die digitale Information einem analogen (Träger-) Signal so auf, dass eine Informationsübertragung über einen analogen Kanal (z.B. einen Mobilfunkkanal) überhaupt möglich wird. Der Demodulator hat die Aufgabe, die Information aus dem verrauschten Empfangssignal wieder „zurückzugewinnen“. Beispiel In Abbildung 6 ist die digitale Modulation mit 4-wertiger Phasenumtastung (engl. quadriphase shift keying bzw. QPSK) dargestellt. Es werden immer 2 Bits zu einem Symbol zusammengefasst und ein Trägersignal mit einer definierten Phasenverschiebung von einem Vielfachen von 900 gesendet. 180 Grad 1 1 0 Grad 1 0 90 Grad 0 0 -90 Grad 1 1 180 Grad 0 1 0 Grad 1 0 0 0 -1 0 1 2 3 4 5 6 Abbildung 6: Beispiel QPSK-Modulation. 7 8 9 10 11 12 t [μs] ZHAW NTM, 2007/08, Dqtm, Rumc, 8/14 Sender und Empfänger (RF-Teil) In Abbildung 7 ist das Blockschaltbild eines Sende-Empfängers (TRx) dargestellt (Heterodyn-Prinzip). Up-Converter (Mischer) Power Amplifier Tx Front-End (BP-) Filter IQModulator Daten Antenne Rx / Tx Duplexer IQDemodulator Daten Kanalbzw. IF-Filter Base-Band Down-Converter (Mischer) Low-Noise Amplifier IF-Band Rx Front-End (BP-) Filter RF-Band Amplitude Frequenz DC fIF fRx HF-Kanäle Abbildung 7: Blockschaltbild Sender und Empfänger (Heterodyn-Prinzip). Mit dem IQ-Modulator können verschiedene Modulationen realisiert werden. Die Bedeutung von IQ wird später im Kurs erklärt. Das modulierte Trägersignal wird auf eine feste Zwischenfrequenzlage fIF (engl. intermediate frequency) gebracht. Der Up-Converter (Mischer) hat die Aufgabe, das modulierte Trägersignal aus der Zwischenfrequenzlage fIF in die endgültige Sendefrequenzlage fTX zu verschieben. In vielen Anwendungen sind mehrere Sendekanäle möglich, die Sendefrequenz fTX sollte also in einem bestimmten Frequenzraster gewählt werden können. Die Leistungsendstufe (Power Amplifier bzw. PA) erzeugt die verlangte Sendeleistung, die je nach Anwendung zwischen einigen Milliwatt für Kurzdistanz-Funksysteme bis zu einigen Megawatt für Rundfunksender oder Radarsysteme betragen kann. Die Ausgangsleistung kann meistens geregelt oder in Stufen über programmierbare Dämpfungsglieder eingestellt werden. „Power Control“ wird in modernen Systemen immer wichtiger. Vor und/oder nach dem Leistungsverstärker befinden sich Bandpassfilter (Tx Front End Filter), welche dafür sorgen, dass die Vorschriften betreffend der Unterdrückung von Störsignalen in benachbarten Frequenzbändern bzw. Kanälen eingehalten werden. Meist dient die Antenne sowohl als Sende- als auch als Empfangsantenne. Je nach Frequenzband und gewünschter Richtcharakteristik sind die verschiedensten Formen möglich (λ/2-Dipol, λ/4-Stabantenne, Patch-Antenne, Mehrelement-Yagi Richtantenne, Parabolspiegel, magnetische Loop-Antenne, usw.). ZHAW NTM, 2007/08, Dqtm, Rumc, 9/14 Ein Duplexer arbeitet als Sende-/Empfangsweiche. Wird ein Frequenzduplexverfahren, wie z.B. bei GSM, angewendet, so sind Sende- und Empfangsband verschieden und die Trennung geschieht direkt über die frequenzmässig versetzten Rx und Tx Front End Filter. Bei Zeitduplexverfahren, wie z.B. beim Schnurlos-Telefon-Standard DECT, kann die Trennung über einen Schalter geschehen, der die Antenne zwischen Sende- und Empfangspfad umschaltet. Bei hohen Sendeleistungen muss darauf geachtet werden, dass die Isolation zwischen Sende- und Empfangspfad gross genug ist, damit der Sender nicht den Empfänger zustopfen kann. Das Rx Front End Filter lässt meistens nur gerade das Frequenzband herein, in dem die Übertragungsstrecke betrieben wird. Bei mehreren nicht nebeneinander liegenden Bändern (Beispiel GSM auf 900 MHz und 1800 MHz) oder bei sehr breiten Empfangsbändern (Beispiel Kurzwellenband von 3 MHz ... 30 MHz), wird meist zwischen mehreren festen Front End Filtern umgeschaltet. Am Antennenanschluss liegen bei Anwendungen mit kleinen Sendeleistungen und/oder grossen Reichweiten sehr schwache Signalpegel an, die sich nur knapp über dem thermischen Rauschen befinden und deshalb zuerst mit einem Vorverstärker mit möglichst wenig Eigenrauschen, einem sogenannten low noise amplifier bzw. LNA verstärkt werden müssen. Der Down-Converter bringt das gewünschte Empfangssignal auf der Mittenfrequenz fRX durch eine Mischung in die fixe Zwischenfrequenzlage fIF. Dem Kanal- bzw. IF-Filter mit der Mittenfrequenz fIF kommt die wichtige Aufgabe der Kanalselektion zu. Es besitzt meist sehr steile Flanken und lässt somit nur den gewünschten Empfangskanal durch, bei gleichzeitiger Unterdrückung sämtlicher Nachbarkanäle im gleichen Empfangsband. Gleichzeitig wirkt es als Optimalfilter, in dem seine Durchlasskennlinie dem empfangenen Signalspektrum angepasst ist und somit ein optimales Signal-zu-Rauschverhältnis erzielt wird. Mit dem IQ-Demodulator können die Daten auf dem Trägersignal in der Zwischenfrequenzlage fIF. wieder „entfernt“ bzw. demoduliert werden. Da die Daten in aller Regel mehr oder weniger verrauscht sind, folgt nach der Demodulation spätestens nach dem FEC-Dekoder eine Detektion zur Bestimmung der höchstwahrscheinlich gesendeten Bitfolge. Dekoder Die verschiedenen Dekoder in Abbildung 1 dienen der Fehlerkorrektur, der De-Chiffrierung und der Datendekompression. Beispiel GSM-Chipset In Abbildung 8 ist ein nicht mehr ganz neuer GSM-Chipset abgebildet. Darin sind die einzelnen, besprochenen Elemente eines digitalen Nachrichtensystems gut sichtbar. ZHAW Abbildung 8: GSM-Chipset (Quelle Siemens). NTM, 2007/08, Dqtm, Rumc, 10/14 ZHAW NTM, 2007/08, Dqtm, Rumc, 11/14 Kanal Der Kanal bestimmt letztendlich die Kommunikationsmöglichkeiten wie z.B. die maximale Datenrate oder die Reichweite. Diese Tatsache soll an Hand des einfachen, oft verwendeten AWGN-Kanalmodells in Abbildung 9 dargestellt werden, mit dem z.B. thermisches Rauschen gut modelliert werden kann. AWGN steht für additive white Gaussian noise. Das Sendesignal mit der maximalen Signalleistung S und der Bandbreite B wird durch Addition von Rauschen mit der Leistungsdichte N0 [W/Hz] gestört. Das Rauschen enthält alle Frequenzkomponenten und hat gaussverteilte Amplitudenwerte. Rauschleistungsdichte [W/Hz] N0 Bandbreite B Kanal f [Hz] Rauschen (weiss im Spektrum, Amplitude Gaussverteilt) KanalEingang KanalAusgang „Kanal“ Abbildung 9: AWGN-Kanalmodell für thermisches Rauschen. Bei der Kommunikation über einen AWGN-Kanal hängt die Bitfehlerrate BER vom Signal-zuRauschverhältnis SNR [dB] ab. Die Rauschleistung N [dBm] im Kanal mit der Bandbreite B [Hz] kann mit der folgenden Faustformel gut approximiert werden: N [dBm] ≈ -174 dBm + 10·log10(B) (4) In der Praxis vergleicht man verschiedene Nachrichtensysteme an Hand ihrer „BER-versusSNR“-Kurven, siehe Beispiel in Abbildung 10. Lesebeispiel: Wenn bei der Übertragung über einen AWGN-Kanal 4-wertige Quadratur-Amplituden-Modulation (QAM) bzw. QPSKModulation (2 Bit pro Symbol) verwendet wird, muss die Signalleistung S mindestens 10 Mal grösser als die Rauschleistung N sein (SNR ≥ 10 dB), damit die Symbolfehlerrate PM bzw. die Bitfehlerrate BER ≤ 10-5 wird (1 Bitfehler auf 100'000 übertragene Bit). Überträgt man schneller, z.B. 6 Bit pro Symbol mit 64-wertiger QAM-Modulation, braucht man für die gleiche BER fast SNR ≥ 20 dB, d.h. fast 10 dB bzw. 10 mal mehr Signalleistung als mit der langsameren QPSK-Modulation. Normalerweise resultieren dann eine kürzere Autonomie (weniger Betriebsstunden mit einem vorgegebenen Akku) oder eine kürzere Reichweite. Mit Hilfe der minimal erforderlichen SNR-Werte für eine akzeptable BER (z.B. BER ≤ 10-2 für Sprach- und BER ≤ 10-5 für Datenkommunikation) kann die Empfänger-Empfindlichkeit wie folgt approximiert werden: Empfindlichkeit [dBm] ≈ N [dBm] + SNR [dB] (5) ZHAW NTM, 2007/08, Dqtm, Rumc, 12/14 Abbildung 10: BER-versus-SNR-Performance für QAM auf einem AWGN-Kanal, siehe [1]. Für das Link-Engineering interessiert die maximale Reichweite R. Die meisten Ausbreitungsmodelle für die Funkübertragung haben die Form A [dB] = a + b·log10(R [km]) , (6) wobei A die Dämpfung in der Luft, R die Reichweite zwischen Sender und Empfänger und a und b Konstanten sind, die vom Funkkanal abhängen, siehe Abbildung 11. ZHAW NTM, 2007/08, Dqtm, Rumc, 13/14 A [dB] b dB/Dekade a (@ 1km) R [km] logarithmisch 1 x 10x Abbildung 11: Funkausbreitungsmodell bzw. Dämpfung A in Funktion der Reichweite R. Beispiel: Für die Freiraumdämpfung Af gilt: Af [dB] = 32.4 dB + 20·log10 (f [MHz]) + 20·log10 (R [km]) (7) Im Freiraum nimmt die Dämpfung mit 20 dB zu, wenn man die Distanz verzehnfacht. Im (zellularen) Mobilfunk sind es sogar 35-40 dB. Die maximal tolerierbare Dämpfung Amax kann mit einem Linkbudget bestimmt werden. Sie entspricht der Differenz zwischen der effektiv abgestrahlten Leistung EIRP (effective isotropic radiated power) und der Empfindlichkeit, d.h. Amax [dB] = EIRP [dBm] – Empfindlichkeit [dBm]. (8) Durch Einsetzen von Amax in (7) und Auflösen nach R kann die maximale Reichweite Rmax bestimmt werden. Mehrfach-Zugriffsverfahren In vielen Nachrichtensystemen können mehrere Benutzer dank einem Mehrfach-Zugriffsverfahren quasi-gleichzeitig über das gleiche Medium Daten übertragen. Die wichtigsten Multiple-Access-Verfahren sind: TDMA bzw. Time-Division-Multiple-Access Den einzelnen Benutzern werden für die Übertragung kurze Zeitschlitze zugeteilt, in denen sie das ganze, verfügbare Frequenzspektrum und damit die ganze Übertragungskapazität alleine benützen können. FDMA bzw. Frequency-Division-Multiple-Access Den einzelnen Benutzern werden für die Übertragung einzelne Frequenzkanäle und damit nur ein Bruchteil der Übertragungskapazität zugeteilt. Dafür können die Benutzer ihren Kanal die ganze Zeit benützen. CDMA bzw. Code-Division-Multiple-Access Die einzelnen Benutzer verwenden ununterbrochen das ganze Frequenzspektrum (aber nicht die ganze Übertragungskapazität) und benützen zwecks Unterscheidung je eine unterschiedliche Spreizung (Kennung). SDMA bzw. Space-Division-Multiple-Access Die einzelnen Verbindungen werden örtlich getrennt, z.B. mit Funkzellen, so dass sie sich gegenseitig „kaum“ mehr stören. ZHAW NTM, 2007/08, Dqtm, Rumc, 14/14 Beispiel Im Mobilfunkstandard GSM wird die Sprache mit einem Vocoder auf 13 kbit/s komprimiert. Danach werden die komprimierten Daten mit einem Kanalcode gegen Übertragungsfehler geschützt, so dass nach dem Kanalencoder eine Datenrate von 22.8 kbit/s resultiert. Die Übertragung über die Luft ist zudem verschlüsselt. GSM ist ein FDMA- und ein TDMA-System. Im 900 MHz Band stehen 124 verschiedene, 200 kHz breite Frequenzkanäle mit je 8 Zeitschlitzen zur Verfügung. Eine Basisstation besitzt typisch 2-6 Frequenzkanäle und kann deshalb theoretisch 16 bis 48 Sprachverbindungen gleichzeitig unterstützen. Literatur [1] J.G. Proakis, M. Salehi, “Grundlagen der Kommunikationstechnik”, Pearson, 2004, ISBN 3-8273-7064-7. [2] M. Meyer, „Kommunikationstechnik“, Vieweg, 2002. [3] J. Schiller, „Mobilkommunikation“, Pearson, ISBN 3-8273-7060-4.