Virtualisierung Security Virtualisierung Security

Сomentários

Transcrição

Virtualisierung Security Virtualisierung Security
www.monitor.co.at/rss.cfm
Special 4A
Mai 08
www.monitor.co.at
Virtualisierung
Kommunikation
Security
ISSN 1021-271X P.B.B ZUL.NR. 02Z031040M – VERLAGSORT WIEN, VERLAGSPOSTAMT 1110 WIEN
Diese MONITOR-Sonderausgabe
widmet sich auf 56 Seiten den
Kernthemen Telekommunikation,
Infrastruktur und Security.
Telekom-Markt: Konvergenz als Schlüsselfaktor
Infrastruktur: Strukturierte Verkabelung
Virtualisierung: Startschuss zur großen Freiheit
www.konicaminolta.at
Kon
ica M
ills
e sk
. Th
a
t
l
ino
in
to w
.
Hier sollte Ihr Name stehen. Fragen Sie uns nach einem Abo. Tel. 01 | 74095-466
Editorial
Liebe Leser,
diese MONITOR-Sonderausgabe widmet sich auf 56 Seiten
den Kernthemen Telekommunikation, Infrastruktur und Security.
Vom Reisebüro in der Westentasche bis zum Trendthema
Desktop-Virtualisierung spannt sich der Bogen der diesjährigen
Beiträge. Im Security-Teil erläutern 13 namhafte Hersteller von
Antimalware- und Antispam-Produkten das aktuelle
Bedrohungspotenzial und mögliche Gegenmaßnahmen.
Cat.6 12C-de-embedded getestet nach
EN 50173-1:2002 und GHMT zertifiziert
L
Geringe Einbautiefe, somit im 58er
Unterputzbecher montierbar
L
Praxisgerechte Kabelzuführung
von 8 Seiten
L
Vergrößerte Kabeleinführung
L
Microsoft, Sun und Symantec auf diesen
Zug aufgesprungen (Seite 29).
Über die Strategien und Ausblicke von
„Anti-Crimeware“ referieren 13 namhafte
Hersteller aus dem Security-Bereich in einer umfassenden Bestandsaufnahme. Die
Kommerzialisierung des Malware-Business
diktiert nicht nur den Anwendern, sondern
auch den Herstellern zunehmend ihre Vorgangsweise. Technische Lösungen müssen
in gesamtheitlich ausgelegte Sicherheitsstrukturen eingebunden werden, die bereits
beim einzelnen Mitarbeiter die Aufmerksamkeit für sicherheitsrelevante Themen
schärfen (Seite 36).
Auf der RSA Conference 2008 in San
Francisco konnte sich MONITOR-Autor
Klaus Lorbeer über die neuesten Sicherheitstrends und Gefahrenpotenziale informieren. Unter anderem lud Microsoft in San
Francisco alle IT-Hersteller zur Zusammenarbeit unter dem Motto „End-to-End-Trust“
ein, um der Kommunikation über das Internet eine vertrauenswürdige und authentifizierte Basis zu verschaffen (Seite 46).
Der „Datenspion“ kann aber auch im eigenen Unternehmen sitzen. Data Leakage
Prevention ist ein Sicherheitsproblem, das
nicht nur mutwillige Aktionen von Datendiebstahl, sondern auch Bedienungsfehler
oder fahrlässiges Handeln von Mitarbeitern
umfasst.Wie können sich Unternehmen davor schützen, dass beispielsweise vertrauliche Dokumente nicht einfach per Mail verschickt werden - und sei es nur in bester Absicht, um zu Hause daran weiterarbeiten zu
können? Security-Spezialist Michael Alfred
Schmidt umreißt in seinem Beitrag aktuelle Schutzkonzepte sowie deren Vor- und
Nachteile (Seite 50).
+ durchdacht
+ zukunftsicher
+ designfähig
L
„Den Menschen ist die Technologie (Festnetz oder Mobilfunk) egal - es geht darum,
überall Telefon und Internet möglichst
kostengünstig nutzen zu können.“
MONITOR-Autorin Christine Wahlmüller skizziert in ihrem Beitrag Konvergenz
als „Schlüsselfaktor der Telekom-Branche“
und beschreibt die aktuellen KonvergenzStrategien der marktführenden Anbieter
(Seite 6).
In die Welt der Reiseanbieter entführt
Lothar Lochmaier mit seinem Beitrag „Das
Reisebüro in der Westentasche: Mobile
Travel Technology stachelt das Fernweh an“.
Sein Bericht gibt eine Zusammenfassung
der Mobility-Trends auf der Internationalen Tourismusbörse in Berlin, die nicht nur
bekannte Namen, sondern auch viele innovative Start-ups prägen (Seite 10).
Peter Rastl, lange Jahre Leiter des Zentralen Informatikdienstes der Universität Wien,
erzählt in einem Interview über die Anfänge des Internets in Österreichs. Er lässt auch
mit einem Statement zur aktuellen Sicherheits-Debatte aufhorchen, in dem er das große Missbrauchspotential anspricht, das beispielweise eine präventive Vorratsdatenspeicherung in sich birgt (Seite 19).
In der Rubrik Infrastruktur sind zwei
große Themenblöcke vorherrschend: Verkabelung und Desktop-Virtualisierung.
Gerhard Lagler, zertifizierter Sachverständiger für strukturierte Verkabelung, macht
einen Blick auf die aktuellen Normen und
vergleicht sie mit den Anforderungen aus
der Praxis (Seite 24).
MONITOR-Autorin Alexandra Riegler
hinterfragt den aktuellen Stand und die aufkommende Hype rund um „Desktop-Virtualisierung“. 2007 von den Analysten noch
mit abwartenden Statements bedacht, wurde sie ein halbes Jahr später schon als der
kommende Trend ausgerufen. In den letzten Monaten sind auch Größen wie Citrix,
Die kompakte
10 GBit - Lösung
Volle Kompatibilität zu Abdeckplatten
führender Schalterprogrammhersteller
Eine interessante Lektüre und viele
Anregungen für die Praxis wünscht Ihnen
Ihr MONITOR-Team.
BTR NETCOM GmbH Im Tal 2 D-78176 Blumberg
Tel. +49 7702 533-0 Fax +49 7702 533-433
www.btr-netcom.com
G
G
G
Inhalt | Kommunikation 2008
Kommunikation
Aus der Redaktion
Konvergenz: Schlüsselfaktor der Telekom-Branche . . . . . . . . . . 6
Das Reisebüro in der Westentasche: Mobile Travel Technology
stachelt das Fernweh an . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
REBOOT. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
Hybrid VPN: Sicherer Remote Access für jede Anforderung . . . 14
25 Jahre MONITOR: 1985 - erste Domains wurden
registriert. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
Als das Internet laufen lernte: Interview mit Dr. Peter Rastl,
ehemaliger Leiter des ZID an der Universität Wien. . . . . . . . . . . 18
Editorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
Inserentenverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
Impressum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
Infrastruktur
Performance-Steigerung und Kostenreduktion durch
WAN-Optimierung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Server: Vielgeprüft und zukunftsreif . . . . . . . . . . . . . . . . . . . . . . 22
Strukturierte Verkabelung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
Desktop-Virtualisierung: Die vielen Gesichter eines PCs . . . . . . 29
Startschuss zur großen Freiheit- . . . . . . . . . . . . . . . . . . . . . . . . 31
Security
Knauf & Lampertz: Auf der sicheren Seite . . . . . . . . . . . . . . . . . 34
Anti-Crimeware: Strategien und Ausblicke. . . . . . . . . . . . . . . . . 36
Web Reputation Management: Abwehrkonzepte sollen keine
Schönfärberei betreiben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
Starke Authentifizierung: Schonfrist definitiv vorbei . . . . . . . . . . 44
RSA Conference 2008: IT zwischen Datenschutz und
Datensicherheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
Data Leakage Prevention: Hier bestimmt der Computer,
was vertraulich ist . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
Strukturierte Verkabelung: Qualität ist wichtig!
24
Desktop-Virtualisierung: Der neue Boom?
29
Kommunikation | Konvergenz
Konvergenz: Schlüsselfaktor der Telekom-Branche
Den Menschen ist die Technologie egal es geht darum, überall Telefon und
Internet möglichst kostengünstig nutzen zu können. Die Lösung sind konvergente Produkte, die jetzt immer mehr
auf den Markt kommen.
Christine Wahlmüller
Wir kennen das von zu Hause: Inzwischen
haben sich zum klassischen Festnetz-Telefonanschluss natürlich auch ein oder
mehrere Handys sowie ein BreitbandInternet-Anschluss (ADSL oder Kabel)
dazugesellt, jüngst ergänzt um einen mobilen Breitband-Anschluss in Form einer
mobilen Datenkarte für den Laptop. Aber
eigentlich ist das lästig: Denn warum gibt
es nicht eine gemeinsame Lösung, die alles kann, das heißt, unter einer Telefonnummer (Festnetz und/oder Mobilfunk)
telefonieren und einen Internetzugang
(ADSL und/oder mobiles Breitband) nutzen? In Ansätzen ist dieser Gedanke bereits Realität. Bis zur vollendeten, perfekten Lösung wird es noch dauern, die wird
erst mit der Realisierung des Next Generation Networks, kurz NGN, (vgl. MONITOR 04/2008) möglich werden.
Aber der Trend zur Netzkonvergenz ist
wie gesagt schon absehbar: Die starre Zuordnung von bestimmten Diensten zu bestimmten Netzen - TV zum Fernsehnetz,
mobiles Telefonieren zum Mobilfunknetz
und Abruf von Interndetdiensten mittels
PC zum Internet - ist bereits aufgebrochen.
Künftig werden unterschiedliche Dienste
über ein Netz angeboten, damit geht die
Entwicklung von multifunktionalen Endgeräten einher (Endgerätekonvergenz).
Was es bereits in der Realität gibt, sind
Produkt-Bundles: Wie z. B. das erst dieser
Tage wieder neu herausgekommene Kombi-Paket der Telekom Austria, das Internet, Festnetztelefonie und Mobiltelefonie
zu einem Gesamtpreis bietet - oder als
„Aon-Super-Kombi“ auch noch Fernsehen inkludiert. Womit die dritte Größe die Massenmedien - auch mit ins Konvergenz-Spiel eingebracht werden. Marktverfolger Tele2 hat mit der „Complete“-Reihe ganz Ähnliches im Schilde - dies alles
6
sind allerdings Produkte, die sich hauptsächlich an den Privat- und maximal
SoHo-Markt (Small Office, Home Office)
wenden.
Im Business-Sektor ist Konvergenz
schon seit Jahren eine nachgefragte Selbstverständlichkeit. Aber Achtung: Der Begriff Konvergenz deckt einige unterschiedliche Dinge ab:
. Konvergenz in Richtung All-over-IP.
. Konvergenz in puncto Festnetz-Mobilfunk-Integration.
. Konvergenz der Dienste allgemein - Produkt-Bündel bzw. eine Gesamt-TelekomLösung für das Unternehmen.
. Konvergenz als Zusammenwachsen von
Informationstechnologie und Telekommunikation.
Fest steht: Konvergenz - wie auch immer
definiert - bleibt auch weiterhin einer der
Schlüsselbegriffe auf dem Telekommunikationssektor. Das geht aus der Studie
„TMT Trends 2007“ des Beratungshauses
Deloitte hervor, wobei in Technologie, Memonitor | Special Kommunikation 4A/2008
„IP als einheitliches
Übertragungsmodell
ist der unaufhaltsame Trend - dadurch
werden die Konvergenzlösungen erst
ermöglicht .“ - Erich
Mooshammer,
Leiter Marketing/
Vertrieb Businesskunden, Tele2
dien und Telekommunikation auch Benutzerfreundlichkeit als Trend geortet wird.
„Aber vor allem schreitet die Verschmelzung der drei klassischen Sektoren in großen Schritten voran - Konvergenz ist und
bleibt weiterhin das Motto der TMT-Branche“, sagt Deloitte-Berater Andreas Gentner.
Kleine schauen auf den Preis
Man müsse auf alle Fälle zwischen tech-
Kommunikation | Konvergenz
nischer (konvergente Infrastruktur, Gesamtlösung basierend auf einem IP-Netz
für Sprache und Daten) und kommerzieller (produktbezogener) Konvergenz unterscheiden. „Bei großen Kunden ist das Thema Konvergenz schon seit Jahren auf der
Tagesordnung. Hier wird immer nach einer Gesamtlösung gesucht“, betont Karim
Taga, langjähriger Telekom-Experte der
Unternehmensberatung Arthur D. Little
(ADL). „Kleinunternehmen schauen nicht
auf eine konvergente Lösung, sie gehen
meist nach dem Preis und haben ihre Produkte meist dann bei unterschiedlichen
Anbietern“, hebt Taga den Unterschied
hervor.
Es gebe allerdings in Österreich nur zwei
große Netz-Anbieter die tatsächlich umfassende konvergente Lösungen am Markt
aus eigener Kraft anbieten können: Die
Telekom-Austria-Gruppe sowie T-Mobile/T-Systems. Tele2 und UPC fehlt der
Mobilfunk-Bereich. Ihnen bleibt nichts
über, als mit Kooperationen mit einem
Mobilfunkanbieter das verlorene Terrain
wettzumachen. Hier hat z.B.Tele2 mit One
schon vor einigen Jahren mit einer IPVPN-Lösung aufhorchen lassen, die derzeit allerdings „nicht aktiv forciert wird“,
wie Tele2-Sprecher Jörg Wollmann betont.
UPC hat noch eine Kooperation bei
Hosted Exchange mit T-Mobile laufen (im
Privatbereich wird seit Jahren wiederum
mit ONE kooperiert), „Ende Juni/Anfang
Juli wird es eine neue Kooperation im Bereich Mobilfunk für Datenlösungen geben“, kündigt Thomas Helfert, Leiter Businesskunden bei UPC, an. Vice versa sind
die zwei kleinen Mobilfunkanbieter gezwungen, mit den klassischen alteingeses-
senen Festnetzanbietern Kooperationen
einzugehen, denn diesen gehört bis dato
der Business-Access-Markt. „Hier zeichnet sich ein weiterer Trend ab: Die Zusammenführung von Unternehmen wird
weiter stattfinden“, prognostiziert Taga eine weitere Konsolidierung der österreichischen Telekom-Landschaft. „Längerfristig
sei auch eine pan-europäische Konsolidierung zu erwarten d. h. größere Operatoren werden Incumbents kleinerer Länder
aufkaufen. Alternative wäre eine nationale „Access-Spezialisierung“, heißt es in der
im März publizierten ADL-Studie über
den Telekom-Sektor in Europa, die weiters
eindeutig feststellt: Das Festnetz ist nicht
tot, denn die Mobilfunknetze können nicht
die gleiche Performance zu den gleichen
Kosten wie die klassischen Festnetze erbringen. Die Konsequenz ist, dass die mobilen Endgeräte künftig mithilfe von Festnetz-Infrastruktur betrieben werden.
Ein weiterer Trend darf nicht unbeachtet bleiben: Die Sprachübertragung rangiert volumens- und umsatzmäßig weit
abgeschlagen, was jetzt und künftig immer mehr zählt ist das Geschäft mit den
Daten - das ist auch allen Anbietern klar.
Da niemand gerne Kunden verliert, müssen die Anbieter gezwungenermaßen auf
Konvergenz, verbunden mit entsprechenden Kooperationen, setzen.
TA: Schaffung eines All-IP-Netzes
Größter, bekanntester Anbieter ist die
Telekom-Austria-Gruppe, die den Vorteil
hat, Festnetz, Internet und Mobilfunk theoretisch aus einer Hand anbieten zu können. In der Praxis gewinnt dieser Gedan-
„Der Wunsch nach
Konvergenz geht
Hand in Hand mit
dem Wunsch nach
Auslagerung bestimmter Bereiche“.
- Hannes
Ametsreiter,
Vorstand Marketing,
Telekom Austria AG
und mobilkom
ke allerdings erst seit der Umstrukturierung zur TA-Gruppe 2007 an Raum. Zuvor agierten Telekom Austria und mobilkom eher nebeneinander, denn miteinander. Jetzt ist mit Hannes Ametsreiter als
Marketing-Vorstand der Telekom-AustriaGruppe und der mobilkom in Personalunion endlich die gedanklich wichtige Voraussetzung zur Schaffung des integrierten IP-Netzes und zum Schnüren von konvergenten Produktlösungen da. Damit
kann die schrittweise Migration der bislang getrennten Netzinfrastrukturen für
Sprache, Daten und Internet vorangetrieben werden. Das bedeutet zwar im Moment Investitionen, aber künftig Kosteneinsparungen. „Integrierte Lösungen aus
einer Hand sind ein stark nachgefragtes
Thema, dazu gehört auch Hosting, Housing oder Managed Services“, betont
Ametsreiter und fügt hinzu: „Der Wunsch
nach Konvergenz geht Hand in Hand mit
dem Wunsch nach Auslagerung bestimmter Bereiche.“
Bei SoHo und Klein- und Mittelbetrieben (KMU) sieht Ametsreiter eine starke
Nachfrage nach Internet-Access, gekoppelt mit „A1 over IP“. Rund 100 namhaf-
MIT UNSERER VOIP-LÖSUNG SPAREN SIE
BIS ZU 50% IHRER KOSTEN IM FESTNETZ!
Testen Sie uns!
Übermitteln Sie uns Ihre letzten 3 bis 6 Telefonrechnungen und ein
Mitarbeiter von 4 TELECOM SERVICES wird Ihnen ein unverbindliches
Angebot inklusive Einschätzung Ihres Einsparungspotenzials erstellen!
Wenn Sie uns testen wollen, verrechnen wir für die ersten 45 Tage
nur die angefallenen Gesprächsgebühren. Inbetriebnahmekosten
und Installationsgebühren fallen erst nach Ihrer Übernahme
am Ende der Testperiode an.
monitor | Special Kommunikation 4A/2008
Four Telecom Services GmbH & Co KG
A – 6370 Kitzbühel
Jochberger Strasse 98-100
Tel: +43 5356 62220
Fax: +43 5356 62220-32
e-mail: [email protected]
7
Kommunikation | Konvergenz
te Unternehmenskunden und über 10.000
Anwender nutzen das vor etwas mehr als
einem Jahr gestartete Zusatz-Angebot bereits laut Angaben des TA/mobilkom-Managers. Für Einzelkunden ist „A1 over IP“
um 3,90 Euro Grundgebühr monatlich zusätzlich zu haben. Achtung: Nur Gespräche von PC zu PC und Instant Messaging
sind kostenlos, alle übrigen Gespräche ins
Festnetz oder zu anderen MobilfunkNummern werden gemäß des „normalen“
A1-Vertrags verrechnet.
Beispiel für einen größeren Kunden ist
die konvergente Lösung der Telekom
Austria für das Rote Kreuz (ÖRK) in Salzburg. Dabei wurde zunächst die Software
für die zehn Leitstellen des Bundeslands
und für die mobilen Fahrzeugterminals
vom TA-Projektteam programmiert.
Außerdem wird die gesamte Serverlandschaft des ÖRK von der TA gehostet, dabei ist eine redundante Leitungsanbindung
sowie der Desktopservice der Fahrzeugterminals inkludiert. Die (mobile) Datenübertragung erfolgt über das A1-Netz.
„Der Renner ist derzeit die Kombination
aus InternetAnschluss und
Telefonanlage.“ Thomas Helfert,
Leiter Businesskunden UPC
Alternative Anbieter kämpfen
Der führende alternative Anbieter bei Business-Kunden zu sein - darum „rittern“
Tele2 und UPC. Während Tele2 derzeit
noch klar in Führung ist und laut Eigenangaben rund 50.000 Businesskunden betreut, greift UPC jetzt an: „Unser Ziel für
2008 ist es, uns auch im B2B-Bereich als
die klare Nummer eins der alternativen
Telekommunikationsanbieter zu etablieren“, gibt sich Thomas Helfert von UPC
kämpferisch. „Eventuell nicht kunden-,
sondern umsatzbezogen“, schränkt der
ambitionierte UPC-Manager ein. „Der
Umsatz im Business-Bereich betrug 2007
mit rund 140 Mio. Euro rund 50% des
Gesamtumsatzes“, gab Tele2-Sprecher Jörg
Wollmann auf Anfrage des MONITOR
bekannt (Hier wird allerdings auch der
8
nicht unerhebliche Carrier-Bereich eingerechnet, Anm. d. Red.).
„IP als einheitliches Übertragungsmodell ist der unaufhaltsame Trend - dadurch
werden die Konvergenzlösungen erst ermöglicht“, betont Erich Mooshammer, seit
knapp fünf Monaten Leiter Marketing/
Vertrieb Businesskunden bei Tele2 und zuletzt bei der Telekom Austria beschäftigt.
„Die klassische PABX wird zunehmend
von IP-Telefonanlagen verdrängt“, erklärt
Mooshammer und freut sich über rege
Nachfrage der bereits von UTA eingeführten und jetzt von Tele2 fortgeführten virtuellen Nebenstellenanlage „Office Phone IP“. „Falls sich ENUM, also die Abbildung von Telefonnummern auf InternetAdressen, als Trend durchsetzt, wird das
in den nächsten Jahren ein weiterer Treiber von konvergenten Lösungen sein“,
glaubt Mooshammer, der stolz einige
„Office over IP“-Kunden aufzählt: Die
Austrian Reserach Centers, das Personalmanagement-Unternehmen Büroring sowie den privaten TV-Sender Puls4. „2008
wird der Fokus weiter auf Office-over-IPLösungen liegen. Außerdem soll das Business-Vertriebs-Netzwerk auf 120 Partner ausgebaut werden“, verrät Mooshammer seine Strategie.
Internet-Telefonie-Kombination
Die Idee ist die gleiche, allerdings ist bei
UPC, das den erworbenen Internet Provider inode nach wie vor weiter als BusinessMarke nutzt, das Produktangebot etwas
differenzierter und ausgefeilter. Das Portfolio reicht „von der Nutzung eines Festnetzanschlusses für Internet und Telefonie bis hin zur vollständig gemanagten
Nebenstellenanlage“, sagt Thomas
Helfert, Leiter Businesskunden bei UPC.
„Im SoHo-Segment können wir vor allem
mit All-inclusive-Lösungen punkten, das
ist die inode Web & Phone Office Linie“,
berichtet Helfert und nennt die Glastechnische Werkstätte Wien als beispielhaften
Kunden. Beim mittelständischen Kunden
seien schon mehr Lösungen gefragt, die
individuell auf die Kundenbedürfnisse angepasst werden könnten „Der Renner ist
derzeit die Kombination aus Internet-Anschluss und Telefonanlage, insbesondere
telenode platin“, streicht Helfert hervor.
Eine Dimension darüber bewegt sich
T-Systems. Hier wird Konvergenz als Zumonitor | Special Kommunikation 4A/2008
„Kunden wollen nicht
Technik kaufen, sondern eine Lösung ihrer Probleme, ganz
egal, ob die mit IT
oder mit TK, mit
Festnetz oder Mobilfunk zu tun hat.“ Georg Obermeier,
CEO von T-Systems
sammenwachsen von Informationstechnologie (IT) und Telekommunikation (TK)
betrachtet. „Immer häufiger werden bei
Ausschreibungen integrierte Angebote
verlangt. Kunden wollen nicht Technik
kaufen, sondern eine Lösung ihrer Probleme, ganz egal ob die mit IT oder mit TK,
mit Festnetz oder Mobilfunk zu tun hat“,
weiß Georg Obermeier, CEO von
T-Systems. Große Trend sind laut Obermeier der Bereich VoIP, aber auch das
Thema Unified Communications (UC) in beiden Bereichen bietet T-Systems
Lösungen an.
Der deutschstämmige Magenta-Riese
ist dabei vorrangig an zahlungskräftigen
heimischen Großkunden interessiert. Bis
2010 will T-Systems Marktführer für ITDienstleistungen und Lösungen rund um
Informations- und Kommunikationstechnik sein, „Österreichs zählt zu einem der
strategischen Wachstums- und Kernländer im Konzern“, ist Obermeier stolz. Mit
T-Mobile gibt es auch eine Schwesterfirma für Mobilfunk als notwendiges künftiges konvergentes Asset im Ärmel.
Es geht nicht so schnell ...
Trotz aller Euphorie der Anbieter: Es gibt
auch Hemmnisse für Konvergenz. Nicht
nur die Kosten, sondern auch die Angst
vor Sicherheitsproblemen bremst den Aufbau von Einheitsnetzen bzw. lässt viele
Unternehmen und deren IT-Verantwortliche (noch) vor All-inclusive-Lösungen
zurückschrecken.Trotzdem steht fest:Auch
in Österreich werden die Investitionen in
Konvergenz-Projekte die Kassen der Telekom-Netz- und Dienstleistungs-Anbieter
in den nächsten Jahren klingeln lassen.
http://business.telekom.at
http://www.tele2.at
http://www.upc.at
http://www.t-systems.at
Ein Service der Wiener Zeitung
++ Kunden- und Lieferantenmonitoring: Geschäftsführerwechsel + Konkurse +
Kapitalaufstockung + Insolvenzen + Firmenneugründung + Adressänderung +
.RPPXQLNDWLYHZLVVHQPHKU
¿UPHQPRQLWRUDW
.RVWHQORVH7HVWDFFRXQWVXQGVlPWOLFKH,QIRUPDWLRQHQXQWHUZZZ¿UPHQPRQLWRUDW
RGHUXQWHUGHU6HUYLFH+RWOLQH±
+ E-Mail-Verständigung bei allen Änderungen + Tagesaktuell + Zuverlässig +
Maßgeschneiderte Suchaufträge + nur 14 Euro* im Monat H[NO0Z6W%DVLV)DLU8VH
Kommunikation | Mobile Business
Das Reisebüro in der Westentasche
Mobile Reise-Technologien stacheln das Fernweh an
Auf der Internationalen Tourismusbörse
(ITB) in Berlin gewinnt Informationstechnologie weiter an Stellenwert: Der
individuelle Reiseassistent wird in Zukunft zwar selbstverständlich sein, sagt
die Reisebranche. Jedoch dauert es
noch einige Zeit, bis das Internet auch
auf kleinen Geräten wirklich flügge
wird. Jedenfalls diskutierten die Experten heftig über neue technologische
Reisetrends.
Lothar Lochmaier
Auf der weltweit größten Reisemesse, der
Internationalen Tourismusbörse (ITB) in
Berlin, dominierten heuer nicht nur bunte
Erholungslandschaften, sondern auch
modernste Hightech. IT-Lösungen waren
fast überall vertreten. In den Hallen 6.1, 8.1,
10.1 und 25 dominierte die Technik sogar
das Gesamtbild. Travel Technology lautet
das neue Zauberwort in der IT-Branche.
Vertreten waren nicht nur die bekannten
IT-Player wie Hotelsoftware-Anbieter und
Spezialisten wie Bewotec,Trust International, Partners Software, Serenata Intra-Ware, Micros-Fidelio und andere mehr. Auch
die Zahl asiatischer Unternehmen aus den
aufstrebenden Tourismusindustrien nimmt
kontinuierlich zu. Neben Yatra Online und
TI Infotech aus Indien reichte das Spektrum
über thailändische Unternehmen wie
Comanche Hotel Solutions bis hin zu Ausstellern aus Osteuropa, der Türkei und
Ägypten.
Hinzu kamen zahlreiche innovative Startups, die der Konferenz neues Leben einhauchten. Denn der Megatrend lässt sich
am besten unter dem Schlagwort interaktive Travel-2.0-Dienstleistungen zusammenfassen. Individuell konfigurierte Reisesuchmaschinen und Community-Portale dominieren längst die Szene. Wohl dem, der da
nicht den Überblick verliert.
10
Silver agers, Empty nesters, Baby Boomers oder DINKS heißen die neuen Zielgruppen im Fachjargon, auf deren Bedürfnisse die Reisebranche mit individuellen Angeboten reagieren muss, berichtet die Unternehmensberatung Deloitte. Eine begleitende Fachkonferenz von [email protected]
unterstrich den Trend, wonach klassische
EDV, Softwareentwicklung, Multimedia, Eund M-Commerce weiter verschmelzen.
Blogger-Hype
Ein äußeres Kennzeichen war ein eigens angesetzter Blogger-Event, zu dem sich rund
30 der weltweit bekanntesten Tagebuchschreiber in der Szene versammelt hatten.
Österreich spielt in diesem neuen Kunstmetier übrigens ganz vorne in der ersten Liga mit, ganz im Gegensatz zu Deutschland,
wo es noch kaum derartige Internetseiten
gibt, die neue Reisetrends in ihren Tagebüchern kritisch unter die Lupe nehmen.
Zwar wird angesichts des Medienhypes
um das Web 2.0 die eine oder andere Seite
bald wieder verschwinden. Spezialisierte Seimonitor | Special Kommunikation 4A/2008
TravelIQ ist eine intelligente Metasuchmaschine
für Flug, Hotel, Mietwagen, und Pauschalreisen.
(www.traveliq.de)
ten jedoch, auf denen „Reiseblogger“ im
Internet auch kritische Themen und Trends
aufgreifen, sorgen aber für deutlich mehr
Transparenz und Vergleichbarkeit zwischen
den Anbietern und deren Dienstleistungen.
Auch Diskussionen über Umweltprobleme, sanfter Tourismus oder spannende neue
Reiseziele machen heute im Internet sofort
die Runde und finden ein breites Echo. Ein
Überblick über aktuelle Blogger-Plattfor-
Kommunikation | Mobile Business
men in den einzelnen Ländern
findet sich auf der so genannten
„T-List“ unter:
http://shurl.org/tlist
Vertriebskanäle verschmelzen
mobil data - IT & Kommunikationslösungen GmbH
Die Verschmelzung zwischen
klassischen Vertriebs- und OnFranzosengraben 12/4/A
line-Kanälen zeigt deshalb vor
A-1030 Wien
allem eines: Die Nachfrage nach
t: +43-1-587 57 63-0
Reisen wird zunehmend dynae: [email protected]
mischer, weil individueller, kurzi: www.mobil-data.at
fristiger und flexibler. Durch die
weite Welt des Webs ist der Reisende zudem selbst immer besser informiert, chen. Selbst versteckte Zusatzkosten wie chen. In erweiterter Form ist dies in naher
es stehen neben dem Reisebüro via TV, Call Treibstoffzuschläge beziehen intelligente Zukunft als mobile Commerce-Anwendung
Center oder eben das Internet multiple, wei- Search Engines ein. Über das Digitale Schau- auch auf mobilen Endgeräten des Kunden
tere Vertriebskanäle zur Verfügung.
fenster, einer innovativen Werbeplattform vorstellbar, maßgeschneidert auf die VorlieBewertungsportale gewinnen Auftrieb. für Reisebüros, bieten IT-Spezialisten wie ben und Neigungen der potenziellen KunIntelligente Metasuchmaschinen, die alle re- Siemens heute schon „Location Based Ser- den.Vielen Nutzern erscheint etwa die molevanten Angebote im Web durchforsten, vices“ an, um Kunden „auf den Punkt“ ge- bile Hotel- oder Flugreservierung immer
helfen bei der Auswahl und bei Preisverglei- nau mit attraktiven Angeboten anzuspre- noch als sehr umständlich, verdeutlichte eine Expertendiskussion auf der diesjährigen
ITB in Berlin.
IT-Megatrends in der Tourismusindustrie
Zwar kann der Nutzer von einem technisch aufgerüsteten mobilen Endgerät wie
Applikationen und andere „eCommerce1. eCommerce 360º – Multiples
Personal Digital Assistant (PDA) oder BlackSatelliten“ zielgerichtet eingesetzt werden.
Online-Vertriebsmanagement
Berry aus schon heute seinen Flug buchen,
Heutzutage geht es beim E-Commerce 3. SocialMedia-Strategien
etwa in den USA bei Delta Airlines über die
längst nicht mehr nur darum, eine Site op- Vor allem der Begriff „Word-Of-MouthSeite delta.com. „Nicht jeder Nutzer hat jetimal zu strukturieren, seine Navigation Marketing“ (WOMM) macht die Runde.
doch einen teuren BlackBerry zur Verfüzu optimieren und Design und Stil klar und Neue, intelligente Strategien wie reichweigung“, kritisiert Gerry Samuels, Gründer
zeitgemäß zu gestalten. Heute kommt es tenstarke SocialMedia-Sites und -Comdes irischen Beratungsunternehmens
darauf an, direkt dorthin zu gehen, wo die munities (Facebook, StudiVZ, MySpace,
Mobile Travel Technologies.
Kunden sind und sie dort abzuholen. Man Xing & Co.) oder userzentrierte Web-2.0Denn um wirklich in den Genuss der mospricht von intelligenten „E-Commerce- Formate (Blogs, Flickr, YouTube) werden
bilen Reisebuchung zu kommen, benötigt
Satelliten“, mit denen die Kunden in ihren auf die Bedürfnisse der Reisebranche abauch der durchschnittliche Handy-Nutzer
unterschiedlichen Nutzungssituationen gestimmt und die Sites mit Hilfe
ein schnelles und kostengünstiges Internet.
usererstellter Inhalte in Marketing- und
angesprochen werden.
Das ist bislang nicht in Sicht, obwohl mobi2. Die neue Autonomie der Nutzer
Vertriebs-Aktivitäten eingebunden.
le Kartendienste mittlerweile auch für neue
4. Benutzerfreundliche Lösungen
kreativ ansprechen
Geräte wie das iPhone optimiert sind.
Kunden haben im Internet immer mehr Einer der Kernerfolgsfaktoren für den
Das Web lasse sich also kaum Eins zu Eins
Macht - die Nutzungssituationen sind oft Erfolg der Portale und Buchungsstrecken
vom stationären PC aufs Mobiltelefon übersehr unterschiedlich und prägen das Navi- ist eine permanent optimierte Usability.
tragen, bilanziert Experte Gerry Samuels.
gationsverhalten. Dem gilt es Rechnung Dies bleibt auch so und wird durch das EntKünftig dürfte jedoch der technologische
zu tragen. Dazu ist nur ein multiples On- stehen der neuen weiteren Online-VerFortschritt der Verschmelzung zwischen
line-Vertriebsmanagement in der Lage, das triebskanäle (E-Commerce-Satelliten) und
Web, Mobilfunk und satellitengestützter
alle Vertriebskanäle optimal nutzt: eCom- den Trend zu Social Commerce noch weNavigation allmählich den Weg bereiten, etmerce 360º. Ziel ist, die richtige Informa- sentlich wichtiger. Dabei bleiben die Grundwa durch neue Produkte wie das iPhone,
tion - zur richtigen Zeit - am richtigen Ort prinzipien der Usability zwar gleich, die
Google Android oder Nokia, das im vergan- dem richtigen Kunden - im richtigen For- Schwerpunkte unterscheiden sich jedoch
genen Jahr den Navigationsspezialisten Navmat zu vermitteln. Das kann eine allein ste- in den einzelnen Online-Vertriebskanälen
teq für immerhin 5,4 Milliarden Euro überhende E-Commerce-Site nicht mehr lei- deutlich.
nahm.
sten. Hier müssen zusätzliche Tools wie
Negativ zu Buche aus Kundensicht schlaWidgets, Gadgets, Applets, SocialMedia- Quelle: Ray Sono/LL
gen jedoch nicht nur die teuren Einwahlgebühren ins mobile Web. Zu umständlich ist
monitor | Special Kommunikation 4A/2008
11
Kommunikation | Mobile Business
außerdem das Scrollen mit den kleinen
Alleskönnern durch Suchmaschinen wie
Google. Hinzu kommt, dass die Homepages
der meisten Hotels oftmals noch gar nicht
für die mobile Nutzung optimiert sind.
Einchecken per Handy
Direkt am Flughafen offerieren Spezialisten
eine Lösung rund um den mobilen Checkin. Mit einer Mobile Passenger Solution etwa kann der Fluggast zukünftig von überall per Handy einchecken. „Ein individueller persönlicher Reiseassistent von Tür zu
Tür wird in Zukunft selbstverständlich sein“,
betont Unternehmenssprecherin Astrid
Heinz von Siemens IT Solutions and Services. Für den Fluggast sei die Registrierung
denkbar einfach: Er logge sich per Internet
auf der Website der jeweiligen Airline unter der Rubrik „Mobile Check-in“ ein und
meldet sich mit Name und Passwort an. Zusätzlich nennt er Sitzplatz- und Mahlzeitpräferenzen. Dann fehlt nur noch die Eingabe des Hardware-Typs und der Mobilfunknummer. Und schon erhält der Kunde vom Server automatisch über eine WAPPush-Nachricht die passende mobile JavaAnwendung auf sein Mobilfunkgerät. „Ins-
REBOOT
Soll man im Flugzeug mit dem Handy
telefonieren dürfen? Diese Frage beschäftigt seit einiger Zeit die Öffentlichkeit, als handle es sich um ein Grundrecht der Menschheit. Immerhin hat die
EU-Kommission jetzt grünes Licht gegeben.
Conrad Gruber
Wer bis jetzt immer ein schlechtes Gewissen hatte, wenn er vergaß, sein Handy im
Flugzeug auszuschalten und fürchtete, damit womöglich den Absturz der Maschine
zu riskieren, kann sich jetzt gefoppt fühlen:
Technisch waren Handys im Flugzeug immer weitaus weniger gefährlich, als es die
Airlines behaupteten. Störungen der Bordelektronik kommen mit modernen Modellen schon gar nicht mehr vor.
12
gesamt benötigt der Fluggast dafür nicht
länger als fünf Minuten“, fasst Astrid Heinz
zusammen.
Erstmalig vorgestellt auf der ITB 2008
wurde ein System zur Touristenführung für
blinde und sehbehinderte Besucher der
norddeutschen Insel Hallig Hooge, das international durchaus Schule machen könnte.
Voraussetzung hierfür ist allerdings der Besitz eines PDAs. Mithilfe eines
satellitengestützten Positionierungssystems
GPS (Global Positioning System) erkennt
das System den Standort der Besucher
ähnlich wie bei einem Navigationsgerät im
Auto.
Die dazu passenden Audio-Beschreibungen wie spezielle Texte für Blinde und Sehbehinderte starten automatisch. An 25 Informationspunkten erhalten die Gäste somit fotografisch genau erläuterte Umgebungsbeschreibungen, die mit Wissenswertem zu Geschichte und Alltag der Halligen
gespickt sind. „Auch sehende Besucher können mit der Audioführung ihren Blick schärfen“, erklärt Geschäftsführer Jörn Erkau von
der Soundcom GmbH. Die genauen Beschreibungen lassen nämlich Details an Bauten und der Landschaft erkennen, die einem
sonst bestimmt nicht aufgefallen wären.
Tourismus-Trends
& ITK-Szenarien.
Trendradar und
Zukunftsszenarien
im E-Tourismus.
Informations- und
Kommunikationstechnologien in
der Tourismusund Freizeitwirtschaft,
Hrsg: Salzburg Research Forschungsgesellschaft, ITD-Verlag, Hamburg,
2007, ISBN 978-3-9810378-0-7
Für IT-Spezialisten stellt das wissenschaftliche Werk eine wichtige Quelle
zur Orientierung dar, um relevante und
nachhaltige Trends in der Informationsund Kommunikationstechnologie fundiert zu bewerten und neue BusinessPotenziale auszuloten, sowohl auf internationaler Ebene als auch mit Blick auf
die österreichischen Heimatmärkte.
Ein Grund, warum die EU nun den Airlines erlaubt, mobile Telefonie während des
Fluges zuzulassen. Einschränkung: Nicht
während Start oder Landung und erst ab
3.000 Metern Flughöhe.
Für die Handyanbieter tut sich hier ein
schönes Geschäftsmodell auf: Die GSMSignale aus dem Flugzeug werden nämlich
über Satellit vermittelt und dann über Bodenstationen auf der Erde weitergeleitet,
und hier können die Netzbetreiber die ganze Phantasie ihrer Roamingpreise spielen
lassen. Denn billig wird die Nutzung des
Handys an Bord sicher nicht werden.
Doch ist es wirklich so, dass man unbedingt während einer Flugreise telefonieren
muss? Bis jetzt ging es ja auch ohne. Auch
vielbeschäftigte Businessreisende haben
sich in der Rhythmik ihrer Transatlantikoder Asienflüge damit angefreundet, dass
ein Langstreckenflug in der Business Class
eine ideale Möglichkeit zum Ausspannen
oder zur ruhigen Vorbereitung auf wichtige Geschäftstermine ist. Heilloses Geklin-
gel an Bord würde da nur stören. Wenn es
wirklich darum geht, wichtige Nachrichten
auszutauschen, kann ja auch Inflight-Internet und E-Mail an Bord genutzt werden,
was große Linien mittlerweile anbieten.
Dass aber gerade auf einem so kleinen
Raum wie einer Flugzeugkabine plötzlich
jeder angerufen werden oder selbst den Lieben daheim wichtige oder weniger wichtige Nachrichten übermitteln kann, ist spätestens seit der Erfahrung mit HandyManiacs in der U-Bahn dem Grunde nach
problematisch.Aus der U-Bahn kann man
allerdings aussteigen oder sich einen anderen Platz suchen, im Flieger ist das leider
nicht möglich.
Die Austrian Airlines haben nicht zuletzt
deswegen vor, das Handy-Service auf
ihren Flügen nicht anzubieten, die Lufthansa übrigens auch nicht, da „das Ruhebedürfnis der Passagiere“ Vorrang habe.
Anders zum Beispiel bei Air France oder
Emirates: Dort kann nun ins Handy gelabert werden, was das Zeug hält.
monitor | Special Kommunikation 4A/2008
Buchtipp
www.salzburgresearch.at
Umfassender Relaunch!
Großes Jubiläumsgewinnspiel:
Newsletter bestellen und mitmachen!
www.monitor.co.at
Aktuell: Neuigkeiten und Hintergründe
Überblick: Das kostenlose MONITOR-Newsletter-ABO
IKT-Wissen: Kostenloses MONITOR-PDF-Archiv bis zum Jahr 1994
Schwerpunkte: Sonderthemen umfassend dargestellt
Karriere-Chancen: So finden Sie Ihren IKT-Traumjob
Business Software: Schneller Marktüberblick mit dem IT-Matchmaker
Bohmann Druck und Verlag GmbH & Co KG, Leberstraße 122, 1110 Wien, [email protected], www.monitor.co.at,Tel. +43 (0)1 740 95 – 410
maupi.com
10 Jahre
MONITOR-Online
Kommunikation | VPN
Hybrid VPN: Sicherer Remote Access für jede Anforderung
Einen sicheren Remote-Zugriff auf das
Firmennetzwerk herzustellen ist keine
neue Herausforderung für Administratoren. Neu sind aber wachsende Ansprüche der Nutzer, immer neue Endgeräte sowie neue Arbeitswelten und
Strukturen mit Mitarbeitern aus dem
Home Office, Außendienst-Mitarbeitern
via PDA, freien Mitarbeitern.
Thorsten Kurpjuhn
Als weiterer Aspekt sind darüber hinaus Geschäftspartner und Lieferanten zu nennen,
denen ein sicherer Zugriff auf wichtige
Unternehmensressourcen (wie beispielsweise Produkt- und Preislisten) ermöglicht
werden soll und Nutzer, die aus InternetCafes, Flughäfen oder Hotels Daten abrufen möchten.
Dabei gibt es mittlerweile eine Fülle von
Endgeräten, mit denen zugegriffen werden
soll. Ob PDAs mit SSL, Windows-MobileNutzer via L2TP, Smartphones, private PCs
oder Nutzer in fremden Netzwerken - von
überall muss heute der Zugriff auf Unternehmensressourcen gewährleistet werden,
und das möglichst ohne aufwendige Installation und Konfiguration.
Problematisch ist hierbei, dass diese Endgeräte beispielsweise über WLAN Zugang
zum Internet haben und die Sicherheit dieser fremden Netzwerke keinesfalls gewährleistet werden kann. End-to-End-Sicherheit
via VPN ist daher der absolute Schlüssel,
um unerwünschte Risiken auszuschalten.
Der neue Trend - Hybrid-VPN
Waren bisher hauptsächlich IPsec-basierende VPNs die Lösung für diese Problematik,
so bietet Hybrid VPN, das sowohl IPsec VPN
und L2TP VPN als auch SSL VPN umfasst,
verschiedene Ansätze für die gestiegene
Komplexität der heutigen Arbeitswelt. Mit
Hybrid VPN werden alle Anforderungen
an eine VPN Verbindung individuell
abdeckt.
Um einen SSL-VPN-Tunnel aufzubauen, ist lediglich ein internetfähiges Gerät mit
Browser notwendig. Um einen Zugang aufzubauen, ruft der Mitarbeiter eine Internetadresse auf und loggt sich ins Netzwerk ein.
14
Die gesamte Session ist durch das SSL-Protokoll, bekannt vom Online-Banking, verschlüsselt. Dabei wird IPsec nach wie vor
seine Bedeutung behalten: für Site-to-site
VPNs, das heißt, die sichere Verbindung von
statischen Netzwerken.
Thorsten Kurpjuhn
ist Produkt-Manager
Security bei Zyxel,
www.zyxel.at
Welches VPN für welchen Nutzer?
Pauschal gesagt ist sicher ein Mix aus allen drei möglichen Zugriffsarten die beste
Lösung. SSL und IPsec bzw. L2TP VPN bieten unterschiedliche Vorteile woraus sich jeweils optimale Einsatzszenarien ableiten lassen. Nehmen wir beispielsweise einen User,
der nicht nur jederzeit auf das Netzwerk zugreifen können („Always on“) muss, sondern auch noch Zugriff auf sämtliche Applikationen wie beispielsweise VoIP benötigt. Für solche User ist IPsec VPN die einzig logische Wahl. Durch die Notwendigkeit der Installation eines
Clients auf dem Endgerät wird
hier eine höhere Sicherheit gewährleistet. Diese erhöhte Sicherheitsanforderung betrifft
ebenfalls Mitarbeiter, die in sicherheitsrelevanten Bereichen wie der Personalabteilung
oder der Entwicklung arbeiten.
ZyWALL Firewall Appliances sind zum
Beispiel in der Lage, bis zu 1.000 solcher Tunnel entgegenzunehmen und selbständig zu
terminieren. Die dahinter liegenden Server
werden somit frei für ihre Kernaufgaben,
da die komplette Rechenlast für das Entschlüsseln der VPN-Verbindungen übernommen wird. MS-Windows-Nutzer können darüber hinaus den L2TP-Service nutmonitor | Special Kommunikation 4A/2008
zen, der mit dem MS-Windows-OS-Paket
geliefert wird. Anstrengungen wie zusätzliche Software-Installationen oder der Kauf
von Software sind daher bei L2TP unnötig.
SSL VPN - Mobil und flexibel
Ist hingegen ein schneller Zugang ohne
Konfiguration auf dem Notebook
oder per Smartphone notwendig,
bietet sich SSL VPN als die erste
Wahl an. Mobile Benutzer, die auf Firmenressourcen in öffentlichen Internetcafes oder auf dem Flughafen zugreifen wollen, müssen einfach nur eine Verbindung
per Browser herstellen, um flexibel und
schnell die gewünschten Informationen abrufen zu können. Auch für Geschäftspartner und Kunden muss ein Zugriff einfach
und ohne Konfigurationsaufwand möglich
sein. SSL VPN ist hier die ideale Möglichkeit, dies zu gewährleisten.
Die richtige Wahl der Remote-Verbindung hängt von den Bedürfnissen des Nutzers ab - Hybrid VPN ist daher die ideale
Möglichkeit sicher und flexibel gestiegene
❏
Anforderungen abzudecken.
Das Jahr 1985: Erste Domains wurden registriert
Gleich zu Jahresbeginn 1985 vollzog
sich unbemerkt von der Öffentlichkeit
der historische Schritt: Die ersten
Domains nordu.net bzw. symbolics.com
wurden registriert. Nur wenige Zeitgenossen einschließlich der Entwickler
ahnten damals etwas vom bahnbrechenden Erfolg des Internets.
Lothar Lochmaier
Das Wort „Internet“ setzt sich aus zwei
Teilen zusammen: aus „inter“ (lateinisch
für „zwischen“) und „net“, der Abkürzung
für „networking“ (englisch für „vernetzen“). Rein technisch ausgedrückt steht das
„Internet“ deshalb für die Vernetzung zwischen Computernetzen. Das Internet ist also oberflächlich gesehen „nur“ ein computerbasiertes Technologienetzwerk.
Aber es ist weit mehr als das: In dem
scheinbar harmlos daher kommenden Begriff Networking verbarg sich bereits zu Beginn die ungeheure soziale Sprengkraft eines Mediums, das bis heute die Befürworter und Kritiker nicht verstummen lässt. Etwas Martialisches hatte die Innovation von
Anfang an. Schließlich ging das Vorhaben,
zumindest darüber sind sich die Chronisten
einig, aus dem 1969 entstandenen Arpanet
hervor, einem Projekt der im US-Verteidigungsministerium angesiedelten Advanced
Research Project Agency (ARPA).
Arpanet diente zur Vernetzung von Universitäten und Forschungseinrichtungen.
Ziel des Projekts war es zunächst, die knappen Rechenkapazitäten sinnvoll zu nutzen,
erst in den USA, später weltweit. Die anfängliche Verbreitung des Internets ist eng
mit der Entwicklung des Betriebssystems
Unix verbunden. Nachdem das Arpanet
1982 das erste Internetprotokoll TCP/IP
adaptierte, begann sich auch der Name Internet allmählich durchzusetzen.
Nach allgemeiner Lesart von Experten
und der damit verbundenen Legendenbildung bestand das ursprüngliche Ziel des Projektes vor dem Hintergrund des Kalten Krieges in der Schaffung eines verteilten Kommunikationssystems, um im Falle eines
Atomkrieges eine störungsfreie Kommuni-
kation zu ermöglichen. Glücklicherweise
legte das Internet bald schon seinen
kriegerischen Beigeschmack ab. Gleichwohl
verleihen heute Begriffe wie „Cyberwar“
und „Cybercrime“ der dunklen Seite der
organisierten Kriminalität bis hin zum
Terrorismus wieder Auftrieb.
Historie durch militärische
Forschungsgelder geprägt
In der Pionierphase wurden hingegen vorwiegend zivile und vor allem wissenschaftliche Projekte gefördert, auch wenn die
ersten Knoten von der ARPA finanziert
wurden. Die wichtigste Applikation in den
Anfängen war das E-Mail. Bereits 1971
überstieg das Gesamtvolumen des elektronischen Mailverkehrs das Datenvolumen,
das über die anderen Protokolle des
Arpanets, das Telnet und FTP, abgewickelt
wurde. Das World Wide Web (WWW) in
seiner heutigen Grundstruktur wurde im
Jahr 1989 im CERN bei Genf von Tim Berners-Lee entwickelt. Rasanten Auftrieb erhielt das Internet allerdings erst seit 1993,
als der erste grafikfähige Webbrowser
namens Mosaic veröffentlicht und zum
kostenlosen Download angeboten wurde.
Schließlich konnten auch Laien auf das Netz
zugreifen, was mit der wachsenden Zahl von
monitor | Special Kommunikation 4A/2008
Nutzern zu vielen kommerziellen Angeboten im Netz führte.
Der Webbrowser wird deswegen auch als
die „Killerapplikation“ im Internet bezeichnet. Immer mehr machte der Begriff der „digitalen Revolutio“n die Runde. Die Benutzerzahl stieg stark an. 1991 führte Tim Berners-Lee vom europäischen Kernforschungszentrum CERN im Internet ein
Hypertextsystem ein. Mosaic ermöglichte
es zudem, eine einfach zu bedienende Benutzeroberfläche zu gestalten.
Damit wurden von nun an die digitalen
Netzwerk-Dokumente auf unkomplizierte Weise zugänglich. Bereits 1992 war die
technische Internetausstattung auf 700.000
Server herangewachsen. Ein Jahr später hatte sich die Anzahl der am Internet angeschlossenen Computer mit 1,8 Mio. mehr
als verdoppelt. Nutzten bis Mitte der 90erJahre vorwiegend universitäre Einrichtungen das Netz, so rückten jetzt der Privatanwender und damit verbunden kommerzielle Interessen in den Vordergrund.
Namhafte Zeitungen kamen auf die Idee,
einen Teil ihrer Printausgaben online zu stellen. Die ersten Online-Shops wurden geboren, allen voran Online-Buchhändler
Amazon. Wenige Jahre später machte die
Auktionsplattform eBay weltweit Furure.
Durch die Erschließung der globalen Kon15
sumentenwelt kam die Frage nach der Sicherheit von Daten im Internet auf.
Denn die normale Datenübertragung war
nicht abhörsicher, also mussten Verschlüsselungstechniken her. Bis heute jedoch gibt
es kein Allheilmittel gegen die über digitale Mechanismen verbreitete Schadsoftware.Trotzdem träumt seit 1995 die ganze Welt
den etwas naiven Traum vom „Cyberspace“, vom unbegrenzten und freien „Surfen“, oder gar von der „Welt im Netz“.
Heute gibt es weltweit mehrere Milliarden Internetnutzer.Allerdings machen immer noch viele Nutzer im alltäglichen
Sprachgebrauch den Fehler, „das Internet“
mit dem World Wide Web gleichzusetzen.
Dabei deckt dieses nur einen Bruchteil der
sichtbaren Oberfläche ab. Mit E-Mail, FTP,
Telnet und Usenet (Newsgroups) stehen
weitere Dienste bereit, die bis in die tiefen
Kanäle des dunklen Untergrunds hineinreichen.
Vergessener Pionier der ersten Stunde
Während insbesondere die beiden Pioniere
Tim Berners-Lee und Vinton G. Cerf in der
Öffentlichkeit auch heute noch eine namhafte Rolle spielen, geriet ein anderer in Vergessenheit. Der langmähnige Experte Jonathan Postel mit dem Outfit eines Einsiedlers gehörte zu jenen Computerfreaks, die
in den 60er-Jahren damit begannen, ein weltweites Datennetz zu knüpfen.
Dass dies bis heute funktioniert, dazu
leistete auch Postel seinen Beitrag. Der
zurückhaltende Mann in Sandalen galt als
vertrauenswürdig und war der erste Herr
über das ausgeklügelte Adresssystem im
Internet. Er vergab und verwaltete die Internet-Adressen. Und er tat dies so effizient,
dass dem Netz trotz rasanten Wachstums
in den Anfangsjahren das große Chaos erspart blieb.
Der Wissenschaftler und Herausgeber der
„Requests of Comments“ (RFC) verstarb
allerdings bereits im Jahre 1998 und konnte somit den Wandel vom statischen zum
dynamischen Netzwerk nicht mehr mit erleben, einschließlich des großen Erfolgs der
sozialen Gemeinschaften im Web 2.0.
Jonathan Postel starb am 16. Oktober 1998
in Santa Monica, Kalifornien, an den Folgen
einer Herzoperation.
Internet und das Web 2.0: Quo vadis Community?
Trend 1: Die Medien-Branche werde durch
die ständig steigende Relevanz des Webs immer mehr umgekrempelt. Die Grenzen zwischen den einzelnen Kanälen verschwinden,
im Zentrum stehen zunehmend die Inhalte und gleichzeitig die Nutzer, die mit Web
2.0 auch zu Inhalts-Produzenten werden.
„User Generated Content“ ist für die Medienbranche eine enorme Herausforderung
und bedroht den Wert der traditionellen
„Assets“, wie z. B. Fernsehkanäle oder Zeitungsmarken. Der Bau und die Pflege einer
Leser-Gemeinde werden zur zentralen Aufgabe.Telekommunikationsfirmen drängen
mit immer neuen Angeboten in den Markt
und nutzen ihre Fähigkeiten zur Verbreitung von Information auf den unterschiedlichsten Kanälen. Die Konvergenz der Medien wird weiter zunehmen und neue
Mischformen werden die Aufmerksamkeit
der Nutzer auf sich ziehen.
Trend 2: Das Phänomen „Social Networking“ wird weiter an Bedeutung gewinnen.
In den USA haben bei Jugendlichen bereits
heute Applikationen wie Facebook oder Twitter mehr Gewicht als E-Mail und werden
zunehmend als primäre Kommunikationsplattform genutzt. Dieser Trend wird sich
ausweiten und 2008 auch Europa verstärkt
erfassen, wenn Sprachbarrieren überwunden sind und ein gemeinsames Momentum
erreicht wird. „OpenSocial“ als API-Standard für Applikationen auf unterschiedlichen
„Social-Networking“-Plattformen wird diesen Trend weiter forcieren. Die Nutzung
des „Social Graph“ (wer kennt wen via wen)
wird aber auch außerhalb der Online-Sites
16
wie Facebook, LinkedIn oder Xing immer
wichtiger, zum Beispiel im Rahmen von
Empfehlungen bei Produktkäufen oder bei
der Evaluation und Organisation von Reisen. Bisher scheinen sich Social-Networking-Applikationen stark entlang Sprachund teilweise auch Landesgrenzen zu entwickeln.
Trend 3: Nachdem das Web bisher fast ausschließlich eine Online-Welt war und es
auch immer einfacher ist, überall online zu
sein, haben verschiedene Technologie-Optionen inzwischen auch eine Reife erreicht,
die es erlauben, Offline-Anwendungen und
hybride Online/Offline-Lösungen ohne erheblichen Mehraufwand zu entwickeln.
Technologien wie Google Gears,Adobe Air
oder Firefox 3.0 zeigen den Weg auf. WebApplikationen gelangen damit zum Client
und wir werden möglicherweise eine gewisse Verschmelzung von Client-Anwendungen und Web-Applikationen sehen, in der
die Grenzlinien zwischen der Online- und
Offlinewelt für den Nutzer bald verschwimmen.
Trend 4: Werbung wird weiterhin der dominierende Umsatztreiber im Web-2.0-Umfeld sein.Alternative Modelle konnten sich
bisher kaum etablieren und werden auch
weiterhin einen schweren Stand haben, solange etwa kein relevanter und breit eingesetzter Standard für Bezahlverfahren (Micropayments) greifbar sind. Der Trend der
Werbeakteure, von Offline- zu Online-Werbung zu wechseln und zu fokussieren, wird
weiter zunehmen. In den kommenden Monaten und Jahren werden wir immer besser
monitor | Special Kommunikation 4A/2008
ausgefeilte Modelle beobachten können, um
Werbung noch zielgerichteter, profilgerechter und wirksamer zu platzieren. Auch die
Messbarkeit wird ständig steigen. Weil
gleichzeitig aber auch die Konsumenten werbemüde werden, finden neue Formen von
Werbung wie Co-Produktionen, Sponsorings oder interaktives „Product-Placement“
Eingang bis hin zum Erstellen von kompletten Filmproduktionen durch Communities.
Die Besitzer und Anbieter von Inhalten werden vermehrt direkt mit den Produktanbietern arbeiten, um einen bruchstellenfreien
„Lead-Generation“-Prozess zu implementieren.
Trend 5: Mit dem Erfolg von Innovationen
wie dem iPhone wird auch die Widget-Euphorie weiter zunehmen. Kaum ein großer
Anbieter wird darauf verzichten wollen, seine Funktionalitäten und Inhalte auch über
Widgets zu verbreiten.
Trend 6: Web 2.0 und dessen Entwicklungen wirken sich neben der Medien-Branche
auf viele andere Branchen aus. Zunehmende Preis-Transparenz, allgegenwärtiger Informationsaustausch, einfachere Selbstbedienungsangebote und verbessere Integration vorher nicht kombinierbarer Dienste
beeinflussen auch die Ausrichtung von
Transport-/Touristik-Unternehmen, Finanzinstituten oder Pharmafirmen. Und nicht
zuletzt drängen die Mitarbeiter, die den Nutzen von Web-2.0-Funktionalitäten in ihrem
Privatleben schätzen gelernt haben, die
Unternehmen dazu, ähnliche Funktionalitäten und Dienstleistungen auch intern einzuführen.
Rufschädigung von Unternehmen mit einem
Mausklick möglich
Einige Entwicklungen hätten Postel sicher
nicht gefallen. Den positiven Perspektiven,
die Marktforscher, Unternehmensberater
und Technologieanbieter im interaktiven
Netzwerk der Marke 2.0 im Jahr 2008 propagieren, sind auch enge Grenzen gesteckt.
Die Community ist nicht mehr ganz so naiv
wie vor wenigen Jahren. Sie reagiert mittlerweile empfindlich wie ein Seismograph
auf Datenschutzbelange, auch weil sie sich
nicht ausschließlich als Werbevehikel vor
den Karren der Betreiber spannen lassen
möchte.
Mittlerweile tangiert die dunkle Seite aber
auch immer mehr das Image von Unternehmen. Die Rufschädigung per Mausklick im
Internet besitzt zahlreiche Facetten, die von
technischen Schwachstellen in der IT, über
Herausforderungen in der Matrix-Organisation, bis hin zu Fragen des Führungsstiles reichen. Es gilt die Bandbreite an denkbaren Möglichkeiten systematisch zu erfassen.
Negative Nachrichten und bloße Gerüchte über das Unternehmen verbreiten sich
heute binnen Minuten um den ganzen Globus, was das innerbetriebliche Reputationsmanagement erheblich kompliziert. Andererseits kann eine positive Reputation im
Netz oftmals binnen Stunden den Aktienkurs und damit den Unternehmenswert
nach oben treiben.
Mit Blick auf die Vielfalt der Instrumente in der Kommunikation haben die Beleg-
schaften durch internetbasierte Kanäle in
den letzten Jahren zweifellos an Einfluss gewonnen. Neuester Ausfluss im „Mitmachweb“ sind zahlreiche Portale, auf denen Mitarbeiter ihre Arbeitgeber bewerten können.
Einerseits könnten Unternehmen beispielsweise bei einem anstehenden RecruitingProzess im Wettlauf um die besten Köpfe
ihr eigenes Image durch viele positive Bewertungen und damit die Attraktivität als
Arbeitgeber auch im Internet deutlich steigern.
Andererseits steht das Image des Unternehmens durch offene Plattformen, die die
Reputation bewerten, permanent auf dem
Spiel. Laut einer Studie der Österreichischen
Gesellschaft für Marketing (ÖGM) ist unter dem etwas nebulösen Begriff „Reputation“ weit mehr als nur der „gute Ruf“ zu
verstehen. Die von den Marktforschern befragten Führungskräfte stufen vor allem
Faktoren wie Vertrauenswürdigkeit, Glaubwürdigkeit und Verantwortungsbewusstsein als zentrales innerbetriebliches Koordinatensystem ein.
Demzufolge lässt sich ein nachhaltiges
positives Image kaum über kurzfristige
Kommunikationsprogramme herstellen.
Was zählt sind Resultate, die über einen längeren Zeitraum durch widerspruchsfreies
und glaubwürdiges Handeln hervorgerufen und bestätigt sind.Auf der anderen Seite bietet das Internet ein großes Reservoir,
die Marke und ihre Kernbotschaften dynamisch weiterzuverbreiten und somit den
Unternehmenswert nachhaltig und positiv
❏
zu beeinflussen.
Individuell.
Ganzheitlich.
Energieeffizient.
IT-Lösungen
100 % modular
Unternehmen kämpfen im Internet um ihren guten Ruf
Was leistet das internetbasierte
Reputation Management?
. Web Reputation Management bzw. der
synonym verwandte Begriff „Online Reputation Management“ beschreibt die
Überwachung sowie das Monitoring aller relevanten im Internet frei zugänglichen Meinungen und Kommentare.
Unternehmen, die sich aktiv und permanent mit dem eigenen Bild in der Online-Welt auseinandersetzen, können besser in den öffentlichen Meinungsbildungsprozess eingreifen und diesen aktiv mit gestalten.
. Das Ziel einer authentisch gelebten Führungskultur sollte nicht darauf beschränkt
sein, ausschließlich die Marke oder allgemein ausgedrückt den Wert des Unternehmens zu steigern - oder durch neue
internetbasierte PR-Instrumente zusätzliche Kundenpotenziale zu erschließen.
Mit in das integrierte Risikomanagementsystem sollten vor allem ethische
Prinzipien aus der Unternehmensführung einfließen, die eine nachhaltige Reputationspflege sinnvoll flankieren bzw.
ergänzen, um das Unternehmen krisenfester und robuster gegen Angriffe auszustatten.
Rittal ist Mitglied in
„THE GREEN GRID“
Weitere Informationen auf
www.rittal.at/IT
Rittal Schaltschränke Ges.m.b.H.
Wien – Linz – Graz – Lauterach
Tel. Zentrale: (01) 610 09-0
offi[email protected], www.rittal.at
Als das Internet laufen lernte und wie das Netz fast schon zu schnell wurde
Gleich zu Jahresbeginn 1985 vollzog sich unbemerkt von der Öffentlichkeit der
historische Schritt: Die ersten Domains nordu.net bzw. symbolics.com wurden
registriert. Ein Interview mit Peter Rastl, der seit 1976 den Zentralen Informationsdienst (ZID) an der Universität Wien leitete, und den technologischen Wandel
an vorderster Front erlebte.
Lothar Lochmaier
Herr Rastl, Sie waren nach allgemeiner Legendenbildung derjenige, der bei Jon Postel
von der IANA damals die erste Top Level
Domain TLD.at hat registrieren lassen.
Welche Herausforderungen stellten sich
damals vor 20 Jahren an der Uni Wien, um
dem Internet in Österreich konkretes Leben
einzuhauchen?
Genau genommen war nicht ich es, der die
Mail an Jon Postel bezüglich der Registrierung der TLD.at geschrieben hat, sondern
Walter Kunft von der TU Wien im Namen
des ACONET-Vereins. Der „Verein zur Förderung eines österreichischen, wissenschaftlichen Datennetzes (ACONET)“, wie er offiziell heißt, wurde 1986 gegründet, seine
Mitglieder waren die EDV-Zentren der
österreichischen Universitäten.
Als wir an der Uni Wien begannen, uns
mit dem Internet-Protokoll zu beschäftigen,
und begriffen hatten, was Internet-Adressen und -Namen sind, und dass da in den
USA eine Top Level Domain für Österreich
eingetragen werden musste, schien es mir
passend, diesen Schritt über den ACONETVerein zu veranlassen, denn das war ja nicht
eine Angelegenheit alleine des EDV-Zentrums der Uni Wien, sondern aller Universitäten. Das kommerzielle Internet gab es
damals noch nicht.
Der Eintrag von „.at“ war überhaupt keine Herausforderung, sondern Walter Kunft
schickte das Mail an Jon Postel und der antwortete prompt: „Done.“ Leider ist dieses
Mail nicht erhalten geblieben. Wir hatten
keine Ahnung, dass das einmal als ein historisch bedeutsames Ereignis wahrgenommen werden würde.
Welche Organisationen und Firmen hatten
in dieser ersten Pionierphase konkretes
18
Interesse an einer derartigen Registrierung,
schließlich steckte das World Wide Web bis
gegen Mitte der 90er-Jahre noch ziemlich in
den Kinderschuhen?
In dieser Pionierphase war das Internet eine rein akademische Angelegenheit, nur die
Universitäten, aber keine Firmen oder andere Organisationen hatten daran bereits
ein Interesse. Das WWW gab es damals
noch nicht, das lernte ich erst bei einem Vortrag von Tim Berners-Lee anlässlich einer
vom ACONET-Verein veranstalteten Tagung 1992 in Innsbruck kennen - und erkannte selbst da noch nicht die große Bedeutung, die das einmal haben sollte.
Welches waren die Motive der beteiligten
Personen, sich im Vorläufer des Internets in
Österreich „einen Namen“ zu machen?
Wir wollten Erfahrungen mit dem Internet-Protokoll sammeln, das geeignet war,
Rechner unterschiedlicher Hersteller mit einem „neutralen“ Protokoll zu verbinden,
im Gegensatz zu den firmenspezifischen
Kommunikationsprotokollen wie IBM/SNA
oder DECnet. Kommerzielle Motive spielten keine Rolle, und es dachte auch niemand
darüber nach, ob man sich da „einen Namen
machen“ würde.An den Universitäten war
es eben möglich, sich mit interessanten Neuerungen ohne Rücksicht auf Nützlichkeit
oder wirtschaftliche Gesichtspunkte zu beschäftigen. Deshalb ist das Internet in Europa von einzelnen akademischen Institutionen ausgegangen, während die EU-Kommission auf ein anderes Pferd setzte, die
sogenannten OSI-Protokolle und das Internet-Protokoll als eine unerwünschte amerikanische Konkurrenzentwicklung verdrängen wollte. Erst Jahre später ließ die EUmonitor | Special Kommunikation 4A/2008
„Wir hatten keine Ahnung, dass das einmal
als ein historisch bedeutsames Ereignis
wahrgenommen werden würde.“ - Dr. Peter
Rastl, viele Jahre Leiter des Zentralen Informatikdienstes an der Universität Wien
Kommission von dieser fehlgeleiteten Förderpolitik ab.
Das Internet hat sich rasant vom Außenseiter zum Marktplatz von Ideen gewandelt.
Aber auch die Kommerzialisierung der Communities nimmt zu, und das professionell
organisierte Cybercrime bedroht sowohl die
Integrität der Nutzer als auch die Vertrauenswürdigkeit der Unternehmen. Wie sieht
denn Ihre persönliche Bilanz heute aus?
Es hat in diesen 20 Jahren eine rasante Entwicklung stattgefunden, mit vielen Innovationen, die zumindest für mich überraschend
gekommen sind: Der Siegeszug des WorldWide Web, die Leistungsfähigkeit von Suchmaschinen, die Wirkung von p2p-Filesharing, der Umfang und die Qualität von kooperativem Content wie Wikipedia etc., und
da wird es auch in den nächsten Jahren noch
manche Innovationen geben, mit denen das
Internet selbst die Trendforscher überraschen wird. Nicht so überraschend ist es, dass
das Internet zu kriminellen Zwecken genutzt wird - da ist schon eher überraschend,
dass es so lange dauert, bis die Gesellschaft
damit einigermaßen klarkommt. Natürlich
ist die begeisterte und auch naive Koopera-
tion der Internet-Pioniere längst einem harten kommerziellen Konkurrenzkampf gewichen, wo viele Kreise ihren mitunter kriminellen Vorteil suchen. Das ist das reale
Leben, dem wir uns stellen müssen, wir leben längst nicht mehr im Paradies, wo auch
die Raubtiere friedlich mit allen zusammenleben.
so müssen auch die Internet-User lernen,
mit den Risken und Gefahren im Internet
umzugehen. Einmalig in der Kulturgeschichte ist es, dass beim Internet erstmals
die Eltern von ihren Kindern lernen müssen, und die traditionellen Muster gesellschaftlicher Entwicklung scheinbar auf den
Kopf gestellt werden.
Glaubwürdigkeit und Vertrauenswürdigkeit
gelten als Schlagworte, die sich heute unter dem Begriff „Online“ bzw. „Web Reputation Management“ subsummieren lassen.
Wie sieht denn Ihrer Meinung nach die Zukunft im Netz aus, wird sich eher die dunkle
oder eher die lichte Seite durchsetzen?
Was schlussfolgern Sie aus diesen
Tendenzen?
Es wird sich die lichte Seite durchsetzen, aber
dazu ist es nötig, dass die Gesellschaft diese
neue Kulturtechnik wirklich verinnerlicht
und über eine ausreichende „Internet Literacy“ verfügt. So wie wir unseren Kleinkindern beibringen, nicht alles, was sie vom
Fußboden auflesen, in den Mund zu stecken,
Jedenfalls müssen wir, die wir das Internet
mitgestalten, rechtzeitig Maßnahmen entwickeln, das Vertrauen in diese Technologie
zu stärken und den Missbrauch zurückdrängen, ohne allerdings dabei zu Panikmache
und Polizeistaat zu greifen. Meine große
Sorge ist, dass die Politik - in Unkenntnis
über die Funktionsweise des Internets - versucht, Probleme auf eine althergebrachte
Art zu lösen, die zwar beim Internets scheitert, aber als Nebenwirkung schwerwiegende Gefahren für unsere Gesellschaft herauf-
Nationale und internationale ACOnet-Verbindungen ab November 2001 (Bild Universität Wien)
beschwört, wie zum Beispiel die Verpflichtung zur Vorratsdatenspeicherung: Es sollte doch jedem klar sein, welches
Missbrauchspotenzial da geschaffen wird,
wenn man von Amts wegen alle Kommunikationsdaten aller Bürger abspeichert. Und
niemand sollte so naiv sein zu glauben, dass
diese Daten nur zur Bekämpfung der
❏
Schwerkriminalität genutzt werden.
KOMPETENZ VERBINDET.
ALLES AUS EINER HAND
W ENERGIETECHNIK
W INDUSTRIE- UND SCHALTTAFELBAU
W GEBÄUDEINSTALLATIONSTECHNIK
W SICHERHEITSBELEUCHTUNG
W ANLAGENTECHNIK
W NETZWERKTECHNIK
W KABEL UND LEITUNGEN
W LICHTTECHNIK
SCHRACK TECHNIK GMBH
Seybelgasse 13, A-1230 Wien
TELEFON +43(0)1 / 866 85-0, E-MAIL [email protected]
monitor | Special Kommunikation 4A/2008
WWW.SCHRACK.AT
19
Infrastruktur | WAN-Optimierung
Performance-Steigerung
und Kostenreduktion durch WAN Optimierung
Der Drang, immer mobiler und flexibler
zu sein, führt zu sehr verteilten Unternehmensstrukturen. Nicht nur die
Anzahl der Branch Offices, sondern
auch die Zahl der mobilen Anwender
steigt exponenziell. Und damit auch
die Anforderung an mehr Performance,
optimaler Weise bei gleichbleibenden
Kosten - immer und überall.
Walter Ludwig
Aber auch die Zentralisierung der IT-Systeme wie File-Server, Backup-Server etc. zeigt,
dass die meist langsamen Anbindungen
nicht ausreichend sind. So können Archivierungsjobs nicht mehr zeitgerecht durchgeführt werden, und Daten werden inkonsistent.
Ursachen für die meisten Probleme bei
der Anbindung von Außenstellen bzw.
mobilen Usern ist normalerweise nicht die
Bandbreite, die ja meist mit geringen Kosten
aufgestockt werden könnte, sondern die Latenzzeit. Diese physikalische Größe kann
allerdings nicht mit Upgrades der Leitungen verringert werden, sondern ist abhängig von der Entfernung bzw. Länge der Verbindung.
Dieses Latenzproblem ist vor allem bei
vielen TCP-basierten Protokollen massiv, da
diese durch ein protokollbedingtes Hin- und
Hersenden vieler kleiner Pakete limitiert
sind. So zum Beispiel das CIFS-Protokoll,
welches eine maximale Paketgröße von
4 kB unterstützt und rein seriell funktioniert, das heißt jedes Paket erfordert auch
ein Acknowledgement.
Würde man über eine 16-Mbit-Leitung
mit einer Latenzzeit von ca. 100 ms (entspricht der Entfernung Wien - London) ein
1000 kB großes PDF-Dokument transferieren, bräuchte man hierzu 250 Pakete hin
und 250 Pakete retour.
Bei einer Latenzzeit von 100 ms und
optimalen Leitungsbedingungen bedeutet
dies eine Transferzeit von 50 Sekunden! Und
das bei 16 Mbit ...
20
Durch das Implementieren einer entsprechenden Lösung, sowohl in der Zentrale als auch in der
Außenstelle, kann dieses „Ping-Pong“-Spiel unterbunden werden, da dafür entwickelte Appliances die
maximale Paketgröße von TCP (64 kB) ausnutzen und diese vielen kleinen Pakete in große Pakete zusammenführen. Dies setzt nicht die Latenzzeit außer Kraft, verringert allerdings die Auswirkungen.
Eine Technologie, die bereits seit Jahren in anderen Bereichen verwendet wird, ist Compression. Eher
bekannt bei vielen Anwendern, um aus großen Dateien kleinere zu machen, wird diese Methode allerdings ähnlicherweise auch auf den gesamten Netzwerktraffic angewendet. Dies führt zu einer weiteren Reduktion des Datenvolumens und erhöht damit auch die Performance.
„Magie“ der WAN-Optimierung
Hier beginnt die sogenannte „Magie“ der
WAN-Optimierung. Durch das Implementieren einer entsprechenden Lösung, sowohl
in der Zentrale als auch in der Außenstelle, kann dieses „Ping-Pong“-Spiel unterbunden werden, da dafür entwickelte Appliances die maximale Paketgröße von TCP (64
kB) ausnutzen und diese vielen kleinen Pakete in große Pakete zusammenführen. Dies
setzt nicht die Latenzzeit außer Kraft, verringert allerdings die Auswirkungen. Eine
weitere klassische Technologie in der WANmonitor | Special Kommunikation 4A/2008
Optimierung ist das Caching. Hier können
sowohl ganze Objekte, aber auch nur einzelne Bit-Muster zwischengespeichert und
bei Bedarf lokal zugestellt werden. Damit
werden weniger Daten über das Netzwerk
gesendet, was zwangsweise zu einer Performance-Steigerung führt. Das Erkennen von
Bit-Mustern, auch Byte-Caching genannt,
kann bei jedem TCP-basierten Protokoll
angewendet werden und bietet so eine sehr
effektive und breitbandige Möglichkeit,
Optimierungen durchzuführen.
Eine Technologie, die bereits seit Jahren
in anderen Bereichen verwendet wird, ist
Infrastruktur | WAN-Optimierung
Walter Ludwig ist
Geschäftsführer der
Triple AcceSSS IT,
www.3xs-it.com
Compression. Eher bekannt bei vielen Anwendern, um aus großen Dateien kleinere
zu machen, wird diese Methode allerdings
ähnlicherweise auch auf den gesamten Netzwerktraffic angewendet. Dies führt zu einer weiteren Reduktion des Datenvolumens
und erhöht damit auch die Performance.
Weitere Optimierungsmöglichkeiten bietet auch das TCP-Protokoll selbst. Hier besteht Potenzial im Anpassen der WindowSize und den damit verbundenen Acknowledgement-Verhalten sowie beim Packet
Loss Handling, da sehr oft auf WAN-Leitungen auch Pakete verloren gehen.
Jede WAN-Optimierungslösung sollte
zusätzlich noch die Möglichkeit bieten,Traffic sowohl zu priorisieren als auch zu garantieren und zu limitieren, um die gewünschte Performance-Steigerung auch dort zu erhalten, wo sie wirklich notwendig ist. Denn
wer möchte schon das „normale eBay-Surfen“ beschleunigen, wenn eigentlich die
Priorität am SAP-Traffic liegen sollte.
All diese Technologien gemeinsam in Verwendung führen heute bereits zu Bandbreitensteigerungen von mehr als 100-facher
Beschleunigung. Durch das Object Caching
können ganze Dokumente, ohne Traffic über
die WAN-Leitung zu erzeugen, zugestellt
werden. Sind kleinere Änderungen am File gemacht worden, unterstützt das ByteCaching maßgeblich, da nur mehr die Veränderungen übertragen werden müssen.
Wird die Datei dann übertragen, sollte sowohl die Protokoll-Optimierung, Compression und das Bandbreiten-Management
zum Tragen kommen.
Somit besteht die Möglichkeit, IT-Systeme zu zentralisieren und damit nicht nur
Kosten zu sparen, sondern gleichzeitig auch
wesentlich mehr Performance zu bieten.
Einbindung mobiler User
Aber was ist mit den mobilen Anwendern?
Wie können diese unterstützt werden? Die
Antwort ist meist sehr einfach - die meisten WAN-Optimierungslösungsanbieter
haben nicht nur Appliances, sondern auch
Software Clients im Portfolio. Dies führt
dazu, dass auch mobile Mitarbeiter in den
Genuss von WAN-Optimierung kommen,
was auf der einen Seite zur Performance-Steigerung führt, aber auf der anderen
Seite auch zu immensen Kostenersparnissen.
Denn jeder mobile User benützt meist
Breitband-Datenkarten, welche im Inland
bereits zu günstigsten Preisen angeboten
werden, im Ausland aber auf Grund des
Roamings noch immer sehr teuer sind.
Würde man damit eine Traffic-Ersparnis
von ca. 50% erreichen können, wäre die
Investition für eine derartige Lösung meist
in kürzester Zeit wieder eingespart.
WAN-Optimierungslösungen sind keine Zauberboxen - sie nutzen einfach bereits gesendete Daten mehrfach aus und
optimieren Protokolle - alleine dies führt
zu großen Performance-Steigerungen und
zu potenziellen Kostenersparnissen. ❏
Einzigartig. Stapelbar. Flexibel. Kraftvoll.
Wir haben es alles.
Die Zeit für Allied Telesis einzigartige stapelbare Lösung ist
gekommen. Der 1 Höheneinheit hohe x900 ist der meist
flexible am Markt, unser innovativer SwitchBlade® x908 ist
ein außerordentlich vielseitiges Mini Chassis.
» Totale Flexibilität und Zukunftssicher mit unserer Reihe
von Erweiterungsmodulen
» Mit 160 Gbps stacking Bandbreite auf den stacking
Ports am SwitchBlade x908
SwitchBlade x908
» Industrie Standard CLI mit dem neuen AlliedWare
Plus™ Betriebssystem
» Gewährleisten Sie den hohen Grad an Sicherheit den
ihr Netzwerk benötigt
FTTx | ADSL2+ | POTS | VoIP | VDSL2 | GEPON | GIGABIT | 10G
© 2008 Allied Telesis Inc. All rights reserved. EMEA1866
Tel +43 1 876 24 41
www.alliedtelesis.com
Infrastruktur | Server
Vielgeprüft und zukunftsreif
Die Anschaffung von Servern ist eine
Rechnung mit vielen Variablen. Mit
einem Report zum Thema wollen die
US-Berater der Burton Group manche
Entscheidungsfindung erleichtern.
Alexandra Riegler
„Bei der Auswahl der richtigen Server-Plattform“, schreibt Andrew Kutz, „geht es oft
vielmehr darum,eine Balance zwischen widersprüchlichen Anforderungen zu finden, als
eine einfache Anforderungsliste zu erfüllen.“
Analyst Kutz, inzwischen Consulter für
Focus Consulting, verfasste unter Mithilfe
seiner Kollegen Nik Simpson und Drue
Reeves einen Report für das IT-Beratungshaus Burton Group.
Dieser soll Unternehmen bei Fragen rund
um den Server-Kauf zur Hand gehen.Tenor:
Vorausschauend ausbalancieren und nicht alle drei Jahre versuchen,das Rad neu zu erfinden.
Server im x86-Bereich sind typischerweise
drei bis fünf Jahre im Einsatz.Angesichts der
hohen Fluktuation im IT-Administrationsbe-
reich gehen die Autoren davon aus, dass die
aktuelle Mannschaft meist nicht genau weiß,
warum ein Gerät in seiner speziellen Konfiguration angeschafft wurde.Dies führt unter
anderem zu „Vendor Hopping“: Viele Geräte mögen „Best in Class“ sein,aber eine gemeinsame Verwaltungsebene fehlt.
Zur bunten Bestückung von Rechenzentren trägt auch bei, dass defekte Teile nicht
mehr ausgetauscht werden, insbesondere,
wenn sich der Support-Zeitraum eines Geräts dem Ende zuneigt. Kutz nennt das Beispiel eines Problems bei der Stromzufuhr.
Handelt es sich um einen nicht mehr unterstützten Server,wird dies vom Hersteller zumeist mit der Empfehlung zum Systemaustausch quittiert. All dies kann laut Burton
Group ein „Rezept für Chaos“ sein.
Tipps beim Server-Kauf
. Die Expertise der IT-Mannschaft mit bestimmten Herstellern berücksichtigen.
Laut Burton Group wird dies erstaunlich
oft außer Acht gelassen.
. Ebenso: Beziehungen zu Herstellern nutzen, etwaige kombinierte Angebote in
Anspruch nehmen. Und auch bei harmonischen Herstellerbeziehungen immer
wieder die Rute ins Fenster stellen und
sich im Portfolio der Konkurrenz umsehen. Auch andere Mütter haben schöne
Töchter.
. Vor der Plattformentscheidung überprüfen, ob Stromversorgungs- und Hitzeableitungsanforderungen erfüllt werden
können.
22
. Steht Virtualisierung am Plan? Dann
muss die Plattform in der Lage sein, zahlreiche CPUs, Netzwerkadapter sowie ausreichend Speicher zu unterstützen. Zudem beim Prozessorkauf auf Konsistenz
achten. Laut Kutz setzen Live-MigrationTechnologien wie „VMWare VMotion“
und „XenSource Live Migration“ dieselbe Prozessorenmarke bei Ausgangs- und
Zielserver voraus.
. Direct Attached Storage (DAS) ist in
Unternehmen noch beliebter, als dies
SAN-Anbietern (Storage Area Network)
lieb ist. Wer sich DAS als Option offen
halten will, muss dies beim Server-Kauf
berücksichtigen.
monitor | Special Kommunikation 4A/2008
Abschiedsvorstellung
Die Anschaffung neuer Server aufgrund von
Innovation kann ohne Frage auch begründet
sein, beispielsweise, wenn eine neue Applikation Zugang zu verteiltem Speicher verlangt oder ein florierendes Geschäft schlicht
seiner IT-Infrastruktur zu entwachsen droht.
Auch ziehen Betriebssysteme und Anwendungen, die sich über mehrere Prozessoren
hinweg skalieren lassen, laut Kutz Nutzen
aus Plattformen, die Quad-Socket-Konfigurationen unterstützen.Ebenso ist es notwendig bei Software,die Hochverfügbarkeit verlangt, aber die dazu gehörigen Features wie
Clustering nicht selbst bereitstellt, die Hardware für diesen Part heranzuziehen.
Ein wichtiger Treiber für Neuanschaffungen ist die Verbreitung von 64-Bit-Software.
So verlangt Microsofts Exchange Server 2007
die 64-Bit-Version von Windows Server sowie die dazu gehörige Hardware.
Beim angesagten Thema Energiesparen
kann zwar viel mit gutem thermischen Design und Powermanagement bewegt werden.
Doch auch hier sind irgendwann die Grenzen der Optimierbarkeit erreicht.Weil Hardware-Hersteller derzeit stark „grüne“ Technologien pushen, kommt es durch teilweise
Neuanschaffungen zu weiteren Mischformen im Rechenzentrum.
Grüner Trend bleibt
Für schlichtweg kurzsichtig halten die Autoren des Reports indes die Einschätzungen
nicht genannter Analysten, die das Thema
Energiesparen bereits wieder am Rückzug
sehen.Die 18-monatige Lebensdauer,die dem
grünen Trend von diesen Marktbeobachtern
zuerkannt wird, trifft laut Kutz nicht zu. So
seien zahlreiche Energiesparfunktionen bei
Hardware längst noch nicht Standard, dies
wiederum ließe einen Rückschluss auf den
Nachholbedarf zu. Ebenso sprechen die Anstrengungen der Industrie für ein längeres
Verweilen des Themas.
Die IEEE arbeitet an energieffizienten
Netzwerkstandards, ebenso sind stromsparende Speicher durch Produktion im 45-nmProzess im Kommen. Dies hat insofern Bedeutung,als Server zunehmend Speicher verwenden, um mehrere virtuelle Maschinen
zu unterstützen.Dieser Speicher würde „genauso viel“ verbrauchen wie CPUs - „oder
mehr“.Nach Ansicht der Burton Group dürfte es demnach noch bis zu 60 Monate dauern, bis viele der umweltschonenden Technologien den Commodity-Markt erreichen.
Welcher Server ist der richtige?
Die Frage, warum in vielen Rechenzentren
immer noch Tower-Modelle zu finden sind,
liegt für Kutz auf der Hand: Die Geräte sind
günstig zu haben und lassen sich problemlos aufstellen.Auch halten die Verfasser der
Studie diese als zusätzliche DNS- oder Backup-Server in Zweigniederlassungen für
durchaus sinnvoll. Hinzu kommt, dass sich
Tower im Highend-Bereich nicht besonders
von Rack-Mounted-Versionen unterscheiden.Als Beispiel nennen die Autoren die DellModelle PowerEdge 2900 und Power
Edge2950.
Unterschiede gibt es hingegen bei der Ökonomie. Zwar lassen sich auch Tower-Modelle in Racks einbauen,diese unterliegen jedoch
strengen Beschränkungen bezüglich der Anzahl senkrecht verbauter Geräte. Unterm
Strich empfiehlt der Report Tower für kostenbewusste Kunden ohne Rechenzentrum
oder als dezentrale Lösungen. Für alle anderen Einsatzgebiete eignen sich Rack-Mounted-Geräte oder virtuelle Maschinen besser.
Im Bereich von Blades sollten Unternehmen dem Formfaktor besonderes Interesse
widmen. Viele Hardware-Anbieter würden
die Kompatibilität zwischen Chassis und Blade nicht länger als vier bis fünf Jahre aufrecht
erhalten. Schafft man demnach nur in solchen Zyklen Geräte an und lässt im Chassis
noch Platz für den nächsten Einkauf, könnten bis dahin keine kompatiblen Modelle
mehr erhältlich sein.Auch weisen die Auto-
ren auf die anfänglich höheren Kosten der
Blade-Systeme gegenüber Rack-MountedVersionen hin, zumal Kosten für das
Chassis hinzukommen.
Wer seine Ressourcen optimieren will und
gleichzeitig gute Administrierbarkeit verlangt,dürfte an Virtualisierung nicht vorbeikommen. Zwar würden die Features stark
vom jeweiligen Anbieter abhängen, insgesamt sei Virtualisierung jedoch ein intelligenter Schritt, um das meiste aus der vorhandenen Computing-Power herauszuholen.
Mit der Zukunft auf du und du
Zu den Technologien,die IT-Verantwortliche
im Auge behalten sollten, zählt insbesondere 10 Gigabit Ethernet (10GbE). Dieses wird
laut dem Report großen Einfluss auf zahlreiche Innovationen haben, darunter verteiltes Computing und die Formfaktoren bei Servern.
Entscheidend für den Durchbruch von
10GbE ist,dass optische oder teure CX4-Verkabelung nicht mehr unbedingte Voraussetzung sind. Ein wichtiger Schritt wurde mit
der Schaffung des IEEE-Standards P802.3
getan,der 10GbE auch über Twisted Pair oder
Kupferverkabelung der Kategorie 6 oder höher ermöglicht.
Wichtig ist in weiterer Folge auch die Integration von 10GbE auf Motherboards. Bis
2010, so die Schätzung von Kutz und seiner
Kollegen, könnte die Technologie schließlich
der allgemeine Standard sein.
Im Zuge von 10GbE gilt das Augenmerk
auch Remote Direct Memory Access
(RDMA), dessen Anlaufschwierigkeiten auf
die hohen technischen Anforderungen zurückzuführen sind.Neben der anspruchsvollen Netzwerkdurchsatzrate sollten nach ursprünglicher Einschätzung auch sogenannte TCP/IP Offload Engines (TOEs) benötigt
werden, um den hohen Traffic zu verarbeiten. Angesichts der stark zugenommenen
Rechenleistung seien TOEs aber nicht mehr
notwendig, so die Autoren.
Die Kombination der Technologien dürfte die Herzen von Rechenzentrumsadministratoren höher schlagen lassen: Diese könnten über RDMA und 10GbE einem Cluster
zusätzliche Netzwerkknoten hinzufügen und
hätten damit nahezu unbeschränkte Skalierbarkeit zur Hand. Die große Zeit monolithischer Server-Lösungen dürfte spätestens dann
❏
vorüber sein.
NEU
Infrastruktur | Verkabelung
Strukturierte Verkabelung
Damit in einem Unternehmen viele Leute mit ihrem PC arbeiten können, benötigt man immer noch eine Verbindung
zwischen den PCs. Das sind heute Kupfer- und Glasfaserkabel, für manche
Bereiche auch drahtlose Verbindungen.
Während aktive Komponenten wie Switches, Router und vor allem die Server
zu den Liebkindern der IT-Verantwortlichen zählen, werden die „dummen“
Kabel oft übersehen.
Gerhard Lagler
Doch über diese „dummen“ Kabel werden
die für jedes Unternehmen wertvollen Daten übertragen. Dabei bildet die Verkabelung die Basis für die Infrastruktur. Sie ist
das Fundament - und je besser das Fundament, umso stabiler steht das „Gebäude“ darauf. Leider wird dies nicht immer
von allen Beteiligten so gesehen. Planer,
Bauherrn oder Endnutzer wollen zumeist
hohe Qualität zum günstigsten Preis - und
wenn es später Probleme geben sollte: ein
Tausch der Verkabelung ist nicht so einfach
GG45 schaut aus, als ob es ein RJ45-Steckgesicht
ist, jedoch werden die mittleren Paare nach links
und rechts unten geklappt. Dies geschieht mittels
Kippschaltern im Inneren des Steckers.
24
zu bewerkstelligen wie der Austausch eines PCs.
Qualität ist wichtig
Genau betrachtet bedeutet Qualität (lateinisch „qualitatis“: Beschaffenheit,Verhältnis, Eigenschaft) eigentlich die „Beschaffenheit“. Das bezeichnet die Gesamtheit
der wesentlichen Eigenschaften und Beziehungen von Objekten beziehungsweise
Prozessen in einem bestimmten Zeitintervall, durch die sie sich von anderen Objekten beziehungsweise Prozessen unterscheiden können.
Laut ISO 9000 ist Qualität die Gesamtheit von Eigenschaften und Merkmalen eines Produktes oder einer Dienstleistung,
die sich auf deren Eignung zur Erfüllung
festgelegter oder vorausgesetzter Erfordernisse beziehen. Die ISO 9000:2000 definiert Qualität als „Grad, in dem ein Satz
inhärenter Merkmale Anforderungen erfüllt“ (ISO 9000:2000: S. 18). Eine höhere
Qualität bedingt in der Regel auch höhere
Kosten. Hier muss entsprechend den Vorgaben aus der strategischen Planung ein
Kompromiss gefunden werden.
Dazu ein Beispiel: Ein Unternehmen mit
400 Mitarbeitern möchte in ein neues Gemonitor | Special Kommunikation 4A/2008
Gerhard Lagler ist selbständiger Berater für
strukturierte Verkabelungssysteme sowie
allgemein beeideter und gerichtlich zertifizierter Sachverständiger für strukturierte Verkabelung; Mitglied bei BiCSi, IEEE, CENELEC,
ÖVE; Vortragstätigkeit: ÖVE Akademie, KFE
bäude übersiedeln. Die Standortfragen sind
geklärt, alle Rahmenbedingungen mit dem
Betriebsrat besprochen. Was meistens unbeachtet bleibt, ist die Verkabelungsinfrastruktur. Im vereinbarten Quadratmeterpreis ist dann auch „die Verkabelung“ enthalten. Das böse Erwachen kommt meist,
wenn der IT-Beauftragte des Unternehmens das hinterfragt. Da sind dann z. B.
zwei Anschlüsse pro Arbeitsplatz vorgese-
Infrastruktur | Verkabelung
Der Tera-Stecker sieht so aus: Keine Ähnlichkeit
mit einem RJ-45-Stecker - bedeutet auch, dass
die Patchkabel etwas teurer sind und defakto
dem Kunden nichts bringen, da Switchhersteller
wie Cisco, Nortel, Enterasys usw. nur einen
RJ45- Stecker haben.
hen. Pro Etage finden 70 Mitarbeiter Platz,
das ergibt 140 Strecken. Natürlich werden
auch vier Unterverteiler pro Etage vorhanden sein. Was aber, wenn das Unternehmen vier Anschlüsse pro Arbeitsplatz und
nur einen Verteiler pro Etage und 90 Mitarbeiter unterbringen will? Das wird dann
teuer: Der Vertrag ist unterschrieben, es
bleibt nur mehr die Bezahlung der Sonderwünsche übrig.
Einfluss auf die Qualität der Verkabelungsstrecke erzielen Sie dadurch aber auch
nicht - Sie bekommen das, was sich jemand
anderer überlegt hat. Niemand fragt nach,
welchen Normen und Standards diese Verkabelung entspricht. Ist z. B. Kategorie 7
installiert, könnte das bedeuten, dass Sie
alle Anschlusskabel austauschen müssen.
Oder ist vielleicht nur das Kabel der Kategorie 7 entsprechend und die Anschlussdosen entsprechen der Kategorie 6?
Sind dann alle eingezogen, wird die ITAbteilung gerufen: Das Netzwerk ist zu
langsam, man kann nicht drucken usw.
Werden dann zur Beruhigung „Pflaster“
auf die klaffenden Wunden gelegt (leistungsstärkere PCs, Switche und Server),
hilft das meist gar nichts. Die so entstehenden Kosten lassen sich gut mit einem Eisberg vergleichen: Man sieht nur dessen
Spitze, der ganze Eisberg bleibt aber unter
der Oberfläche verborgen.
dass man einmal definiert, welche Anforderungen im jeweiligen Unternehmen zu
berücksichtigen sind. Wird z. B. SAP eingesetzt, sollten Sie der Leistungsfähigkeit
zuliebe an Gigabit-Ethernet denken. Dazu
brauchen Sie die Verkabelungsklasse D mit
Kategorie-5-Komponenten. Denn die
Schwerpunktfrequenz von Gigabit Ethernet liegt bei ca. 80 MHz.
Gegen etwaige Einwände der Anbieter
wie „Das ist ja nicht mehr zeitgemäß, man
muss heute unbedingt Kategorie-7- oder
Kategorie-7A-Komponenten verbauen“
finden Sie im Folgenden einige Grundlagen für Ihre Argumentation:
. Kategorie-5-Komponenten mit einem
Frequenzbereich bis 100 MHz Klasse D,
ermöglichen Ethernet Applikationen mit
10,100 und 1.000 MBit/s.
. Kategorie-6-Komponenten mit einem
Frequenzbereich bis 250 MHz Klasse E
ermöglichen Ethernet Applikationen mit
10, 100, 1.000 und 10.000 MBit/s (Manche Systeme schaffen auch die Parameter um 10.000 MBit/s zu übertragen, jedoch ist eine Nachmessung erforderlich).
. Kategorie-6A-Komponenten mit einem
Frequenzbereich bis 500 MHz Klasse EA
ermöglichen Ethernet Applikationen mit
10, 100, 1.000 und 10.000 MBit/s
AMP CO System
Zukunftssicherheit durch Flexibilität
AMP CO Plus ist nach wie vor die modernste und flexibelste
Verkabelungslösung auf dem Markt. Seit über 20 Jahren ist das System
fester Bestandteil in vielen Netzwerken und hat eine große Zahl von
Endanwendern von seiner Leistungsfähigkeit überzeugt. Dies aufgrund
seiner Modularität als auch Flexibilität, die es dem Endanwender erlaubt,
seine Netzwerkinfrastruktur gemäss seinen Bedürfnissen zu skalieren,
respektive zu migrieren. AMP CO Plus erlaubt die Realisierung von allen standardisierten Linkklassen, einschliesslich der Klasse FA – mit Reserven. Alle
standardisierten Steckgesichter sind als entsprechende Einsätze verfügbar.
Die Vielzahl an Einsätzen erlaubt es dem Endanwender sein Netzwerk zu einer
ungeahnten Leistungsfähigkeit und Universalität zu führen.
25-Jahre Systemgarantie
Auf Wunsch des Endanwenders erteilt TE – systemunabhängig –,
unter gewissen Bedingungen, eine 25 jährige Systemgarantie. Erst
durch diese Systemgarantie erhält der Endanwender ein «Rundum
Sorglospaket» und kann sich auf die wesentlichen Aufgaben
konzentrieren.
Wie bekomme ich die richtige Verkabelung?
Jedes Unternehmen sollte einen Verkabelungsstandard kreieren. Das bedeutet,
Tyco Electronics Austria GmbH, Pilzgasse 33, A-1210 Wien
Tel.: +43-1-90560-1204, Fax: +43-1-90560-1270, www.ampnetconnect.at
AMP NETCONNECT, Tyco Electronics und das TE Symbol sind Warenzeichen.
Infrastruktur | Verkabelung
. Kategorie-7-Komponenten mit einem
Frequenzbereich bis 600 MHz Klasse F
ermöglichen Ethernet Applikationen mit
10, 100, 1.000 und 10.000 MBit/s
. Kategorie-7A-Komponenten mit einem
Frequenzbereich bis 1.000 MHz Klasse
FA ermöglichen Ethernet Applikationen
mit 10, 100, 1.000 und 10.000 MBit/s
Wichtig ist auch noch, dass Kategorie 7 und
7A nicht mit einem RJ45-Steckgesicht ausgestattet sind:
. GG45 schaut aus, als ob es ein RJ45Steckgesicht ist, jedoch werden die mittleren Paare nach links und rechts unten
geklappt. Dies geschieht mittels Kippschaltern im Inneren des Steckers.
. Der Tera-Stecker hat keine Ähnlichkeit
mit einem RJ 45 Stecker - bedeutet auch,
dass die Patchkabel etwas teurer sind und
defakto dem Kunden nichts bringen, da
Switchhersteller wie Cisco, Nortel,
Enterasys usw. nur einen RJ45-Stecker
haben.
Ein Blick in die Praxis
Die Mindestanforderung für Gigabit Ethernet sind Komponenten der Kategorie 5.
95% der österreichischen Unternehmen
nutzen heute 10 und 100 MBit/s als Übertragungsgeschwindigkeiten in ihren Netzen.Also 1/100 bis zu 1/10 dessen, was über
ein Klasse-D-System übertragbar ist.
Ich kenne Installationen aus dem Jahre
1999 - da gab es den ersten Hype mit Kategorie-7-Kabel und Kategorie-6-Komponenten mit der Begründung:Wenn Sie mal
Kategorie 7 benötigen, dann brauchen Sie
Verkabelung: 10 Gbase im Test
Ausgelöst durch den neuen 10Gbase-T Standard sind die Standardisierungsbehörden jetzt dabei, den neuen Komponentenstandard abzusegnen:
Cat.6a und Class Ea, die für 10Gbase-T entsprechende Sicherheit bringen.
Kein Wunder, dass hier die Qualität der Kabel und der Anschlusskomponenten
eine große Rolle spielt.
nur die Steckverbindung der Verkabelungsstrecken austauschen. Heute kenne ich kein
einziges Unternehmen, das dies getan hätte. Vielmehr kenne ich Aussagen von Herstellern, die im Jahr 2002 und 2003 zugaben, dass die Kategorie-6-Komponenten
die bis dahin verbaut wurden, nicht der
Kategorie 6 entsprachen. Inzwischen hat
man diese Problematik im Griff. Aber:
Wenn man nur 1/10 der möglichen Übertragungsrate nutzt, ist das so ähnlich, als
ob man mit einem 500 PS Auto auf der
Autobahn mit 130 km/h unterwegs ist.
In Zukunft wird man sicher 1GBit/s verwenden können und es wird da und dort
Probleme geben. Aber da sorgt die Industrie schon für den nächsten Hype: 10GBit/s
wird als das einzig Wahre bezeichnet und
zwar über eine geschirmte Kategorie-7-
Gerd Kaufmann
ist Gründer des
Verkabelungsspezialisten KSI Kontakt-Systeme
Inter GesmbH
www.ksi.at
Gerd Kaufmann
Das schwedische Fachmagazin TechWorld
war neugierig und wollte bei einem Test
herausfinden, wer in Bezug auf Qualität
die Nase vorne hat. Die Lieferanten Nexans, Systimax, Panduit und ADC Krone
wurden eingeladen und schickten Wandkabel,Anschlusskomponenten und Patchkabel. Den Firmen stand es frei, welche
Systeme sie zur Verfügung stellten.
Es wurde streng darauf geachtet, dass die
Komponenten fachgerecht kontaktiert
wurden, bevor sie mit einem Fluke DTX
1800 gemessen wurden. Zusätzlich nahmen noch einige, dem alten Cat.-5e- und
Cat.-6-Standard entsprechende Kabel am
Test teil. Getestet wurde nicht nur der „Permanent Link“ sondern auch der gesamte
„Channel“. Wie zu erwarten, lagen laut
Testbericht alle vier Systeme klar über den
Vorgaben des kommenden Standards, wobei von Nexans, knapp vor Panduit, die beste Qualität geliefert wurde. Beide lagen gut
beziehungsweise sehr gut, 3 dB besser, als
die Grenzwerte der kommenden Norm für
26
Cat. 6a oder Klasse Ea vorgesehen ist. Insgesamt waren die Unterschiede innerhalb
der gestesten Systeme messbar, wenn auch
nicht übermäßig groß. Die beiden
Referenzkabel (Cat. 5e und Cat. 6) zeigten
aber mit Deutlichkeit, dass sie für
10 Gbase-T nicht geeeignet sind.
Was für Nexans spricht
Auch nach meiner Auffassung besitzen Kabel von Nexans die beste Kombination von
guten technischen Parametern und Handhabungseigenschaften. Die Komponenten
sind angenehm und schnell verarbeitbar.
Es sind die dünnsten Kabel und das Installationskabel ist durch die harte, gleitfähige Oberfläche des Mantels sehr gut zu installieren.
Dünnere Kabel machen beim Verlegen
weniger Probleme und lassen sich besser
aufschalten. Die Kabelbündel werden nicht
so dick und schwer.Außerdem ergeben die
Abschirmungen in den Kontaktierungs-
monitor | Special Kommunikation 4A/2008
und Steckzonen der Buchse und die zusätzliche Schirmung in den Kabeln ein messtechnisch nachweisbares Vertrauen.
Gewöhnliches Cat. 6 reicht nicht
Der kommende Standard Cat. 6a und Klasse Ea erhöht die Kabel-Kapazitäten dermaßen, dass die alten Systeme „alt aussehen“.
Aber wie schlimm ist das für diejenigen,
die erst vor Kurzem Cat. 6 installiert haben?
Richtig schlimm ist es nicht, da 10GBase-T-Anwendungen sicher in den
Backbones und Serverräumen am Wichtigsten sind. Wenn es dort Engpässe gibt,
kann mit einem relativ geringen Installationsaufwand die Geschwindigkeit des ganzen Systems erhöht werden. Denkt man
allerdings an eine Neuinstallation ist man
mit einem neuen System, das 10GBase-T
beherrscht, am „Stand der Technik“ und
somit besser beraten.
„Sauberer“ Verteilerschrank
„Unsaubere“ Verkabelung
oder 7A-Verkabelung. In Wahrheit kann
das aber eine Kategorie-6-Verkabelung
auch.
Umfassende Information
Wichtig ist also, sich ganzheitlich zu informieren und eine spezielle Lösung zu finden. Dies erreichen Sie, indem Sie einen
Unternehmensstandard definieren. Ihr gutes Unternehmen soll ja auch auf eine passende Verkabelungsinfrastruktur zurückgreifen können. Börsennotierte Unternehmen sind da Vorreiter, den sie werden bereits entsprechend geprüft. Da müssen die
Abläufe definiert sein, es gibt eine Überprüfung der Verkabelungsinfrastruktur mit
Themen wie Wegeredundanz, Ausfallrechenzentren usw.
Um Ihnen die Kosten beim Ausfall Ihrer Verkabelung vor Augen zu führen, hier
ein praktisches Beispiel von einer Ferti-
gungsstraße in der Automobilindustrie;
Pro Tag sollen 600 Fahrzeuge gefertigt werden. Im Probelauf waren es nur 200.
Warum? Nein, nicht weil die Angestellten
zu langsam gearbeitet hätten. Schuld war
die Kupferverkabelung, die nicht korrekt
installiert wurde, durch Störungen am
Schirm des Kabels dauerte ein Ping 20 Sekunden. Lösung: Austausch der gesamten
Infrastruktur in einer aufwändigen Aktion.
Die Kosten verdreifachten sich letztlich.
Der Schaden für das Unternehmen liegt
bei einem angenommenen Herstellungspreis pro Fahrzeug von 20.000 Euro bei acht
Millionen Euro pro Tag.
Vergleichen Sie auch, was in Ihrem
Unternehmen jährlich für Lizenzierungskosten der verwendeten Software ausgegeben wird und dann vergleichen Sie diese Kosten mit denen der Verkabelungsinfrastruktur. Sie werden aus dem Staunen
❏
nicht herauskommen.
Infrastruktur | Verkabelung
Tyco rüstet Provider für Fibre to the Home
Glasfaser bis zum Schreibtisch ermöglicht ungeahnte Bandbreiten und damit Platz
für neue Dienstleistungen für den Endanwender, für Unternehmen und für Provider.
Die Basis dafür ist die kostengünstige Installation der „Glaskabel“.
Klaus Lackner
Was in Südkorea normal ist, klingt für unsere Breiten noch nach Zukunftsmusik. Fibre to the Home (FTTH), also Internet per
Glasfaser vom Provider bis zum heimischen
Schreibtisch, ist zwar zum Beispiel in Wien
schon ziemlich flächendeckend verlegt, die
Anwender warten aber noch geduldig auf
die Inbetriebnahme. Im ländlichen Bereich
bleibt FTTH für die nächsten Jahre sowieso
noch Utopie.
Bandbreiten von bis zu zehn Megabit pro
Sekunde (Mbit/s) für den Up- und Download ermöglichen Provider komplett neue
Dienstleistungen. So können Server oder PC
in Unternehmen selbst bei datenintensiven
Applikationen einfach über die Internet-Leitung betrieben, gesichert oder gar nur noch
beim Provider vorgehalten werden. Für den
Konsumenten werden Anwendungen wie
Video on Demand oder laufende Patientenüberwachung zur Normalität werden.
Glasfasernetze sind jedoch empfindlicher
und müssen vor allem noch die sogenannte „letzte Meile“ von der Straße bis in die
Wohnungen überwinden. Das ist aufwändig und teuer, da meistens gegraben und gestemmt werden muss.
Um solche Installationskosten zumindest
auf der „Kabelseite“ zu senken,hat Tyco Electronics basierend auf deren Schnellanschlusstechniken, Produktlinien entwickelt, die alle mit einem einzigen Werkzeugsatz konfektionierbar sind.
Zum mechanisch, lösbaren Verbinden
zweier Fasern werden sogenannte Spleiße
verwendet - und das seit mehr als 15 Jahren.
Die Vorbereitung der Fasern ist dabei die gleiche wie bei einem thermischen Fusionsspleiß.
Das ist mehr oder weniger vergleichbar mit
dem Löten zweier Drähte.
Bei Tyco Electronics kommt die V-NutKlemmmechanik zum Einsatz. Dabei wird
mit Hilfe zweier Schlüssel der Spleiß geöffnet, sodass beide Fasern eingeführt werden
können. Ist der physikalische Kontakt hergestellt, werden die Schlüssel entfernt und
die Faserenden sind sicher verbunden.
Ein weiterer Vorteil ist, dass bei dieser
Methode nur Standardwerkzeuge nötig sind.
Die Kosten pro Verbindung belaufen sich
etwa auf ein Zehntel eines Fusionsspleißes.
Somit können Provider sowie deren
Installationspartner die prinzipiell hohen
Kosten der Verlegearbeit zumindest auf ein
Minimum drücken. Die Aussage, dass die
Installation von Lichtwellenleiter sehr teuer ist, kann durch die entwickelten Techniken zum Teil relativiert werden.
www.tycoelectronics.com
Infrastruktur | Desktop-Virtualisierung
Die vielen Gesichter eines PCs
Betriebssysteme, losgelöst von der
Hardware, Applikationen, sicher gegen
Unbill abgeschottet, eine Total-Cost-ofOwnership-Kalkulation, die straffe Budgets entspannt: Desktop-Virtualisierung
eröffnet eine Reihe neuer Möglichkeiten.
Alexandra Riegler
Dass IT-Leiter Einkehr mit ihrer Infrastruktur halten und versuchen aus Hardware das
Äußerste herauszuholen,dafür braucht es keine schlechten Zeiten mehr. Optimierung
scheint inzwischen in alle Ritzen der Infrastruktur vorgedrungen,ungenutzte Kapazitäten dürfte es folglich laut Lehrbuch keine mehr
geben.Doch weit gefehlt.So demonstrierten
zuletzt Lösungen zur Server-Virtualisierung,
welch Potenzial bei den teuren Rechnern noch
brach lag.
Mit dem Betrieb mehrerer von einander
getrennter Server auf derselben Hardware
lässt es sich konsolidieren und eine ganze Palette an Kosten einsparen.Unternehmen begannen daher auszuloten, wie weit man die
Anzahl virtueller Maschinen erhöhen kann,
ohne dabei die Service Levels für Applikationen zu gefährden. Und die Tüftelei lohnte.
Server-Virtualisierung gelang zur veritablen
Erfolgsgeschichte - für das Budget und die
Performance.
Weniger ruhmreich ist die Geschichte der
Desktop-Virtualisierung. Diese hinkt jener
für Server zwei Jahre hinterher. So befand etwa Gartner-Vice President und Fellow Brian
Gammage Ende 2007, dass Desktop-Virtualisierung noch nicht reif sei für den Mainstream-Einsatz.Gleichzeitig rieten die Marktforscher ihren Kunden beim Einkauf von Software-Lizenzen auf deren „Virtualisierungsfreundlichkeit“ - sprich deren Kosten für den
Einsatz in virtuellen Umgebungen zu achten.
Knapp ein halbes Jahr später nennt Gartner nun Virtualisierung,jene am Desktop eingeschlossen,als wichtigsten Trend,um die Veränderung der Infrastruktur voranzutreiben:
„Virtualisierung wird verändern, wie IT gemanagt, was gekauft, wie die Software verteilt wird, zudem wie Unternehmen planen
und was sie bezahlen“, heißt es in einem ak-
tuellen Report zum Thema.Der Desktop- oder
PC-Virtualisierung steht ein Senkrechtstart
bevor. Demnach soll die Zahl virtualisierter
PCs von weniger als fünf Mio.im letzten Jahr
bis 2011 auf 660 Mio. steigen.
Das Interesse für Desktop-Virtualisierung
wird auch anhand der Übernahmen der letzten Zeit deutlich:Die Großen der Branche sind
auf Einkaufstour.Den bis dato größten Coup
landete EMC mit der Übernahme von
VMware,Citrix kaufte im Herbst 2007 XenSource ein, zuletzt bestätigte Microsoft die
Akquisition von Kidaro.
Altes neu gemacht
Das Gros der Kosten im Zusammenhang mit
Desktop-Computern wird nicht notwendigerweise bei ihrer Anschaffung fällig. Bis zu
80% der Ausgaben erwachsen im Laufe eines Computerlebens für Betrieb und Support.
Trotz vergleichsweise moderater PC-Preise
gilt es daher die Total Costs of Ownership
(TCO) zu reduzieren. Und hier kommt Virtualisierung ins Spiel. Schätzungen zufolge
lassen sich durch die Technologie bei hochwertigen Workstations jährlich bis zu 50%
der Kosten einsparen,bei einfachen PCs sind
es immerhin noch an die 10%.
Das Thema Desktop-Virtualisierung existiert in unterschiedlichen Ausprägungen seit
rund 20 Jahren. Doch Konzepte wie jene der
Thin Clients konnten sich nur unzureichend
durchsetzen. So war nicht jede Software für
die sogenannten Multi User Terminal Services erhältlich. Hinzu kamen Unzulänglichmonitor | Special Kommunikation 4A/2008
keiten in der Performance sowie die fehlende
Möglichkeit zur Personalisierung.
Die neue Freiheit
Geht es nach den Versprechen der Industrie,
wird nun alles anders. Die neuen Lösungen
haben mit den anfänglichen Terminal Services nicht mehr viel gemein. Desktop-Virtualisierung bedeutet heute zumeist,dass ein
virtuelles Images des Computers vom Server
geladen, jedoch am eigenen PC ausgeführt
wird.Der Benutzer loggt sich dabei gewöhnlich über eine virtuelle Maschine, beispielsweise eine Applikation von Anbietern wie
VMware, ein.
Die Vorteile liegen auf der Hand: Das
System ist stets am aktuellen Stand hinsichtlich Updates,IT-Verantwortliche können sich
über mehr Flexibilität bei der Verteilung freuen und schließlich lässt sich durch die virtuelle Maschine eine zusätzliche Sicherheitszone
im System schaffen. Performance-Mängel
kommen seltener vor, weil die Programme
vom eigenen Rechner ausgeführt werden und
nicht wie bei Terminal-Systemen jeder Mausklick übers Netzwerk geschickt wird.
Desktop-Virtualisierung bedeutet auch,ein
oder mehrere Betriebssysteme samt Applikationen auf einem einzigen Rechner zusammenlaufen zu lassen.So öffnen etwa zahlreiche Apple-Benutzer über eine Software der
Hersteller Parallels oder VMware Windows
in einem einfachen Programmfenster Windows.Virtualisierung am Desktop findet demnach auf zwei Ebenen statt: zwischen Hard29
Infrastruktur | Desktop-Virtualisierung
ware und Betriebssystem und zwischen Betriebssystem und Anwendungen.
Laut Gartner gewinnt die Applikationsvirtualisierung zwar an Bedeutung, dennoch
wird der Virtualisierung von Betriebssystemen langfristig größere Bedeutung zugeschrieben, zumal diese mehrere, von einander unabhängige Systeme auf einem Rechner ermöglicht. Dies eröffnet insbesondere
im Bereich von Betriebssystemen neue Perspektiven: „Im Wesentlichen ist Virtualisierung eine Schicksalsentscheidung für Betriebssysteme“, erläutert Thomas Bittman, Vice
President und Analyst bei Gartner.Traditionell sei das Betriebssystem der Schwerpunkt
des Client- und Server Computing gewesen,
neue Technologien und die Virtualisierung
der Infrastruktur würden nicht nur die Architektur,sondern auch die Rolle des Betriebssystems verändern.„Die Tage monolithischer
Allzweckbetriebssysteme sind bald vorüber“,
zeigt sich Bittman überzeugt.
Alle Schotten dicht
Anwendungsvirtualisierung hingegen spielt
ihre Stärken im Bereich Sicherheit aus, vor
allem wenn es darum geht,sensible Software
vom Rest des Betriebssystems abzutrennen.
Wird etwa ein Notebook gestohlen, bleiben
die besagte Applikation samt dazu gehörigen
Daten innerhalb des virtuell betriebenen Systems als verschlüsselter Teil der Festplatte nur
schwer zugänglich. Der Vorteil gegenüber
herkömmlichen Verschlüsselungen liegt vor
allem in der Performance, da diese durch
ihren systemweiten Einsatz die Rechnerleistung verringern. Durch Virtualisierung
lässt sich Verschlüsselung gezielt in einzelnen
Bereichen einsetzen: Die verstärkte Sicher-
heit kommt nur dort zum Einsatz, wo sie
wirklich benötigt wird. Schließlich ist Applikationsvirtualisierung auch eine sinnvolle
Möglichkeit, um Netzwerke von Kunden,
Partnern oder Mitarbeitern, die sich remote
einloggen, zu sichern. Die virtuelle Maschine fungiert dabei als eine Art entmilitarisierte Zone,in der nur ganz bestimmte Operationen und Zugriffe erlaubt sind.
Seinen Kunden gibt Gartner-Mann Bittmann einen Ratschlag für die mittelfristige
Strategieplanung mit auf den Weg: „Stimmen Sie die Virtualisierungsstrategie mit ihrem Business ab, vermeiden sie Hypes von
Herstellern und achten Sie besonders auf die
Kosten- und Lizenzpolitik bei Software“, so
Bittman, der noch anfügt: „Seien Sie bereit
zu experimentieren und gehen Sie auf Nummer sicher, dass Sie der Wissenschafler sind
❏
und nicht das Versuchsobjekt.“
Wird Ihr nächster PC virtuell sein?
Kommentar Wolfgang Horak, Managing Director von Fujitsu Siemens
Computers Österreich, zum Thema
Desktop-Virtualisierung.
„Virtuelle Infrastrukturen für Desktops
stehen heute noch
am Anfang der Entwicklung. Anwender
sind daher gut beraten, mit einem erfahrenen IT-Hersteller
zusammenzuarbeiten.“ - Wolfgang Horak, Managing
Director von Fujitsu Siemens Computers
Österreich
In Rechenzentren vollzieht sich derzeit eine stille Revolution. Die Technik der Virtualisierung erlaubt es, Betriebssysteme
und Anwendungen von der ComputerHardware zu trennen und als virtuelle Maschine separat zu verwalten. Es leuchtet ein,
dass diese technische Möglichkeit bei vielen Betriebsprozessen große Vorteile bieten. Die Folge: Virtualisierung breitet sich
in Rechenzentren rasant aus.
Dabei wurde die Technik auf Intelsystemen ursprünglich für PCs entwickelt. In
den Anfangszeiten half sie schon, Helpdesks
verschiedenartiger PC-Arbeitsplätze gleichzeitig zu unterstützen oder Entwicklern ih-
30
re Software auf verschiedenen Plattformen
zu testen. Mittlerweile fordern immer neue
Sicherheitslücken in der Software, neue
Softwareversionen und Veränderungen in
den Geschäftsprozessen umfangreiche und
permanente Pflege auch für normale
Büro-PCs.
Um den Aufwand dafür so gering wie
möglich zu halten werden Lösungen gesucht, welche eine effiziente Bereitstellung
von Arbeitsplätzen ermöglicht - der Stellenwert von virtualisierten Arbeitsplätzen gewinnt immer mehr an Bedeutung.
Trend oder Realität:
Dynamische Arbeitsplätze
Fujitsu Siemens Computers setzt in diesem
Bereich Akzente und bietet unter dem Titel „Dynamic IT for Workplaces“ eine virtuelle Desktoplösung an. Sie zeichnet sich
dadurch aus, dass marktführende Komponenten zu einem einfach zu handhabenden
Lösungspaket integriert werden. Durch die
Entkoppelung des Desktop-Betriebssystems
vom Schreibtisch des Benutzers und seine
Überführung in server-basierte virtuelle
Maschinen, können Unternehmen eine
Reihe von Effizienzgewinnen erzielen.
So wie die Virtualisierung die Serverlandschaft revolutioniert hat, birgt auch der
Hosted Desktops enorme Vorteile für IT-
monitor | Special Kommunikation 4A/2008
Administratoren und Endanwender: Die
effektive Verwaltung von PC als „Virtual
Desktop Infrastructure“ wird gewährleistet. Ein weiterer Vorteil ist, dass die Daten
das Rechenzentrum nie verlassen, da nur
die Bildschirmdarstellung übertragen wird.
Für sicherheitsrelevante Bereiche oder besonders gefährdete Anwender ist das ein
großer Vorteil. Hosted Desktops verbessern
außerdem die Systemverfügbarkeit und
vermindern durch den Einsatz von Thin
Clients den Stromverbrauch.
Doch virtuelle Infrastrukturen für Desktops stehen heute noch am Anfang der Entwicklung. Anwender sind daher gut beraten, mit einem erfahrenen IT-Hersteller zusammenzuarbeiten. Immerhin müssen für
ein rund laufendes System verschiedene
Softwarekomponenten kombiniert werden.
Daher bietet Fujitsu Siemens Computers
auch umfassende End-to-End-Services über
den gesamten Projektzyklus an und unterstützt so Unternehmen bei der Planung,
Realisierung und Verwaltung von „Dynamic IT for Workplaces“. Betrachtet man die
Entwicklung der Geschäftsprozesse und die
damit einhergehenden Entwicklungen in
der IT-Branche, wird klar, dass Virtualisierung nach ihrem Einzug in Rechenzentren
auch individuelle Arbeitsplätze erobern
wird. Es ist daher nur eine Frage der Zeit,
❏
bis auch Ihr PC virtuell sein wird.
Infrastruktur | Desktop-Virtualisierung
Startschuss zur großen Freiheit
Der Markt für Desktop-Virtualisierung
boomt: neue Hard- und SoftwareLösungen einiger Platzhirsche und
einiger Neuankömmlinge im Überblick.
Alexandra Riegler
Jetzt bekommen beide Seiten, wonach sie
verlangen. Die neuen Lösungen der Desktop-Virtualisierung sollen es Benutzern und
Administratoren gleichermaßen recht machen. Sie versprechen tadellose Performance, geringere TCO, verstärkte Sicherheit und
Management-Tools, die die Verwaltung
klassischer PC-Fuhrparks alt aussehen lassen. Es gibt platzsparende Clients in der
Größe eines unbefüllten Rolodex, die USB
unterstützen und dem User das Ambiente
eines „echten“ Rechners suggerieren. Es
gibt Desktops, die auf einem USB-Stick
Platz finden und Software-Lösungen, die,
obwohl nur eine Handvoll Megabytes groß,
einen ganze Palette an Betriebssystemen
virtualisieren.
Desktop-Virtualisierung boomt. Keine
zwei Wochen vergehen ohne den Markteintritt eines neuen Startups, das sich dem
Thema verschreibt. Die Großen picken sich
inzwischen die Rosinen aus dem Kuchen
und kaufen ein, was dem eigenen Portfolio
noch fehlt. Der Trend, den EMC bereits Ende 2003 mit dem Einkauf von VMware begann, setzten unter anderem Sun, Symantec und Citrix in der jüngeren Vergangenheit mit den Akquisitionen von innotek,
AppStream und XenSource fort. VMware
baute seine prominente Marktstellung indes mit den Übernahmen von Thinstall und
Foedus aus.
Aufgefettete Portfolios
Microsoft beging den Jahreswechsel mit der
Übernahme von Calista Technologies. Die
Lösungen von Calista zielen auf die nach
Angaben des Unternehmens zwei größten
Barrieren der Desktop-Virtualisierung: Benutzererlebnis und Kosten pro User. Benutzer sollen bei Calista daher ein vollwertiges
Mit VMware ACE lassen sich unterschiedliche Sicherheitszonen für das Host- und Gastsystem
schaffen.
Windows-Erlebnis auf den Bildschirm geliefert bekommen, 3D-Grafiken inklusive.
Weil die Software besonders viele User auf
den Virtual Desktop Server packen kann,
sinken unterm Strich die Kosten je Arbeitsplatz. Mitte März legte Microsoft mit dem
Kauf von Kidaro nach. Die Lösung der Firma ermöglicht es, Software auf verschienen PCs zu nutzen, ohne diese dort zu installieren. Die Applikation soll in das „Mi-
Macintosh verträgt. Im Vergleich zu Übernahmen wie jener von Storagetek, die Sun
4 Mrd. Dollar kostete, ist innotek ein kleiner Fisch, doch Experten schreiben dem
Schritt einige Bedeutung zu.VirtualBox ermöglicht es auf Desktops und Notebooks
mehrere Betriebssysteme gleichzeitig zu
betreiben. Das System ist in zwei Varianten erhältlich: Unter einer proprietären sowie der GNU General Public License. Entsprechend steht die kompakte Software der Download ist gerade einmal 20 MB groß
- bei Open Source-Entwicklern hoch im
Kurs und fügt sich damit auch nahtlos in
Suns Portfolio ein.
Verbesserte Positionierung
Parallels Desktop bringt Windows in Apple-Umgebungen.
crosoft Desktop Optimization Pack for Software Assurance“ einfließen und Kunden
die Migration in Richtung Windows Vista
erleichtern.
Mitbewerber Sun verleibte sich im Februar die deutsche Firma innotek ein, Hersteller der Virtuellen Maschine „VirtualBox“, die sich mit 32- und 64-Bit-Systemen der Plattformen Windows, Linux und
monitor | Special Kommunikation 4A/2008
VMware startete unterdessen mit dem Kauf
von Thinstall ins neue Jahr. Das StreamingProgramm der Firma lässt Windows-Rechner Applikationen ohne vorherige Installation betreiben. Die dazu gehörige Rechnung
für IT-Manager: Je mehr Applikationen in
Thinstall verpackt werden, desto weniger
müssen im Windows Disk Image untergebracht sein. Etwa zur selben Zeit holte sich
VMware ein kleines Unternehmens aus
New Hamphire an Bord, das sich auf Management-Software virtualisierter Desktops und Server spezialisiert. Neben Anwendungen bietet die 30 Mann hohe Foedus auch Consulting an. Beide Akquisitionen sollen die Marktabdeckung von VMware vergrößern und verdeutlichen zudem die
steigende Bedeutung des Desktop-Virtua31
Infrastruktur | Desktop-Virtualisierung
Hohe Nachfrage nach Desktop-Virtualisierung
Kommentar von Peter Hanke, Country Manager Austria von Citrix Systems GmbH,
zum Thema Desktop-Virtualisierung.
Auch wenn das Konzept der Desktop-Virtualisierung im Vergleich zur Servervirtualisierung relativ neu ist, ist die Nachfrage
hoch. Vor allem große Unternehmen mit
komplexen Anforderungen, beispielsweise
in Finanzabteilungen oder der Buchhaltung,
haben einen erhöhten Bedarf an kosteneffizienten Technologien, um ihren Mitarbeitern die benötigte Desktop-Umgebung bereitzustellen.
So beobachten wir,dass auch in Österreich
Unternehmen mit strengen ComplianceVorschriften - wie Banken und Finanzdienstleister oder auch Pharmahersteller - großes Interesse an virtuellen Desktop-Lösungen zeigen, da diese die Kontrolle über die
Benutzerumgebung zum Schutz sensibler
Daten gewährleistet.
Die Daten liegen nicht mehr auf einzelnen Endgeräten, sondern auf gut gesicherten Servern. Zugriffsrechte können somit
zentral verwaltet und an die jeweilige Benutzerrolle angepasst werden.Vor allem für
global agierende Unternehmen, die geschäftskritische Informationen ausschließlich an ihrem Hauptsitz vorhalten wollen,
zählt die zentrale Datenhaltung und Datensicherung als Selbstverständlichkeit.
Neben erhöhten Sicherheitsanforderungen sind natürlich die Reduktion von Komplexität und Kosten,Aspekte die für die Desktop-Virtualisierung sprechen. Denn die Ab-
kopplung des Benutzer-Desktops vom Endgerät reduziert Wartungsaufwand und eröffnet damit hohes Einsparpotenzial.Die Administratoren können alle notwendigen Installationen und Konfigurationen auf den
zentralen Servern vornehmen und müssen
nicht den Arbeitsplatz des Anwenders aufsuchen, um einen Benutzer-Desktop einzurichten. So ermöglicht Citrix XenDesktop
die dynamische Bereitstellung ganzer Windows-Umgebungen aus dem Rechenzentrum heraus. Große Software-Einführungen und Migrationen, wie zum Beispiel eine unternehmensweite Umstellung auf das
neue Windows Vista, lassen sich damit zu
einem Bruchteil von Kosten und Zeit erledigen.Nebenbei lassen sich auch noch Hardware-Kosten auf der Client-Seite einsparen:
Ein lokal installiertes Windows Vista setzt
sehr leistungsfähige Endgeräte voraus.Wenn
der Desktop virtualisiert bereitgestellt wird,
können stattdessen nahezu beliebig vorhandene PCs oder auch stromsparende und wartungsarme Thin Clients eingesetzt werden.
Virtuelle Desktops bieten aber auch den
Anwendern Vorteile - vor allem in puncto
Flexibilität: Die Benutzer erhalten an jedem
beliebigen Rechner im Unternehmen Zugang zu ihrer persönlichen Arbeitsumgebung. Neue Ansätze wie die von Citrix
unterstützte „Instant On“-Technologie sorgen dafür, dass die Benutzerumgebung di-
lisierungsmarktes. Für VMwares „Virtual
Desktop“ und Microsofts „Terminal Services“ ist die Lösung des US-Unternehmen
Provision Network konzipiert, das im letzten Jahr von der kalifornischen Quest Software gekauft wurde. „Provision Networks
Virtual Access Suite“ gilt als ausgefeilte Lösung, um Anwendungen und die Verteilung von Desktop-Images zu konsolidieren. Das Unternehmen entstand ursprünglich als Spinoff von Emergent OnLine mit
dem Ziel eine Citrix-ähnliche Lösung für
den KMU-Bereich zu anzubieten.
Mit der Akquisition seines OEM-Partners AppStream rüstet sich auch Symantec für den Desktop-Virtualisierungsmarkt.
Die Application Streaming-Software des
Unternehmens überträgt virtuelle Images
in Richtung PC und lässt sich außerdem für
License Management verwenden. Das Programm findet bereits jetzt in Symantecs
Software „Virtualization Solution Pro“ Eingang. Das System funktioniert unabhängig, fügt sich auf Wunsch aber auch in
VMware- und Citrix XenSource-Umgebungen.
Citrix selbst hat die weltweite Verfügbarkeit seiner Desktop-Delivery-Lösung XenDesktop für Ende Mai 2008 angekündigt.
Im Gegensatz zu herkömmlichen Technologien für die Virtual-Desktop-Infrastruktur verspricht Citrix ein umfassendes Endto-End-DesktopDelivery-System, um Windows-Desktops im Rechenzentrum zu vir-
32
monitor | Special Kommunikation 4A/2008
„Wege zur DesktopVirtualisierung gibt
es viele, aber aus
strategischer Sicht
ist es empfehlenswert das Thema von
der Applikationsseite
her aufzurollen.“ Peter Hanke, Country Manager Austria
von Citrix Systems
GmbH
rekt nach der Anmeldung zur Verfügung
steht und nicht erst hochgefahren werden
muss. Bei Bedarf können die Administratoren bestimmten Benutzern sogar unterschiedliche Betriebssysteme zur Verfügung
stellen, zwischen denen diese im laufenden
Betrieb hin und her schalten können.
Wege zur Desktop-Virtualisierung gibt es
viele,aber aus strategischer Sicht ist es empfehlenswert das Thema von der Applikationsseite her aufzurollen und sich zunächst
Gedanken über Benutzertypen und Anwendungsszenarien zu machen.
Die ersten Eindrücke aus Österreich
decken sich mit dieser Einschätzung: Die
meisten Unternehmen, die sich heute mit
dem Thema Desktop-Virtualisierung auseinandersetzen, haben bereits seit längerer
Zeit Erfahrungen mit der virtualisierten
Bereitstellung von Applikationen gesammelt und wollen dieses Prinzip nun auf den
Desktop ausdehnen.
Im Backend werkt das Blade von ClearCube,
beim Benutzer verbleibt nur noch Port, der Bildschirm, Tastatur und Co anbindet.
tualisieren und Nutzern on-demand an jedem beliebigen Standort bereitzustellen.
Schnieke Hardware
Geht es nach dem US-Unternehmen Pano Logic, tritt bald ein kleiner Metallwürfel die Nachfolge herkömmlicher PCs an.
Die gesamte Software wird dabei auf den
Server verlagert, dem Benutzer bleibt ein
Metallkästchen ohne CPU, Speicher oder
Betriebssystem - allerdings mit USB-Anschluss. Am Bildschirm erscheint die gewohnte Windows-Umgebung. Der bis
aufs Äußerste abgespeckte Thin Client
deutet die Kostenersparnis an, die Pano
Logic schließlich ausführt: Kunden, die
die Software all ihrer Desktop-Rechner
auf den Server verlegen können 70% der
TCO einsparen.
Den PC in den Formfaktor eines
Blade bringt die texanische Firma ClearCube. Aus User-Seite verbindet lediglich
eine Schnittstelle Monitor,Tastatur, Maus
und USB-Peripheriegeräte mit dem
Blade - via LAN oder drahtlos. Administratoren können das System, wie die Firma betont, von jedem beliebigen Punkt
der Welt aus über die dazu gehörige Management-Software kontrollieren.
Brandneu am Markt ist das Startup
MokaFive, das mit „LivePC“ den Benutzern ein Desktop-Image am USB-Stick in
die Hand gibt und Administratoren die
Möglichkeit, das System zentral zu warten. Benutzer können damit auch ohne
Netzwerkverbindung arbeiten sowie den
Computer in einem bestimmten Zustand
pausieren, den sie an anderer Stelle fortführen. Geht ein User online, werden etwaige ausstehende Updates automatisch
Links
www.appstream.com
www.citrix.com
www.ericom.com
www.foedus.com
www.clearcube.com
www.innotek.de
www.microsoft.com
www.moka5.com
www.panologic.com
www.parallels.com
www.provisionnetworks.com
www.sun.com
www.symantec.com
www.thinstall.com
www.virtualbox.org
www.vmware.com
www.xensource.org
Ein Thin Client zur schicken Metallbox abgespeckt: Die Hardware-Lösung von Pano Logic.
geladen. SAP soll MokaFive dem Vernehmen nach unternehmensintern im SalesBereich verwenden.
Lösungen für Umsteiger
Als Anbieter für unternehmensweite Applikationszugangs- und Virtualisierungslösungen beschreibt sich das 1993 gegründete Unternehmen Ericom. Die hauseigene Lösung „PowerTerm WebConnect
DeskView“ wird als eine Art abgespeckte
Alternative zu Citrix vermarktet.
Die Software soll bessere Performance bei
geringeren Kosten liefern. Ericom nennt
etwa das britische Modehaus Jaeger oder
den kanadischen Versicherer und Finanzdienstleister Western Financial Group, die
beide ihre Citrix-Landschaft durch „PowerTerm WebConnect“ ersetzen. „Citrix
liefert umfangreichen Schnickschnack mit
seinem Produkt, aber wir brauchen diese
Funktionalitäten alle nicht“, wird Doug
Bennett, IT-Manager Networking & Technology bei Western Financial zitiert. PowerTerm würde über alle notwendigen
Features verfügen und dies zu einem
Bruchteil der Kosten bei Citrix.
Bekannt wurde das Washingtoner
Unternehmen Parallels mit seiner
Software, die Windows endlich auch auf
Apple-Hardware zum Laufen brachte. Gegründet wurde die Firma bereits 1999,
lange bevor Intel-Architektur und damit
die Möglichkeit, Windows auszuführen,
auf Apple-Computern Einzug hielt.
Heute hat Parallels an die 900 Mitarbeiter und bietet Virtualisierungslösungen für Server und Desktops mit Mac OS
an. Laut Angaben des Unternehmens verwenden rund eine halbe Million Leute die
Software, in Summe ist man auf mehr als
einer Million Server und Desktops
❏
präsent.
monitor | Special Kommunikation 4A/2008
33
Security | Sicherheitsraum
Auf der sicheren Seite
Bei Knauf Österreich weiß man, dass
Sicherheit und Vorsorge zusammengehören. Deshalb schützt ein Sicherheitsraum das neue Rechenzentrum.
„Zu einem anständigen Rechenzentrum gehört auch ein anständiges Sicherheitssystem“, weiß Ing.Armin Schreiegg, Leiter
der Datenverarbeitung bei Knauf GmbH
Österreich. Diese Meinung wird leider noch
nicht in jedem Unternehmen vertreten.
Häufig werden die Gefahren, die von Brand,
korrosiven Gasen oder Löschwasser ausgehen, unterschätzt. Tagelange Ausfälle können die Folge sein. Und was das bedeutet,
kann man sich leicht ausrechnen: enorme
finanzielle Verluste bis hin zur Schließung
des Unternehmens.
Meist findet erst nach solchen elementaren Schadensfällen ein Umdenken statt. Da
ist es umso erstaunlicher, dass sich die ITVerantwortlichen bei Knauf mit ihrer Einstellung durchsetzen konnten. Ohne offensichtliche Gefahrenquellen und Sicherheitsrisiken für die Produktion hat man sich für
einen Sicherheitsraum der Firma Lampertz
entschieden. „Für uns ist der Raum wie eine Versicherung.Abgeschlossen für den Fall
des Falles“, sagt Schreiegg.
Bestens geschützt
Knauf, im obersteirischen Weißenbach bei
Liezen gelegen, ist Spezialist für Trockenbausysteme. Die Knauf-Gruppe Osteuropa
ist derzeit in 20 Ländern Zentraleuropas tätig und unterhält 16 Produktionsstätten mit
etwa 1.900 Beschäftigten. In Weißenbach
werden die IT-Systeme der Vertriebsbüros
in Wien und Linz sowie der Niederlassun-
Ing. Armin Schreiegg (rechts) und Ing. Bernhard Stiegler im neuen Sicherheitsraum.
gen in Serbien, Slowenien, Bosnien und
Montenegro betreut und verwaltet.
Anfänglich wurde zur Sicherung der Daten nur an einen Lampertz Datensafe gedacht. Dieser war allerdings für den Standort im 1. Stock des Bürogebäudes zu schwer.
Deshalb folgte die Planung eines neuen Raumes im Erdgeschoß, der nun von einem LSR
9.3 umschlossen wird. Der LSR 9.3 hält bei
einer Beflammung von 90 Minuten die
Grenzwerte der DIN 4102 ein und darüber hinaus auch die strengeren Grenzwerte der Euro-Norm EN 1047-2 bei 30-minütiger Beflammung für die Temperaturerhöhung und relativen Luftfeuchtigkeit. Zudem ist er gas- und wasserdicht. Und
Schreiegg fügt hinzu: „Nun sind wir doppelt gesichert, denn die Innenwände unseres Büros sind ja aus Knauf-Trockenbausystemen.“
Einfache Montage
Der Raum wurde modular aus einzelnen
Lampertz Facts
. IT-Sicherheitsräume für Serverfarmen und Rechenzentren
. Flexible Infrastruktur (z. B. USV und Klimaanlagen) für bestehende Rechenzentren
. Status-Checks und Sicherheitsanalysen
. Modulsafes für kompakte Server- und Storage-Racklösungen
. Mediensafes für Ihre Backups
. Geprüfte Sicherheit (ECB-S, EN1074-2/ECB-S etc.)
34
monitor | Special Kommunikation 4A/2008
Bauteilen gefertigt und konnte so flexibel
an die räumlichen Begebenheiten angepasst
werden. Ein sehr wichtiger Punkt, denn das
neue Rechenzentrum muss nun auch den
bereits im Raum vorhandenen Niederspannungsverteiler beherbergen. Was anfangs
nach einem notwendigen Übel aussah, hat
sich sehr schnell zu einer durchaus sinnvollen Einrichtung gewandelt. Der Verteiler
nimmt nun auch die Verkabelung des
Rechenzentrums in sich auf.
Fazit
Neben den gängigen Maßnahmen - redundant ausgelegte Hardware,Virenschutzprogramme und Firewalls - ist die Auseinandersetzung mit möglichen physikalischen Gefahren im Rechenzentrum ein Muss - und
das nicht erst nach dem Eintreten einer
Katastrophe. Für Armin Schreiegg von der
Knauf GmbH Österreich war die Errichtung
entsprechender Sicherungsmaßnahmen
selbstverständlich.
Das neue Rechenzentrum konnte nun im
Jänner in Betrieb gehen. „Ich kann nur jedem empfehlen, den Umbau nicht im Winter zu beginnen. Ein halber Meter Schnee
am Dach war bei der Verlegung der Klimaleitungen nicht sehr hilfreich. Aber sonst
sind wir mit unserem neuen Rechenzentrum sehr zufrieden“, schließt Schreiegg ab.
www.lampertz.at
www.knauf.at
Hexen besiegen.
Leicht.
Würmer besiegen.
Leichter.
1. Mausgewöll und Spinnendreck.
Schwupps, schon ist die Hexe weg!
Was Suppen für Paul Bocuse, sind
Zaubertränke für Hexen. Wieso also
nicht selber einen brauen und
gegen sie verwenden. Klar,
Lurchaugen gibt’s nicht an jeder
Straßenecke, aber im Internet
findet man doch praktisch alles.
1. Steigen Sie um auf Microsoft Forefront.
®
TM
TM
2. Zart schmelzende Hexe.
Sie kennen die Filme und auch das dicke Ende. Ein Eimer voll Wasser
gen Hexe geschüttet, schon dampft sie, schmilzt und löst sich in eine
kleine Lacke auf dem Boden auf. Eiswürfel daraus machen und rein
in den Cocktail. Schmeckt zauberhaft.
3. Magie mit Magie
bekämpfen.
Mit einem eigenen Zauberstab – sagen wir mal einem
Laserpointer – können auch
Sie Ihre Magie spielen lassen.
Dreimal schwarzer Kater,
schon ist die Hexe eine Kröte.
Komisch eigentlich.
4. Die große Hexenbeleidigung.
Trotz ihres warzigen Äußeren sind
Hexen sensible, zerbrechliche
Wesen. Fragen Sie „Hey Hexe – ist
das deine Nase oder eine grüne
Banane?“ und die Gute verbringt
die nächsten Wochen
beim Therapeuten.
5. Besen, Besen – war’s
gewesen.
Fast jede Hexe besitzt einen
fliegenden Besen. Stehlen Sie
ihn und die Hexe landet hart
am Boden der Tatsachen – sie ist
besiegt. Positiver Nebeneffekt:
Das Öffi-Fahren hat ein Ende.
Forefront macht es Ihnen leichter, Ihre Systeme zu
schützen. Die bedienungsfreundliche Familie von modernen
Client-, Server- und Netzwerk-Sicherheitsprodukten macht es
Ihnen einfacher als je zuvor, mit Sicherheitsbedrohungen für
Ihren PC fertig zu werden.
Fallstudien, gratis Testversionen, Demos und die neuesten
Entwicklungen finden Sie auf www.easyeasier.com
Security | Anti-Crimeware
„Anti-Crimeware“-Strategien und Ausblicke
Die Kriminalisierung der Spam- und Malware-Branche setzt Anwender und
Security-Anbieter unter Druck. MONITOR befragte 13 führende Hersteller von
Antimalware- und Antispam-Tools zur aktuellen Situation.
Dominik Troger
Unbestrittenes Faktum ist, dass sich in den
letzten vier bis fünf Jahren die Malwareszene zunehmend kriminalisiert und kommerzialisiert hat. Man kann mit recht von „Crimeware“ sprechen,die nichts mehr mit „klassischen“ Virenprogrammen zu tun hat.Heute geht es um vor allem darum, finanziell
möglicherweise lukrative Informationen auszuspionieren oder Computer und Webseiten
heimlich für kriminelle Zwecke zu nutzen.
„Das Internet gleicht vom Gefahrenpotenzial mittlerweile eher einem Minenfeld“,beschreibt etwa Matthias Malcher, G DATA
Countrymanager Österreich,die aktuelle Situation.
Belebt wird diese „Szene“ von einem
Schwarzmarkt,auf dem Personaldaten ebenso zu haben sind wie Kreditkartennummern,
Bankaccounts oder praktikable Toolkits, um
im Internet Geld zu machen. Es hat sich eine Milliarden Euro schwere Schattenwirtschaft entwickelt, arbeitsteilig durchorganisiert und global tätig,die auch die Ressourcen
hat, um vielversprechende Objekte sehr gezielt und raffiniert unter Beschuss zu nehmen.
Für spezielle Anforderungen entwickelte
„Designer-Malware“ und für den Massengebrauch entwickelte „Wegwerf“-Trojaner
schaffen zusammen mit der unermüdlichen
Spamflut eine Bandbreite an Bedrohungen
und Belästigungen,die noch vor wenigen Jahren undenkbar gewesen ist. „Auch die millionenfachen Penny-Stock-Spam-E-Mails versprechen den Spammern eine gigantische
Einnahmequelle - selbst dann,wenn auch nur
eine Promille-Anzahl den Aktienempfehlungen der Spammer nachkommt“, analysiert
Andreas Kroisenbrunner,Avira Country Manager Österreich, die Einnahmemöglichkeiten der Crimeware- und Spam-Branche.
Paradigmenwechsel mit weitreichenden
Konsequenzen
Diesen Paradigmenwechsel spürt auch die
Security-Branche. „Vor zwei Jahren konnten wir noch 90% aller Schädlinge mit rund
250.000 Signaturen erkennen“,erläutert dazu Axel Diekmann,Managing Director Central Europe, Kaspersky Lab, der für 2008 damit rechnet, dass hier die Millionengrenze
durchbrochen wird.
Aber nicht nur diese Flutwelle an „bösem
Code“ ist eine Herausforderung,auch der Infektionsweg beginnt sich zu verändern: neben E-Mail-Attachments treten zunehmend
„Drive-By-Infektionen“ auf. Dazu Diekmann:„Im schlimmsten Fall infiziert der User
seinen Rechner allein durch das Ansurfen einer Website, ohne bewusst etwas herunterzuladen oder die Ausführung einer Datei zu
„Avira setzt die innovative AheAD (Advanced Heuristic Analysis
and Detection) Technologie zum Erkennen unbekannter oder sich
schnell verändernder Angreifer für proaktive Sicherheit ein und
überwacht den Internet-Datenverkehr (incoming & outgoing), sowie http- und ftp-Verbindungen in Echtzeit. Mit dem aktuellen
Release-Wechsel im April haben wir unsere Avira AntiVir Workstation umbenannt, die Software heißt ab sofort Avira AntiVir Professional. Die neue Such-Engine geht mit einem 20% höheren
Durchsatz auf Jagd nach Viren und anderer Malware. Daneben sind
Unternehmen durch das integrierte Modul WebGuard noch sicherer im Netz unterwegs. Darüber verfügt die Businesslösung über einen MailGuard, der ein- und ausgehende E-Mails auf Infektionen untersucht und auch noch ein optionales Whitelisting
bietet.“ Andreas Kroisenbrunner, Avira Country Manager Österreich
36
monitor | Special Kommunikation 4A/2008
bestätigen. Der dafür notwendige Schadcode wird oft auf Webseiten eigentlich harmloser Anbieter eingeschmuggelt.“
Die installierte Schadsoftware verhält sich
dann so unauffällig wie möglich.„Dies beinhaltet auch automatische Updates im 5-Minuten-Takt,um den neuesten Antiviren-Signaturen zu entkommen!“, wie Rainer Link,
Senior Security Specialist Anti-Malware bei
Trend Micro ergänzt. „Heutige Malware ist
weniger auffällig, da sie für Cyberkriminelle die wirtschaftliche Grundlage ist.“
Die Konsequenzen sind vielfältig und betreffen die globale Wirtschaft ebenso wie einzelne Unternehmen und Anwender.„Global
entstehen Milliardenschäden durch den Missbrauch gestohlener Informationen.Langfristig könnte das Vertrauen in Online-Geschäfte, egal ob es sich um Online-Banking oder
den Kauf und Verkauf von Gütern handelt,
nachhaltig beschädigt werden“, fasst Toralv
Dirro,McAfee Security Strategist EMEA zusammen.
Umfassende Security-Konzepte sind gefragt
Unternehmen müssten sich bewusst sein,
dass sie möglicherweise mit einem Wahrnehmungsproblem zu kämpfen haben, meint
Trend Micro-Spezialist Link: „In der subjektiven Wahrnehmung der Anwender hat sich
die Malware-Situation in den letzten Jahren
stark verbessert, weil die klassischen signaturbasierten Ansätze für Virus-Scanning und
Security | Anti-Crimeware
URL-Filterung keine Malware finden.“ Doch
gerade das Gegenteil sei Fall. Außerdem sei
es heute bedeutend gefährlicher, „wenn ein
Unternehmen über einen längeren Zeitraum
ausspioniert wird,ohne etwas davon zu merken“, so Axel Diekmann, Kaspersky Lab.
Es bestehe auch die große Gefahr,„dass die
eigene IT-Infrastruktur gekapert wird und
zur Spam-Schleuder mutiert“,betont Oliver
Kunzmann, Business Consultant, Norman
Deutschland & Österreich. Deshalb wird es,
wie Marcus Rapp, Product Specialist bei
F-Secure beifügt, immer wichtiger, „die gesamte eingesetzte Software auf Sicherheitslücken zu überwachen und ständig aktuell zu
halten.“
Die Konsequenz muss also sein, ein umfassendes Security-Konzept zu entwickeln,
„das beispielsweise auch die Netzwerkzugangskontrolle berücksichtigt und sicherstellt, dass sich nur ausreichend geschützte
Endgeräte ins Netzwerk einklinken dürfen“,
so Christoph Hardy, Security Consultant,
Sophos GmbH.
„Wichtig sei auch ein umfassendes Consulting vor der Kaufentscheidung und während der Laufzeit“,betont Andreas Kroisenbrunner, Avira. „Ziel muss es sein, am Ende
des Prozesses ganzheitlich angepasste Strukturen zu haben, die das Unternehmen signifikant vor aktuellen und künftigen Risiken
schützen. Das kann ein individuelles Implementationskonzept, Schulungen und Trainings der Mitarbeiter und IT-Sicherheitsbeauftragten oder eine begleitende Überwachung sicherheitsrelevanter Prozesse beinhalten.“
Quadratur des Kreises
„Ein wichtiger Aspekt der BitDefender Sicherheitslösungen für Geschäftskunden ist die einfache Bedienbarkeit der Programme. Darüber hinaus beeinträchtigen unsere Lösungen die Netzwerkkapazitäten nur wenig, das heißt, sie sorgen für hohe Sicherheit, ohne
die anderen Prozesse zu verlangsamen. Doch besonders ausgezeichnet werden unsere Lösungen für die zentralen Aspekte einer Sicherheitslösung: proaktiver Schutz, Erkennungsraten und Reaktionszeiten. Mit B-HAVE setzen wir auf eine verhaltensorientierte heuristische Erkennungstechnologie, die Viren an ihren Verhaltensweisen in einem virtualisierten, isolierten Umfeld erkennt, anstatt sich lediglich auf das
Aufspüren bekannter Malware-Signaturen zu verlassen. Außerdem haben wir große
Fortschritte im Einsatz von neuralen Netzwerken gemacht, um Bild-Spam zu identifizieren und zu blockieren.“ Harald Philipp, Geschäftsführer Bitdefender Deutschland
„Der Weg, Antivirus und Antispyware nicht mit einem Scanner,
sondern mit mehreren Scannern unter einem zentralen Management zu betreiben, hat sich als der richtige erwiesen. Diesen Weg
werden wir auch gehen um unser Host-Based Intrusion Prevention
System zu integrieren und damit unseren Kunden eine Lösung anzubieten, die gegen alle aktuellen Bedrohungen einen vernünftigen,
leistbaren und gut verwaltbaren Schutz bietet. CA hat Antivirus und
Antispyware unter ein zentrales Management gestellt und ein clientbasiertes Intrusion Prevention System vorgestellt. Im nächsten
Schritt werden wir auch das miteinander verschmelzen und so eine wirklich zentral verwaltbare Edge-Security-Lösung zur Verfügung stellen.“
Joachim Neuhäusser, Channel Account Manager bei CA Software Österreich GmbH
„Als Technologie für die Heuristik ist bei ESET NOD32 sowie ESET
Smart Security die pro-aktive Scantechnologie ThreatSense im Einsatz, die auch Rückmeldungen über die global herrschende momentane Gefahrensituation liefert. Zu den Highlights ESET NOD32 und
ESET Smart Security Business Edition zählen bestmöglicher Schutz
vor Viren, Würmern, Trojanern, Spyware, Rootkits, Phishing und
anderer Malware, extrem niedriger Ressourcenverbrauch bei hoher
Scangeschwindigkeit, laufende Updates von Antiviren-Signatur, einfache Installation und Bedienung, Fernverwaltung und zentrales
Management von Netzwerken, Spiegelungen von Updates in Netzwerken, kostenloser Support.“ Martin Penzes, Technischer Direktor von Sicontact, exklusiver Vertriebspartner von
ESET-Produkten in Österreich
In Anbetracht der genannten, rasch wechselnden Bedrohungen befinden sich die Security-Hersteller in einer Zwickmühle.„Das
Katz und Maus-Spiel zwischen MalwareAutoren und Antiviren-Herstellern hat deutlich an Fahrt zugenommen“, meint etwa
Matthias Malcher, G DATA. „Immer mehr
Schadprogramme müssen in den Virenlabors
untersucht werden. Die Reaktionszeit auf
neue Gefahren ist also ein entscheidender
Faktor.“
„Antimalwarehersteller werden den Entwicklungen immer hinterherlaufen, das ist
de facto so“, meint Martin Penzes, Technischer Direktor von Sicontact, dem exklusiven Vertriebspartner von ESET-Produkten
in Österreich.„Wir selbst können zum einen
Aufklärungsarbeit betreiben. Zum anderen
gilt es auf technologischer Ebene, die
Heuristik, also das Erkennen unbekannter
Bedrohungen, weiter und weiter zu verbessern, um den Schritt, den wir hinterherlaufen, schon zu antizipieren.“
Vor diesen neuen Anforderungen geraten
herkömmliche Technologien zunehmend ins
Hintertreffen und es folgt daraus, dass sich
die klassische Philosophie von reinen Antivirus-Produkten überlebt hat. „Heute muss
eine Anti-Malware verschiedenen Aspekten
der Schädlingsbekämpfung Rechnung tragen“, so Joachim Neuhäusser, Channel Account Manager bei CA Software Österreich
monitor | Special Kommunikation 4A/2008
GmbH. So haben für Rainer Link,Trend Micro, Pattern als proaktive Schutzmaßnahme
überhaupt ausgedient: „Hier sind neue
Schutzkonzepte gefragt, die in Echtzeit (d. h.
ohne Patternauslieferungsverzug) vor bekannten und unbekannten Gefahren schützen. So kann man beispielsweise verschiedene Datenquellen wie Domain-Reputation,IP
Geolocation, Spam History berücksichtigen
und den Status in Echtzeit ‘in the cloud’
überprüfen.“
„Die Zukunft von Sicherheitsprogrammen kann sicherlich nicht mehr ausschließlich aus der althergebrachten Erkennung auf
Signaturbasis bestehen, die gegenüber den
37
Security | Anti-Crimeware
immer schneller weiter entwickelten Schadprogrammen grundsätzlich nur reaktiv vorgehen kann. Die Kombination von Applikationskontrolle als Schutz für die hochsensiblen Bereiche im Unternehmen mit klassischem Blacklist-Virenschutz - idealerweise
ergänzt durch flexible Behavior-BlockingFunktionen - bringt ein Ergebnis,bei dem hohe Sicherheit mit entsprechender Flexibilität
erreicht werden kann. Auch Ansätze von
Whitelisting werden im Unternehmensumfeld erprobt“,weiß Alexander Austein,Principal Systems Engineer bei Symantec Österreich.
Und Joachim Neuhäusser, Channel
Account Manager bei CA Software Österreich GmbH, ist überzeugt, dass der Markt
„zunehmend eine Kombination von Antivirus,Antispyware und Intrusion PreventionSystemen unter einem zentralen Management fordert.Die Hersteller müssen mit entsprechenden Produkten darauf reagieren.“
Ist die Technik überfordert?
Einstimmigkeit herrscht darüber, dass der
Einsatz von moderner Technik durch weitere Maßnahmen ergänzt werden muss.„Der
beste Schutz vor Infektionen bleibt weiterhin der gesunde Menschenverstand“, fasst
Axel Diekmann die Ausgangssituation zusammen.„Die technische Umsetzung der Lö-
sung ist bei den meisten Herstellern bereits
passiert“, betont Joachim Neuhäusser, CA,
und fordert ein „Umdenken bei vielen Kunden“.Ins selbe „Horn“ stößt F-Secure Mann
Marcus Rapp: „Technologische Mittel stellen einen wichtigen Baustein dar, aber ebenso müssen Prozesse und Denkweisen überarbeitet werden. Außerdem muss das Nutzerverhalten sensibilisiert werden.“
Für McAfee Security Strategist Toralv Dirro ist offensichtlich, dass „eine Lösung nur
in Kombination aus technischen Mitteln, organisatorischen Maßnahmen und der Aufklärung der Nutzer über die Risiken funktionieren kann.“ Dabei darf die organisatorische Seite nicht vernachlässigt werden:„Auf
der technischen Seite sehen wir die Integration einzelner Lösungen in ein sogenanntes
IT-Risiko Management, das zentral verwaltet und gesteuert wird. Hier lässt sich auch
die organisatorische Seite wie Zugriffs- und
Rechtebeschränkung abbilden.“
Dies könne über Compliance-Vorgaben
und die Definition von Richtlinien gesteuert
werden. In diesem Sinne ist, so Christopher
Hardy, „Sicherheit nicht nur eine Frage der
Technologie, sondern bedarf auch strategischer Erwägungen und Entscheidungen.“
„Generell gilt, dass man beim Security in
Depth Ansatz möglichst auf allen Ebenen die
verfügbaren Mittel einsetzt. Also eben eine
bestmögliche Konfiguration der Systeme,der
„Security-as-a-Service ist ein sehr wichtiger Punkt, den wir in Zukunft stark wachsen sehen, weshalb wir hier auch mit entsprechenden Produkten unser Portfolio abgerundet haben.Technologisch setzen wir derzeit auf einen Mix aus verhaltensbasierter Erkennung,
speziellen Anti-Rootkit-Techniken,Tools, um Drittsoftware zu überprüfen und Unterstützung beim Patchen sowie Anti-Phishing-Filter und anderem mehr.“
Marcus Rapp, Product Specialist bei F-Secure
„In unseren Security-Lösungen setzen wir mehrere Schilde zur Abwehr von Malware ein. Zum einen ist dies die G DATA DoubleScanTechnologie, bei der zwei Viren-Engines parallel zum Einsatz kommen. Diese Technologie ermöglicht die höchste Malware-Erkennungsrate. Die von G DATA eingesetzte OutbreakShield-Technologie rundet das Security-Portfolio ab und schützt PCs bereits eine
halbe Minute nach Viren-Outbreak.Weil es für Unternehmen kaum
mehr möglich ist, den Überblick über aktuelle Gefahren oder veränderte Taktiken der Online-Kriminellen zu behalten, gewinnt
die Beratungsleistung von Fachhändlern und Systemshäusern stark an Bedeutung.
Genau hier setzen wir an und haben unser Partnerprogramm in Österreich deutlich
ausgebaut.“
Matthias Malcher, G DATA Countrymanager Österreich
38
monitor | Special Kommunikation 4A/2008
Einsatz von Sicherheits-Software und regulatorische Kontrolle ihrer Wirksamkeit“,fasst
Alexander Austein, Symantec, die gestellten
Herausforderungen zusammen.
Wie steht es um Security in Österreich?
Österreich ist keine Insel der Seligen - oder
um es mit den Worten von Harald Philipp,
Geschäftsführer Bitdefender Deutschland,
zu formulieren: „Das Internet kennt keine
Landesgrenzen.Deshalb wird auch in Österreich in Zukunft ein erhöhter Bedarf an ausgefeilten Sicherheitslösungen bestehen, um
wichtige Daten von Unternehmen wie auch
von Privatanwendern zu schützen.“
Der hohe Anteil an kleinen und mittelständischen Unternehmen birgt in Österreich sogar eher einen Risikofaktor,meint Toralv Dirro,McAfee:„Studien von McAfee haben ergeben,dass sich solche Unternehmen oft gar
nicht vorstellen können, Opfer von Angriffen zu werden.Viele halten sich dafür für zu
wenig wichtig.“
Auch für Andreas Kroisenbrunner, Avira
Country Manager Österreich, zeigt sich der
Mittelstand als Achillesferse: „Das liegt zum
einen daran, dass sich die Mittelständler weniger mit der Thematik IT-Security beschäftigen oder nicht über die entsprechenden
Fachkräfte verfügen. Zum anderen scheuen
kleine und mittelständische Unternehmen
nach wie vor die notwendigen Investitionen
für Schutzmaßnahmen. Unser Ziel ist es, in
diesem Bereich mehr Aufmerksamkeit zu erzeugen und damit zu einer sicheren IT-Struktur der kleinen und mittelständischen Unternehmen beizutragen.“
Die aktuelle Marktsituation unter den Anbietern wird zunehmend als Verdrängungswettbewerb beschrieben.„Um hier bestehen
zu können, reicht es nicht aus, einfach einen
reinen Malware-Schutz anzubieten. Gefragt
sind integrierte Lösungen, die alle Bereiche
der IT zuverlässig schützen und es zudem ermöglichen,gesetzliche und firmeneigene Sicherheitsrichtlinien effizient umzusetzen.
Auch der Bedarf an Consultingleistungen
wächst“, weiß Christoph Hardy, Sophos.
„Unternehmen suchen dafür qualifizierte
Partner,die technisch ausgereifte SicherheitsProdukte liefern.Heute wird also nicht mehr
aus der Hüfte geschossen, sondern Anbieter
werden genau geprüft und erst nach reiflicher
Überlegung ausgewählt“, meint Alex
Diekmann, Kaspersky Lab, der aber insgesamt das Sicherheitsbewusstsein in Öster-
Security | Anti-Crimeware
reich im Vergleich zu anderen europäischen
Ländern als relativ hoch einschätzt.
Was ist für Antimal- und -spamware
im Businessumfeld wichtig?
„Neben der Erkennungsrate ist die möglichst
vollständige Vermeidung von Fehlalarmen
ein wesentlicher Punkt für den Einsatz im
Unternehmen. Fehlalarme können sehr
schnell viel höhere Kosten verursachen als
ein wirklicher Ausbruch von Malware“, so
Toralv Dirro. „Wir müssen unseren Kunden innovative Lösungen für eine maximale Sicherheit im Internet bieten können, ohne jedoch den Ressourcenverbrauch der Rechner zu erhöhen. Zudem müssen sie einfach
zu gebrauchen sein“, meint etwa Margarita
Mitroussi,zuständig für die Pressebetreuung
bei Panda Security.
Besonders Gewicht wird seitens der Hersteller auch auf ein einheitliches Management gelegt.„Für uns als Lieferant von Kunden mit großen Netzwerken ist nach wie vor
einfaches,leicht zu bedienendes Management
ein Kernthema. Wenn die Bedienung der
technischen Lösung zu kompliziert ist und
deswegen die Performance leidet oder die
Überwachung gar nicht stattfindet,hilft auch
die ausgefeilteste Technologie nichts“,erläutert Joachim Neuhäusser,CA Software Österreich.
„Managementlösungen werden inzwischen von allen wichtigen AV-Herstellern angeboten, aber auch hier gibt es große Unterschiede,gerade was die Skalierbarkeit in größeren Netzwerken betrifft.Aus diesem Grund
sollten Unternehmen während der Evaluationsphase nicht nur auf die Feature-Liste eines Anbieters schauen,sondern sich auch von
der Tauglichkeit im Großeinsatz überzeugen“, meint Alex Diekmann. „Eine zentrale
und benuterzfreundliche Managementkonwww.avira.at
www.bitdefender.de
www.ca.com/at/
www.eset.at
www.f-secure.de
www.gdata.de
www.kaspersky.com/de
www.mcafee.at/de
www.norman.com/de
www.panda-software.de
www.sophos.de
www.symantec.com/de/at
de.trendmicro.com
„Um die Zeit zwischen Erscheinen eines Schädlings und der dazu
passenden Signatur durch AV-Hersteller zu überbrücken, gewinnen heuristische und proaktive Erkennungsmechanismen mehr und
mehr an Bedeutung. Da bei diesen Technologien signaturunabhängig und vollautomatisiert ermittelt wird, ob eine Anwendung gefährlich ist oder nicht, spielt der Zeitfaktor keine Rolle mehr. Das
damit einhergehende Risiko von Fehlalarmen wird in Zukunft durch
die Einführung von Whitelists, in denen zu 100% vertrauliche Anwendungen und Treiber geführt werden, auf ein Minimum reduziert. Unsere Business Produkte harmonieren perfekt mit den Hosted Security Services. Wir können nun als einer der ganz wenigen Anbieter unsere Kunden vor lokalen
und netzwerkbasierten Bedrohungen sowie Gefahren aus dem Internet schützen.
Kaspersky Lab bietet in diesem Zusammenhang auch spezielle Bundlepreise an.“
Axel Diekmann, Managing Director Central Europe, Kaspersky Lab
„Heute setzen wir auf den Endgeräten eine Kombination aus signaturbasierter Erkennung und der exakten Identifikation bekannter Malware mit verhaltensbasierten Schutzmassnahmen gegen unbekannte Malware ein. McAfee ergänzt das mit einem netzwerkbasierten Intrusion Prevention System (IPS), das teilweise die Kommunikation von Trojanern nach außen erkennen und eine Isolierung der als infiziert erkannten Systeme im Netzwerk durchsetzen
kann. McAfee bietet außerdem Schutz am Gateway zur Erkennung
von Malware, Spam und Angriffen über E-Mail und HTTP. In Zukunft werden verhaltensbasierte Schutzmaßnahmen, die wirksam vor unbekannter
Malware schützen, eine noch größere Rolle spielen.“
Toralv Dirro, McAfee Security Strategist EMEA
„Wir setzen Schutzlösungen an anderen als den bisher gängigen
Stellen im Unternehmensnetz ein und haben dafür eine spezielle
Lösung entwickelt, das Security-Gateway Norman Network Protection. Damit lässt sich die Ausbreitung von Malware verhindern,
die zum Beispiel über mobile Datenträger ins Unternehmensnetz
eingeschleppt wurde. Die Lösung lässt sich nämlich an jeder beliebigen Stelle im Netzwerk installieren und schützt damit zielgerichtet besonders sensible Netzwerksegmente. NNP scannt, mit klassischem Scanner und mittels der SandBox-Technologie, den durch sie
hindurch gehenden Datenstrom. Intelligente technische Funktionalitäten sorgen dafür,
dass sich NNP den anderen Netzwerkkomponenten gegenüber neutral und transparent
verhält und der Scanprozess die Datenübermittlung nicht spürbar verzögert.“
Oliver Kunzmann, Business Consultant, Norman Deutschland & Österreich
sole erleichtert die Verwaltung und spart Zeit,
Nerven und Geld. Dieser Aspekt ist häufig
für KMUs ausschlaggebend“, so Andreas
Kroisenbrunner,Avira,
Ein in der Vergangenheit nicht immer mit
Lobeshymnen bedachtes Gebiet war die Perfomance der eingesetzten Security-Applikation. Das Ziel ist freilich, dass man „die
Existenz einer Antimalwaresoftware nicht
spürt“, ist Martin Penzes, Sicontact, überzeugt. „Das heißt, Produkte sollten zum einen wenig Speicherplatz benötigen und
gleichzeitig den Computer nicht verlangsamonitor | Special Kommunikation 4A/2008
men.“ Dem kann Oliver Kunzmann, Norman, nur zustimmen: „Verfügbarkeit und
Performance sind ganz wichtige Punkte. Security-Lösungen dürfen den Rechner nicht
belasten.Die Anwender würden sonst Mittel
und Wege finden, um den Virenschutz zu
umgehen, und das wäre kontraproduktiv.“
Für Andreas Kroisenbrunner lässt sich
durch Anpassen des Suchumfangs und der
Suchintensität an die individuellen Bedürfnisse beziehungsweise der technischen Gegebenheiten die Performanz zusätzlich steigern.Wichtig sei aber auch „plattformüber39
Security | Anti-Crimeware
greifender Schutz, das heißt die Sicherheitslösungen sollten für Windows sowie die gängigen UNIX-basierten Plattformen verfügbar sein.“
Für Christopher Hardy ist neben einer
möglichst einfachen und zentralen Verwaltung das häufige und regelmäßige Aufspielen von Updates wichtig.Entscheidend ist für
ihn auch der Service der Hersteller:„Die ständige Erreichbarkeit der zuständigen Mitarbeiter, deren Fachkompetenz sowie ein reibungsloser Support sollten gewährleistet
sein.“
„Sicherheit bedeutet für Panda eine Kombination aus Service und
Lösung. Die Businessprodukte ‘Panda Security for Business’ und
‘Panda Security for Enterprise’ bieten einfachen und effizienten
Schutz mit zentralisiertem Management und minimaler Belastung
von Workstations, File-Servern und Microsoft Exchange-Servern.
Das integrierte Administrations-Tool ‘AdminSecure’ passt sich jeder Unternehmensstruktur perfekt an. Panda Security erweitert den
Security-Level um eine zusätzliche Stufe: Dem Security Audit
‘Malware Radar’. Dazu werden höchst fortschrittliche Technologien
und äußerst empfindliche Heuristiksysteme eingesetzt, die auf dem
‘Collective Intelligence’ Ansatz basieren. Das gesamte Analyseverfahren sowie der Auswertungsprozess finden automatisch, schnell und zentralisiert statt.“
Margarita Mitroussi, Presse und PR, Panda Security
Neue Chancen für gehostete
Security-Services?
„Gehostete Security-Dienste sind vor allem
für kleinere und mittlere Unternehmen attraktiv,die das entsprechende Know-how und
die Kapazitäten nicht inhouse bereitstellen
können oder wollen“, meint Oliver Kunzmann, Norman.
„Das Marktforschungs- und Beratungshaus Gartner erwartet bereits für 2011, dass
25% der neuen Business-Software als SaaS
geliefert wird.Aktuell sind es gerade einmal
5%“, erklärt Alexander Austein, Symantec. Und auch bei Panda Security ist man
überzeugt,dass „gehostete Security Services
in Zukunft mit ansteigender Akzeptanz von
Seiten der Nutzer an Bedeutung gewinnen
werden.Sie ermöglichen höhere Erkennungsraten, da Technologien eingesetzt werden
können, die auf ‘normalen’ Systemen aufgrund der fehlenden Rechenleistung nicht
erbracht werden können.“
„Wir sehen in diesen sogenannten Managed Security Services eine Chance auch für
kleinere Unternehmen, aktuelle Lösungen
zum Schutz effektiv einzusetzen,ohne dafür
eigens geschultes Personal und weitere
Ressourcen zu haben“, meint Toralv Dirro,
McAfee. „Das Auslagern des Managements
an Partner, denen man auch sonst die Konfiguration des Netzwerkes und die Beratung
anvertraut, bietet neue Möglichkeiten.“
Von hervorragenden Chancen für Hosted
Security Services ist man bei Kaspersky Lab
überzeugt: „Vor allem der Mittelstand profitiert durch den Einsatz von Hosted Security Services und erreicht dadurch ein Sicherheitsniveau, das sich sonst nur große Unternehmen leisten können.Dies trifft für Österreich ebenso zu, wie für alle europäischen
Märkte, in denen wir tätig sind.“
Vorsichtiger formuliert Christoph
40
„In unseren Lösungen enthalten sind neben proaktiven Erkennungstechnologien auch eine PUA Detection zum Schutz vor potenziell
unerwünschten Anwendungen, wie Dialern oder Adware, sowie die
Application Control. Mit dieser können Unternehmen die Nutzung
bestimmter Anwendungen, wie Instant Messenger oder PC-Spiele,
erlauben oder blocken und so Sicherheitsrisiken oder Produktivitätsverluste vermeiden. Zudem ist in Sophos Anti-Virus eine Buffer Overflow Protection integriert, der verhindert, dass die SchutzSoftware selbst Angriffen zum Opfer fällt. Die Sophos Web Security and Control Appliance vereint URL-Filtering und Content Security in einer Hardware-Lösung und bietet umfassende Funktionen zur URL-Klassifikation mit einer Datenbank, die mehr als 24 Millionen Websites enthält. Systemadministratoren erhalten
die Möglichkeit, schnell und einfach anwendergruppen-spezifische Richtlinien einzurichten und durchzusetzen.“
Christoph Hardy, Security Consultant, Sophos GmbH
„Alle Vorteile wichtiger Sicherheitstechnologien wie Virenschutz,
Antispyware, Desktop-Firewall, Intrusion Prevention, Gerätekontrolle werden in Symantec Endpoint Protection vereint. Zudem
erlaubt die Applikationskontrolle die zentrale Verwaltung durch einen einzigen Agenten. Die zentrale Management-Konsole integriert
die Kontrollfunktionen für Geräte und außerdem ist bereits eine
Funktion zur Network Access Control enthalten.“
Alexander Austein, Principal Systems Engineer bei Symantec Österreich
Hardy, Sophos: „Security ist für Unternehmen heute ein so wichtiges und sensibles Thema,dass man es ungern außer Haus gibt.Immer mehr Unternehmen entscheiden sich
daher für den Einsatz von Security-Appliances, die sich mit wenig Aufwand verwalten
lassen und eine gute Alternative zum Outsourcing darstellen. Die Daten selbst bleiben
auf jeden Fall im Unternehmen.“ Und für
Martin Penzes,Technischer Direktor von Sicontact, machen gehostete Security-Lösungen nur dann Sinn, „wenn zudem weitere
IT-Services ausgelagert werden.“
„Hosted-Security-Lösungen machen nach
unserer Einschätzung generell wenig Sinn“,
findet Matthias Malcher, G DATA. „Die Komonitor | Special Kommunikation 4A/2008
stenvorteile sind auf Kundenseite faktisch
nicht vorhanden. Im Vergleich zu anderen
Herstellern haben wir bei der Entwicklung
unserer Business-Lösungen größten Wert
darauf gelegt, Security-Performance mit
Usability in Einklang zu bringen.“
Für Harald Philipp, Bitdefender, sind die
Internet-Service-Anbieter „die natürlichen
Wächter für gehosteste Security-Dienste und
wir unterstützen sie dabei mit den nötigen
Mitteln, wie zentral verwaltbare Client
Security sowie mit Sicherheitslösungen für
Server.“
Eine differenzierte Haltung zu diesem Thema nimmt Andreas Kroisenbrunner, Avira,
ein: „Um sich umfassend zu schützen, müs-
Security | Anti-Crimeware
sen Betriebe ein Sicherheits-Modell wählen,
das ihren Bedürfnissen und ihren IT-Umgebungen am besten entspricht. Security as a
Service ist dabei vor allem für Unternehmen
eine Option,bei denen kein individuelles Implementierungskonzept nötig ist,d.h.wo nur
wenig oder keine individuellen Anpassungen vorzunehmen sind und kaum direkte
Kontrolle der Software erforderlich ist. Bei
komplexen IT-Strukturen oder vielfältigen
Sicherheitsregeln ist Security as a Service sicher nicht die beste Wahl.“ Zudem müsse
sich jeder Nutzer von Security as a ServiceModellen über die Abhängigkeit von einem
externen Partner bewusst sein und unbedingt
Vorkehrmaßnahmen für den Ausfall des Service-Providers treffen.
Fazit
„Der Kampf gegen die Kriminellen ist von
staatlicher Seite äußerst schwierig, da diese vergleichbar mit Großunternehmen - weltweit agieren. Multinationale Konzepte zur
Bekämpfung sind von Seiten der Strafver-
„Mit IMHS (InterScan Messaging Hosted Security) bietet Trend
Micro eine Rundumlösung für gehostete Mail Security an. Hierbei
werden dieselben Funktionalitäten wie in Standalone-Systemen
mittels Hard- oder Software geboten. Grundsätzlich bietet sich
Hosted Security für Firmen an, die keine oder wenig dedizierte
Ressourcen für die Pflege bzw.Wartung von Systemen und Servern
haben bzw. die den existierenden Aufwand vermindern wollen. Mit
Web Threat Protection hat Trend Micro eine Technologie entwickelt, die den Status in Echtzeit ‘in the cloud’ überprüft.Als Datenquelle dienen verschiedenste Informationen, u. a. Domain-Reputation, IP Geolocation, Spam History. Diese
Daten werden korreliert und dem Anwender in Echtzeit zur Verfügung gestellt. Wird
eine URL als gefährlich eingestuft, werden automatisch alle Anwender unverzüglich,
ohne langwieriges Patternupdate, geschützt.“
Rainer Link, Senior Security Specialist Anti-Malware bei Trend Micro
folgungsbehörden kaum ausgeprägt und
scheitern bereits an fehlenden international
verzahnten Strukturen der Verbrechensbekämpfung“, zeichnet Matthias Malcher,
G DATA, ein düsteres Zukunftsbild.
Gibt es also keine Chance, aus der
Defensive zu kommen? „Das Bewusstsein in
puncto Sicherheit ist auch bei Software-Entwicklern oftmals nicht ausreichend geschärft,
obwohl es das sein sollte“, zeigt Harald
Philipp, Bitdefender, einen weiteren Aspekt
auf. „Im Zuge eines Umdenkens im Bereich
Sicherheit muss in Zukunft in größerem Umfang präventiv vorgegangen und bereits bei
der Programmierung eventuellen Sicherheitslücken entgegengewirkt werden.“ Zumindest die Fehler,die man selbst vermeidet,
können andere nicht bösartig ausnützen. ❏
we protect your digital worlds®
Ein neuer Weg, Viren einen Gedanken voraus zu sein
ESET® Smart Security
ESET NOD32 Antivirus
ESET NOD32 Antispyware
ESET Personal Firewall
ESET Antispam
Testen Sie jetzt
30 Tage gratis.
www.eset.at
www.eset.at
Security | Web Reputation Management
Web Reputation Management
Abwehrkonzepte sollten
keine Schönfärberei betreiben
Eine umfassend abgedichtete Reputationspflege gehört für Unternehmen
zum unverzichtbaren Bestandteil eines
Sicherheitskonzepts. Es gilt den strategischen Hebel aber an der richtigen
Stelle anzusetzen, da sich über webbasierte Anwendungen ständig neue
Schlupflöcher auftun.
Lothar Lochmaier
Laut Gartner rücken Internetanwendungen
im kommenden Jahr zur Nummer eins bei
der Verbreitung von Malware auf. Den drohenden Flächenbrand nur punktuell zu löschen, bringt einen indes kaum weiter. Gefragt sind vielmehr Konzepte, die sich wirksam in den Datenschutz und die vorhandenen IT-Sicherheitsrichtlinien integrieren lassen.
Immerhin:Der Ruf und die Glaubwürdigkeit von Unternehmen stünden auf dem
Spiel, argumentieren die Marktforscher von
Gartner. Die webbasierte Sicherheit sei endgültig zum „geschäftskritischen Faktor“ aufgestiegen,so die Auguren.Während die Malware-Architekten oftmals leichtes Spiel haben,feilen die Sicherheitsspezialisten weiterhin an wirksamen Lösungsstrategien.
Die Liste der Anbieter mit dezidierten Konzepten wie URL-Filter oder Scanreports erweitert sich fast im wöchentlichen Rhythmus.Was indes zählt,ist die rasche Reaktion,
um Eindringlinge möglichst schon an der
Eingangstüre ins Unternehmen abzufangen.
Doch ist die Umsetzung nicht leicht.Aus Sicht
der Corporate Security lauert der erste Fallstrick spätestens bei der Umsetzung von Datenschutzrichtlinien.
Zwar bekräftigen so gut wie alle Abteilungen die Tatsache,dass Diebstahl oder der Verlust von Kundendaten einen schädlichen Einfluss auf den Markenwert und den Ruf der
Organisation haben könnten.Bloß zieht diese Erkenntnis oftmals kein praktisches Handeln nach sich. Denn es fehlt an einer konsistenten Strategie, um die vielfältigen Gefahren aus der Tiefe des World Wide Webs
abzuwehren.
42
Abwehrphalanx bleibt ohne
Durchschlagskraft
Bei kleineren Unternehmen scheitert dies allein schon am fehlenden Geld oder an mangelndem Personal.Aber auch größere Unternehmen bieten unzählige Schlupflöcher.
„Web Reputation ist aber nur ein Teilaspekt
von dem, was tatsächlich getan werden
muss“,sagt Raimund Genes,CTO Anti-Malware beim Sicherheitsspezialisten Trend Micro.
Zahlreiche große Hersteller von Anti-Malware-Konzepten arbeiten an entsprechenden
umfassenden Lösungen, mitunter auch als
Unified Treat Management (UTM) bezeichnet. Bislang jedoch ohne durchschlagenden
Erfolg. Die Eindringlinge sind immer einen
Schritt voraus.
Vor allem gelangen unbekannte Systemschwächen heute nicht mehr an den Hersteller,sondern an den Meistbietenden im Internet.Folglich lässt sich ein Endgerät kaum auf
unbekannte Systemschwächen oder Schadsoftware überprüfen.
Die verstärkt auf den Plan getretenen Hersteller setzen auf mehr und vor allem schnellere Informationen über bereits gefundene
Schwachstellen. So schützt etwa ein vom Sicherheitsspezialisten Grisoft entwickelter
„LinkScanner“ vor gefährlichen Websites
und riskanten Downloads.
„Unsichere Hyperlinks und die Verwanzung seriöser Websites stellen eine der größten Bedrohungen seit dem Aufkommen der
Viren dar“, bekräftigt J.R. Smith, CEO von
Grisoft.Das Unternehmen will die integrierte Lösung LinkScanner von der kürzlich übermonitor | Special Kommunikation 4A/2008
nommenen Exploit Prevention Labs in das
AVG Anti-Virus Free einbinden. Darüber
wird ein kostenloser On-demand-Service
zum Scannen von Internetadressen direkt
auf der AVG-Website angestrebt.
Konzepte der Hersteller bislang
zu punktuell ausgerichtet
Andere Anbieter wie SecureComputing setzen vor allem auf leistungsfähige EchtzeitInformationen über neue Schwachstellen.So
stellt der Reputationsdienst TrustedSource.org
ein Frühwarnsystem dar, das in Echtzeit IPAdressen, Domains und URLs durchforstet
und bewertet.Auch Ironport hat kürzlich seine Appliances um die neue Funktionalität eines reputationsbasierten URL-Filters erweitert.
Sicherheitsanbieter NetNames wiederum
sorgt mit seinem Service „NetNames Platinum Service“ dafür, dass Unternehmen bei
der Vielzahl der Domainnamen und unterschiedlicher Regelungen den Überblick behalten sollen. Persönliche Kundenberater
unterstützen demnach das Unternehmen dabei, eine individuelle Domainstrategie aufzubauen. NetNames überwacht zudem das
Internet und informiert Firmen durch einen
wöchentlichen „Name Alert“ über neue Registrierungen, die den Markennamen enthalten. Und schließlich kann der Kunde dort
auch sinnvolle Gegenmaßnahmen einleiten
lassen. Im Kern aber stellen derartige Informationsdienste kaum eine wirkliche Neuheit
gegenüber den bereits seit Jahren erprobten
Frühinformationssystemen aus der IT-Sicherheit dar, wie etwa dem von Symantec
Optimaler Schutz
für dynamische Unternehmens-Netzwerke
herausgegebenen Alert Service
„Deep Sight Analyzer“.
Schutzsuiten dichten nur
zentrale Löcher ab
Gefragt sind also umfassende
und ganzheitlich ins Unternehmen integrierbare Schutzkonzepte.Doch trotz gradueller Fortschritte stellt sich die Frage,ob es
überhaupt ein realistisches Ziel
sein kann, die komplexe Infektionskette im Internet zu unterbrechen.Wollen die Anbieter dadurch letztlich nicht nur neue
Tools vermarkten? Den IT-Sicherheitsspezialisten bliebe dann
nur die etwas unliebsame Rolle,
in der Schlacht um den guten
Ruf des Unternehmens nicht
gänzlich unterzugehen.
Finanzielle Mittel in der betrieblichen Budget-Planung für
ein proaktiv aufgestelltes Web
Reputation Management freizumachen, stellt oftmals einen organisatorischen Drahtseilakt dar.
Aufgrund der komplexen Bedrohungsmuster gilt es die technischen Lösungen deshalb in das
gesamte Reputationsmanagement einzubinden, inklusive einer Evaluierung am gemeinsamen runden Tisch mit den zuständigen Fachabteilungen.
Gelingt die organisatorische
Verankerung nur unzureichend,
bleiben alle Bemühungen, einen
größeren Schaden vom Ruf des
Unternehmens abzuwenden,eine inhaltsleere Marketingblase.
Denn die derzeit von den Abwehrspezialisten propagierten
Lösungskonzepte allein können
die via Internet oder eigene Webanwendungen eingeschleuste
Malware kaum unschädlich machen.
„URL-Filter und Trafficscans
reichen natürlich nicht aus, um
die Reputation einer Web-Seite
zu bestimmen“, sagt Raimund
Genes. Er verweist auf Methoden,die Web Crawler austricksen
und den Nutzern beim Crawlen
eine „gute“ Seite lediglich vor-
gaukeln.„Der echte,ehrliche Anwender, der zum Beispiel mit einem deutschen Browser surft,
hat aber eine Webseite mit eingebetteter Malware zu verdauen“, betont der Experte.
Erweiterte Kriterien ins Reputationsmanagement einbinden
Derzeitige Frühwarnsysteme
sind außerdem nur auf herkömmliche Malware zugeschnitten und arbeiten hauptsächlich
signatur- und nicht verhaltensbasiert, obwohl mittlerweile jeden Monat über 400.000 Schädlinge neu in Umlauf gelangen.
Selbst wenn ein neuer Schadcode entdeckt wird, dauert es viel
zu lange, um darauf mit einer
neuen Signatur zu reagieren.Also könne sich ein umfassendes
Reputationsmanagement nicht
mehr ausschließlich auf Signaturen und auf regelmäßige Aktualisierungen des Anwenders
verlassen, sondern müsse sich
proaktiv auf neue Bedrohungen
einstellen und diesen anpassen,
regt Genes an.
Um Webseiten mit einer
schlagkräftigen Reputation zu
versehen, sollten neben URLFiltering und Trafficscans deshalb
wesentlich mehr Kriterien herangezogen werden, um die Seite zu bewerten. Hierzu gehören
etwa die Stabilität und die Registrier-Informationen zur Seite
sowie die Analyse von Malware und der darin befindlichen
URLs, um Links auf „schlechte
Seiten“ aufzuspüren. Einzubeziehen wären auch Rückmeldungen der lokalen Antimalware
Agenten bzw. Scanner.
Verändert der Besuch auf einer Webseite zum Beispiel die
Registry oder wird versucht,
automatisch Code zu starten,
kann der lokale Virenschutz bei
manchen Herstellern mittels einer „Feedback Loop“ diese Seite
zumindest als verdächtig melden.
Firmen-Netzwerke sind offener und dynamischer geworden – doch
mit Subnetzen, Laptops und Smartphones gefährdeter denn je.
Kaspersky Open Space Security schützt Firmen-Netzwerke
jeder Größe inklusive externer Mitarbeiter und mobiler User
zuverlässig – und wächst mit allen zukünftigen Anforderungen
an die Unternehmens-IT.
Endlich sind Freiheit und Flexibilität sowie optimaler
Schutz miteinander vereinbar.
Kaspersky
Open Space
Security
Š Optimaler Schutz vor Viren, Spyware und
Hackern auf allen Netzwerk-Ebenen
Š Proaktiver Schutz der Workstations
Š Schutz von Mail- und File-Servern
Š Echtzeit-Scan von Mails und Internet-Traffic
Š Flexibel skalierbar
Š Automatische Isolierung infizierter Clients
und Verhinderung von Virus-Epidemien
Š Zentrale Administration
mit umfangreichem Berichts-System
de.trendmicro.com
w w w. k a s p e r s k y. a t
Security | Authentisierung
„Starke Authentisierung“: Schonfrist definitiv vorbei
Die Sicherheit im Internet rückt auch in
Österreich immer stärker ins öffentliche
Bewusstsein. Unter anderem wird in
Fachkreisen unter dem Oberbegriff
„Identity and Access Management“ intensiv diskutiert, ob Schutzmaßnahmen
wie „Zwei-Faktor-Authentisierung“
heute noch genügen.
Urs Zurbuchen
Wenn Vertreter der IT-Security-Branche
vermehrt Sicherheit anmahnen, könnte man
das als Laie unter Umständen noch im Bereich Eigeninteresse ansiedeln. Doch wenn
sich die Meldungen in den Medien über die
Sicherheit im Internet - insbesondere beim
E-Banking und bei E-Shops - häufen, das
öffentlich Bewusstsein erwacht und sich sogar die Rechtsprechung vermehrt dem Thema annimmt, weiß man: Jetzt geht’s ans Eingemachte.
Die Kadenz der Meldungen und das Ausmaß der Bedrohung haben allein schon in
den letzen Monaten spürbar zugenommen.
Metapher bieten sich geradezu an. Manche
behaupten, das Internet als Kontakt-, Informations- und Shoppingparadies bekomme
immer mehr den Charakter eines Dschungels. Im Gegensatz zu real existierenden Urwäldern, wo Raubtiere immer mehr unter
Druck geraten, haben reißende Tiere in der
freien Internet-Wildbahn ganz offensichtlich ihre „ökologischen Nischen“ gefunden.
Es wimmelt von Phishing-Hyänen und
Malware-Schlangen.
Oder man bemüht das Vokabular der
Kriegskunst.Auf Angriff folgt Verteidigung.
Und auf eine erfolgreiche Verteidigung folgt
ein neuer, andersartiger Angriff. Diese auch
auf dem „Internet-Schlachtfeld“ zu beobachtende Dynamik, erinnert an einen Begriff aus dem kalten Krieg, den wir eigentlich alle gerne nur noch in Werken zur Zeitgeschichte lesen würden: das Wettrüsten.
Doch wohlgemerkt: Es geht nicht um Panikmache, sondern einfach darum, den Tatsachen ins Auge zu schauen und praxisorientierte Vorbeuge- und Abwehrmaßnahmen
zu entwickeln. Denn es gibt wirksame Instrumente. Entsprechendes Gewicht erhält
44
Authentisierungstrends: Woher weht der Wind?
der vielschichtige Bereich „Identity and
Access Management“ (IAM). Die grundlegende Mission des IAM ist, einen kontrollierten Zugriff auf Informationsressourcen
und Anwendungen zu ermöglichen.
Marktvolumens in Österreich von 16%.
Die springende Frage für die Entscheider:
In welche Technologien bzw. Lösungen soll
investiert werden? Oder anders gefragt:Welche Systeme genügen, und wohin geht die
Entwicklung?
Wahrnehmung in Österreich verstärkt
Online-Banking stark gefordert
IAM bzw. Identity Management wird ebenfalls in einer eben erschienenen, vom Austrian Security Forum (ASF) initiierten Studie
zum IT-Security-Markt Österreich als eines der drei wichtigsten Themen der Zukunft aufgeführt.Als Initiative mit Breitenwirkung darf auch die „Internetoffensive
Österreich“ nicht ungenannt bleiben, insbesondere der Arbeitskreis „Sicherheit und
Konsumentenschutz“.
Ohne Zweifel werden die Ausgaben für
IT-Sicherheit im Allgemeinen und für Maßnahmen gegen Phishing, d. h. E-Mail-Security und Malware im Speziellen in den
nächsten Jahren signifikant zunehmen.
Allein für 2009 rechnet die erwähnte Studie mit einem Wachstum des IT-Security
monitor | Special Kommunikation 4A/2008
Es gibt wohl kaum eine Branche, in der diese brennenden Fragen intensiver diskutiert
werden als im Finanzbereich, besonders beim
Online-Banking. Der Druck kommt von allen Seiten: Berichte über Identitätsdiebstahl
(Phishing) oder kriminelle Umleitung von
Überweisungen (z. B. mittels Trojaner) verunsichern generell die Kundschaft und fügen betroffenen Banken erheblichen Imageschaden zu - ganz zu schweigen von konkreten rechtlichen Forderungen (vermutlich ist die Dunkelziffer bei den Schadenssummen hoch). Ferner müssen Banken unter dem Stichwort „Compliance“ immer
mehr und immer strengeren nationalen, europäischen und internationalen Normen ge-
Security | Authentisierung
nügen. Da sich das Online-Banking in der
Bevölkerung zur gängigen Praxis entwickelt hat, sind die Banken gefordert, Lösungen anzubieten, die sich breit anwenden lassen. Auch hier geht es ums Abwägen - wie
eigentlich immer in der IT-Security. Die Systeme haben einfach einsetzbar und bezahlbar zu sein und ein angemessenes Maß an
Sicherheit zu bieten. Es können also keine
Maximallösungen sein, die zu teuer sind
oder die Geschäftsprozesse bzw. den Kundenkomfort behindern. Integraler Bestandteil aller Lösungen ist der Themenkomplex
„Authentisierung“ oder „starke Authentisierung“.
Begriffsvielfalt
wird, was aber irreführend sein kann, da man
auch die Drei-Faktor-Authentisierung kennt.
Die Frage der Authentisierungsstärke
Die „Stärke“ einer Authentisierung bezieht
sich auf den Grad der Sicherheit in der Identitätsfeststellung. Sie wird über spezielle Authentisierungssysteme wie Identity Management Server, Authentication Server
oder Web Application Firewall erreicht.
Starke Authentisierung ist heute im Banking ein unbestrittenes Muss.Weil sich aber
die Bedrohungslage durch die Verbreitung
von Malware verschärft hat, vertreten viele die Meinung, dass eine Zwei-Faktor-Authentisierung nicht mehr ausreicht.
In diesem Zusammenhang ist kürzlich eine Schweizer Bank dazu übergegangen, das
bisherige zweistufige Login-Verfahren durch
den Einsatz einer Chipkarte mit PIN-Code
und einem USB-Stick zu ersetzen. Der USBStick enthält einen eigens konzipierten
Browser als Alternative zum Browser, der
fest auf dem Computer des Benutzers installiert ist. Das ist immerhin eine Erhöhung
der Sicherheit, doch auch diese Lösung kann
grundsätzlich vom Angreifer, der sich be-
Mag. Urs Zurbuchen
ist Business Engineer
bei der Schweizer
United Security
Providers AG. Das
Unternehmen ist auch
in Österreich aktiv und
offen für Partnerschaften.
www.united-security-providers.ch
reits im Computer eingenistet hat, umgangen werden. Das Grundproblem liegt in der
Natur der Malware, das an zwei Fronten angreift:
Einerseits werden via E-Mail Sicherheitslücken auf Betriebssystem- oder Applikationsebene genutzt, um infizierte Attachements oder Links zu präparierten Webseiten auf dem Kundenrechner einzunisten.
Andererseits zielt die Malware auf den
Browser. Dabei verändern Angreifer Kontonummer, Empfängername und Betrag
noch bevor die eigentlichen Transaktionsangaben des Benutzers verschlüsselt an die
Bank gelangen. Selbst die Bestätigung der
Bank wird mit der Malware abgefangen und
im Browser manipuliert angezeigt.
Wie so oft werden auch hier die Begriffe
nicht immer einheitlich verwendet. Es wird
von Authentisierung, Authentifizierung
oder gar Authentikation gesprochen. Für
manche Fachleute haben die Begriffe sehr
wohl unterschiedliche Bedeutungen. Streng
genommen verwenden sie die Authentisierung als Vorlage eines Nachweises zur Identifikation und die Authentifizierung als
Überprüfung dieses Nachweises. Glücklich
sind da die Englischsprachigen: In ihrer Sprache kennt
man keine Unterscheidung,
man spricht einfach von „authentication“ oder eben
„strong authentication“.
Der weit verbreiteten Praxis entsprechend wird an dieser Stelle der Begriff Authentisierung im weitesten Sinne
als Verifikation der Identität
einer Person (oder eines Objekts) eingesetzt. Die methodischen Grundlagen der AuWIR SORGEN FÜR SICHERHEIT
thentisierung sind allgemein
bekannt und bewegen sich in
den Bereichen Wissen (das
Ein Stromausfall oder Schwankungen in der Netzversorgung
Subjekt weiß etwas, z. B. ein
können zu Systemstörungen, Datenverlusten oder zu noch
Passwort), Besitz (das Subjekt
schlimmeren Schäden führen. Die einfachste und effektivste
Möglichkeit diese Störungen zu vermeiden, ist der Einsatz eihat etwas, z. B. einen Schlüsner USV-Anlage (Unterbrechungsfreie Stromversorgung). Wir
sel) und Biometrie (das Subgewährleisten mit USV-Anlagen von Aros Ihre sichere Stromjekt bzw. eines seiner Merkversorgung. Jetzt neu: Sentinel XR 3,3 – 10kVA als Stand- oder
male ist anwesend, z. B. Fin19’’Zoll Gerät einsetzbar. Weil Systemwissen entscheidet.
gerabdruck). Bei einer Kombination von zwei Methoden
spricht man von Zwei-FaktorA-1230 Wien, Kolpingstraße 15 Tel.: (01) 6162180-23
Authentisierung, was zum
Fax: (01) 6162180-99 E-Mail: [email protected]
Teil auch mit „starker Auwww.schmachtl.at/usv
thentisierung“ gleichgesetzt
monitor | Special Kommunikation 4A/2008
Neue Wege gehen
Da sich diese Trojaner weder durch
SSL-Verschlüsselung noch durch
starke Authentisierung blockieren
lassen, verfolgt die Transaktionsverifikation einen anderen Ansatz.
Vereinfacht ausgedrückt werden
dabei dem Benutzer sensible Transaktionen über ein zweites, unabhängiges Medium vorgelegt. Das
kann (kostengünstig) über das Mobile Phone mittels SMS oder über
ein spezielles Stand-alone Token
geschehen.
Abgesehen von konkreten
Systemevaluationen müssen heute Banken und E-Commerce-Anwender wie E-Shops beim Thema
Authentisierung Grundsätzliches
berücksichtigen. Zum Beispiel die
Entwicklung umfassender, in die
übergeordneten Security-Richtlinien eingeordnete IAM-Konzepte
sowie Web Application Server, die
eine offene Basis bieten für neue
Wege wie die Transaktionsverifi❏
kation.
45
Security | Veranstaltung
RSA Conference 2008:
IT zwischen Datenschutz und Datensicherheit
Die RSA Conference gilt im SecurityBereich als Pflichtveranstaltung. Vom
8. bis 10. April trafen sich IT-SecurityExperten aus aller Welt in San
Francisco, um sich über die neuesten
Sicherheitstrends und Gefahrenszenarien in der IT zu informieren
und darüber auszutauschen.
Klaus Lorbeer
Die Liste der Vortragenden auf der RSAKonferenz liest sich wie ein Who’s who der
IT-Security-Branche und reicht von Craig
Mundie, Chief Research and Strategy Officer von Microsoft und John W. Thompson,
CEO von Symantec über die IT-Gurus Hugh
Thompson und Bruce Schneier bis hin zum
Erfolgsbuchautor Malcom Gladwell („Blink!
Die Macht des Moments“ und „Der Tipping
Point.Wie kleine Dinge Großes bewirken“).
Mehr als Publikumsmagnet denn als Security-Experte referierte selbst der ehemalige
US-Vizepräsident Al Gore auf der RSA allerdings weniger über sichere als über umweltschonende Technologien.
Neben den einzelnen Lösungen, die die
350 Aussteller in der Messehalle zeigten,
ging es im Moscone-Center in San Francisco vor allem um neue Gefahrenpotenziale
und Security-Trends. Tatsächlich hat sich
das Bedrohungsszenario verändert, ist Paul
Stamp,Analyst bei dem Marktforschungsunternehmen Forrester Research, überzeugt.
So hätten sich die Unternehmen noch nicht
mit entsprechenden Sicherheitsrichtlinien
auf die neuen Gefahren eingestellt, die die
stetig zunehmenden mobilen Einsatzszenarien mit Notebooks, BlackBerrys und Smartphones mit sich brächten.
Eine Erkenntnis, die auch in Österreich
Gültigkeit hat, wie die im April veröffentlichte Studie „IT-Security in Österreich
2008“ des Austrian Security Forum (durchgeführt von TechConsult) zeigt. Demnach
haben bloß 49% der Unternehmen dedizierte Sicherheitsrichtlinien für mobile IT,
bei allgemeinen IT-Security-Policys liegt der
46
Einsatzgrad bei 72%. Zudem machen Security-Maßnahmen 7-8% des IT-Budget aus,
weiß Stamp, wobei die Budgets zumindest
in den USA oft zurückgehen. Das heißt ITSecurity-Verantwortliche stehen vor der
Herausforderung, mit weniger Geld mehr
erreichen zu müssen.
Dabei sollte heute das Hauptaugenmerk
weniger auf den Schutz der IT-Infrastruktur gerichtet werden, so Stamp, sondern auf
den Schutz der Daten und Vorbeugung vor
Datenverlust. Im Falle eines Falles muss die
schnelle Wiederherstellung der Daten möglich sein.
Der Buchautor
Malcolm Gladwell
hielt einen packenden
Vortrag darüber, wie
man zur richtigen
Entscheidung findet.
Microsoft ruft Industrie zum Dialog
Microsofts Bereichsleiter für Forschung und
Strategie, Craig Mundie, nutzte die RSAKonferenz um anstelle einer sonst üblichen
neuen Strategieankündigung zum branchenweiten Dialog der IT-Hersteller aufzurufen. Das von Mundie angestrebte Ziel
heißt „End-to-end-Trust“ und bezeichnet
eine vertrauenswürdige Kommunikation
im Internet. Dazu sind laut Mundie drei Forderungen zu erfüllen:
. Die Entwicklung einer sicheren Kette, in
monitor | Special Kommunikation 4A/2008
der jedes Glied authentifiziert werden kann
und vertrauenswürdig ist - angefangen
vom Betriebssystem über Anwendungen
bis hin zu Menschen und Daten.
. Ein System, das es Anwendern erlaubt,
weitgehend über den Grad ihres Identitätsnachweises zu bestimmen, während
gleichzeitig die Authentifizierungs-,Autorisierungs- und Zugriffsvorgänge gewahrt
werden.
. Eine engere Zusammenarbeit aller Beteiligten in technischer, politischer, sozialer
und wirtschaftlicher Hinsicht, um zügige
Fortschritte zu erzielen, die zur Erreichung
der „End-to-end-Trust“-Vision führen.
Eine genaue Beschreibung der End-to-endTrust-Initiative hat Microsoft in einem
White Paper niedergelegt, das unter www.
microsoft.com/endtoendtrust zum Download
bereitsteht. Die Zeit für diesen Dialog ist
reif, meint auch der Verfasser des Weißpapiers Scott Charney, Bereichsleiter Trustworthy Computing bei Microsoft. So sind
wichtige Technologien wie die Public Key
Infrastructure (PKI) oder SmartCards bereit für einen breiten Einsatz. Es sei jetzt
möglich, glaubt Charney, die Sicherheit zu
erhöhen und dabei gleichzeitig den Schutz
der persönlichen Daten zu verstärken. So
muss nicht immer der ganze Name als Identitätsnachweis gefordert sein, manchmal reiche auch die Angabe von Alter oder Staatsbürgerschaft, erklärt Charney.
Neben der End-to-end-Trust-Initiative
setzt Microsoft für ihre Kunden auf eine integrierte Lösung und stellte in San Francisco die Beta-Version ihrer Managementkon-
Wien hat das Mehr.
Für JEDE von uns
erin? Wir Produktitronikrenommiertes
Mechagroßes,
wir
im Netz, wmitie Auftragsferschauenonsunternehmen
tigung für Sondermaschinenbau
. AUFönnenWiens.
das mitwerSitzdenim kSüden
ORACLE ENTWICKLER (M/W).
Wir suchen zum nächstmöglichen
Zeitpunkt für den Dienstort Wien
einen ORACLE Software-Entwickler (m/w). Projektlaufzeit: 9
Monate (die ersten 3 Monate in
Wien vor Ort, danach 6 Monate
über Home Office möglich).
Folgende fachliche Voraussetzungen sollten Sie mitbringen:
PL/SQL, Oracle 10g (oder 9i),
Kenntnisse von ERP-Systemen
(Lagerwirtschaft oder Finanztransaktionen oder Warenwirtschaft), Umgebung ORACLE EBusiness Suite.
Wir bieten Ihnen: Karrieremöglichkeiten in einem innovativen und
dynamischen Umfeld bei Österreichs größtem unabhängigen
Technologie-Dienstleister, strategische Aus- und Weiterbildung
sowie Persönlichkeitsentwicklung
in unserer hauseigenen BEKOAkademie. Wir freuen uns auf Ihre Bewerbung! Tel.: 555 83 26,
Kennwort: „Karrieresprung“.
GABE: Projektierung und Konstruktion von Maschinen und Anlagen, Mitarbeit bei der Angebotserstellung, Aufgaben im Engineering von Maschinen und
Anlagen, internationales Projektmanagement, Erarbeitung von
Lösungen für Spezialanwendungen, internationale, Kundenbetreuung.
STAHLBAUKONSTRUKTEURIN
FÜR DIE PLANUNG VON STIEGEN, PODESTEN, HANDLÄUFEN UND ALU-GLASKONSTRUKTIONEN MIT CA. 2 JAHREN
ERFAHRUNG. WEITERS SOLLTEN SIE EIN GÄNGIGES CADSYSTEM WIE AUTOCAD BEHERRSCHEN.
WIR BIETEN EINE INTERESSANTE, VIELSEITIGE ENTWICKLERTÄTIGKEIT MIT LAUFENDER
WEITERBILDUNG SOWIE LEISTUNGSORIENTIERTE BEZAHLUNG. TEL.: 555 77 84, KENNWORT: „ENTWICKLUNG“.
Weiterbildung
ne
SYSTEMADMIli
n
o
s
fo
In
d
n
u
NISTRATOR
(M/W)
IT-EXPERTIN: Wir suchen
Frauen, die
mitServer
Server,
User,
Microsoft
SQL
und
InN e t z we r k i nDienstort:
f r a s t r u kWien.
t u r,
frastruktur.
Router auf du und
du sind.
Aufgabengebiet:
Administration
Karrierechancen
sind vorund
Betrieb der Microsoft
SQL
programmiert.
2005 Cluster, Analyse, Konzepti-
Mechatronikerin:
VERKAUFSORIENTIERTE/-N
Drehen,
Fräsen,
Programmieren,
TECHNIKER/-IN
ZUM AUFBAU
Steuerungen
bauen und MaDER SERVICEABTEILUNG
im
schinen
reparieren
ist dein
Bereich Lüftung
und Klimatechnik
Hobby?
Dann und
mach
einen
(Gebäudetechnik
Industrie).
Beruf
daraus.
Ihr Aufgabengebiet
umfasst den
on und Wartung der Microsoft selbstständigen Aufbau der SerServerumgebung, Sicherstellung viceabteilung und demgemäß die
des täglichen Betriebs.
Betreuung von bestehenden und
rger
tin Sand ra Frau
Anforderungen:
Aus-enbeNeukunden,
entsprechend dem
Frau enst adträTechnische
bildung (HTL oder FH), umfangrei- aktuellen Stand der Technik teilche Erfahrung in den Bereichen weise vor Ort und die Perspektive
Windows 2000/2003 Server, Ex- zum/-r zukünftigen LeiterIn der
change Server, Active Directory, Abteilung. Wir erwarten: TechniWindows-Cluster und Microsoft sche Ausbildung mit SchwerSQL Server 2005, Microsoft Share- punkt Klima und Lüftung, einpoint und Kenntnisse im Bereich schlägige Berufserfahrung im
Citrix Presentation Server von Vor- Kontext Service und Wartung,
teil, hohe Teamorientierung, Kom- fundiertes kaufmännisches Wismunikationsfähigkeit. Wir freuen sen, Leistungsbereitschaft, ausuns über Ihre Bewerbung! Tel.: geprägte Kunden- und Service555 36 26, Kennwort: „Zukunft“
orientierung, hohes Engagement
und Gestaltungskreativität, FlexiKONSTRUKTEUR MECHANI- bilität im Denken und Handeln,
SCHES ENGINEERING (M/W). Stressresistenz und Organisati-
onstalent. Wir bieten für geeignete KandidatInnen eine Position
mit
Gestaltungsmöglichkeiten
und persönlichem Spielraum mit
Karrierechancen im Umfeld eines
Global Players. Tel.: 555 12 3378, Kennwort:Au
„Karriere“.
tom
technik in Wien-Simmering – sucht
zum ehesten Eintritt eine/-n
Sprungbrett in
ungewöh
KFZTECHNIKER/-IN
nlichen Job!
für die Montage von Staplerfahr-
echanikerin! Super,
genau das, was ich
verfügen
Sie
gesucht hab. Worauf ich zeugen. Idealerweise
bei
dereine
Bewabgeschlossene
erbung achten Lehre
ELEKTROMECHANIKER/MEüber
muss, weiß ich dank
unKfz-Techniker,
gbrett. Die heleinige
CHATRONIKER
Wir be- Sprals
Befen miJahre
r
auch,(W/M).
wenn es
mit dieser Lehrstelle
geistern unsere
Kunden
und
baurufspraxis
undnic
elektrische
ht klappt. GrundSprungbrett: Telefo
789 45 45 Wir bieten einen langen eine bessere
Dabei le-n 01/
kenntnisse.
wwZukunft.
w.sprungb
rett.o
ben wir unsere Werte: Integrität,r.at fristigen Arbeitsplatz mit guten Ver-
Mut zur Veränderung, Teamarbeit
und hohes Engagement. Für den
Profi am Bau bieten wir innovative Lösungen mit überlegenem
Mehrwert. Und dies in 120 Ländern.
Ihre Verantwortung: Reparatur
von Hilti-Geräten im Innendienst,
Ausführung von Serviceleistungen gemäß den Hilti-Qualitätsvorgaben. Ihr Profil: Ausbildung
als MechanikerIn, ElektromechanikerIn bzw. MechatronikerIn, Erfahrung in der Reparatur von elektromechanischen Anlagen, Geräten oder Baugruppen, sehr gute
PC-Kenntnisse und idealerweise
SAP-Erfahrung, engagierte, flexible und teamfähige Persönlichkeit, die in jeder Situation den
Überblick behält. Wir freuen uns
auf Ihre Bewerbung. Tel.: 555 70
33-22, Kennwort: „Elektro“.
Da mussh
ich mic gt
unbedin !!
bewerben!
dienstmöglichkeiten. Wir freuen
Automechanikerin:
uns auf Ihre Bewerbung!SchrauTel.: 555
benschlüssel
und Hebebühne
25 89-7898, Chiffre:
413 88.
sind keine Fremdworte für
dich?
Dann bist du REIFENbei uns
KFZ-MECHANIKER,
richtig!
Wir(M/W).
suchenPersönliche
Mädchen,
MONTEUR
die
den Mut haben,
einen unAnforderungen:
teamfähig,
betypischen
Beruf zuReisebereitergreifen.
lastbar, flexibel;
schaft; Stellenbeschreibung:
Reifenmontieren, Erfahrung mit
Lkw-Reifen von Vorteil, sehr gute
Verdienstmöglichkeiten, Vollzeit
(Saisonjob), Unterkunft wird zur
Verfügung gestellt. Wir bieten Ihnen: Wenn Sie an dieser attraktiven Position in einem renommierten Unternehmen interessiert
sind, übermitteln Sie uns Ihre
Bewerbungsunterlagen mit tabellarischem Lebenslauf und Gehaltsvorstellungen vorzugsweise
per E-Mail. Tel.: 555 32 75-222,
Kennwort: „MechanikerIn“.
TRAINERINNEN
TRAFFIC MANAGER/-IN. In dieser Position übernehmen Sie
in den Bereichen Berufsorien- nach einer Einschulung schritttierung, Aktivierung und Einzel- weise die Einbuchung von Onlinecoaching. Unser Unternehmen ist Kampagnen in unser Admanageein renommierter Schulungsan- ment-System. Sie sind in ein enbieter im Bereich Arbeitsmarkt- gagiertes Team eingebunden.
und Beschäftigungspolitik. Ihre Ihre Aufgaben: Disposition von
Aufgaben:
selbstständiges Online-Werbekampagnen in das
Durchführen von vermittlungsori- Admanagement-System, Monitoentierten Trainings, Outplace- ring von Online-Werbekampagment, TeilnehmerInnenadministra- nen, Erstellen kampagnenbe343 Seiten im han
tion. Ihr Profil: Berufserfahrung
zogener
Redlichen
als TrainerIn in der Tas
ErwachsenenBetreuchenformatports,
mit den
bildung, TrainerInnenCoa- Anl
ung
von
wicoder
htigsten
aufstellen
chingausbildung (zusätzliche
AusOnline-Werbezu Job, We
iterbildung und
bildung im SozialWirt-r. trägern.
vielbzw.
em meh
schaftsbereich erwünscht), gute Ihr Profil: AffiniEDV-Kenntnisse. Tel.: 555 40 33- tät zum Medium
12, Kennwort: „Trainieren“.
Internet, Affinität
zu Werbung, BeUnser Kunde – ein nahmhaftes Un- r u f s e r f a h r u n g
ternehmen im Bereich der Förder- wünschenswert. Unser Angebot:
WERBUNG – PID-Wien
Hdab ich in Bildungskompass
Sofort bestellen.
Mehr Chancen geelrerSnchule
Tel. 01/4000-83518
t
!
n
e
u
für Fra
Gratis!!
Foto: Pertramer; Illustrationen: Tim Maresch
– südlich
STELLENGESUCHE ITSondermaschinenbau
in,
von
Wien.
ExxpertUNTERNEHMEN:
-E
pandierendes, führendes, mittel-
Security | Veranstaltung
sole Stirling für die Forefront-Sicherheitslösung zum Download zur Verfügung. Dank
Stirling (=Codename) sollen sich jetzt Antiviren- und Antispam-Anwendungen, Messaging-Server, Firewalls und Security-Gateways mit einer einheitlichen Oberfläche konfigurieren und überwachen lassen. Bisher
hatten die einzelnen Forefront-Produkte eine jeweils eigene Oberfläche oder werden
über die Microsoft Management Console
konfiguriert und verwaltet.
Im Privatanwenderbereich hat Microsoft
ihren auch in Österreich verfügbaren
Online-Dienst Windows Live OneCare
(http://onecare.live.com) zur Bekämpfung von
Schadsoftware ausgebaut. Mit dieser Lösung
konkurriere man weniger mit bekannten
Anbietern von Antivirus-Software, sondern
„gegen Anwender, die nicht hinreichend vor
Schadsoftware geschützt sind“, sagt Amy
Barzdukas,Senior Director von Windows Live OneCare bei Microsoft. Immerhin verwendeten 60% der Privatanwender keine
oder veraltete Antivirus-Software, berichtet
Barzdukas. Da sei das bedienungseinfache
OneCare eine gute Lösung. Zudem machen
neue Funktionen wie monatliche Berichte
und proaktive Aktionen OneCare transparenter und leistungsfähiger. Eine zentralisierte Backup-Möglichkeit für alle PCs, die
dasselbe OneCare-Abonnement haben sowie ein neues online Photo-Backup runden
das Angebot ab.
Last but not least hat Microsoft auch die
Beta 1 des Internet Explorer 8 zum Download zur Verfügung gestellt. Der IE8 soll sich
durch Einhaltung der vom World Wide Web
Consortium (W3C) vorgegebenen Standards
auszeichnen. Beispielsweise hat der IE8 den
Acid2-Test (eine Testsite zur Überprüfung
der Standard-Kompatibilität) korrekt absolviert. Der gehobene Sicherheitsanspruch
beim IE8 zeigt sich auch daran, dass Micro-
soft den Hackerschutz DEP/NX (Data
Execution Protection/No Execute) standardmäßig einschaltet. Beim IE7 war DEO/NX
zwar auch schon vorhanden, aber aus Kompatibilitätsgründen mit einigen Add-ons von
Haus aus ausgeschaltet gewesen.
Der Security-Guru
Bruce Schneier ging
diesmal der
psychologischen
Seite der
Sicherheit nach.
Die Psychologie der Sicherheit
Bruce Schneier, CTO bei BT Counterpane,
ist Autor von mehreren Security- und Verschlüsselungsbüchern und Verfasser eines
vielgelesenen Blogs sowie Security-Newsletters. Darüber hinaus hat er als gern gehörter Redner quasi ein Dauerabo bei den RSAKonferenz-Referenten. In seinen diesjährigen Sessions wandte er sich weniger der
Technik als der Psychologie zu, ein Aspekt,
der gerade im Security-Bereich nicht vernachlässigt werden darf.
Schneier unterscheidet zwischen reeller
und gefühlter Sicherheit - zwei Dinge, die
oft genug grundverschieden seien. Schneier:
„Man kann sich sicher fühlen, obgleich man
RSA und RSA-Konferenz im Überblick
Der Name RSA geht auf das 1977 von Ron
Rivest,Adi Shamir und Len Adlemann am
MIT (Massachusetts Institute of Technology) erfundene asymmterische Kryptosystem zurück, das einerseits für Verschlüsselung von Daten als auch zur digitalen
Signatur verwendet werden kann. RSA
sind die Anfangsbuchstaben der Nachnamen der Erfinder, die auch das Unterneh-
48
men RSA Security gründeten. Dieses veranstaltete 1991 die erste RSA-Konferenz.
Seit 2006 ist RSA Security eine Tochtergesellschaft von EMC.
Die RSA-Konferenz wird jährlich in den
USA, Europa und Japan abgehalten. Die
europäische Konferenz findet vom 27. bis
29. Oktober in London statt.
www.rsaconference.com
monitor | Special Kommunikation 4A/2008
es nicht ist. Man kann aber auch sicher sein,
ohne sich sicher zu fühlen.“ Das Problem
dabei ist, dass ein Wort zwei Erlebniszustände beschreibt. Schneier interessiert nun,
wann diese Konzepte konvergieren und
wann sie divergieren und was passiert, wenn
sie konvergieren - also wie wir über Sicherheit denken.
Als Beispiel wo reelle und gefühlte Sicherheit divergieren nennt Schneier die Luftfahrt. Viele Leute haben mehr Angst vorm
Fliegen als vorm Autofahren, obgleich das
Autofahren sehr viel unsicherer ist. Umgekehrt ist die Einschätzung der Verbrechensrate ein Beispiel, wo gefühlte und tatsächliche Sicherheit konvergieren. Schneier: „Anrainer wissen normalerweise ganz gut Bescheid darüber, wie sicher das eigene Viertel
ist.“
Ein Grund, warum die Einschätzung der
Verbrechensrate (die „gefühlte“ Rate) im
Wohnviertel mit der tatsächlichen Verbrechensrate konvergiert,nicht aber bei der Einschätzung von Terroranschlägen im Flugwesen, ist, dass es im letztgenannten Fall
nicht genügend Ereignisse gibt, um unsere
Sicht der Dinge zu schärfen.
Craig Mundie nutzte
die RSA Conference,
um die End-to-EndTrust-Initiative vorzustellen.
Im Unternehmen ist dieser Unterschied
zwischen gefühlter und reeller Bedrohung
sehr wichtig. IT-Security-Verantwortliche
könnten ein Lied davon singen, meint
Schneier. Sie wissen, dass es sehr schwer ist,
die subjektiven Sichtweisen der Menschen
zu ändern.Wie überzeugt man seinen Boss
von einer realen Bedrohung.
Oder wie sagt man seinem Boss, dass die
Gefahr,die er für so schrecklich hält,gar nicht
so schrecklich ist. Schneier: „Wie überzeugt
man die Mitarbeiter,dass manche Bedrohungen sehr gefährlich sind und manche weniger.Jeder,der mit Security zu tun hat,muss
mit individuellen Einschätzungen seitens der
Mitarbeiter umgehen lernen.“ Letztlich bekommt ein IT-Mann nur Unterstützung von
den Unternehmensmitarbeitern, wenn sie
glauben, dass er etwas Sinnvolles macht. ❏
maupi.com
Ich will das Original
mit allen Fakten
in der Hand haben!
IT-B
US
INE
SS
IN
IT-BUSINESS IN ÖSTERREICH 2008
Dat
un en,
d zu Fa
m kten
IT-S un
tand d Tr
ort ends
Öst zu
erre r ös
ich terre
ÖS
TE
R
ich RE
isch IC
en
H
IT-W 2
irtsc00
ha 8
ft
Daten, Fakten und Trends zur österreichischen IT-Wirtschaft
und zum IT-Standort Österreich
Der Jahres-Gesamtüberblick mit den wichtigsten Fakten und Trends im IT-Sektor.
Exklusiv mit den top-aktuellen IDC-Daten!
Die siebte Ausgabe des Standardwerks bietet viel Neues:
Cover, Layout, Grafik, bessere Übersichtlichkeit, erweiterter Bundesländer-Teil u. v. m.
Das Buch, das keine Fragen offen lässt.
Bestellen Sie jetzt „IT-Business in Österreich 2008“ zum Preis von € 25,und erhalten Sie auf Wunsch ein Halbjahresabo des MONITOR gratis dazu.
MONITOR – immer bestens informiert!
IT-BUSINESS
IN ÖSTERREICH
2008
Daten, Fakten
und Trends zur
österreichischen
und zum IT-Standort
IT-Wirtschaft
Österreich
Bohmann Druck und Verlag GmbH & Co KG, Leberstraße 122, 1110 Wien. [email protected], www.monitor.co.at/itbuch,Tel. +43 (0)1 740 95 - 410
Security | Data Leakage Prevention
Data Leakage Prevention:
Hier bestimmt der Computer,
was vertraulich ist
Richteten die IT-Administratoren im Unternehmensbereich ihr Augenmerk bislang
hauptsächlich auf Sicherheitsprobleme durch externe Angreifer, so gewinnen in
letzter Zeit auch firmeninterne Vorfälle an Bedeutung. Dabei handelt es sich sowohl
um Datenverluste aufgrund von fahrlässigen, aber nicht mutwilligen Aktionen von
unbescholtenen Mitarbeitern, als auch um mutwilligen Diebstahl vertraulicher Daten durch kriminelle Mitarbeiter.
Michael Alfred Schmidt
In einer US-Studie aus dem Jahr 2006 [1]
gaben 78% der befragten Firmen an, bereits
Datensicherheitsvorfälle bedingt durch autorisierte Innentäter im eigenen Unternehmen erlitten zu haben. Sowohl in den USA,
wo Datensicherheitsvorfälle bekannter Firmen schnell eine verheerende öffentliche
Reaktion hervorrufen können, als auch in
Europa gewinnt daher eine neue Produktkategorie im Bereich Datensicherheit an Bedeutung: „Content Monitoring & Filtering“
(CMF)-Produkte richten sich gegen den Verlust vertraulicher Daten durch Innentäter;
der Begriff „Data Leakage Prevention“ (auch
„Data Loss Prevention“, DLP) ist als
Synonym zu CMF ebenso im Gebrauch. In
diesem Beitrag wird im Folgenden nur noch
der Begriff DLP verwendet.
Leider lassen sich die klassischen Mechanismen der Datensicherheit nicht einfach
unverändert auf die neuen Anforderungen
im Bereich DLP übertragen: Schützt man
sich gegen Angriffe von außen im Wesentlichen durch die klassischen Mechanismen
Zugriffskontrolle und Verschlüsselung, so
ist mit diesen Mechanismen alleine kein
praktikabler Schutz gegen den Verlust vertraulicher Daten durch Interne möglich. Es
gibt einfach genügend legitime Gründe, wieso ein loyaler Mitarbeiter ein Dokumente
aus der gesicherten Domäne heraus auf ein
Medium unter seiner Kontrolle oder ein Ziel
im Internet kopieren möchte wie beispielsweise die Kopie einer Präsentation auf einen USB-Stick zur Vorstellung beim Kunden oder auch der Versand eines Dokumentes auf das private E-Mail-Konto zur weiteren Bearbeitung von Zuhause. Bei diesen
50
Dokumenten kann es sich sowohl um nicht
vertrauliche als auch um vertrauliche Dokumente handeln. Ein generelles Unterbinden der Kopieroperation behinderte die Arbeitsabläufe unnötig, und stieße ebenso auf
mangelnde Akzeptanz durch die Mitarbeiter.
Viel praktikabler wäre es doch, Datensicherheitsmaßnahmen nur dann einzufordern oder durchzusetzen, wenn es sich wirklich um ein vertrauliches Dokument handelte. Damit würden erst einmal alle Anwender entlastet, die sich prinzipiell nur mit
nicht vertraulichen Dokumenten beschäftigen. Anwender, die sich gelegentlich mit
vertraulichen Dokumenten beschäftigen,
könnten ihr Bewusstsein dafür schärfen,
welche Dokumente wirklich vertraulich sind,
und welche Maßnahmen diese Klassifizierung nach sich zieht. Für Anwender, die routinemäßig mit vertraulichen Dokumenten
arbeiten, würde sich normalerweise nichts
ändern, da sie ohnehin mit den entsprechenden Sicherheitsmaßnahmen vertraut sind.
Es sei denn, ihre Absichten wären unlauter.
Dann würden sie durch die entsprechenden
Maßnahmen gestoppt (Zugriffskontrolle)
oder zumindest gehindert.
Architekturen
Man kann bei den sich auf dem Markt befindlichen DLP-Systemen im Wesentlichen
zwischen zwei Architekturen unterscheiden:
Serverbasierte Architekturen setzen zwingend den Einsatz einer (oder mehrer) Rechner in der Serverdomäne voraus, und fühmonitor | Special Kommunikation 4A/2008
ren ihre Überwachungsfunktionalität großteils oder ausschließlich innerhalb dieser Domäne durch. Sie erfordern typischerweise
den Einsatz individueller Proxys für HTTP,
FTP und E-Mail (SMTP, IMAP)-Verkehr
zur Überwachung des ausgehenden Netzwerkverkehrs über die entsprechenden Protokolle. Diese dezidierten Proxys erlauben
eine effiziente Überwachung auch bei hohem Datenaufkommen und ermöglichen es
durch Ihre Store-and-Forward-Architektur,
jedes zu inspizierende Datenelement so lange zu blockieren, bis auch zeitraubende
Überprüfungen durchgeführt worden sind.
Aus Performance- und Sicherheitsgründen
sind sie typischerweise auf dezidierten
UNIX- Apliances implementiert. (Abbildung 1 zeigt den typischen Aufbau eines
serverbasierten DLP-Systems.)
Rein serverbasierte Architekturen besitzen den Vorteil, dass sie keine Installationen
auf den Endpoints erfordern. Das verringert
den logistischen Aufwand, und vermeidet
Security | Data Leakage Prevention
Organisatorische Lösungen waren gestern:
Data Leak Prevention ist heute
PROMOTION
Data Leak Prevention Lösungen helfen, den Verlust kritischer Daten zu vermeiden.
Vertrauliche Daten müssen zuverlässig innerhalb des eigenen Unternehmens bleiben, da
in falschen Händen großer wirtschaftlicher
Schaden entstehen kann.Dabei die Übersicht
zu bewahren,ist nicht immer einfach.Es gibt
jetzt erstmals technische Möglichkeiten,sich
gegen den Verlust kritischer Daten zu schützen. Bacher Systems zeigt, wie Sie Ihre sensiblen Daten sicher innerhalb der von Ihnen
festgelegten Grenzen halten können.
Netzwerk hinaus und erstreckt sich unter anderem bis hin zu Wechseldatenträger. Aber
auch ausgedruckte Inhalte stellen ein Risiko
dar - oder die Autofill-Funktion für Empfängeradressen in E-Mail-Programmen,mit der
sehr schnell eine Nachricht unabsichtlich an
den falschen Adressaten versenden werden
kann.Mit einer Data Loss Prevention-Lösung
kann diese Art des Datenverlustes verhindert
werden.
Unverwechselbarer Fingerabdruck
Umfassende Klassifizierung
Heute verfügen IT-Verantwortliche über ausgefeilte technische Möglichkeiten,um sensible Daten eines Unternehmens zuverlässig
zu schützen.Diese von Bacher Systems empfohlenen hochintelligenten Systeme erstellen unverwechselbare Fingerabdrücke der
schützenswerten Daten.
Damit so ein System effektiv arbeiten kann,
bedarf es einer Klassifizierung der Daten. In
einer frühen Phase muss festgelegt werden,
welche Daten wie sensibel sind und wo sie liegen.Wenn die Daten einmal klassifiziert sind,
ist später irrelevant, wo sie liegen und auch
über welche Zeitdauer.
Unterschätzte Gefahren
Regelwerk erstellen
In einem Netzwerk werden permanent
Informationen über E-Mail, Instant Messaging und gemeinsam genutzte Dateien ausgetauscht. Die Gefahr geht jedoch über das
Zusätzlich wird ein Regelwerk festgelegt,wer
welche Daten „bewegen“ darf und welche
Maßnahme abgeleitet wird.Damit ist sichergestellt, dass unternehmenskritische Daten
Kompatibilitätsprobleme mit anderen, „kritischen“ Client-Applikationen, wie Virenscannern. Diesem Vorteil steht jedoch der
Nachteil gegenüber, dass der Export vertraulicher Daten auf dem Endpoint nicht überwacht werden kann. Inwieweit dieser Nachteil durch administrative Maßnahmen, wie
der Deaktivierung oder Blockade jeglicher
Geräte mit externen Datenträgern sowie aller Netzwerkschnittstellen durch Betriebssystemmittel kompensiert werden kann,
hängt vom Einzelfall ab. Bei portablen Geräten ist dies meist schwierig bis unmöglich.
Endpointbasierte Architekturen führen ihre Überwachungsfunktionalität auf den Endpoints aus. Der Server hat hier typischerweise die Aufgaben zentrale Administration, Policy-Verteilung, Speicherung der gemeldeten Log Events und (bei manchen Produkten) Unterstützung der Überwachungsfunktionalität der Endpoints. Letzteres setzt
natürlich eine permanente Netzwerk-Verbindung zwischen Server und Endpoints
voraus (Abbildung 2 zeigt den typischen
Aufbau eines endpointbasierten DLP-
Systems.). Endpointbasierte Architekturen
besitzen den Vorteil, dass sich mit ihnen (bei
entsprechend vollständiger Implementierung) praktisch jeder Datenexport auf externe Medien, Netzwerkziele sowie über
drahtgebundene und drahtlose Schnittstellen verbundene Geräte überwachen lässt.
Das umfasst z. B. Kopieroperationen von
Dateien auf USB Sticks, Versand von
E-Mails im Internet-Cafe über Wireless
LAN, Export von Fotodateien über Bluetooth etc. Als Nachteile sind die Notwendigkeit der Installation eines DLP Agents
auf jedem Endpoint sowie die technische
Herausforderung für den Hersteller, einen
leiststungsfähigen Agenten zu implementieren, der möglichst alle vorhandenen
Exportkanäle abdichtet, aufzuführen. Letzteres ist gemessen an den Produkten, die sich
derzeit auf dem Markt befinden, nicht zu
unterschätzen.
Konzepte und Algorithmen
Doch wie führen nun diese Produkte die
monitor | Special Kommunikation 4A/2008
auch wirklich im Unternehmen bleiben und
nicht durch Unachtsamkeit oder böse Absicht
in falsche Hände gelangen.
Bacher Systems EDV GmbH
Clemens-Holzmeister-Straße 4
1100 Wien
Tel.: 01-601 26-0
www.bacher.at
Klassifizierung des Inhalts eines zu überprüfenden Dokumentes durch? Im Wesentlichen kommen hierbei drei Konzepte zum
Einsatz:
. Das zu analysierende Dokument wird gegen eine vom Administrator festgelegte
Liste von Stichworten (z. B.: „vertraulich“,
„confidential“, „Lustreise“) geprüft.
. Das zu analysierende Dokument wird auf
das Vorhandensein vom Administrator
festgelegter regulärer Ausdrücke überprüft. Ein regulärer Ausdruck ist ein Ausdruck mit einem festen, durch eine Schablone definierbaren Format (z. B. Kreditkartennummer,Ausweisnummer, US-Sozialversicherungsnummer). Der hierbei
verwendete Prüfalgorithmus sollte hierbei nicht nur die Übereinstimmung des
Formates der zu überprüfenden Zeichenkette mit der Schablone verifizieren, sondern weitere Plausibilitätstests (z. B. Prüfsumme bei Kreditkartennummer) durchführen. Damit kann das Auftreten sog.
„False Positives“ (fehlerhafter Erfolgsmeldungen) deutlich reduziert werden.
51
Security | Data Leakage Prevention
Abbildung 1: Serverbasierte DLP-Architektur
. Das zu überprüfende Dokument wird auf
„Ähnlichkeit“ mit bereits als vertraulich
registrierten Dokumenten analysiert.
Doch nicht jedes einmalige Auftreten eines
gesuchten Wortes markiert gleich den unautorisierten Export eines vertraulichen
Dokuments. Sinnvoller ist es, das Auftreten
von Übereinstimmungen innerhalb der einzelnen Kategorien zu gewichten, die Übereinstimmungen mit dem entsprechenden
Faktor aufzuaddieren und erst beim Erreichen eines definierbaren Schwellwertes eine Sanktion auszulösen.
Prinzipiell gibt es verschiedene Ansätze,
um ein Dokument nach Stichworten zu
durchsuchen. Der Einfachste ist sicherlich
der Vergleich aller Worte des Textes mit den
Worten in der Stichwortliste. Doch was in
einer Sprache wie dem Englischen mit seiner einfachen Grammatik noch zu geringen
Einschränkungen führt, führt bei einer Sprache wie dem Deutschen mit seiner intensiveren Flexion (Beugung) von Substantiven,
Adjektiven und Verben schon zu etwas stärkeren Einbußen: So wird zum Beispiel das
Plural-Substantiv „Züge“ nicht durch das
Singular-Stichwort „Zug“ erkannt. Allerdings ist es nicht sehr wahrscheinlich, dass
in einem zu durchsuchenden Dokument der
entsprechende Begriff nur im Plural vorkommt. Leistungsfähiger ist hier schon ein
52
System, das mittels integrierter Linguistik
in der Lage ist, gebeugte Formen in ihre jeweiligen Grundformen (z. B. Singular Maskulinum beim Substantiv und Adjektiv, Infinitiv beim Verb) zurückzuführen. Diese
Systeme erlauben dann über die reine Suche nach Übereinstimmungen hinaus schon
eine gewisse Form der Ähnlichkeitsanalyse, da sich zu einem Thema gehörige
Begriffe wesentlich messbarer suchen lassen, wenn die Übereinstimmung auch bei
Flexion noch festgestellt werden kann.
Leistungsfähigere Systeme bieten im Suchbereich auch noch eine Skriptsprache an, die
unter Anderem die Kombination von Stichworten über logische Verknüpfungen, wie
z. B. UND, ODER zulässt, sowie weitere
typische Elemente einer regulären Programmiersprache enthält.
Eine weitere Form der Ähnlichkeitsanalyse kann durch „Fingerprinting“ durchgeführt werden. Bei einem Fingerprint handelt es sich um einen Hash (eine Abbildung
eines Textes auf ein wenige Byte großes Datum mit konstanter Länge). Dabei wird jedoch nicht der Hash über das gesamte Dokument gerechnet, sondern nur über relativ wenige charakteristische Fragmente (in
der Größenordnung von vielleicht 20-30
Zeichen) des Textes. Die große Kunst des
verwendeten Fingerprinting-Algorithmus
monitor | Special Kommunikation 4A/2008
liegt nun darin, die Fragmente mit der größten inhaltlichen Relevanz herauszufinden,
und nur über sie die Hashes zu berechnen.
Der Lohn für die intelligente Auswahl liegt
sowohl in der geringen Größe der Fingerprint-Datenbank pro Dokument, als auch in
der hohen Performanz der späteren Vergleichsoperationen (in Echtzeit!). Zudem
wird das System weitgehend resistent gegen zufälliges oder sogar mutwilliges Umsortieren von Textbestandteilen, da diese
meist größer sind als die Fragmente, über
die die Fingerprints gerechnet werden.
Der Workflow beim Fingerprinting sieht
typischerweise so aus, dass der für die Einführung eines DLP-Produktes verantwortliche Administrator eines Unternehmens
erst einmal eine Datenbank von Dokumenten mit relevanten (vertraulichen) Inhalten
anlegt, und das Produkt über diese Dokumente die Fingerprints errechnen lässt. Diese Fingerprints werden dann serverseitig als
Referenz gespeichert, und bei Bedarf en bloc
auf die serverseitigen Proxys bzw. die DLPgesicherten Endpoints heruntergeladen. Soll
nun ein Dokument aus dem System exportiert werden, so werden dessen Fingerprints
während des Exportvorgangs in Echtzeit errechnet, und gegen die gespeicherten Fingerprints verglichen. Bei Übereinstimmung
wird eine Sanktion ausgelöst. Im realen Einsatz wird es häufig auf eine Kombination
von Stichwortsuche und Fingerprints hinauslaufen. Eine fundierte und detailierte
Übersicht der grundsätzlichen Konzepte findet sich in [2].
Datenquellen
Doch woher kommen eigentlich die zu
untersuchenden Dokumente? Im Falle der
Proxys für die verschiedenen Internetprotokolle werden die Dateien beispielsweise
aus dem FTP-Datenstrom oder den Anhängen der E-Mails herausgefischt. Im Falle von
E-Mails wird natürlich auch noch sinnvollerweise der Header und der Körper der
Nachricht untersucht. Auf dem Endpoint
läuft es im Prinzip genauso mit diesen Internetprotokollen.Allerdings liegt hier die technische Herausforderung wesentlich höher,
da sich nicht einfach für jedes Protokoll ein
dezidierter Proxy installieren lässt.Vielmehr
muss dieser irgendwo in den lokalen Netzwerk-Stack hineingemogelt werden, und so
intelligent und performant implementiert
werden, dass ein temporär blockierter Ex-
Security | Data Leakage Prevention
port einer E-Mail nicht gleich die SMTPVerbindung abbricht, und auch die generelle Performance nicht zu sehr darunter leidet. Noch schwieriger wird es, wenn man
den Export von Nachrichten bei Unternehmens-E-Mail-Lösungen wie MS Outlook
oder Lotus Notes überwachen will. Hier lassen sich häufig im Netzwerk-Stack keine
brauchbaren Daten abgreifen (z. B. wegen
Verschlüsselung zwischen Client und Server), so dass Plug-Ins für die jeweiligen
Clients zum Einsatz kommen. Dasselbe gilt
im Wesentlichen auch für Instant Messenger. Letztere lassen sich ausschließlich auf
dem Endpoint überwachen.
Soll ein Dokument auf dem Endpoint auf
ein externes Medium exportiert werden, so
schlägt ebenfalls die Überwachung zu. Dafür können jedoch seitlangem bekannte und
bewährte Schnittstellen des Betriebssystems
genutzt werden. Hat das System erst einmal den Export eines potenziell vertraulichen Dokuments angehalten, so stellt sich
gleich die nächste Herausforderung: Das Dokument liegt meist in einem Format vor
(MS Word etc.), mit dem der Suchalgorithmus erst einmal nichts anfangen kann. Nun
ist es erforderlich, die Dateien auszupacken
und/oder das Format in ein möglichst einfaches Format (z. B. UTF-8) zu konvertieren. Der dazu verwendete Konverter sollte
einige Hundert Formate unterstützen können, um eine effiziente Kontrolle zu gewährleisten.
Sanktionen
Wird der versuchte Export eines vertraulichen Dokuments festgestellt, so kommt es
- je nach gesetzten Policy-Einstellungen zu entsprechenden Sanktionen. Diese können z. B. im ausschließlichen Logging der
Operation und der weiteren Gewährung
derselben liegen. Dadurch erhält der Administrator immerhin einen gewissen Überblick über die aktuelle Sicherheitslage des
Unternehmens. Natürlich kann die Operation auch geblockt werden.
Eine besonders elegante Variante ist der
interaktive Dialog mit dem Benutzer: Das
System weist den Benutzer per Dialog auf
Sicherheitsbedenken hin, und fordert ihn
auf, eine Begründung für den Export einzugeben. Diese Begründung wird natürlich administrationsseitig gespeichert. Dieser Ansatz ist sehr nützlich bei der sanften Einführung eines sicheren Dokumenten-Work-
Abbildung 2: Endpointbasierte DLP-Architektur
flows im Unternehmen, da er dem Benutzer nichts verbietet, sondern seine Kooperation einfordert. Zuletzt kann es sinnvoll
sein, die Verschlüsselung des Dokuments
im E-Mail oder auf dem Zieldatenträger zu
erzwingen.
Dr. Michael
Alfred Schmidt
ist Utimaco
Projektleiter
Entwicklung
www.utimaco.de
Entdeckungsreise
Doch nicht in jeder Unternehmensumgebung ist es erforderlich, sofort mit der Brechstange den Export von vertraulichen Dokumenten aus dem System zu unterbinden.
Häufig ist es erst einmal ausreichend, sich
einen Überblick über die Gefährdungssituation zu verschaffen, indem man den vorhandenen Dokumentenbestand vollständig
analysiert und klassifiziert.
Technisch ist dieser Scan wesentlich einfacher, da die Eingriffe ins Betriebssystem
und in den Netzwerk-Stack fast vollständig
entfallen. Sind die Windows Endpoints per
Netzwerk-Share vom Server zu erreichen,
so könnte sogar die Installation eines eigenen Client Agents entfallen. Letzteres könnte dann allerdings zu stark erhöhtem Netzwerkverkehr führen. Hat man sich per Scan
einen Überblick über den Dokumentenbestand verschafft, so gilt es, erst einmal den
Umgang im Unternehmen mit vertraulichen Dokumenten zu überdenken, und ggf.
monitor | Special Kommunikation 4A/2008
entsprechende Richtlinien zu schaffen. Bei
Bedarf kann man dann immer noch ein vollwertiges DLP-Produkt mit Echtzeit-Überwachung einführen. Der Workflow lautet
hier also: Erfassung, Klassifizierung, (evtl.)
Schutzmaßnahme.
Marktsituation
Das DLP-Lager wurde einige Jahre lang im
Wesentlichen von kleineren Firmen, teilweise Startups, beherrscht. In den letzten
Jahren hat jedoch das große Fressen durch
die etablierten Datensicherheitsfirmen eingesetzt: McAfee hat Onigma übernommen,
EMC Tablus, TrendMicro Provilla, und
schließlich Symantec Vontu.
Es bleibt zu hoffen, dass mit dieser Marktbereinigung eine Professionalisierung der
53
Security | Data Leakage Prevention
Branche sowie eine bessere Integration der
bislang allein stehenden DLP-Produkte in
die klassischen Sicherheitsprodukte (Verschlüsselung,Virenscanner etc.) einher geht.
Erfahrungen
Wer versucht, mittels eines DLP-Produktes
eine tragfähige Exportkontroll-Policy zu erstellen, muss erst einmal eine Anforderungsanalyse innerhalb seiner Organisation
durchführen. Meist wird dies auf eine intelligente Kombination aller zur Verfügung
stehenden Mechanismen hinauslaufen, und
jede Abteilung wird ihre eigene Policy erstellen. Mit dem weitgehend automatisierten Erstellen einer Fingerprint-Datenbank
aus allen vom Such-Agenten gefundenen
Dokumenten ist es sicherlich nicht getan.
Wichtig ist es ebenfalls zu akzeptieren, dass
es sich bei DLP um keine exakte Wissenschaft handelt. Das gilt sowohl für die Inhaltsanalyse als auch für die Exportkontrolle. Bei der Inhaltsanalyse können durch
Doppeldeutigkeiten von Stichworten False
Positives auftreten. Ebenso können gesetzte Stichworte bei Flexion übersehen werden
(bei nicht-linguistischen Systemen), speziell
bei Umlautbildung im Deutschen.
Zuletzt ist auch die Exportkontrolle nicht
absolut sicher vor den IT-Spezialisten unter
den Innentätern: So reicht es z. B., einen Text
mit dem früher bei Usenet-Newsreadern
populären ROT-13-Algorithmus zu verschleiern (es handelt sich hier um eine Verschiebung im Alphabet um 13 Zeichen), um
ihn sicher vor gängigen DLP-Produkten ex-
portieren zu können. Die Entschleierung ist
ebenso trivial. Ein entsprechendes Add-on
ist z. B. für Mozilla/Thunderbird frei verfügbar. Weitere Probleme ergeben sich bei
den unterstützten Dokumentenformaten
sowie den abgesicherten Exportkanälen auf
dem Endpoint (z. B. bei Instant Messengern):
Der Hersteller eines DLP-Produktes muss
hier ständig den jeweils aktuellen Neuerungen hinterherlaufen und die Unterstützung
in seiner nächsten Produktversion bzw. Service Release nachziehen. Bis dahin ist es Aufgabe des Administrators, ggf. die Nutzung
der entsprechenden Programme in seiner
Organisation zu unterbinden, wie dies auch
schon bei den klassischen Sicherheitsprodukten häufig der Fall ist.
Fazit
DLP bietet mit seinem innovativen, inhaltsbasierten Ansatz eine interessante Alternative zu den klassischen Datensicherheitskonzepten mit ihren relativ statischen Policies. Als softwarebasiertes Instrument zur
Bekämpfung von Datenverlust durch Innentäter ist es derzeit ohne Alternative. Auch
wenn es von seinen technischen Möglichkeiten nicht 100%ig jeden mutwilligen Datendiebstahl verhindern kann, so bietet es
jedoch mächtige Instrumente sowohl zur
Bestandserfassung und Risikoanalyse als
auch zur sanften Durchsetzung von Workflows im Sinne der Verhinderung von
Datenverlust. Die kürzlich eingesetzte Bereinigung des DLP-Marktes lässt eine verbesserte Integration dieser Produkte mit den
klassischen Datensicherheitsprodukten und
deren leistungsfähigen Administrationskonsolen erhoffen, sodass letztlich ein echter
Mehrwert für den Kunden entsteht.
[1] Latest Ponemon Institute Study Ties Lack of
Awareness in Corner Office to Insider Threat
Challenges, ArcSight und Ponemon Institute,
September 2006, www.ponemon.org
[2] Automatic Document Classification:
A thorough Evaluation of various Methods,
C. Goller, J. Löning, T. Will, W. Wolff, UVK
Verlagsgesellschaft mbH, 2000,
www.inf-wiss.uni-konstanz.de
Inserentenverzeichnis
Allied Telesyn . . . . . . . . . . . . . . . . . . .21
Alpha Select . . . . . . . . . . . . . . . . . . . . . .7
APC . . . . . . . . . . . . . . . . . . . . . . . . . .4.U
Bacher Systems . . . . . . . . . . . . . . . . .51
BTR Netcom . . . . . . . . . . . . . . . . . . . . .3
Canon . . . . . . . . . . . . . . . . . . . . . . . . .2.U
Cerberus . . . . . . . . . . . . . . . . . . . . . . . .5
Dätwyler . . . . . . . . . . . . . . . . . . . . . . .27
G DATA . . . . . . . . . . . . . . . . . . . . . . . .3.U
Kaspersky . . . . . . . . . . . . . . . . . . . . . .43
KSI . . . . . . . . . . . . . . . . . . . . . . . . . . . .28
Konica Minolta . . . . . . . . . . .Covercorner
Microsoft . . . . . . . . . . . . . . . . . . . . . . .35
Mobil-Data . . . . . . . . . . . . . . . . . . . . . .11
mPAY24 . . . . . . . . . . . . . . . . . . . . . . . .48
Opternus . . . . . . . . . . . . . . . . . . . . . . .23
PatchSee . . . . . . . . . . . . . . . . . . . . . . .33
Rittal . . . . . . . . . . . . . . . . . . . . . . . . . .17
Schmachtl . . . . . . . . . . . . . . . . . . . . . .45
Schrack Technik . . . . . . . . . . . . . . . . .19
Sicontact . . . . . . . . . . . . . . . . . . . . . . .41
Stadt Wien . . . . . . . . . . . . . . . . . . . . . .47
Tyco . . . . . . . . . . . . . . . . . . . . . . . . . . .25
Wiener Zeitung . . . . . . . . . . . . . . . . . . .9
Impressum
Medieninhaber und Verleger: Bohmann Druck und Verlag Ges.mbH & Co KG, Leberstr. 122, A-1110 Wien, Telefon 01/74095410, Telefax 01/74095-425, E-Mail: [email protected], www.monitor.co.at - Chefredakteur: Dipl.-Ing. Rüdiger Maier (mai)
- Redaktion: Mag. Dominik Troger (dat) - Autoren: Conrad Gruber, Peter Hanke, Wolfgang Horak, Gerd Kaufmann, Thorsten
Kurpjuhn, Klaus Lackner, Gerhard Lagler, Lothar Lochmaier, Klaus Lorbeer, Walter Ludwig, Alexandra Riegler, Michael
Alfred Schmidt, Christine Wahlmüller, Urs Zurbuchen - Anzeigenleitung: Alexander Havlik - Technischer Leiter & Layout:
Druckauflage
Gerhard Hegedüs - Anzeigenverwaltung: Hildegard Fatahtouii - Aboverwaltung: Bohmann Aboservice: Tel.:01-74095- 4. Quartal/2007:
14.500
466, E-Mail: [email protected] - Druck: Leykam Druck GmbH und Co. KG, Bickford Str. 21, 7201 Neudörfl. - Verlags und
Herstellungsort: Wien Erscheinungsweise: 11 x im Jahr plus drei Specials: „HARDWARE“,
„SOFTWARE“, „KOMMUNIKATION“ - Einzelverkaufspreise: € 3,80 - Monitor-Jahresabo: € 34,50 - Auslandsabo: € 60,90 Anzeigenpreise: Es gilt die Anzeigenpreisliste laut Mediadaten 2007 - Bankverbindung: Bank Austria Creditanstalt AG Blz.: 12000, Kto.: 653 092 700, Österr. PSK - Blz.: 60000, Kto.: 1732.755 - DVR: 0408689 - FBNR: 9642f/FB - Gericht: HG
Wien - ARA Liz.-Nr.: 1214 - UID ATU10940909 Für unverlangt eingesandte Manuskripte und Fotos wird keine Haftung übernommen. Die veröffentlichten Beiträge sind urheberrechtlich geschützt. Vervielfältigung, Nachdruck oder Übersetzung sind ebenso wie die
Speicherung in Datenverarbeitungsanlagen und das bieten über Online-Dienste nur mit schriftlicher Genehmigung des Verlages erlaubt. Mit
„Promotion“ gekennzeichnete Beiträge sind entgeltliche Einschaltungen.
54
monitor | Special Kommunikation 4A/2008
Businesslösungen
vom Qualitätsführer.
Wegen großer Nachfrage
Testaktion verlängert!
Jetzt
90
kostenlos
Tage
testen!
Die G DATA Businesslösungen fügen Testsieger-Technologien wie
Leistungsübersicht
G DATA Business-Produkte
G DATA
Businesslösung
ClientSchutz
das performanceoptimierte Multithreading DoubleScan und das in
Fileserver- Mailserver- Inklusive Inklusive Zentrale VollautoSchutz
Schutz
Firewall Spamfilter Admin.
matik
Rekordzeit reagierende OutbreakShield nahtlos in Ihr Unternehmens-
G DATA
ClientSecurity
BUSINESS
–
Netzwerk ein. Ob komfortable, zentral administrierte Client/Server-
G DATA
ClientSecurity
ENTERPRISE
Software mit vollautomatischem und ferngesteuertem Schutz oder
G DATA
AntiVirus
BUSINESS
–
–
–
Mailserver-unabhängiges MailGateway gegen Viren und Spam - die
G DATA
AntiVirus
ENTERPRISE
–
Businesslösungen von G DATA lassen keine Lücke offen.
G DATA
MailSecurity
–
–
–
Fordern Sie jetzt Ihre kostenfreie 90 Tage Testversion an:
Weitere Informationen unter: www.gdata.at
[email protected] oder +49-234-9762-154
Geschützt. Geschützter. G DATA.
W
hi Neu
te e
Pa
pe
r!
Wir haben nahezu €80 Millionen
investiert, um Lösungen für mögliche
Serverprobleme von morgen zu finden.
White Paper #114 (WP-114)
Die Umsetzung
energiesparender
Datencenter
"Die Umsetzung energiesparender
Datencenter"
Neu
White Paper #114
White Paper #18 (WP-18)
The Seven Types of
Power Problems
€9500
White Paper #18
GRATIS
White Paper #141 (WP-141)
Data Center Projects:
Project Management
"Data Center Projects: Project
Management"
Neu
White Paper #141
€5500
White Paper #6 (WP-6)
"Ermitteln der Total Cost of
Ownership (TCO) für Datencenterund Serverraum- Infrastrukturen"
White Paper #6
Neu
€5500
White Paper #117
Überdimensionierte Datencenterund Netzwerkraum-Infrastrukturen:
Kostenvermeidung
Neu
White Paper #37
White Paper #37 (WP-37)
€9500
€9500
GRATIS
€5500
"Parameteranalyse einer
leistungsfähigen KühlungsInfrastruktur"
White Paper #40
€5500
GRATIS
White Paper #102 (WP-102)
White Paper #82 (WP-82)
Physikalische
Sicherheit in betriebskritischen Anlagen
"Überwachung von
physikalischen Bedrohungen
im Datencenter"
White Paper #102
"Netzwerkkritische physische
Infrastruktur: Optimierung des
Geschäftswerts"
White Paper #40 (WP-40)
Parameteranalyse
einer leistungsfähigen
Kühlungs-Infrastruktur
"Überdimensionierte Datencenterund Netzwerkraum-Infrastrukturen:
Kostenvermeidung"
GRATIS
Überwachung
von physikalischen Bedrohungen im
Datencenter
White Paper #117 (WP-117)
GRATIS
GRATIS
GRATIS
Ermitteln der Total Cost
of Ownership (TCO) für
Datencenterund ServerraumInfrastrukturen
Netzwerkkritische
physische Infrastruktur:
Optimierung des
Geschäftswerts
"The Seven Types of
Power Problems"
Neu
€5500
"Physikalische Sicherheit in
betriebskritischen Anlagen"
White Paper #82
€9500
GRATIS
GRATIS
Warum investieren Sie nicht ein paar Minuten?
Wir haben mit Tausenden Kunden
gesprochen – von Berlin bis Bangkok.
Dabei haben wir viel über die guten,
die weniger guten und die wirklich
ungeeigneten Maßnahmen gelernt, die
Kunden für die Planung ihres Datencenters
eingesetzt haben. In vielen Fällen haben
Budgetkürzungen sogar dazu geführt,
dass Planungen gestoppt wurden.
Kennen Sie und ihre Mitarbeiter die zehn
Fehler, die Sie bei der Planung vermeiden
sollten? Die einfachste Möglichkeit,
die Kühlung ohne zusätzliche Kosten zu
verbessern?
Antworten auf diese Fragen und vieles
mehr finden Sie in unseren aktuellen
White Papers. Nutzen Sie diese wertvollen
Informationen heute, um später Kosten und
Arbeitsaufwand zu sparen.
GRATIS APC White Paper hier herunterladen!
Überwachung von
physikalischen
Bedrohungen im
Datencenter
White Paper #102
Sie können sich jetzt verschiedene White Paper kostenlos downloaden. Gültig
innerhalb der nächsten 90 Tage. Melden Sie sich online unter http://promo.apc.com an,
und geben Sie den Schlüsselcode 66599t ein. Mit der Registration nehmen
Sie automatisch an der Verlosung eines APC Power Ready Travel Backpacks teil.
Tel: 080 099 9670s&AX089 51417-100
©2008 American Power Conversion Corporation. Alle Warenzeichen sind Eigentum der jeweiligen Besitzer. APC3F6EF-AT
Kein Kauf notwendig. Die tatsächlich vergebenen Produkte können von den gezeigten Produkten abweichen. * Nur solange Vorrat reicht.
APC Deutschland GmbH, Elsenheimerstraße 47a, D-80687, München

Documentos relacionados