Virtualisierung Security Virtualisierung Security
Transcrição
Virtualisierung Security Virtualisierung Security
www.monitor.co.at/rss.cfm Special 4A Mai 08 www.monitor.co.at Virtualisierung Kommunikation Security ISSN 1021-271X P.B.B ZUL.NR. 02Z031040M – VERLAGSORT WIEN, VERLAGSPOSTAMT 1110 WIEN Diese MONITOR-Sonderausgabe widmet sich auf 56 Seiten den Kernthemen Telekommunikation, Infrastruktur und Security. Telekom-Markt: Konvergenz als Schlüsselfaktor Infrastruktur: Strukturierte Verkabelung Virtualisierung: Startschuss zur großen Freiheit www.konicaminolta.at Kon ica M ills e sk . Th a t l ino in to w . Hier sollte Ihr Name stehen. Fragen Sie uns nach einem Abo. Tel. 01 | 74095-466 Editorial Liebe Leser, diese MONITOR-Sonderausgabe widmet sich auf 56 Seiten den Kernthemen Telekommunikation, Infrastruktur und Security. Vom Reisebüro in der Westentasche bis zum Trendthema Desktop-Virtualisierung spannt sich der Bogen der diesjährigen Beiträge. Im Security-Teil erläutern 13 namhafte Hersteller von Antimalware- und Antispam-Produkten das aktuelle Bedrohungspotenzial und mögliche Gegenmaßnahmen. Cat.6 12C-de-embedded getestet nach EN 50173-1:2002 und GHMT zertifiziert L Geringe Einbautiefe, somit im 58er Unterputzbecher montierbar L Praxisgerechte Kabelzuführung von 8 Seiten L Vergrößerte Kabeleinführung L Microsoft, Sun und Symantec auf diesen Zug aufgesprungen (Seite 29). Über die Strategien und Ausblicke von „Anti-Crimeware“ referieren 13 namhafte Hersteller aus dem Security-Bereich in einer umfassenden Bestandsaufnahme. Die Kommerzialisierung des Malware-Business diktiert nicht nur den Anwendern, sondern auch den Herstellern zunehmend ihre Vorgangsweise. Technische Lösungen müssen in gesamtheitlich ausgelegte Sicherheitsstrukturen eingebunden werden, die bereits beim einzelnen Mitarbeiter die Aufmerksamkeit für sicherheitsrelevante Themen schärfen (Seite 36). Auf der RSA Conference 2008 in San Francisco konnte sich MONITOR-Autor Klaus Lorbeer über die neuesten Sicherheitstrends und Gefahrenpotenziale informieren. Unter anderem lud Microsoft in San Francisco alle IT-Hersteller zur Zusammenarbeit unter dem Motto „End-to-End-Trust“ ein, um der Kommunikation über das Internet eine vertrauenswürdige und authentifizierte Basis zu verschaffen (Seite 46). Der „Datenspion“ kann aber auch im eigenen Unternehmen sitzen. Data Leakage Prevention ist ein Sicherheitsproblem, das nicht nur mutwillige Aktionen von Datendiebstahl, sondern auch Bedienungsfehler oder fahrlässiges Handeln von Mitarbeitern umfasst.Wie können sich Unternehmen davor schützen, dass beispielsweise vertrauliche Dokumente nicht einfach per Mail verschickt werden - und sei es nur in bester Absicht, um zu Hause daran weiterarbeiten zu können? Security-Spezialist Michael Alfred Schmidt umreißt in seinem Beitrag aktuelle Schutzkonzepte sowie deren Vor- und Nachteile (Seite 50). + durchdacht + zukunftsicher + designfähig L „Den Menschen ist die Technologie (Festnetz oder Mobilfunk) egal - es geht darum, überall Telefon und Internet möglichst kostengünstig nutzen zu können.“ MONITOR-Autorin Christine Wahlmüller skizziert in ihrem Beitrag Konvergenz als „Schlüsselfaktor der Telekom-Branche“ und beschreibt die aktuellen KonvergenzStrategien der marktführenden Anbieter (Seite 6). In die Welt der Reiseanbieter entführt Lothar Lochmaier mit seinem Beitrag „Das Reisebüro in der Westentasche: Mobile Travel Technology stachelt das Fernweh an“. Sein Bericht gibt eine Zusammenfassung der Mobility-Trends auf der Internationalen Tourismusbörse in Berlin, die nicht nur bekannte Namen, sondern auch viele innovative Start-ups prägen (Seite 10). Peter Rastl, lange Jahre Leiter des Zentralen Informatikdienstes der Universität Wien, erzählt in einem Interview über die Anfänge des Internets in Österreichs. Er lässt auch mit einem Statement zur aktuellen Sicherheits-Debatte aufhorchen, in dem er das große Missbrauchspotential anspricht, das beispielweise eine präventive Vorratsdatenspeicherung in sich birgt (Seite 19). In der Rubrik Infrastruktur sind zwei große Themenblöcke vorherrschend: Verkabelung und Desktop-Virtualisierung. Gerhard Lagler, zertifizierter Sachverständiger für strukturierte Verkabelung, macht einen Blick auf die aktuellen Normen und vergleicht sie mit den Anforderungen aus der Praxis (Seite 24). MONITOR-Autorin Alexandra Riegler hinterfragt den aktuellen Stand und die aufkommende Hype rund um „Desktop-Virtualisierung“. 2007 von den Analysten noch mit abwartenden Statements bedacht, wurde sie ein halbes Jahr später schon als der kommende Trend ausgerufen. In den letzten Monaten sind auch Größen wie Citrix, Die kompakte 10 GBit - Lösung Volle Kompatibilität zu Abdeckplatten führender Schalterprogrammhersteller Eine interessante Lektüre und viele Anregungen für die Praxis wünscht Ihnen Ihr MONITOR-Team. BTR NETCOM GmbH Im Tal 2 D-78176 Blumberg Tel. +49 7702 533-0 Fax +49 7702 533-433 www.btr-netcom.com G G G Inhalt | Kommunikation 2008 Kommunikation Aus der Redaktion Konvergenz: Schlüsselfaktor der Telekom-Branche . . . . . . . . . . 6 Das Reisebüro in der Westentasche: Mobile Travel Technology stachelt das Fernweh an . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 REBOOT. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 Hybrid VPN: Sicherer Remote Access für jede Anforderung . . . 14 25 Jahre MONITOR: 1985 - erste Domains wurden registriert. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 Als das Internet laufen lernte: Interview mit Dr. Peter Rastl, ehemaliger Leiter des ZID an der Universität Wien. . . . . . . . . . . 18 Editorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Inserentenverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 Impressum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 Infrastruktur Performance-Steigerung und Kostenreduktion durch WAN-Optimierung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 Server: Vielgeprüft und zukunftsreif . . . . . . . . . . . . . . . . . . . . . . 22 Strukturierte Verkabelung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 Desktop-Virtualisierung: Die vielen Gesichter eines PCs . . . . . . 29 Startschuss zur großen Freiheit- . . . . . . . . . . . . . . . . . . . . . . . . 31 Security Knauf & Lampertz: Auf der sicheren Seite . . . . . . . . . . . . . . . . . 34 Anti-Crimeware: Strategien und Ausblicke. . . . . . . . . . . . . . . . . 36 Web Reputation Management: Abwehrkonzepte sollen keine Schönfärberei betreiben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 Starke Authentifizierung: Schonfrist definitiv vorbei . . . . . . . . . . 44 RSA Conference 2008: IT zwischen Datenschutz und Datensicherheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 Data Leakage Prevention: Hier bestimmt der Computer, was vertraulich ist . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 Strukturierte Verkabelung: Qualität ist wichtig! 24 Desktop-Virtualisierung: Der neue Boom? 29 Kommunikation | Konvergenz Konvergenz: Schlüsselfaktor der Telekom-Branche Den Menschen ist die Technologie egal es geht darum, überall Telefon und Internet möglichst kostengünstig nutzen zu können. Die Lösung sind konvergente Produkte, die jetzt immer mehr auf den Markt kommen. Christine Wahlmüller Wir kennen das von zu Hause: Inzwischen haben sich zum klassischen Festnetz-Telefonanschluss natürlich auch ein oder mehrere Handys sowie ein BreitbandInternet-Anschluss (ADSL oder Kabel) dazugesellt, jüngst ergänzt um einen mobilen Breitband-Anschluss in Form einer mobilen Datenkarte für den Laptop. Aber eigentlich ist das lästig: Denn warum gibt es nicht eine gemeinsame Lösung, die alles kann, das heißt, unter einer Telefonnummer (Festnetz und/oder Mobilfunk) telefonieren und einen Internetzugang (ADSL und/oder mobiles Breitband) nutzen? In Ansätzen ist dieser Gedanke bereits Realität. Bis zur vollendeten, perfekten Lösung wird es noch dauern, die wird erst mit der Realisierung des Next Generation Networks, kurz NGN, (vgl. MONITOR 04/2008) möglich werden. Aber der Trend zur Netzkonvergenz ist wie gesagt schon absehbar: Die starre Zuordnung von bestimmten Diensten zu bestimmten Netzen - TV zum Fernsehnetz, mobiles Telefonieren zum Mobilfunknetz und Abruf von Interndetdiensten mittels PC zum Internet - ist bereits aufgebrochen. Künftig werden unterschiedliche Dienste über ein Netz angeboten, damit geht die Entwicklung von multifunktionalen Endgeräten einher (Endgerätekonvergenz). Was es bereits in der Realität gibt, sind Produkt-Bundles: Wie z. B. das erst dieser Tage wieder neu herausgekommene Kombi-Paket der Telekom Austria, das Internet, Festnetztelefonie und Mobiltelefonie zu einem Gesamtpreis bietet - oder als „Aon-Super-Kombi“ auch noch Fernsehen inkludiert. Womit die dritte Größe die Massenmedien - auch mit ins Konvergenz-Spiel eingebracht werden. Marktverfolger Tele2 hat mit der „Complete“-Reihe ganz Ähnliches im Schilde - dies alles 6 sind allerdings Produkte, die sich hauptsächlich an den Privat- und maximal SoHo-Markt (Small Office, Home Office) wenden. Im Business-Sektor ist Konvergenz schon seit Jahren eine nachgefragte Selbstverständlichkeit. Aber Achtung: Der Begriff Konvergenz deckt einige unterschiedliche Dinge ab: . Konvergenz in Richtung All-over-IP. . Konvergenz in puncto Festnetz-Mobilfunk-Integration. . Konvergenz der Dienste allgemein - Produkt-Bündel bzw. eine Gesamt-TelekomLösung für das Unternehmen. . Konvergenz als Zusammenwachsen von Informationstechnologie und Telekommunikation. Fest steht: Konvergenz - wie auch immer definiert - bleibt auch weiterhin einer der Schlüsselbegriffe auf dem Telekommunikationssektor. Das geht aus der Studie „TMT Trends 2007“ des Beratungshauses Deloitte hervor, wobei in Technologie, Memonitor | Special Kommunikation 4A/2008 „IP als einheitliches Übertragungsmodell ist der unaufhaltsame Trend - dadurch werden die Konvergenzlösungen erst ermöglicht .“ - Erich Mooshammer, Leiter Marketing/ Vertrieb Businesskunden, Tele2 dien und Telekommunikation auch Benutzerfreundlichkeit als Trend geortet wird. „Aber vor allem schreitet die Verschmelzung der drei klassischen Sektoren in großen Schritten voran - Konvergenz ist und bleibt weiterhin das Motto der TMT-Branche“, sagt Deloitte-Berater Andreas Gentner. Kleine schauen auf den Preis Man müsse auf alle Fälle zwischen tech- Kommunikation | Konvergenz nischer (konvergente Infrastruktur, Gesamtlösung basierend auf einem IP-Netz für Sprache und Daten) und kommerzieller (produktbezogener) Konvergenz unterscheiden. „Bei großen Kunden ist das Thema Konvergenz schon seit Jahren auf der Tagesordnung. Hier wird immer nach einer Gesamtlösung gesucht“, betont Karim Taga, langjähriger Telekom-Experte der Unternehmensberatung Arthur D. Little (ADL). „Kleinunternehmen schauen nicht auf eine konvergente Lösung, sie gehen meist nach dem Preis und haben ihre Produkte meist dann bei unterschiedlichen Anbietern“, hebt Taga den Unterschied hervor. Es gebe allerdings in Österreich nur zwei große Netz-Anbieter die tatsächlich umfassende konvergente Lösungen am Markt aus eigener Kraft anbieten können: Die Telekom-Austria-Gruppe sowie T-Mobile/T-Systems. Tele2 und UPC fehlt der Mobilfunk-Bereich. Ihnen bleibt nichts über, als mit Kooperationen mit einem Mobilfunkanbieter das verlorene Terrain wettzumachen. Hier hat z.B.Tele2 mit One schon vor einigen Jahren mit einer IPVPN-Lösung aufhorchen lassen, die derzeit allerdings „nicht aktiv forciert wird“, wie Tele2-Sprecher Jörg Wollmann betont. UPC hat noch eine Kooperation bei Hosted Exchange mit T-Mobile laufen (im Privatbereich wird seit Jahren wiederum mit ONE kooperiert), „Ende Juni/Anfang Juli wird es eine neue Kooperation im Bereich Mobilfunk für Datenlösungen geben“, kündigt Thomas Helfert, Leiter Businesskunden bei UPC, an. Vice versa sind die zwei kleinen Mobilfunkanbieter gezwungen, mit den klassischen alteingeses- senen Festnetzanbietern Kooperationen einzugehen, denn diesen gehört bis dato der Business-Access-Markt. „Hier zeichnet sich ein weiterer Trend ab: Die Zusammenführung von Unternehmen wird weiter stattfinden“, prognostiziert Taga eine weitere Konsolidierung der österreichischen Telekom-Landschaft. „Längerfristig sei auch eine pan-europäische Konsolidierung zu erwarten d. h. größere Operatoren werden Incumbents kleinerer Länder aufkaufen. Alternative wäre eine nationale „Access-Spezialisierung“, heißt es in der im März publizierten ADL-Studie über den Telekom-Sektor in Europa, die weiters eindeutig feststellt: Das Festnetz ist nicht tot, denn die Mobilfunknetze können nicht die gleiche Performance zu den gleichen Kosten wie die klassischen Festnetze erbringen. Die Konsequenz ist, dass die mobilen Endgeräte künftig mithilfe von Festnetz-Infrastruktur betrieben werden. Ein weiterer Trend darf nicht unbeachtet bleiben: Die Sprachübertragung rangiert volumens- und umsatzmäßig weit abgeschlagen, was jetzt und künftig immer mehr zählt ist das Geschäft mit den Daten - das ist auch allen Anbietern klar. Da niemand gerne Kunden verliert, müssen die Anbieter gezwungenermaßen auf Konvergenz, verbunden mit entsprechenden Kooperationen, setzen. TA: Schaffung eines All-IP-Netzes Größter, bekanntester Anbieter ist die Telekom-Austria-Gruppe, die den Vorteil hat, Festnetz, Internet und Mobilfunk theoretisch aus einer Hand anbieten zu können. In der Praxis gewinnt dieser Gedan- „Der Wunsch nach Konvergenz geht Hand in Hand mit dem Wunsch nach Auslagerung bestimmter Bereiche“. - Hannes Ametsreiter, Vorstand Marketing, Telekom Austria AG und mobilkom ke allerdings erst seit der Umstrukturierung zur TA-Gruppe 2007 an Raum. Zuvor agierten Telekom Austria und mobilkom eher nebeneinander, denn miteinander. Jetzt ist mit Hannes Ametsreiter als Marketing-Vorstand der Telekom-AustriaGruppe und der mobilkom in Personalunion endlich die gedanklich wichtige Voraussetzung zur Schaffung des integrierten IP-Netzes und zum Schnüren von konvergenten Produktlösungen da. Damit kann die schrittweise Migration der bislang getrennten Netzinfrastrukturen für Sprache, Daten und Internet vorangetrieben werden. Das bedeutet zwar im Moment Investitionen, aber künftig Kosteneinsparungen. „Integrierte Lösungen aus einer Hand sind ein stark nachgefragtes Thema, dazu gehört auch Hosting, Housing oder Managed Services“, betont Ametsreiter und fügt hinzu: „Der Wunsch nach Konvergenz geht Hand in Hand mit dem Wunsch nach Auslagerung bestimmter Bereiche.“ Bei SoHo und Klein- und Mittelbetrieben (KMU) sieht Ametsreiter eine starke Nachfrage nach Internet-Access, gekoppelt mit „A1 over IP“. Rund 100 namhaf- MIT UNSERER VOIP-LÖSUNG SPAREN SIE BIS ZU 50% IHRER KOSTEN IM FESTNETZ! Testen Sie uns! Übermitteln Sie uns Ihre letzten 3 bis 6 Telefonrechnungen und ein Mitarbeiter von 4 TELECOM SERVICES wird Ihnen ein unverbindliches Angebot inklusive Einschätzung Ihres Einsparungspotenzials erstellen! Wenn Sie uns testen wollen, verrechnen wir für die ersten 45 Tage nur die angefallenen Gesprächsgebühren. Inbetriebnahmekosten und Installationsgebühren fallen erst nach Ihrer Übernahme am Ende der Testperiode an. monitor | Special Kommunikation 4A/2008 Four Telecom Services GmbH & Co KG A – 6370 Kitzbühel Jochberger Strasse 98-100 Tel: +43 5356 62220 Fax: +43 5356 62220-32 e-mail: [email protected] 7 Kommunikation | Konvergenz te Unternehmenskunden und über 10.000 Anwender nutzen das vor etwas mehr als einem Jahr gestartete Zusatz-Angebot bereits laut Angaben des TA/mobilkom-Managers. Für Einzelkunden ist „A1 over IP“ um 3,90 Euro Grundgebühr monatlich zusätzlich zu haben. Achtung: Nur Gespräche von PC zu PC und Instant Messaging sind kostenlos, alle übrigen Gespräche ins Festnetz oder zu anderen MobilfunkNummern werden gemäß des „normalen“ A1-Vertrags verrechnet. Beispiel für einen größeren Kunden ist die konvergente Lösung der Telekom Austria für das Rote Kreuz (ÖRK) in Salzburg. Dabei wurde zunächst die Software für die zehn Leitstellen des Bundeslands und für die mobilen Fahrzeugterminals vom TA-Projektteam programmiert. Außerdem wird die gesamte Serverlandschaft des ÖRK von der TA gehostet, dabei ist eine redundante Leitungsanbindung sowie der Desktopservice der Fahrzeugterminals inkludiert. Die (mobile) Datenübertragung erfolgt über das A1-Netz. „Der Renner ist derzeit die Kombination aus InternetAnschluss und Telefonanlage.“ Thomas Helfert, Leiter Businesskunden UPC Alternative Anbieter kämpfen Der führende alternative Anbieter bei Business-Kunden zu sein - darum „rittern“ Tele2 und UPC. Während Tele2 derzeit noch klar in Führung ist und laut Eigenangaben rund 50.000 Businesskunden betreut, greift UPC jetzt an: „Unser Ziel für 2008 ist es, uns auch im B2B-Bereich als die klare Nummer eins der alternativen Telekommunikationsanbieter zu etablieren“, gibt sich Thomas Helfert von UPC kämpferisch. „Eventuell nicht kunden-, sondern umsatzbezogen“, schränkt der ambitionierte UPC-Manager ein. „Der Umsatz im Business-Bereich betrug 2007 mit rund 140 Mio. Euro rund 50% des Gesamtumsatzes“, gab Tele2-Sprecher Jörg Wollmann auf Anfrage des MONITOR bekannt (Hier wird allerdings auch der 8 nicht unerhebliche Carrier-Bereich eingerechnet, Anm. d. Red.). „IP als einheitliches Übertragungsmodell ist der unaufhaltsame Trend - dadurch werden die Konvergenzlösungen erst ermöglicht“, betont Erich Mooshammer, seit knapp fünf Monaten Leiter Marketing/ Vertrieb Businesskunden bei Tele2 und zuletzt bei der Telekom Austria beschäftigt. „Die klassische PABX wird zunehmend von IP-Telefonanlagen verdrängt“, erklärt Mooshammer und freut sich über rege Nachfrage der bereits von UTA eingeführten und jetzt von Tele2 fortgeführten virtuellen Nebenstellenanlage „Office Phone IP“. „Falls sich ENUM, also die Abbildung von Telefonnummern auf InternetAdressen, als Trend durchsetzt, wird das in den nächsten Jahren ein weiterer Treiber von konvergenten Lösungen sein“, glaubt Mooshammer, der stolz einige „Office over IP“-Kunden aufzählt: Die Austrian Reserach Centers, das Personalmanagement-Unternehmen Büroring sowie den privaten TV-Sender Puls4. „2008 wird der Fokus weiter auf Office-over-IPLösungen liegen. Außerdem soll das Business-Vertriebs-Netzwerk auf 120 Partner ausgebaut werden“, verrät Mooshammer seine Strategie. Internet-Telefonie-Kombination Die Idee ist die gleiche, allerdings ist bei UPC, das den erworbenen Internet Provider inode nach wie vor weiter als BusinessMarke nutzt, das Produktangebot etwas differenzierter und ausgefeilter. Das Portfolio reicht „von der Nutzung eines Festnetzanschlusses für Internet und Telefonie bis hin zur vollständig gemanagten Nebenstellenanlage“, sagt Thomas Helfert, Leiter Businesskunden bei UPC. „Im SoHo-Segment können wir vor allem mit All-inclusive-Lösungen punkten, das ist die inode Web & Phone Office Linie“, berichtet Helfert und nennt die Glastechnische Werkstätte Wien als beispielhaften Kunden. Beim mittelständischen Kunden seien schon mehr Lösungen gefragt, die individuell auf die Kundenbedürfnisse angepasst werden könnten „Der Renner ist derzeit die Kombination aus Internet-Anschluss und Telefonanlage, insbesondere telenode platin“, streicht Helfert hervor. Eine Dimension darüber bewegt sich T-Systems. Hier wird Konvergenz als Zumonitor | Special Kommunikation 4A/2008 „Kunden wollen nicht Technik kaufen, sondern eine Lösung ihrer Probleme, ganz egal, ob die mit IT oder mit TK, mit Festnetz oder Mobilfunk zu tun hat.“ Georg Obermeier, CEO von T-Systems sammenwachsen von Informationstechnologie (IT) und Telekommunikation (TK) betrachtet. „Immer häufiger werden bei Ausschreibungen integrierte Angebote verlangt. Kunden wollen nicht Technik kaufen, sondern eine Lösung ihrer Probleme, ganz egal ob die mit IT oder mit TK, mit Festnetz oder Mobilfunk zu tun hat“, weiß Georg Obermeier, CEO von T-Systems. Große Trend sind laut Obermeier der Bereich VoIP, aber auch das Thema Unified Communications (UC) in beiden Bereichen bietet T-Systems Lösungen an. Der deutschstämmige Magenta-Riese ist dabei vorrangig an zahlungskräftigen heimischen Großkunden interessiert. Bis 2010 will T-Systems Marktführer für ITDienstleistungen und Lösungen rund um Informations- und Kommunikationstechnik sein, „Österreichs zählt zu einem der strategischen Wachstums- und Kernländer im Konzern“, ist Obermeier stolz. Mit T-Mobile gibt es auch eine Schwesterfirma für Mobilfunk als notwendiges künftiges konvergentes Asset im Ärmel. Es geht nicht so schnell ... Trotz aller Euphorie der Anbieter: Es gibt auch Hemmnisse für Konvergenz. Nicht nur die Kosten, sondern auch die Angst vor Sicherheitsproblemen bremst den Aufbau von Einheitsnetzen bzw. lässt viele Unternehmen und deren IT-Verantwortliche (noch) vor All-inclusive-Lösungen zurückschrecken.Trotzdem steht fest:Auch in Österreich werden die Investitionen in Konvergenz-Projekte die Kassen der Telekom-Netz- und Dienstleistungs-Anbieter in den nächsten Jahren klingeln lassen. http://business.telekom.at http://www.tele2.at http://www.upc.at http://www.t-systems.at Ein Service der Wiener Zeitung ++ Kunden- und Lieferantenmonitoring: Geschäftsführerwechsel + Konkurse + Kapitalaufstockung + Insolvenzen + Firmenneugründung + Adressänderung + .RPPXQLNDWLYHZLVVHQPHKU ¿UPHQPRQLWRUDW .RVWHQORVH7HVWDFFRXQWVXQGVlPWOLFKH,QIRUPDWLRQHQXQWHUZZZ¿UPHQPRQLWRUDW RGHUXQWHUGHU6HUYLFH+RWOLQH± + E-Mail-Verständigung bei allen Änderungen + Tagesaktuell + Zuverlässig + Maßgeschneiderte Suchaufträge + nur 14 Euro* im Monat H[NO0Z6W%DVLV)DLU8VH Kommunikation | Mobile Business Das Reisebüro in der Westentasche Mobile Reise-Technologien stacheln das Fernweh an Auf der Internationalen Tourismusbörse (ITB) in Berlin gewinnt Informationstechnologie weiter an Stellenwert: Der individuelle Reiseassistent wird in Zukunft zwar selbstverständlich sein, sagt die Reisebranche. Jedoch dauert es noch einige Zeit, bis das Internet auch auf kleinen Geräten wirklich flügge wird. Jedenfalls diskutierten die Experten heftig über neue technologische Reisetrends. Lothar Lochmaier Auf der weltweit größten Reisemesse, der Internationalen Tourismusbörse (ITB) in Berlin, dominierten heuer nicht nur bunte Erholungslandschaften, sondern auch modernste Hightech. IT-Lösungen waren fast überall vertreten. In den Hallen 6.1, 8.1, 10.1 und 25 dominierte die Technik sogar das Gesamtbild. Travel Technology lautet das neue Zauberwort in der IT-Branche. Vertreten waren nicht nur die bekannten IT-Player wie Hotelsoftware-Anbieter und Spezialisten wie Bewotec,Trust International, Partners Software, Serenata Intra-Ware, Micros-Fidelio und andere mehr. Auch die Zahl asiatischer Unternehmen aus den aufstrebenden Tourismusindustrien nimmt kontinuierlich zu. Neben Yatra Online und TI Infotech aus Indien reichte das Spektrum über thailändische Unternehmen wie Comanche Hotel Solutions bis hin zu Ausstellern aus Osteuropa, der Türkei und Ägypten. Hinzu kamen zahlreiche innovative Startups, die der Konferenz neues Leben einhauchten. Denn der Megatrend lässt sich am besten unter dem Schlagwort interaktive Travel-2.0-Dienstleistungen zusammenfassen. Individuell konfigurierte Reisesuchmaschinen und Community-Portale dominieren längst die Szene. Wohl dem, der da nicht den Überblick verliert. 10 Silver agers, Empty nesters, Baby Boomers oder DINKS heißen die neuen Zielgruppen im Fachjargon, auf deren Bedürfnisse die Reisebranche mit individuellen Angeboten reagieren muss, berichtet die Unternehmensberatung Deloitte. Eine begleitende Fachkonferenz von PhoCusWright@ITB unterstrich den Trend, wonach klassische EDV, Softwareentwicklung, Multimedia, Eund M-Commerce weiter verschmelzen. Blogger-Hype Ein äußeres Kennzeichen war ein eigens angesetzter Blogger-Event, zu dem sich rund 30 der weltweit bekanntesten Tagebuchschreiber in der Szene versammelt hatten. Österreich spielt in diesem neuen Kunstmetier übrigens ganz vorne in der ersten Liga mit, ganz im Gegensatz zu Deutschland, wo es noch kaum derartige Internetseiten gibt, die neue Reisetrends in ihren Tagebüchern kritisch unter die Lupe nehmen. Zwar wird angesichts des Medienhypes um das Web 2.0 die eine oder andere Seite bald wieder verschwinden. Spezialisierte Seimonitor | Special Kommunikation 4A/2008 TravelIQ ist eine intelligente Metasuchmaschine für Flug, Hotel, Mietwagen, und Pauschalreisen. (www.traveliq.de) ten jedoch, auf denen „Reiseblogger“ im Internet auch kritische Themen und Trends aufgreifen, sorgen aber für deutlich mehr Transparenz und Vergleichbarkeit zwischen den Anbietern und deren Dienstleistungen. Auch Diskussionen über Umweltprobleme, sanfter Tourismus oder spannende neue Reiseziele machen heute im Internet sofort die Runde und finden ein breites Echo. Ein Überblick über aktuelle Blogger-Plattfor- Kommunikation | Mobile Business men in den einzelnen Ländern findet sich auf der so genannten „T-List“ unter: http://shurl.org/tlist Vertriebskanäle verschmelzen mobil data - IT & Kommunikationslösungen GmbH Die Verschmelzung zwischen klassischen Vertriebs- und OnFranzosengraben 12/4/A line-Kanälen zeigt deshalb vor A-1030 Wien allem eines: Die Nachfrage nach t: +43-1-587 57 63-0 Reisen wird zunehmend dynae: [email protected] mischer, weil individueller, kurzi: www.mobil-data.at fristiger und flexibler. Durch die weite Welt des Webs ist der Reisende zudem selbst immer besser informiert, chen. Selbst versteckte Zusatzkosten wie chen. In erweiterter Form ist dies in naher es stehen neben dem Reisebüro via TV, Call Treibstoffzuschläge beziehen intelligente Zukunft als mobile Commerce-Anwendung Center oder eben das Internet multiple, wei- Search Engines ein. Über das Digitale Schau- auch auf mobilen Endgeräten des Kunden tere Vertriebskanäle zur Verfügung. fenster, einer innovativen Werbeplattform vorstellbar, maßgeschneidert auf die VorlieBewertungsportale gewinnen Auftrieb. für Reisebüros, bieten IT-Spezialisten wie ben und Neigungen der potenziellen KunIntelligente Metasuchmaschinen, die alle re- Siemens heute schon „Location Based Ser- den.Vielen Nutzern erscheint etwa die molevanten Angebote im Web durchforsten, vices“ an, um Kunden „auf den Punkt“ ge- bile Hotel- oder Flugreservierung immer helfen bei der Auswahl und bei Preisverglei- nau mit attraktiven Angeboten anzuspre- noch als sehr umständlich, verdeutlichte eine Expertendiskussion auf der diesjährigen ITB in Berlin. IT-Megatrends in der Tourismusindustrie Zwar kann der Nutzer von einem technisch aufgerüsteten mobilen Endgerät wie Applikationen und andere „eCommerce1. eCommerce 360º – Multiples Personal Digital Assistant (PDA) oder BlackSatelliten“ zielgerichtet eingesetzt werden. Online-Vertriebsmanagement Berry aus schon heute seinen Flug buchen, Heutzutage geht es beim E-Commerce 3. SocialMedia-Strategien etwa in den USA bei Delta Airlines über die längst nicht mehr nur darum, eine Site op- Vor allem der Begriff „Word-Of-MouthSeite delta.com. „Nicht jeder Nutzer hat jetimal zu strukturieren, seine Navigation Marketing“ (WOMM) macht die Runde. doch einen teuren BlackBerry zur Verfüzu optimieren und Design und Stil klar und Neue, intelligente Strategien wie reichweigung“, kritisiert Gerry Samuels, Gründer zeitgemäß zu gestalten. Heute kommt es tenstarke SocialMedia-Sites und -Comdes irischen Beratungsunternehmens darauf an, direkt dorthin zu gehen, wo die munities (Facebook, StudiVZ, MySpace, Mobile Travel Technologies. Kunden sind und sie dort abzuholen. Man Xing & Co.) oder userzentrierte Web-2.0Denn um wirklich in den Genuss der mospricht von intelligenten „E-Commerce- Formate (Blogs, Flickr, YouTube) werden bilen Reisebuchung zu kommen, benötigt Satelliten“, mit denen die Kunden in ihren auf die Bedürfnisse der Reisebranche abauch der durchschnittliche Handy-Nutzer unterschiedlichen Nutzungssituationen gestimmt und die Sites mit Hilfe ein schnelles und kostengünstiges Internet. usererstellter Inhalte in Marketing- und angesprochen werden. Das ist bislang nicht in Sicht, obwohl mobi2. Die neue Autonomie der Nutzer Vertriebs-Aktivitäten eingebunden. le Kartendienste mittlerweile auch für neue 4. Benutzerfreundliche Lösungen kreativ ansprechen Geräte wie das iPhone optimiert sind. Kunden haben im Internet immer mehr Einer der Kernerfolgsfaktoren für den Das Web lasse sich also kaum Eins zu Eins Macht - die Nutzungssituationen sind oft Erfolg der Portale und Buchungsstrecken vom stationären PC aufs Mobiltelefon übersehr unterschiedlich und prägen das Navi- ist eine permanent optimierte Usability. tragen, bilanziert Experte Gerry Samuels. gationsverhalten. Dem gilt es Rechnung Dies bleibt auch so und wird durch das EntKünftig dürfte jedoch der technologische zu tragen. Dazu ist nur ein multiples On- stehen der neuen weiteren Online-VerFortschritt der Verschmelzung zwischen line-Vertriebsmanagement in der Lage, das triebskanäle (E-Commerce-Satelliten) und Web, Mobilfunk und satellitengestützter alle Vertriebskanäle optimal nutzt: eCom- den Trend zu Social Commerce noch weNavigation allmählich den Weg bereiten, etmerce 360º. Ziel ist, die richtige Informa- sentlich wichtiger. Dabei bleiben die Grundwa durch neue Produkte wie das iPhone, tion - zur richtigen Zeit - am richtigen Ort prinzipien der Usability zwar gleich, die Google Android oder Nokia, das im vergan- dem richtigen Kunden - im richtigen For- Schwerpunkte unterscheiden sich jedoch genen Jahr den Navigationsspezialisten Navmat zu vermitteln. Das kann eine allein ste- in den einzelnen Online-Vertriebskanälen teq für immerhin 5,4 Milliarden Euro überhende E-Commerce-Site nicht mehr lei- deutlich. nahm. sten. Hier müssen zusätzliche Tools wie Negativ zu Buche aus Kundensicht schlaWidgets, Gadgets, Applets, SocialMedia- Quelle: Ray Sono/LL gen jedoch nicht nur die teuren Einwahlgebühren ins mobile Web. Zu umständlich ist monitor | Special Kommunikation 4A/2008 11 Kommunikation | Mobile Business außerdem das Scrollen mit den kleinen Alleskönnern durch Suchmaschinen wie Google. Hinzu kommt, dass die Homepages der meisten Hotels oftmals noch gar nicht für die mobile Nutzung optimiert sind. Einchecken per Handy Direkt am Flughafen offerieren Spezialisten eine Lösung rund um den mobilen Checkin. Mit einer Mobile Passenger Solution etwa kann der Fluggast zukünftig von überall per Handy einchecken. „Ein individueller persönlicher Reiseassistent von Tür zu Tür wird in Zukunft selbstverständlich sein“, betont Unternehmenssprecherin Astrid Heinz von Siemens IT Solutions and Services. Für den Fluggast sei die Registrierung denkbar einfach: Er logge sich per Internet auf der Website der jeweiligen Airline unter der Rubrik „Mobile Check-in“ ein und meldet sich mit Name und Passwort an. Zusätzlich nennt er Sitzplatz- und Mahlzeitpräferenzen. Dann fehlt nur noch die Eingabe des Hardware-Typs und der Mobilfunknummer. Und schon erhält der Kunde vom Server automatisch über eine WAPPush-Nachricht die passende mobile JavaAnwendung auf sein Mobilfunkgerät. „Ins- REBOOT Soll man im Flugzeug mit dem Handy telefonieren dürfen? Diese Frage beschäftigt seit einiger Zeit die Öffentlichkeit, als handle es sich um ein Grundrecht der Menschheit. Immerhin hat die EU-Kommission jetzt grünes Licht gegeben. Conrad Gruber Wer bis jetzt immer ein schlechtes Gewissen hatte, wenn er vergaß, sein Handy im Flugzeug auszuschalten und fürchtete, damit womöglich den Absturz der Maschine zu riskieren, kann sich jetzt gefoppt fühlen: Technisch waren Handys im Flugzeug immer weitaus weniger gefährlich, als es die Airlines behaupteten. Störungen der Bordelektronik kommen mit modernen Modellen schon gar nicht mehr vor. 12 gesamt benötigt der Fluggast dafür nicht länger als fünf Minuten“, fasst Astrid Heinz zusammen. Erstmalig vorgestellt auf der ITB 2008 wurde ein System zur Touristenführung für blinde und sehbehinderte Besucher der norddeutschen Insel Hallig Hooge, das international durchaus Schule machen könnte. Voraussetzung hierfür ist allerdings der Besitz eines PDAs. Mithilfe eines satellitengestützten Positionierungssystems GPS (Global Positioning System) erkennt das System den Standort der Besucher ähnlich wie bei einem Navigationsgerät im Auto. Die dazu passenden Audio-Beschreibungen wie spezielle Texte für Blinde und Sehbehinderte starten automatisch. An 25 Informationspunkten erhalten die Gäste somit fotografisch genau erläuterte Umgebungsbeschreibungen, die mit Wissenswertem zu Geschichte und Alltag der Halligen gespickt sind. „Auch sehende Besucher können mit der Audioführung ihren Blick schärfen“, erklärt Geschäftsführer Jörn Erkau von der Soundcom GmbH. Die genauen Beschreibungen lassen nämlich Details an Bauten und der Landschaft erkennen, die einem sonst bestimmt nicht aufgefallen wären. Tourismus-Trends & ITK-Szenarien. Trendradar und Zukunftsszenarien im E-Tourismus. Informations- und Kommunikationstechnologien in der Tourismusund Freizeitwirtschaft, Hrsg: Salzburg Research Forschungsgesellschaft, ITD-Verlag, Hamburg, 2007, ISBN 978-3-9810378-0-7 Für IT-Spezialisten stellt das wissenschaftliche Werk eine wichtige Quelle zur Orientierung dar, um relevante und nachhaltige Trends in der Informationsund Kommunikationstechnologie fundiert zu bewerten und neue BusinessPotenziale auszuloten, sowohl auf internationaler Ebene als auch mit Blick auf die österreichischen Heimatmärkte. Ein Grund, warum die EU nun den Airlines erlaubt, mobile Telefonie während des Fluges zuzulassen. Einschränkung: Nicht während Start oder Landung und erst ab 3.000 Metern Flughöhe. Für die Handyanbieter tut sich hier ein schönes Geschäftsmodell auf: Die GSMSignale aus dem Flugzeug werden nämlich über Satellit vermittelt und dann über Bodenstationen auf der Erde weitergeleitet, und hier können die Netzbetreiber die ganze Phantasie ihrer Roamingpreise spielen lassen. Denn billig wird die Nutzung des Handys an Bord sicher nicht werden. Doch ist es wirklich so, dass man unbedingt während einer Flugreise telefonieren muss? Bis jetzt ging es ja auch ohne. Auch vielbeschäftigte Businessreisende haben sich in der Rhythmik ihrer Transatlantikoder Asienflüge damit angefreundet, dass ein Langstreckenflug in der Business Class eine ideale Möglichkeit zum Ausspannen oder zur ruhigen Vorbereitung auf wichtige Geschäftstermine ist. Heilloses Geklin- gel an Bord würde da nur stören. Wenn es wirklich darum geht, wichtige Nachrichten auszutauschen, kann ja auch Inflight-Internet und E-Mail an Bord genutzt werden, was große Linien mittlerweile anbieten. Dass aber gerade auf einem so kleinen Raum wie einer Flugzeugkabine plötzlich jeder angerufen werden oder selbst den Lieben daheim wichtige oder weniger wichtige Nachrichten übermitteln kann, ist spätestens seit der Erfahrung mit HandyManiacs in der U-Bahn dem Grunde nach problematisch.Aus der U-Bahn kann man allerdings aussteigen oder sich einen anderen Platz suchen, im Flieger ist das leider nicht möglich. Die Austrian Airlines haben nicht zuletzt deswegen vor, das Handy-Service auf ihren Flügen nicht anzubieten, die Lufthansa übrigens auch nicht, da „das Ruhebedürfnis der Passagiere“ Vorrang habe. Anders zum Beispiel bei Air France oder Emirates: Dort kann nun ins Handy gelabert werden, was das Zeug hält. monitor | Special Kommunikation 4A/2008 Buchtipp www.salzburgresearch.at Umfassender Relaunch! Großes Jubiläumsgewinnspiel: Newsletter bestellen und mitmachen! www.monitor.co.at Aktuell: Neuigkeiten und Hintergründe Überblick: Das kostenlose MONITOR-Newsletter-ABO IKT-Wissen: Kostenloses MONITOR-PDF-Archiv bis zum Jahr 1994 Schwerpunkte: Sonderthemen umfassend dargestellt Karriere-Chancen: So finden Sie Ihren IKT-Traumjob Business Software: Schneller Marktüberblick mit dem IT-Matchmaker Bohmann Druck und Verlag GmbH & Co KG, Leberstraße 122, 1110 Wien, [email protected], www.monitor.co.at,Tel. +43 (0)1 740 95 – 410 maupi.com 10 Jahre MONITOR-Online Kommunikation | VPN Hybrid VPN: Sicherer Remote Access für jede Anforderung Einen sicheren Remote-Zugriff auf das Firmennetzwerk herzustellen ist keine neue Herausforderung für Administratoren. Neu sind aber wachsende Ansprüche der Nutzer, immer neue Endgeräte sowie neue Arbeitswelten und Strukturen mit Mitarbeitern aus dem Home Office, Außendienst-Mitarbeitern via PDA, freien Mitarbeitern. Thorsten Kurpjuhn Als weiterer Aspekt sind darüber hinaus Geschäftspartner und Lieferanten zu nennen, denen ein sicherer Zugriff auf wichtige Unternehmensressourcen (wie beispielsweise Produkt- und Preislisten) ermöglicht werden soll und Nutzer, die aus InternetCafes, Flughäfen oder Hotels Daten abrufen möchten. Dabei gibt es mittlerweile eine Fülle von Endgeräten, mit denen zugegriffen werden soll. Ob PDAs mit SSL, Windows-MobileNutzer via L2TP, Smartphones, private PCs oder Nutzer in fremden Netzwerken - von überall muss heute der Zugriff auf Unternehmensressourcen gewährleistet werden, und das möglichst ohne aufwendige Installation und Konfiguration. Problematisch ist hierbei, dass diese Endgeräte beispielsweise über WLAN Zugang zum Internet haben und die Sicherheit dieser fremden Netzwerke keinesfalls gewährleistet werden kann. End-to-End-Sicherheit via VPN ist daher der absolute Schlüssel, um unerwünschte Risiken auszuschalten. Der neue Trend - Hybrid-VPN Waren bisher hauptsächlich IPsec-basierende VPNs die Lösung für diese Problematik, so bietet Hybrid VPN, das sowohl IPsec VPN und L2TP VPN als auch SSL VPN umfasst, verschiedene Ansätze für die gestiegene Komplexität der heutigen Arbeitswelt. Mit Hybrid VPN werden alle Anforderungen an eine VPN Verbindung individuell abdeckt. Um einen SSL-VPN-Tunnel aufzubauen, ist lediglich ein internetfähiges Gerät mit Browser notwendig. Um einen Zugang aufzubauen, ruft der Mitarbeiter eine Internetadresse auf und loggt sich ins Netzwerk ein. 14 Die gesamte Session ist durch das SSL-Protokoll, bekannt vom Online-Banking, verschlüsselt. Dabei wird IPsec nach wie vor seine Bedeutung behalten: für Site-to-site VPNs, das heißt, die sichere Verbindung von statischen Netzwerken. Thorsten Kurpjuhn ist Produkt-Manager Security bei Zyxel, www.zyxel.at Welches VPN für welchen Nutzer? Pauschal gesagt ist sicher ein Mix aus allen drei möglichen Zugriffsarten die beste Lösung. SSL und IPsec bzw. L2TP VPN bieten unterschiedliche Vorteile woraus sich jeweils optimale Einsatzszenarien ableiten lassen. Nehmen wir beispielsweise einen User, der nicht nur jederzeit auf das Netzwerk zugreifen können („Always on“) muss, sondern auch noch Zugriff auf sämtliche Applikationen wie beispielsweise VoIP benötigt. Für solche User ist IPsec VPN die einzig logische Wahl. Durch die Notwendigkeit der Installation eines Clients auf dem Endgerät wird hier eine höhere Sicherheit gewährleistet. Diese erhöhte Sicherheitsanforderung betrifft ebenfalls Mitarbeiter, die in sicherheitsrelevanten Bereichen wie der Personalabteilung oder der Entwicklung arbeiten. ZyWALL Firewall Appliances sind zum Beispiel in der Lage, bis zu 1.000 solcher Tunnel entgegenzunehmen und selbständig zu terminieren. Die dahinter liegenden Server werden somit frei für ihre Kernaufgaben, da die komplette Rechenlast für das Entschlüsseln der VPN-Verbindungen übernommen wird. MS-Windows-Nutzer können darüber hinaus den L2TP-Service nutmonitor | Special Kommunikation 4A/2008 zen, der mit dem MS-Windows-OS-Paket geliefert wird. Anstrengungen wie zusätzliche Software-Installationen oder der Kauf von Software sind daher bei L2TP unnötig. SSL VPN - Mobil und flexibel Ist hingegen ein schneller Zugang ohne Konfiguration auf dem Notebook oder per Smartphone notwendig, bietet sich SSL VPN als die erste Wahl an. Mobile Benutzer, die auf Firmenressourcen in öffentlichen Internetcafes oder auf dem Flughafen zugreifen wollen, müssen einfach nur eine Verbindung per Browser herstellen, um flexibel und schnell die gewünschten Informationen abrufen zu können. Auch für Geschäftspartner und Kunden muss ein Zugriff einfach und ohne Konfigurationsaufwand möglich sein. SSL VPN ist hier die ideale Möglichkeit, dies zu gewährleisten. Die richtige Wahl der Remote-Verbindung hängt von den Bedürfnissen des Nutzers ab - Hybrid VPN ist daher die ideale Möglichkeit sicher und flexibel gestiegene ❏ Anforderungen abzudecken. Das Jahr 1985: Erste Domains wurden registriert Gleich zu Jahresbeginn 1985 vollzog sich unbemerkt von der Öffentlichkeit der historische Schritt: Die ersten Domains nordu.net bzw. symbolics.com wurden registriert. Nur wenige Zeitgenossen einschließlich der Entwickler ahnten damals etwas vom bahnbrechenden Erfolg des Internets. Lothar Lochmaier Das Wort „Internet“ setzt sich aus zwei Teilen zusammen: aus „inter“ (lateinisch für „zwischen“) und „net“, der Abkürzung für „networking“ (englisch für „vernetzen“). Rein technisch ausgedrückt steht das „Internet“ deshalb für die Vernetzung zwischen Computernetzen. Das Internet ist also oberflächlich gesehen „nur“ ein computerbasiertes Technologienetzwerk. Aber es ist weit mehr als das: In dem scheinbar harmlos daher kommenden Begriff Networking verbarg sich bereits zu Beginn die ungeheure soziale Sprengkraft eines Mediums, das bis heute die Befürworter und Kritiker nicht verstummen lässt. Etwas Martialisches hatte die Innovation von Anfang an. Schließlich ging das Vorhaben, zumindest darüber sind sich die Chronisten einig, aus dem 1969 entstandenen Arpanet hervor, einem Projekt der im US-Verteidigungsministerium angesiedelten Advanced Research Project Agency (ARPA). Arpanet diente zur Vernetzung von Universitäten und Forschungseinrichtungen. Ziel des Projekts war es zunächst, die knappen Rechenkapazitäten sinnvoll zu nutzen, erst in den USA, später weltweit. Die anfängliche Verbreitung des Internets ist eng mit der Entwicklung des Betriebssystems Unix verbunden. Nachdem das Arpanet 1982 das erste Internetprotokoll TCP/IP adaptierte, begann sich auch der Name Internet allmählich durchzusetzen. Nach allgemeiner Lesart von Experten und der damit verbundenen Legendenbildung bestand das ursprüngliche Ziel des Projektes vor dem Hintergrund des Kalten Krieges in der Schaffung eines verteilten Kommunikationssystems, um im Falle eines Atomkrieges eine störungsfreie Kommuni- kation zu ermöglichen. Glücklicherweise legte das Internet bald schon seinen kriegerischen Beigeschmack ab. Gleichwohl verleihen heute Begriffe wie „Cyberwar“ und „Cybercrime“ der dunklen Seite der organisierten Kriminalität bis hin zum Terrorismus wieder Auftrieb. Historie durch militärische Forschungsgelder geprägt In der Pionierphase wurden hingegen vorwiegend zivile und vor allem wissenschaftliche Projekte gefördert, auch wenn die ersten Knoten von der ARPA finanziert wurden. Die wichtigste Applikation in den Anfängen war das E-Mail. Bereits 1971 überstieg das Gesamtvolumen des elektronischen Mailverkehrs das Datenvolumen, das über die anderen Protokolle des Arpanets, das Telnet und FTP, abgewickelt wurde. Das World Wide Web (WWW) in seiner heutigen Grundstruktur wurde im Jahr 1989 im CERN bei Genf von Tim Berners-Lee entwickelt. Rasanten Auftrieb erhielt das Internet allerdings erst seit 1993, als der erste grafikfähige Webbrowser namens Mosaic veröffentlicht und zum kostenlosen Download angeboten wurde. Schließlich konnten auch Laien auf das Netz zugreifen, was mit der wachsenden Zahl von monitor | Special Kommunikation 4A/2008 Nutzern zu vielen kommerziellen Angeboten im Netz führte. Der Webbrowser wird deswegen auch als die „Killerapplikation“ im Internet bezeichnet. Immer mehr machte der Begriff der „digitalen Revolutio“n die Runde. Die Benutzerzahl stieg stark an. 1991 führte Tim Berners-Lee vom europäischen Kernforschungszentrum CERN im Internet ein Hypertextsystem ein. Mosaic ermöglichte es zudem, eine einfach zu bedienende Benutzeroberfläche zu gestalten. Damit wurden von nun an die digitalen Netzwerk-Dokumente auf unkomplizierte Weise zugänglich. Bereits 1992 war die technische Internetausstattung auf 700.000 Server herangewachsen. Ein Jahr später hatte sich die Anzahl der am Internet angeschlossenen Computer mit 1,8 Mio. mehr als verdoppelt. Nutzten bis Mitte der 90erJahre vorwiegend universitäre Einrichtungen das Netz, so rückten jetzt der Privatanwender und damit verbunden kommerzielle Interessen in den Vordergrund. Namhafte Zeitungen kamen auf die Idee, einen Teil ihrer Printausgaben online zu stellen. Die ersten Online-Shops wurden geboren, allen voran Online-Buchhändler Amazon. Wenige Jahre später machte die Auktionsplattform eBay weltweit Furure. Durch die Erschließung der globalen Kon15 sumentenwelt kam die Frage nach der Sicherheit von Daten im Internet auf. Denn die normale Datenübertragung war nicht abhörsicher, also mussten Verschlüsselungstechniken her. Bis heute jedoch gibt es kein Allheilmittel gegen die über digitale Mechanismen verbreitete Schadsoftware.Trotzdem träumt seit 1995 die ganze Welt den etwas naiven Traum vom „Cyberspace“, vom unbegrenzten und freien „Surfen“, oder gar von der „Welt im Netz“. Heute gibt es weltweit mehrere Milliarden Internetnutzer.Allerdings machen immer noch viele Nutzer im alltäglichen Sprachgebrauch den Fehler, „das Internet“ mit dem World Wide Web gleichzusetzen. Dabei deckt dieses nur einen Bruchteil der sichtbaren Oberfläche ab. Mit E-Mail, FTP, Telnet und Usenet (Newsgroups) stehen weitere Dienste bereit, die bis in die tiefen Kanäle des dunklen Untergrunds hineinreichen. Vergessener Pionier der ersten Stunde Während insbesondere die beiden Pioniere Tim Berners-Lee und Vinton G. Cerf in der Öffentlichkeit auch heute noch eine namhafte Rolle spielen, geriet ein anderer in Vergessenheit. Der langmähnige Experte Jonathan Postel mit dem Outfit eines Einsiedlers gehörte zu jenen Computerfreaks, die in den 60er-Jahren damit begannen, ein weltweites Datennetz zu knüpfen. Dass dies bis heute funktioniert, dazu leistete auch Postel seinen Beitrag. Der zurückhaltende Mann in Sandalen galt als vertrauenswürdig und war der erste Herr über das ausgeklügelte Adresssystem im Internet. Er vergab und verwaltete die Internet-Adressen. Und er tat dies so effizient, dass dem Netz trotz rasanten Wachstums in den Anfangsjahren das große Chaos erspart blieb. Der Wissenschaftler und Herausgeber der „Requests of Comments“ (RFC) verstarb allerdings bereits im Jahre 1998 und konnte somit den Wandel vom statischen zum dynamischen Netzwerk nicht mehr mit erleben, einschließlich des großen Erfolgs der sozialen Gemeinschaften im Web 2.0. Jonathan Postel starb am 16. Oktober 1998 in Santa Monica, Kalifornien, an den Folgen einer Herzoperation. Internet und das Web 2.0: Quo vadis Community? Trend 1: Die Medien-Branche werde durch die ständig steigende Relevanz des Webs immer mehr umgekrempelt. Die Grenzen zwischen den einzelnen Kanälen verschwinden, im Zentrum stehen zunehmend die Inhalte und gleichzeitig die Nutzer, die mit Web 2.0 auch zu Inhalts-Produzenten werden. „User Generated Content“ ist für die Medienbranche eine enorme Herausforderung und bedroht den Wert der traditionellen „Assets“, wie z. B. Fernsehkanäle oder Zeitungsmarken. Der Bau und die Pflege einer Leser-Gemeinde werden zur zentralen Aufgabe.Telekommunikationsfirmen drängen mit immer neuen Angeboten in den Markt und nutzen ihre Fähigkeiten zur Verbreitung von Information auf den unterschiedlichsten Kanälen. Die Konvergenz der Medien wird weiter zunehmen und neue Mischformen werden die Aufmerksamkeit der Nutzer auf sich ziehen. Trend 2: Das Phänomen „Social Networking“ wird weiter an Bedeutung gewinnen. In den USA haben bei Jugendlichen bereits heute Applikationen wie Facebook oder Twitter mehr Gewicht als E-Mail und werden zunehmend als primäre Kommunikationsplattform genutzt. Dieser Trend wird sich ausweiten und 2008 auch Europa verstärkt erfassen, wenn Sprachbarrieren überwunden sind und ein gemeinsames Momentum erreicht wird. „OpenSocial“ als API-Standard für Applikationen auf unterschiedlichen „Social-Networking“-Plattformen wird diesen Trend weiter forcieren. Die Nutzung des „Social Graph“ (wer kennt wen via wen) wird aber auch außerhalb der Online-Sites 16 wie Facebook, LinkedIn oder Xing immer wichtiger, zum Beispiel im Rahmen von Empfehlungen bei Produktkäufen oder bei der Evaluation und Organisation von Reisen. Bisher scheinen sich Social-Networking-Applikationen stark entlang Sprachund teilweise auch Landesgrenzen zu entwickeln. Trend 3: Nachdem das Web bisher fast ausschließlich eine Online-Welt war und es auch immer einfacher ist, überall online zu sein, haben verschiedene Technologie-Optionen inzwischen auch eine Reife erreicht, die es erlauben, Offline-Anwendungen und hybride Online/Offline-Lösungen ohne erheblichen Mehraufwand zu entwickeln. Technologien wie Google Gears,Adobe Air oder Firefox 3.0 zeigen den Weg auf. WebApplikationen gelangen damit zum Client und wir werden möglicherweise eine gewisse Verschmelzung von Client-Anwendungen und Web-Applikationen sehen, in der die Grenzlinien zwischen der Online- und Offlinewelt für den Nutzer bald verschwimmen. Trend 4: Werbung wird weiterhin der dominierende Umsatztreiber im Web-2.0-Umfeld sein.Alternative Modelle konnten sich bisher kaum etablieren und werden auch weiterhin einen schweren Stand haben, solange etwa kein relevanter und breit eingesetzter Standard für Bezahlverfahren (Micropayments) greifbar sind. Der Trend der Werbeakteure, von Offline- zu Online-Werbung zu wechseln und zu fokussieren, wird weiter zunehmen. In den kommenden Monaten und Jahren werden wir immer besser monitor | Special Kommunikation 4A/2008 ausgefeilte Modelle beobachten können, um Werbung noch zielgerichteter, profilgerechter und wirksamer zu platzieren. Auch die Messbarkeit wird ständig steigen. Weil gleichzeitig aber auch die Konsumenten werbemüde werden, finden neue Formen von Werbung wie Co-Produktionen, Sponsorings oder interaktives „Product-Placement“ Eingang bis hin zum Erstellen von kompletten Filmproduktionen durch Communities. Die Besitzer und Anbieter von Inhalten werden vermehrt direkt mit den Produktanbietern arbeiten, um einen bruchstellenfreien „Lead-Generation“-Prozess zu implementieren. Trend 5: Mit dem Erfolg von Innovationen wie dem iPhone wird auch die Widget-Euphorie weiter zunehmen. Kaum ein großer Anbieter wird darauf verzichten wollen, seine Funktionalitäten und Inhalte auch über Widgets zu verbreiten. Trend 6: Web 2.0 und dessen Entwicklungen wirken sich neben der Medien-Branche auf viele andere Branchen aus. Zunehmende Preis-Transparenz, allgegenwärtiger Informationsaustausch, einfachere Selbstbedienungsangebote und verbessere Integration vorher nicht kombinierbarer Dienste beeinflussen auch die Ausrichtung von Transport-/Touristik-Unternehmen, Finanzinstituten oder Pharmafirmen. Und nicht zuletzt drängen die Mitarbeiter, die den Nutzen von Web-2.0-Funktionalitäten in ihrem Privatleben schätzen gelernt haben, die Unternehmen dazu, ähnliche Funktionalitäten und Dienstleistungen auch intern einzuführen. Rufschädigung von Unternehmen mit einem Mausklick möglich Einige Entwicklungen hätten Postel sicher nicht gefallen. Den positiven Perspektiven, die Marktforscher, Unternehmensberater und Technologieanbieter im interaktiven Netzwerk der Marke 2.0 im Jahr 2008 propagieren, sind auch enge Grenzen gesteckt. Die Community ist nicht mehr ganz so naiv wie vor wenigen Jahren. Sie reagiert mittlerweile empfindlich wie ein Seismograph auf Datenschutzbelange, auch weil sie sich nicht ausschließlich als Werbevehikel vor den Karren der Betreiber spannen lassen möchte. Mittlerweile tangiert die dunkle Seite aber auch immer mehr das Image von Unternehmen. Die Rufschädigung per Mausklick im Internet besitzt zahlreiche Facetten, die von technischen Schwachstellen in der IT, über Herausforderungen in der Matrix-Organisation, bis hin zu Fragen des Führungsstiles reichen. Es gilt die Bandbreite an denkbaren Möglichkeiten systematisch zu erfassen. Negative Nachrichten und bloße Gerüchte über das Unternehmen verbreiten sich heute binnen Minuten um den ganzen Globus, was das innerbetriebliche Reputationsmanagement erheblich kompliziert. Andererseits kann eine positive Reputation im Netz oftmals binnen Stunden den Aktienkurs und damit den Unternehmenswert nach oben treiben. Mit Blick auf die Vielfalt der Instrumente in der Kommunikation haben die Beleg- schaften durch internetbasierte Kanäle in den letzten Jahren zweifellos an Einfluss gewonnen. Neuester Ausfluss im „Mitmachweb“ sind zahlreiche Portale, auf denen Mitarbeiter ihre Arbeitgeber bewerten können. Einerseits könnten Unternehmen beispielsweise bei einem anstehenden RecruitingProzess im Wettlauf um die besten Köpfe ihr eigenes Image durch viele positive Bewertungen und damit die Attraktivität als Arbeitgeber auch im Internet deutlich steigern. Andererseits steht das Image des Unternehmens durch offene Plattformen, die die Reputation bewerten, permanent auf dem Spiel. Laut einer Studie der Österreichischen Gesellschaft für Marketing (ÖGM) ist unter dem etwas nebulösen Begriff „Reputation“ weit mehr als nur der „gute Ruf“ zu verstehen. Die von den Marktforschern befragten Führungskräfte stufen vor allem Faktoren wie Vertrauenswürdigkeit, Glaubwürdigkeit und Verantwortungsbewusstsein als zentrales innerbetriebliches Koordinatensystem ein. Demzufolge lässt sich ein nachhaltiges positives Image kaum über kurzfristige Kommunikationsprogramme herstellen. Was zählt sind Resultate, die über einen längeren Zeitraum durch widerspruchsfreies und glaubwürdiges Handeln hervorgerufen und bestätigt sind.Auf der anderen Seite bietet das Internet ein großes Reservoir, die Marke und ihre Kernbotschaften dynamisch weiterzuverbreiten und somit den Unternehmenswert nachhaltig und positiv ❏ zu beeinflussen. Individuell. Ganzheitlich. Energieeffizient. IT-Lösungen 100 % modular Unternehmen kämpfen im Internet um ihren guten Ruf Was leistet das internetbasierte Reputation Management? . Web Reputation Management bzw. der synonym verwandte Begriff „Online Reputation Management“ beschreibt die Überwachung sowie das Monitoring aller relevanten im Internet frei zugänglichen Meinungen und Kommentare. Unternehmen, die sich aktiv und permanent mit dem eigenen Bild in der Online-Welt auseinandersetzen, können besser in den öffentlichen Meinungsbildungsprozess eingreifen und diesen aktiv mit gestalten. . Das Ziel einer authentisch gelebten Führungskultur sollte nicht darauf beschränkt sein, ausschließlich die Marke oder allgemein ausgedrückt den Wert des Unternehmens zu steigern - oder durch neue internetbasierte PR-Instrumente zusätzliche Kundenpotenziale zu erschließen. Mit in das integrierte Risikomanagementsystem sollten vor allem ethische Prinzipien aus der Unternehmensführung einfließen, die eine nachhaltige Reputationspflege sinnvoll flankieren bzw. ergänzen, um das Unternehmen krisenfester und robuster gegen Angriffe auszustatten. Rittal ist Mitglied in „THE GREEN GRID“ Weitere Informationen auf www.rittal.at/IT Rittal Schaltschränke Ges.m.b.H. Wien – Linz – Graz – Lauterach Tel. Zentrale: (01) 610 09-0 offi[email protected], www.rittal.at Als das Internet laufen lernte und wie das Netz fast schon zu schnell wurde Gleich zu Jahresbeginn 1985 vollzog sich unbemerkt von der Öffentlichkeit der historische Schritt: Die ersten Domains nordu.net bzw. symbolics.com wurden registriert. Ein Interview mit Peter Rastl, der seit 1976 den Zentralen Informationsdienst (ZID) an der Universität Wien leitete, und den technologischen Wandel an vorderster Front erlebte. Lothar Lochmaier Herr Rastl, Sie waren nach allgemeiner Legendenbildung derjenige, der bei Jon Postel von der IANA damals die erste Top Level Domain TLD.at hat registrieren lassen. Welche Herausforderungen stellten sich damals vor 20 Jahren an der Uni Wien, um dem Internet in Österreich konkretes Leben einzuhauchen? Genau genommen war nicht ich es, der die Mail an Jon Postel bezüglich der Registrierung der TLD.at geschrieben hat, sondern Walter Kunft von der TU Wien im Namen des ACONET-Vereins. Der „Verein zur Förderung eines österreichischen, wissenschaftlichen Datennetzes (ACONET)“, wie er offiziell heißt, wurde 1986 gegründet, seine Mitglieder waren die EDV-Zentren der österreichischen Universitäten. Als wir an der Uni Wien begannen, uns mit dem Internet-Protokoll zu beschäftigen, und begriffen hatten, was Internet-Adressen und -Namen sind, und dass da in den USA eine Top Level Domain für Österreich eingetragen werden musste, schien es mir passend, diesen Schritt über den ACONETVerein zu veranlassen, denn das war ja nicht eine Angelegenheit alleine des EDV-Zentrums der Uni Wien, sondern aller Universitäten. Das kommerzielle Internet gab es damals noch nicht. Der Eintrag von „.at“ war überhaupt keine Herausforderung, sondern Walter Kunft schickte das Mail an Jon Postel und der antwortete prompt: „Done.“ Leider ist dieses Mail nicht erhalten geblieben. Wir hatten keine Ahnung, dass das einmal als ein historisch bedeutsames Ereignis wahrgenommen werden würde. Welche Organisationen und Firmen hatten in dieser ersten Pionierphase konkretes 18 Interesse an einer derartigen Registrierung, schließlich steckte das World Wide Web bis gegen Mitte der 90er-Jahre noch ziemlich in den Kinderschuhen? In dieser Pionierphase war das Internet eine rein akademische Angelegenheit, nur die Universitäten, aber keine Firmen oder andere Organisationen hatten daran bereits ein Interesse. Das WWW gab es damals noch nicht, das lernte ich erst bei einem Vortrag von Tim Berners-Lee anlässlich einer vom ACONET-Verein veranstalteten Tagung 1992 in Innsbruck kennen - und erkannte selbst da noch nicht die große Bedeutung, die das einmal haben sollte. Welches waren die Motive der beteiligten Personen, sich im Vorläufer des Internets in Österreich „einen Namen“ zu machen? Wir wollten Erfahrungen mit dem Internet-Protokoll sammeln, das geeignet war, Rechner unterschiedlicher Hersteller mit einem „neutralen“ Protokoll zu verbinden, im Gegensatz zu den firmenspezifischen Kommunikationsprotokollen wie IBM/SNA oder DECnet. Kommerzielle Motive spielten keine Rolle, und es dachte auch niemand darüber nach, ob man sich da „einen Namen machen“ würde.An den Universitäten war es eben möglich, sich mit interessanten Neuerungen ohne Rücksicht auf Nützlichkeit oder wirtschaftliche Gesichtspunkte zu beschäftigen. Deshalb ist das Internet in Europa von einzelnen akademischen Institutionen ausgegangen, während die EU-Kommission auf ein anderes Pferd setzte, die sogenannten OSI-Protokolle und das Internet-Protokoll als eine unerwünschte amerikanische Konkurrenzentwicklung verdrängen wollte. Erst Jahre später ließ die EUmonitor | Special Kommunikation 4A/2008 „Wir hatten keine Ahnung, dass das einmal als ein historisch bedeutsames Ereignis wahrgenommen werden würde.“ - Dr. Peter Rastl, viele Jahre Leiter des Zentralen Informatikdienstes an der Universität Wien Kommission von dieser fehlgeleiteten Förderpolitik ab. Das Internet hat sich rasant vom Außenseiter zum Marktplatz von Ideen gewandelt. Aber auch die Kommerzialisierung der Communities nimmt zu, und das professionell organisierte Cybercrime bedroht sowohl die Integrität der Nutzer als auch die Vertrauenswürdigkeit der Unternehmen. Wie sieht denn Ihre persönliche Bilanz heute aus? Es hat in diesen 20 Jahren eine rasante Entwicklung stattgefunden, mit vielen Innovationen, die zumindest für mich überraschend gekommen sind: Der Siegeszug des WorldWide Web, die Leistungsfähigkeit von Suchmaschinen, die Wirkung von p2p-Filesharing, der Umfang und die Qualität von kooperativem Content wie Wikipedia etc., und da wird es auch in den nächsten Jahren noch manche Innovationen geben, mit denen das Internet selbst die Trendforscher überraschen wird. Nicht so überraschend ist es, dass das Internet zu kriminellen Zwecken genutzt wird - da ist schon eher überraschend, dass es so lange dauert, bis die Gesellschaft damit einigermaßen klarkommt. Natürlich ist die begeisterte und auch naive Koopera- tion der Internet-Pioniere längst einem harten kommerziellen Konkurrenzkampf gewichen, wo viele Kreise ihren mitunter kriminellen Vorteil suchen. Das ist das reale Leben, dem wir uns stellen müssen, wir leben längst nicht mehr im Paradies, wo auch die Raubtiere friedlich mit allen zusammenleben. so müssen auch die Internet-User lernen, mit den Risken und Gefahren im Internet umzugehen. Einmalig in der Kulturgeschichte ist es, dass beim Internet erstmals die Eltern von ihren Kindern lernen müssen, und die traditionellen Muster gesellschaftlicher Entwicklung scheinbar auf den Kopf gestellt werden. Glaubwürdigkeit und Vertrauenswürdigkeit gelten als Schlagworte, die sich heute unter dem Begriff „Online“ bzw. „Web Reputation Management“ subsummieren lassen. Wie sieht denn Ihrer Meinung nach die Zukunft im Netz aus, wird sich eher die dunkle oder eher die lichte Seite durchsetzen? Was schlussfolgern Sie aus diesen Tendenzen? Es wird sich die lichte Seite durchsetzen, aber dazu ist es nötig, dass die Gesellschaft diese neue Kulturtechnik wirklich verinnerlicht und über eine ausreichende „Internet Literacy“ verfügt. So wie wir unseren Kleinkindern beibringen, nicht alles, was sie vom Fußboden auflesen, in den Mund zu stecken, Jedenfalls müssen wir, die wir das Internet mitgestalten, rechtzeitig Maßnahmen entwickeln, das Vertrauen in diese Technologie zu stärken und den Missbrauch zurückdrängen, ohne allerdings dabei zu Panikmache und Polizeistaat zu greifen. Meine große Sorge ist, dass die Politik - in Unkenntnis über die Funktionsweise des Internets - versucht, Probleme auf eine althergebrachte Art zu lösen, die zwar beim Internets scheitert, aber als Nebenwirkung schwerwiegende Gefahren für unsere Gesellschaft herauf- Nationale und internationale ACOnet-Verbindungen ab November 2001 (Bild Universität Wien) beschwört, wie zum Beispiel die Verpflichtung zur Vorratsdatenspeicherung: Es sollte doch jedem klar sein, welches Missbrauchspotenzial da geschaffen wird, wenn man von Amts wegen alle Kommunikationsdaten aller Bürger abspeichert. Und niemand sollte so naiv sein zu glauben, dass diese Daten nur zur Bekämpfung der ❏ Schwerkriminalität genutzt werden. KOMPETENZ VERBINDET. ALLES AUS EINER HAND W ENERGIETECHNIK W INDUSTRIE- UND SCHALTTAFELBAU W GEBÄUDEINSTALLATIONSTECHNIK W SICHERHEITSBELEUCHTUNG W ANLAGENTECHNIK W NETZWERKTECHNIK W KABEL UND LEITUNGEN W LICHTTECHNIK SCHRACK TECHNIK GMBH Seybelgasse 13, A-1230 Wien TELEFON +43(0)1 / 866 85-0, E-MAIL [email protected] monitor | Special Kommunikation 4A/2008 WWW.SCHRACK.AT 19 Infrastruktur | WAN-Optimierung Performance-Steigerung und Kostenreduktion durch WAN Optimierung Der Drang, immer mobiler und flexibler zu sein, führt zu sehr verteilten Unternehmensstrukturen. Nicht nur die Anzahl der Branch Offices, sondern auch die Zahl der mobilen Anwender steigt exponenziell. Und damit auch die Anforderung an mehr Performance, optimaler Weise bei gleichbleibenden Kosten - immer und überall. Walter Ludwig Aber auch die Zentralisierung der IT-Systeme wie File-Server, Backup-Server etc. zeigt, dass die meist langsamen Anbindungen nicht ausreichend sind. So können Archivierungsjobs nicht mehr zeitgerecht durchgeführt werden, und Daten werden inkonsistent. Ursachen für die meisten Probleme bei der Anbindung von Außenstellen bzw. mobilen Usern ist normalerweise nicht die Bandbreite, die ja meist mit geringen Kosten aufgestockt werden könnte, sondern die Latenzzeit. Diese physikalische Größe kann allerdings nicht mit Upgrades der Leitungen verringert werden, sondern ist abhängig von der Entfernung bzw. Länge der Verbindung. Dieses Latenzproblem ist vor allem bei vielen TCP-basierten Protokollen massiv, da diese durch ein protokollbedingtes Hin- und Hersenden vieler kleiner Pakete limitiert sind. So zum Beispiel das CIFS-Protokoll, welches eine maximale Paketgröße von 4 kB unterstützt und rein seriell funktioniert, das heißt jedes Paket erfordert auch ein Acknowledgement. Würde man über eine 16-Mbit-Leitung mit einer Latenzzeit von ca. 100 ms (entspricht der Entfernung Wien - London) ein 1000 kB großes PDF-Dokument transferieren, bräuchte man hierzu 250 Pakete hin und 250 Pakete retour. Bei einer Latenzzeit von 100 ms und optimalen Leitungsbedingungen bedeutet dies eine Transferzeit von 50 Sekunden! Und das bei 16 Mbit ... 20 Durch das Implementieren einer entsprechenden Lösung, sowohl in der Zentrale als auch in der Außenstelle, kann dieses „Ping-Pong“-Spiel unterbunden werden, da dafür entwickelte Appliances die maximale Paketgröße von TCP (64 kB) ausnutzen und diese vielen kleinen Pakete in große Pakete zusammenführen. Dies setzt nicht die Latenzzeit außer Kraft, verringert allerdings die Auswirkungen. Eine Technologie, die bereits seit Jahren in anderen Bereichen verwendet wird, ist Compression. Eher bekannt bei vielen Anwendern, um aus großen Dateien kleinere zu machen, wird diese Methode allerdings ähnlicherweise auch auf den gesamten Netzwerktraffic angewendet. Dies führt zu einer weiteren Reduktion des Datenvolumens und erhöht damit auch die Performance. „Magie“ der WAN-Optimierung Hier beginnt die sogenannte „Magie“ der WAN-Optimierung. Durch das Implementieren einer entsprechenden Lösung, sowohl in der Zentrale als auch in der Außenstelle, kann dieses „Ping-Pong“-Spiel unterbunden werden, da dafür entwickelte Appliances die maximale Paketgröße von TCP (64 kB) ausnutzen und diese vielen kleinen Pakete in große Pakete zusammenführen. Dies setzt nicht die Latenzzeit außer Kraft, verringert allerdings die Auswirkungen. Eine weitere klassische Technologie in der WANmonitor | Special Kommunikation 4A/2008 Optimierung ist das Caching. Hier können sowohl ganze Objekte, aber auch nur einzelne Bit-Muster zwischengespeichert und bei Bedarf lokal zugestellt werden. Damit werden weniger Daten über das Netzwerk gesendet, was zwangsweise zu einer Performance-Steigerung führt. Das Erkennen von Bit-Mustern, auch Byte-Caching genannt, kann bei jedem TCP-basierten Protokoll angewendet werden und bietet so eine sehr effektive und breitbandige Möglichkeit, Optimierungen durchzuführen. Eine Technologie, die bereits seit Jahren in anderen Bereichen verwendet wird, ist Infrastruktur | WAN-Optimierung Walter Ludwig ist Geschäftsführer der Triple AcceSSS IT, www.3xs-it.com Compression. Eher bekannt bei vielen Anwendern, um aus großen Dateien kleinere zu machen, wird diese Methode allerdings ähnlicherweise auch auf den gesamten Netzwerktraffic angewendet. Dies führt zu einer weiteren Reduktion des Datenvolumens und erhöht damit auch die Performance. Weitere Optimierungsmöglichkeiten bietet auch das TCP-Protokoll selbst. Hier besteht Potenzial im Anpassen der WindowSize und den damit verbundenen Acknowledgement-Verhalten sowie beim Packet Loss Handling, da sehr oft auf WAN-Leitungen auch Pakete verloren gehen. Jede WAN-Optimierungslösung sollte zusätzlich noch die Möglichkeit bieten,Traffic sowohl zu priorisieren als auch zu garantieren und zu limitieren, um die gewünschte Performance-Steigerung auch dort zu erhalten, wo sie wirklich notwendig ist. Denn wer möchte schon das „normale eBay-Surfen“ beschleunigen, wenn eigentlich die Priorität am SAP-Traffic liegen sollte. All diese Technologien gemeinsam in Verwendung führen heute bereits zu Bandbreitensteigerungen von mehr als 100-facher Beschleunigung. Durch das Object Caching können ganze Dokumente, ohne Traffic über die WAN-Leitung zu erzeugen, zugestellt werden. Sind kleinere Änderungen am File gemacht worden, unterstützt das ByteCaching maßgeblich, da nur mehr die Veränderungen übertragen werden müssen. Wird die Datei dann übertragen, sollte sowohl die Protokoll-Optimierung, Compression und das Bandbreiten-Management zum Tragen kommen. Somit besteht die Möglichkeit, IT-Systeme zu zentralisieren und damit nicht nur Kosten zu sparen, sondern gleichzeitig auch wesentlich mehr Performance zu bieten. Einbindung mobiler User Aber was ist mit den mobilen Anwendern? Wie können diese unterstützt werden? Die Antwort ist meist sehr einfach - die meisten WAN-Optimierungslösungsanbieter haben nicht nur Appliances, sondern auch Software Clients im Portfolio. Dies führt dazu, dass auch mobile Mitarbeiter in den Genuss von WAN-Optimierung kommen, was auf der einen Seite zur Performance-Steigerung führt, aber auf der anderen Seite auch zu immensen Kostenersparnissen. Denn jeder mobile User benützt meist Breitband-Datenkarten, welche im Inland bereits zu günstigsten Preisen angeboten werden, im Ausland aber auf Grund des Roamings noch immer sehr teuer sind. Würde man damit eine Traffic-Ersparnis von ca. 50% erreichen können, wäre die Investition für eine derartige Lösung meist in kürzester Zeit wieder eingespart. WAN-Optimierungslösungen sind keine Zauberboxen - sie nutzen einfach bereits gesendete Daten mehrfach aus und optimieren Protokolle - alleine dies führt zu großen Performance-Steigerungen und zu potenziellen Kostenersparnissen. ❏ Einzigartig. Stapelbar. Flexibel. Kraftvoll. Wir haben es alles. Die Zeit für Allied Telesis einzigartige stapelbare Lösung ist gekommen. Der 1 Höheneinheit hohe x900 ist der meist flexible am Markt, unser innovativer SwitchBlade® x908 ist ein außerordentlich vielseitiges Mini Chassis. » Totale Flexibilität und Zukunftssicher mit unserer Reihe von Erweiterungsmodulen » Mit 160 Gbps stacking Bandbreite auf den stacking Ports am SwitchBlade x908 SwitchBlade x908 » Industrie Standard CLI mit dem neuen AlliedWare Plus™ Betriebssystem » Gewährleisten Sie den hohen Grad an Sicherheit den ihr Netzwerk benötigt FTTx | ADSL2+ | POTS | VoIP | VDSL2 | GEPON | GIGABIT | 10G © 2008 Allied Telesis Inc. All rights reserved. EMEA1866 Tel +43 1 876 24 41 www.alliedtelesis.com Infrastruktur | Server Vielgeprüft und zukunftsreif Die Anschaffung von Servern ist eine Rechnung mit vielen Variablen. Mit einem Report zum Thema wollen die US-Berater der Burton Group manche Entscheidungsfindung erleichtern. Alexandra Riegler „Bei der Auswahl der richtigen Server-Plattform“, schreibt Andrew Kutz, „geht es oft vielmehr darum,eine Balance zwischen widersprüchlichen Anforderungen zu finden, als eine einfache Anforderungsliste zu erfüllen.“ Analyst Kutz, inzwischen Consulter für Focus Consulting, verfasste unter Mithilfe seiner Kollegen Nik Simpson und Drue Reeves einen Report für das IT-Beratungshaus Burton Group. Dieser soll Unternehmen bei Fragen rund um den Server-Kauf zur Hand gehen.Tenor: Vorausschauend ausbalancieren und nicht alle drei Jahre versuchen,das Rad neu zu erfinden. Server im x86-Bereich sind typischerweise drei bis fünf Jahre im Einsatz.Angesichts der hohen Fluktuation im IT-Administrationsbe- reich gehen die Autoren davon aus, dass die aktuelle Mannschaft meist nicht genau weiß, warum ein Gerät in seiner speziellen Konfiguration angeschafft wurde.Dies führt unter anderem zu „Vendor Hopping“: Viele Geräte mögen „Best in Class“ sein,aber eine gemeinsame Verwaltungsebene fehlt. Zur bunten Bestückung von Rechenzentren trägt auch bei, dass defekte Teile nicht mehr ausgetauscht werden, insbesondere, wenn sich der Support-Zeitraum eines Geräts dem Ende zuneigt. Kutz nennt das Beispiel eines Problems bei der Stromzufuhr. Handelt es sich um einen nicht mehr unterstützten Server,wird dies vom Hersteller zumeist mit der Empfehlung zum Systemaustausch quittiert. All dies kann laut Burton Group ein „Rezept für Chaos“ sein. Tipps beim Server-Kauf . Die Expertise der IT-Mannschaft mit bestimmten Herstellern berücksichtigen. Laut Burton Group wird dies erstaunlich oft außer Acht gelassen. . Ebenso: Beziehungen zu Herstellern nutzen, etwaige kombinierte Angebote in Anspruch nehmen. Und auch bei harmonischen Herstellerbeziehungen immer wieder die Rute ins Fenster stellen und sich im Portfolio der Konkurrenz umsehen. Auch andere Mütter haben schöne Töchter. . Vor der Plattformentscheidung überprüfen, ob Stromversorgungs- und Hitzeableitungsanforderungen erfüllt werden können. 22 . Steht Virtualisierung am Plan? Dann muss die Plattform in der Lage sein, zahlreiche CPUs, Netzwerkadapter sowie ausreichend Speicher zu unterstützen. Zudem beim Prozessorkauf auf Konsistenz achten. Laut Kutz setzen Live-MigrationTechnologien wie „VMWare VMotion“ und „XenSource Live Migration“ dieselbe Prozessorenmarke bei Ausgangs- und Zielserver voraus. . Direct Attached Storage (DAS) ist in Unternehmen noch beliebter, als dies SAN-Anbietern (Storage Area Network) lieb ist. Wer sich DAS als Option offen halten will, muss dies beim Server-Kauf berücksichtigen. monitor | Special Kommunikation 4A/2008 Abschiedsvorstellung Die Anschaffung neuer Server aufgrund von Innovation kann ohne Frage auch begründet sein, beispielsweise, wenn eine neue Applikation Zugang zu verteiltem Speicher verlangt oder ein florierendes Geschäft schlicht seiner IT-Infrastruktur zu entwachsen droht. Auch ziehen Betriebssysteme und Anwendungen, die sich über mehrere Prozessoren hinweg skalieren lassen, laut Kutz Nutzen aus Plattformen, die Quad-Socket-Konfigurationen unterstützen.Ebenso ist es notwendig bei Software,die Hochverfügbarkeit verlangt, aber die dazu gehörigen Features wie Clustering nicht selbst bereitstellt, die Hardware für diesen Part heranzuziehen. Ein wichtiger Treiber für Neuanschaffungen ist die Verbreitung von 64-Bit-Software. So verlangt Microsofts Exchange Server 2007 die 64-Bit-Version von Windows Server sowie die dazu gehörige Hardware. Beim angesagten Thema Energiesparen kann zwar viel mit gutem thermischen Design und Powermanagement bewegt werden. Doch auch hier sind irgendwann die Grenzen der Optimierbarkeit erreicht.Weil Hardware-Hersteller derzeit stark „grüne“ Technologien pushen, kommt es durch teilweise Neuanschaffungen zu weiteren Mischformen im Rechenzentrum. Grüner Trend bleibt Für schlichtweg kurzsichtig halten die Autoren des Reports indes die Einschätzungen nicht genannter Analysten, die das Thema Energiesparen bereits wieder am Rückzug sehen.Die 18-monatige Lebensdauer,die dem grünen Trend von diesen Marktbeobachtern zuerkannt wird, trifft laut Kutz nicht zu. So seien zahlreiche Energiesparfunktionen bei Hardware längst noch nicht Standard, dies wiederum ließe einen Rückschluss auf den Nachholbedarf zu. Ebenso sprechen die Anstrengungen der Industrie für ein längeres Verweilen des Themas. Die IEEE arbeitet an energieffizienten Netzwerkstandards, ebenso sind stromsparende Speicher durch Produktion im 45-nmProzess im Kommen. Dies hat insofern Bedeutung,als Server zunehmend Speicher verwenden, um mehrere virtuelle Maschinen zu unterstützen.Dieser Speicher würde „genauso viel“ verbrauchen wie CPUs - „oder mehr“.Nach Ansicht der Burton Group dürfte es demnach noch bis zu 60 Monate dauern, bis viele der umweltschonenden Technologien den Commodity-Markt erreichen. Welcher Server ist der richtige? Die Frage, warum in vielen Rechenzentren immer noch Tower-Modelle zu finden sind, liegt für Kutz auf der Hand: Die Geräte sind günstig zu haben und lassen sich problemlos aufstellen.Auch halten die Verfasser der Studie diese als zusätzliche DNS- oder Backup-Server in Zweigniederlassungen für durchaus sinnvoll. Hinzu kommt, dass sich Tower im Highend-Bereich nicht besonders von Rack-Mounted-Versionen unterscheiden.Als Beispiel nennen die Autoren die DellModelle PowerEdge 2900 und Power Edge2950. Unterschiede gibt es hingegen bei der Ökonomie. Zwar lassen sich auch Tower-Modelle in Racks einbauen,diese unterliegen jedoch strengen Beschränkungen bezüglich der Anzahl senkrecht verbauter Geräte. Unterm Strich empfiehlt der Report Tower für kostenbewusste Kunden ohne Rechenzentrum oder als dezentrale Lösungen. Für alle anderen Einsatzgebiete eignen sich Rack-Mounted-Geräte oder virtuelle Maschinen besser. Im Bereich von Blades sollten Unternehmen dem Formfaktor besonderes Interesse widmen. Viele Hardware-Anbieter würden die Kompatibilität zwischen Chassis und Blade nicht länger als vier bis fünf Jahre aufrecht erhalten. Schafft man demnach nur in solchen Zyklen Geräte an und lässt im Chassis noch Platz für den nächsten Einkauf, könnten bis dahin keine kompatiblen Modelle mehr erhältlich sein.Auch weisen die Auto- ren auf die anfänglich höheren Kosten der Blade-Systeme gegenüber Rack-MountedVersionen hin, zumal Kosten für das Chassis hinzukommen. Wer seine Ressourcen optimieren will und gleichzeitig gute Administrierbarkeit verlangt,dürfte an Virtualisierung nicht vorbeikommen. Zwar würden die Features stark vom jeweiligen Anbieter abhängen, insgesamt sei Virtualisierung jedoch ein intelligenter Schritt, um das meiste aus der vorhandenen Computing-Power herauszuholen. Mit der Zukunft auf du und du Zu den Technologien,die IT-Verantwortliche im Auge behalten sollten, zählt insbesondere 10 Gigabit Ethernet (10GbE). Dieses wird laut dem Report großen Einfluss auf zahlreiche Innovationen haben, darunter verteiltes Computing und die Formfaktoren bei Servern. Entscheidend für den Durchbruch von 10GbE ist,dass optische oder teure CX4-Verkabelung nicht mehr unbedingte Voraussetzung sind. Ein wichtiger Schritt wurde mit der Schaffung des IEEE-Standards P802.3 getan,der 10GbE auch über Twisted Pair oder Kupferverkabelung der Kategorie 6 oder höher ermöglicht. Wichtig ist in weiterer Folge auch die Integration von 10GbE auf Motherboards. Bis 2010, so die Schätzung von Kutz und seiner Kollegen, könnte die Technologie schließlich der allgemeine Standard sein. Im Zuge von 10GbE gilt das Augenmerk auch Remote Direct Memory Access (RDMA), dessen Anlaufschwierigkeiten auf die hohen technischen Anforderungen zurückzuführen sind.Neben der anspruchsvollen Netzwerkdurchsatzrate sollten nach ursprünglicher Einschätzung auch sogenannte TCP/IP Offload Engines (TOEs) benötigt werden, um den hohen Traffic zu verarbeiten. Angesichts der stark zugenommenen Rechenleistung seien TOEs aber nicht mehr notwendig, so die Autoren. Die Kombination der Technologien dürfte die Herzen von Rechenzentrumsadministratoren höher schlagen lassen: Diese könnten über RDMA und 10GbE einem Cluster zusätzliche Netzwerkknoten hinzufügen und hätten damit nahezu unbeschränkte Skalierbarkeit zur Hand. Die große Zeit monolithischer Server-Lösungen dürfte spätestens dann ❏ vorüber sein. NEU Infrastruktur | Verkabelung Strukturierte Verkabelung Damit in einem Unternehmen viele Leute mit ihrem PC arbeiten können, benötigt man immer noch eine Verbindung zwischen den PCs. Das sind heute Kupfer- und Glasfaserkabel, für manche Bereiche auch drahtlose Verbindungen. Während aktive Komponenten wie Switches, Router und vor allem die Server zu den Liebkindern der IT-Verantwortlichen zählen, werden die „dummen“ Kabel oft übersehen. Gerhard Lagler Doch über diese „dummen“ Kabel werden die für jedes Unternehmen wertvollen Daten übertragen. Dabei bildet die Verkabelung die Basis für die Infrastruktur. Sie ist das Fundament - und je besser das Fundament, umso stabiler steht das „Gebäude“ darauf. Leider wird dies nicht immer von allen Beteiligten so gesehen. Planer, Bauherrn oder Endnutzer wollen zumeist hohe Qualität zum günstigsten Preis - und wenn es später Probleme geben sollte: ein Tausch der Verkabelung ist nicht so einfach GG45 schaut aus, als ob es ein RJ45-Steckgesicht ist, jedoch werden die mittleren Paare nach links und rechts unten geklappt. Dies geschieht mittels Kippschaltern im Inneren des Steckers. 24 zu bewerkstelligen wie der Austausch eines PCs. Qualität ist wichtig Genau betrachtet bedeutet Qualität (lateinisch „qualitatis“: Beschaffenheit,Verhältnis, Eigenschaft) eigentlich die „Beschaffenheit“. Das bezeichnet die Gesamtheit der wesentlichen Eigenschaften und Beziehungen von Objekten beziehungsweise Prozessen in einem bestimmten Zeitintervall, durch die sie sich von anderen Objekten beziehungsweise Prozessen unterscheiden können. Laut ISO 9000 ist Qualität die Gesamtheit von Eigenschaften und Merkmalen eines Produktes oder einer Dienstleistung, die sich auf deren Eignung zur Erfüllung festgelegter oder vorausgesetzter Erfordernisse beziehen. Die ISO 9000:2000 definiert Qualität als „Grad, in dem ein Satz inhärenter Merkmale Anforderungen erfüllt“ (ISO 9000:2000: S. 18). Eine höhere Qualität bedingt in der Regel auch höhere Kosten. Hier muss entsprechend den Vorgaben aus der strategischen Planung ein Kompromiss gefunden werden. Dazu ein Beispiel: Ein Unternehmen mit 400 Mitarbeitern möchte in ein neues Gemonitor | Special Kommunikation 4A/2008 Gerhard Lagler ist selbständiger Berater für strukturierte Verkabelungssysteme sowie allgemein beeideter und gerichtlich zertifizierter Sachverständiger für strukturierte Verkabelung; Mitglied bei BiCSi, IEEE, CENELEC, ÖVE; Vortragstätigkeit: ÖVE Akademie, KFE bäude übersiedeln. Die Standortfragen sind geklärt, alle Rahmenbedingungen mit dem Betriebsrat besprochen. Was meistens unbeachtet bleibt, ist die Verkabelungsinfrastruktur. Im vereinbarten Quadratmeterpreis ist dann auch „die Verkabelung“ enthalten. Das böse Erwachen kommt meist, wenn der IT-Beauftragte des Unternehmens das hinterfragt. Da sind dann z. B. zwei Anschlüsse pro Arbeitsplatz vorgese- Infrastruktur | Verkabelung Der Tera-Stecker sieht so aus: Keine Ähnlichkeit mit einem RJ-45-Stecker - bedeutet auch, dass die Patchkabel etwas teurer sind und defakto dem Kunden nichts bringen, da Switchhersteller wie Cisco, Nortel, Enterasys usw. nur einen RJ45- Stecker haben. hen. Pro Etage finden 70 Mitarbeiter Platz, das ergibt 140 Strecken. Natürlich werden auch vier Unterverteiler pro Etage vorhanden sein. Was aber, wenn das Unternehmen vier Anschlüsse pro Arbeitsplatz und nur einen Verteiler pro Etage und 90 Mitarbeiter unterbringen will? Das wird dann teuer: Der Vertrag ist unterschrieben, es bleibt nur mehr die Bezahlung der Sonderwünsche übrig. Einfluss auf die Qualität der Verkabelungsstrecke erzielen Sie dadurch aber auch nicht - Sie bekommen das, was sich jemand anderer überlegt hat. Niemand fragt nach, welchen Normen und Standards diese Verkabelung entspricht. Ist z. B. Kategorie 7 installiert, könnte das bedeuten, dass Sie alle Anschlusskabel austauschen müssen. Oder ist vielleicht nur das Kabel der Kategorie 7 entsprechend und die Anschlussdosen entsprechen der Kategorie 6? Sind dann alle eingezogen, wird die ITAbteilung gerufen: Das Netzwerk ist zu langsam, man kann nicht drucken usw. Werden dann zur Beruhigung „Pflaster“ auf die klaffenden Wunden gelegt (leistungsstärkere PCs, Switche und Server), hilft das meist gar nichts. Die so entstehenden Kosten lassen sich gut mit einem Eisberg vergleichen: Man sieht nur dessen Spitze, der ganze Eisberg bleibt aber unter der Oberfläche verborgen. dass man einmal definiert, welche Anforderungen im jeweiligen Unternehmen zu berücksichtigen sind. Wird z. B. SAP eingesetzt, sollten Sie der Leistungsfähigkeit zuliebe an Gigabit-Ethernet denken. Dazu brauchen Sie die Verkabelungsklasse D mit Kategorie-5-Komponenten. Denn die Schwerpunktfrequenz von Gigabit Ethernet liegt bei ca. 80 MHz. Gegen etwaige Einwände der Anbieter wie „Das ist ja nicht mehr zeitgemäß, man muss heute unbedingt Kategorie-7- oder Kategorie-7A-Komponenten verbauen“ finden Sie im Folgenden einige Grundlagen für Ihre Argumentation: . Kategorie-5-Komponenten mit einem Frequenzbereich bis 100 MHz Klasse D, ermöglichen Ethernet Applikationen mit 10,100 und 1.000 MBit/s. . Kategorie-6-Komponenten mit einem Frequenzbereich bis 250 MHz Klasse E ermöglichen Ethernet Applikationen mit 10, 100, 1.000 und 10.000 MBit/s (Manche Systeme schaffen auch die Parameter um 10.000 MBit/s zu übertragen, jedoch ist eine Nachmessung erforderlich). . Kategorie-6A-Komponenten mit einem Frequenzbereich bis 500 MHz Klasse EA ermöglichen Ethernet Applikationen mit 10, 100, 1.000 und 10.000 MBit/s AMP CO System Zukunftssicherheit durch Flexibilität AMP CO Plus ist nach wie vor die modernste und flexibelste Verkabelungslösung auf dem Markt. Seit über 20 Jahren ist das System fester Bestandteil in vielen Netzwerken und hat eine große Zahl von Endanwendern von seiner Leistungsfähigkeit überzeugt. Dies aufgrund seiner Modularität als auch Flexibilität, die es dem Endanwender erlaubt, seine Netzwerkinfrastruktur gemäss seinen Bedürfnissen zu skalieren, respektive zu migrieren. AMP CO Plus erlaubt die Realisierung von allen standardisierten Linkklassen, einschliesslich der Klasse FA – mit Reserven. Alle standardisierten Steckgesichter sind als entsprechende Einsätze verfügbar. Die Vielzahl an Einsätzen erlaubt es dem Endanwender sein Netzwerk zu einer ungeahnten Leistungsfähigkeit und Universalität zu führen. 25-Jahre Systemgarantie Auf Wunsch des Endanwenders erteilt TE – systemunabhängig –, unter gewissen Bedingungen, eine 25 jährige Systemgarantie. Erst durch diese Systemgarantie erhält der Endanwender ein «Rundum Sorglospaket» und kann sich auf die wesentlichen Aufgaben konzentrieren. Wie bekomme ich die richtige Verkabelung? Jedes Unternehmen sollte einen Verkabelungsstandard kreieren. Das bedeutet, Tyco Electronics Austria GmbH, Pilzgasse 33, A-1210 Wien Tel.: +43-1-90560-1204, Fax: +43-1-90560-1270, www.ampnetconnect.at AMP NETCONNECT, Tyco Electronics und das TE Symbol sind Warenzeichen. Infrastruktur | Verkabelung . Kategorie-7-Komponenten mit einem Frequenzbereich bis 600 MHz Klasse F ermöglichen Ethernet Applikationen mit 10, 100, 1.000 und 10.000 MBit/s . Kategorie-7A-Komponenten mit einem Frequenzbereich bis 1.000 MHz Klasse FA ermöglichen Ethernet Applikationen mit 10, 100, 1.000 und 10.000 MBit/s Wichtig ist auch noch, dass Kategorie 7 und 7A nicht mit einem RJ45-Steckgesicht ausgestattet sind: . GG45 schaut aus, als ob es ein RJ45Steckgesicht ist, jedoch werden die mittleren Paare nach links und rechts unten geklappt. Dies geschieht mittels Kippschaltern im Inneren des Steckers. . Der Tera-Stecker hat keine Ähnlichkeit mit einem RJ 45 Stecker - bedeutet auch, dass die Patchkabel etwas teurer sind und defakto dem Kunden nichts bringen, da Switchhersteller wie Cisco, Nortel, Enterasys usw. nur einen RJ45-Stecker haben. Ein Blick in die Praxis Die Mindestanforderung für Gigabit Ethernet sind Komponenten der Kategorie 5. 95% der österreichischen Unternehmen nutzen heute 10 und 100 MBit/s als Übertragungsgeschwindigkeiten in ihren Netzen.Also 1/100 bis zu 1/10 dessen, was über ein Klasse-D-System übertragbar ist. Ich kenne Installationen aus dem Jahre 1999 - da gab es den ersten Hype mit Kategorie-7-Kabel und Kategorie-6-Komponenten mit der Begründung:Wenn Sie mal Kategorie 7 benötigen, dann brauchen Sie Verkabelung: 10 Gbase im Test Ausgelöst durch den neuen 10Gbase-T Standard sind die Standardisierungsbehörden jetzt dabei, den neuen Komponentenstandard abzusegnen: Cat.6a und Class Ea, die für 10Gbase-T entsprechende Sicherheit bringen. Kein Wunder, dass hier die Qualität der Kabel und der Anschlusskomponenten eine große Rolle spielt. nur die Steckverbindung der Verkabelungsstrecken austauschen. Heute kenne ich kein einziges Unternehmen, das dies getan hätte. Vielmehr kenne ich Aussagen von Herstellern, die im Jahr 2002 und 2003 zugaben, dass die Kategorie-6-Komponenten die bis dahin verbaut wurden, nicht der Kategorie 6 entsprachen. Inzwischen hat man diese Problematik im Griff. Aber: Wenn man nur 1/10 der möglichen Übertragungsrate nutzt, ist das so ähnlich, als ob man mit einem 500 PS Auto auf der Autobahn mit 130 km/h unterwegs ist. In Zukunft wird man sicher 1GBit/s verwenden können und es wird da und dort Probleme geben. Aber da sorgt die Industrie schon für den nächsten Hype: 10GBit/s wird als das einzig Wahre bezeichnet und zwar über eine geschirmte Kategorie-7- Gerd Kaufmann ist Gründer des Verkabelungsspezialisten KSI Kontakt-Systeme Inter GesmbH www.ksi.at Gerd Kaufmann Das schwedische Fachmagazin TechWorld war neugierig und wollte bei einem Test herausfinden, wer in Bezug auf Qualität die Nase vorne hat. Die Lieferanten Nexans, Systimax, Panduit und ADC Krone wurden eingeladen und schickten Wandkabel,Anschlusskomponenten und Patchkabel. Den Firmen stand es frei, welche Systeme sie zur Verfügung stellten. Es wurde streng darauf geachtet, dass die Komponenten fachgerecht kontaktiert wurden, bevor sie mit einem Fluke DTX 1800 gemessen wurden. Zusätzlich nahmen noch einige, dem alten Cat.-5e- und Cat.-6-Standard entsprechende Kabel am Test teil. Getestet wurde nicht nur der „Permanent Link“ sondern auch der gesamte „Channel“. Wie zu erwarten, lagen laut Testbericht alle vier Systeme klar über den Vorgaben des kommenden Standards, wobei von Nexans, knapp vor Panduit, die beste Qualität geliefert wurde. Beide lagen gut beziehungsweise sehr gut, 3 dB besser, als die Grenzwerte der kommenden Norm für 26 Cat. 6a oder Klasse Ea vorgesehen ist. Insgesamt waren die Unterschiede innerhalb der gestesten Systeme messbar, wenn auch nicht übermäßig groß. Die beiden Referenzkabel (Cat. 5e und Cat. 6) zeigten aber mit Deutlichkeit, dass sie für 10 Gbase-T nicht geeeignet sind. Was für Nexans spricht Auch nach meiner Auffassung besitzen Kabel von Nexans die beste Kombination von guten technischen Parametern und Handhabungseigenschaften. Die Komponenten sind angenehm und schnell verarbeitbar. Es sind die dünnsten Kabel und das Installationskabel ist durch die harte, gleitfähige Oberfläche des Mantels sehr gut zu installieren. Dünnere Kabel machen beim Verlegen weniger Probleme und lassen sich besser aufschalten. Die Kabelbündel werden nicht so dick und schwer.Außerdem ergeben die Abschirmungen in den Kontaktierungs- monitor | Special Kommunikation 4A/2008 und Steckzonen der Buchse und die zusätzliche Schirmung in den Kabeln ein messtechnisch nachweisbares Vertrauen. Gewöhnliches Cat. 6 reicht nicht Der kommende Standard Cat. 6a und Klasse Ea erhöht die Kabel-Kapazitäten dermaßen, dass die alten Systeme „alt aussehen“. Aber wie schlimm ist das für diejenigen, die erst vor Kurzem Cat. 6 installiert haben? Richtig schlimm ist es nicht, da 10GBase-T-Anwendungen sicher in den Backbones und Serverräumen am Wichtigsten sind. Wenn es dort Engpässe gibt, kann mit einem relativ geringen Installationsaufwand die Geschwindigkeit des ganzen Systems erhöht werden. Denkt man allerdings an eine Neuinstallation ist man mit einem neuen System, das 10GBase-T beherrscht, am „Stand der Technik“ und somit besser beraten. „Sauberer“ Verteilerschrank „Unsaubere“ Verkabelung oder 7A-Verkabelung. In Wahrheit kann das aber eine Kategorie-6-Verkabelung auch. Umfassende Information Wichtig ist also, sich ganzheitlich zu informieren und eine spezielle Lösung zu finden. Dies erreichen Sie, indem Sie einen Unternehmensstandard definieren. Ihr gutes Unternehmen soll ja auch auf eine passende Verkabelungsinfrastruktur zurückgreifen können. Börsennotierte Unternehmen sind da Vorreiter, den sie werden bereits entsprechend geprüft. Da müssen die Abläufe definiert sein, es gibt eine Überprüfung der Verkabelungsinfrastruktur mit Themen wie Wegeredundanz, Ausfallrechenzentren usw. Um Ihnen die Kosten beim Ausfall Ihrer Verkabelung vor Augen zu führen, hier ein praktisches Beispiel von einer Ferti- gungsstraße in der Automobilindustrie; Pro Tag sollen 600 Fahrzeuge gefertigt werden. Im Probelauf waren es nur 200. Warum? Nein, nicht weil die Angestellten zu langsam gearbeitet hätten. Schuld war die Kupferverkabelung, die nicht korrekt installiert wurde, durch Störungen am Schirm des Kabels dauerte ein Ping 20 Sekunden. Lösung: Austausch der gesamten Infrastruktur in einer aufwändigen Aktion. Die Kosten verdreifachten sich letztlich. Der Schaden für das Unternehmen liegt bei einem angenommenen Herstellungspreis pro Fahrzeug von 20.000 Euro bei acht Millionen Euro pro Tag. Vergleichen Sie auch, was in Ihrem Unternehmen jährlich für Lizenzierungskosten der verwendeten Software ausgegeben wird und dann vergleichen Sie diese Kosten mit denen der Verkabelungsinfrastruktur. Sie werden aus dem Staunen ❏ nicht herauskommen. Infrastruktur | Verkabelung Tyco rüstet Provider für Fibre to the Home Glasfaser bis zum Schreibtisch ermöglicht ungeahnte Bandbreiten und damit Platz für neue Dienstleistungen für den Endanwender, für Unternehmen und für Provider. Die Basis dafür ist die kostengünstige Installation der „Glaskabel“. Klaus Lackner Was in Südkorea normal ist, klingt für unsere Breiten noch nach Zukunftsmusik. Fibre to the Home (FTTH), also Internet per Glasfaser vom Provider bis zum heimischen Schreibtisch, ist zwar zum Beispiel in Wien schon ziemlich flächendeckend verlegt, die Anwender warten aber noch geduldig auf die Inbetriebnahme. Im ländlichen Bereich bleibt FTTH für die nächsten Jahre sowieso noch Utopie. Bandbreiten von bis zu zehn Megabit pro Sekunde (Mbit/s) für den Up- und Download ermöglichen Provider komplett neue Dienstleistungen. So können Server oder PC in Unternehmen selbst bei datenintensiven Applikationen einfach über die Internet-Leitung betrieben, gesichert oder gar nur noch beim Provider vorgehalten werden. Für den Konsumenten werden Anwendungen wie Video on Demand oder laufende Patientenüberwachung zur Normalität werden. Glasfasernetze sind jedoch empfindlicher und müssen vor allem noch die sogenannte „letzte Meile“ von der Straße bis in die Wohnungen überwinden. Das ist aufwändig und teuer, da meistens gegraben und gestemmt werden muss. Um solche Installationskosten zumindest auf der „Kabelseite“ zu senken,hat Tyco Electronics basierend auf deren Schnellanschlusstechniken, Produktlinien entwickelt, die alle mit einem einzigen Werkzeugsatz konfektionierbar sind. Zum mechanisch, lösbaren Verbinden zweier Fasern werden sogenannte Spleiße verwendet - und das seit mehr als 15 Jahren. Die Vorbereitung der Fasern ist dabei die gleiche wie bei einem thermischen Fusionsspleiß. Das ist mehr oder weniger vergleichbar mit dem Löten zweier Drähte. Bei Tyco Electronics kommt die V-NutKlemmmechanik zum Einsatz. Dabei wird mit Hilfe zweier Schlüssel der Spleiß geöffnet, sodass beide Fasern eingeführt werden können. Ist der physikalische Kontakt hergestellt, werden die Schlüssel entfernt und die Faserenden sind sicher verbunden. Ein weiterer Vorteil ist, dass bei dieser Methode nur Standardwerkzeuge nötig sind. Die Kosten pro Verbindung belaufen sich etwa auf ein Zehntel eines Fusionsspleißes. Somit können Provider sowie deren Installationspartner die prinzipiell hohen Kosten der Verlegearbeit zumindest auf ein Minimum drücken. Die Aussage, dass die Installation von Lichtwellenleiter sehr teuer ist, kann durch die entwickelten Techniken zum Teil relativiert werden. www.tycoelectronics.com Infrastruktur | Desktop-Virtualisierung Die vielen Gesichter eines PCs Betriebssysteme, losgelöst von der Hardware, Applikationen, sicher gegen Unbill abgeschottet, eine Total-Cost-ofOwnership-Kalkulation, die straffe Budgets entspannt: Desktop-Virtualisierung eröffnet eine Reihe neuer Möglichkeiten. Alexandra Riegler Dass IT-Leiter Einkehr mit ihrer Infrastruktur halten und versuchen aus Hardware das Äußerste herauszuholen,dafür braucht es keine schlechten Zeiten mehr. Optimierung scheint inzwischen in alle Ritzen der Infrastruktur vorgedrungen,ungenutzte Kapazitäten dürfte es folglich laut Lehrbuch keine mehr geben.Doch weit gefehlt.So demonstrierten zuletzt Lösungen zur Server-Virtualisierung, welch Potenzial bei den teuren Rechnern noch brach lag. Mit dem Betrieb mehrerer von einander getrennter Server auf derselben Hardware lässt es sich konsolidieren und eine ganze Palette an Kosten einsparen.Unternehmen begannen daher auszuloten, wie weit man die Anzahl virtueller Maschinen erhöhen kann, ohne dabei die Service Levels für Applikationen zu gefährden. Und die Tüftelei lohnte. Server-Virtualisierung gelang zur veritablen Erfolgsgeschichte - für das Budget und die Performance. Weniger ruhmreich ist die Geschichte der Desktop-Virtualisierung. Diese hinkt jener für Server zwei Jahre hinterher. So befand etwa Gartner-Vice President und Fellow Brian Gammage Ende 2007, dass Desktop-Virtualisierung noch nicht reif sei für den Mainstream-Einsatz.Gleichzeitig rieten die Marktforscher ihren Kunden beim Einkauf von Software-Lizenzen auf deren „Virtualisierungsfreundlichkeit“ - sprich deren Kosten für den Einsatz in virtuellen Umgebungen zu achten. Knapp ein halbes Jahr später nennt Gartner nun Virtualisierung,jene am Desktop eingeschlossen,als wichtigsten Trend,um die Veränderung der Infrastruktur voranzutreiben: „Virtualisierung wird verändern, wie IT gemanagt, was gekauft, wie die Software verteilt wird, zudem wie Unternehmen planen und was sie bezahlen“, heißt es in einem ak- tuellen Report zum Thema.Der Desktop- oder PC-Virtualisierung steht ein Senkrechtstart bevor. Demnach soll die Zahl virtualisierter PCs von weniger als fünf Mio.im letzten Jahr bis 2011 auf 660 Mio. steigen. Das Interesse für Desktop-Virtualisierung wird auch anhand der Übernahmen der letzten Zeit deutlich:Die Großen der Branche sind auf Einkaufstour.Den bis dato größten Coup landete EMC mit der Übernahme von VMware,Citrix kaufte im Herbst 2007 XenSource ein, zuletzt bestätigte Microsoft die Akquisition von Kidaro. Altes neu gemacht Das Gros der Kosten im Zusammenhang mit Desktop-Computern wird nicht notwendigerweise bei ihrer Anschaffung fällig. Bis zu 80% der Ausgaben erwachsen im Laufe eines Computerlebens für Betrieb und Support. Trotz vergleichsweise moderater PC-Preise gilt es daher die Total Costs of Ownership (TCO) zu reduzieren. Und hier kommt Virtualisierung ins Spiel. Schätzungen zufolge lassen sich durch die Technologie bei hochwertigen Workstations jährlich bis zu 50% der Kosten einsparen,bei einfachen PCs sind es immerhin noch an die 10%. Das Thema Desktop-Virtualisierung existiert in unterschiedlichen Ausprägungen seit rund 20 Jahren. Doch Konzepte wie jene der Thin Clients konnten sich nur unzureichend durchsetzen. So war nicht jede Software für die sogenannten Multi User Terminal Services erhältlich. Hinzu kamen Unzulänglichmonitor | Special Kommunikation 4A/2008 keiten in der Performance sowie die fehlende Möglichkeit zur Personalisierung. Die neue Freiheit Geht es nach den Versprechen der Industrie, wird nun alles anders. Die neuen Lösungen haben mit den anfänglichen Terminal Services nicht mehr viel gemein. Desktop-Virtualisierung bedeutet heute zumeist,dass ein virtuelles Images des Computers vom Server geladen, jedoch am eigenen PC ausgeführt wird.Der Benutzer loggt sich dabei gewöhnlich über eine virtuelle Maschine, beispielsweise eine Applikation von Anbietern wie VMware, ein. Die Vorteile liegen auf der Hand: Das System ist stets am aktuellen Stand hinsichtlich Updates,IT-Verantwortliche können sich über mehr Flexibilität bei der Verteilung freuen und schließlich lässt sich durch die virtuelle Maschine eine zusätzliche Sicherheitszone im System schaffen. Performance-Mängel kommen seltener vor, weil die Programme vom eigenen Rechner ausgeführt werden und nicht wie bei Terminal-Systemen jeder Mausklick übers Netzwerk geschickt wird. Desktop-Virtualisierung bedeutet auch,ein oder mehrere Betriebssysteme samt Applikationen auf einem einzigen Rechner zusammenlaufen zu lassen.So öffnen etwa zahlreiche Apple-Benutzer über eine Software der Hersteller Parallels oder VMware Windows in einem einfachen Programmfenster Windows.Virtualisierung am Desktop findet demnach auf zwei Ebenen statt: zwischen Hard29 Infrastruktur | Desktop-Virtualisierung ware und Betriebssystem und zwischen Betriebssystem und Anwendungen. Laut Gartner gewinnt die Applikationsvirtualisierung zwar an Bedeutung, dennoch wird der Virtualisierung von Betriebssystemen langfristig größere Bedeutung zugeschrieben, zumal diese mehrere, von einander unabhängige Systeme auf einem Rechner ermöglicht. Dies eröffnet insbesondere im Bereich von Betriebssystemen neue Perspektiven: „Im Wesentlichen ist Virtualisierung eine Schicksalsentscheidung für Betriebssysteme“, erläutert Thomas Bittman, Vice President und Analyst bei Gartner.Traditionell sei das Betriebssystem der Schwerpunkt des Client- und Server Computing gewesen, neue Technologien und die Virtualisierung der Infrastruktur würden nicht nur die Architektur,sondern auch die Rolle des Betriebssystems verändern.„Die Tage monolithischer Allzweckbetriebssysteme sind bald vorüber“, zeigt sich Bittman überzeugt. Alle Schotten dicht Anwendungsvirtualisierung hingegen spielt ihre Stärken im Bereich Sicherheit aus, vor allem wenn es darum geht,sensible Software vom Rest des Betriebssystems abzutrennen. Wird etwa ein Notebook gestohlen, bleiben die besagte Applikation samt dazu gehörigen Daten innerhalb des virtuell betriebenen Systems als verschlüsselter Teil der Festplatte nur schwer zugänglich. Der Vorteil gegenüber herkömmlichen Verschlüsselungen liegt vor allem in der Performance, da diese durch ihren systemweiten Einsatz die Rechnerleistung verringern. Durch Virtualisierung lässt sich Verschlüsselung gezielt in einzelnen Bereichen einsetzen: Die verstärkte Sicher- heit kommt nur dort zum Einsatz, wo sie wirklich benötigt wird. Schließlich ist Applikationsvirtualisierung auch eine sinnvolle Möglichkeit, um Netzwerke von Kunden, Partnern oder Mitarbeitern, die sich remote einloggen, zu sichern. Die virtuelle Maschine fungiert dabei als eine Art entmilitarisierte Zone,in der nur ganz bestimmte Operationen und Zugriffe erlaubt sind. Seinen Kunden gibt Gartner-Mann Bittmann einen Ratschlag für die mittelfristige Strategieplanung mit auf den Weg: „Stimmen Sie die Virtualisierungsstrategie mit ihrem Business ab, vermeiden sie Hypes von Herstellern und achten Sie besonders auf die Kosten- und Lizenzpolitik bei Software“, so Bittman, der noch anfügt: „Seien Sie bereit zu experimentieren und gehen Sie auf Nummer sicher, dass Sie der Wissenschafler sind ❏ und nicht das Versuchsobjekt.“ Wird Ihr nächster PC virtuell sein? Kommentar Wolfgang Horak, Managing Director von Fujitsu Siemens Computers Österreich, zum Thema Desktop-Virtualisierung. „Virtuelle Infrastrukturen für Desktops stehen heute noch am Anfang der Entwicklung. Anwender sind daher gut beraten, mit einem erfahrenen IT-Hersteller zusammenzuarbeiten.“ - Wolfgang Horak, Managing Director von Fujitsu Siemens Computers Österreich In Rechenzentren vollzieht sich derzeit eine stille Revolution. Die Technik der Virtualisierung erlaubt es, Betriebssysteme und Anwendungen von der ComputerHardware zu trennen und als virtuelle Maschine separat zu verwalten. Es leuchtet ein, dass diese technische Möglichkeit bei vielen Betriebsprozessen große Vorteile bieten. Die Folge: Virtualisierung breitet sich in Rechenzentren rasant aus. Dabei wurde die Technik auf Intelsystemen ursprünglich für PCs entwickelt. In den Anfangszeiten half sie schon, Helpdesks verschiedenartiger PC-Arbeitsplätze gleichzeitig zu unterstützen oder Entwicklern ih- 30 re Software auf verschiedenen Plattformen zu testen. Mittlerweile fordern immer neue Sicherheitslücken in der Software, neue Softwareversionen und Veränderungen in den Geschäftsprozessen umfangreiche und permanente Pflege auch für normale Büro-PCs. Um den Aufwand dafür so gering wie möglich zu halten werden Lösungen gesucht, welche eine effiziente Bereitstellung von Arbeitsplätzen ermöglicht - der Stellenwert von virtualisierten Arbeitsplätzen gewinnt immer mehr an Bedeutung. Trend oder Realität: Dynamische Arbeitsplätze Fujitsu Siemens Computers setzt in diesem Bereich Akzente und bietet unter dem Titel „Dynamic IT for Workplaces“ eine virtuelle Desktoplösung an. Sie zeichnet sich dadurch aus, dass marktführende Komponenten zu einem einfach zu handhabenden Lösungspaket integriert werden. Durch die Entkoppelung des Desktop-Betriebssystems vom Schreibtisch des Benutzers und seine Überführung in server-basierte virtuelle Maschinen, können Unternehmen eine Reihe von Effizienzgewinnen erzielen. So wie die Virtualisierung die Serverlandschaft revolutioniert hat, birgt auch der Hosted Desktops enorme Vorteile für IT- monitor | Special Kommunikation 4A/2008 Administratoren und Endanwender: Die effektive Verwaltung von PC als „Virtual Desktop Infrastructure“ wird gewährleistet. Ein weiterer Vorteil ist, dass die Daten das Rechenzentrum nie verlassen, da nur die Bildschirmdarstellung übertragen wird. Für sicherheitsrelevante Bereiche oder besonders gefährdete Anwender ist das ein großer Vorteil. Hosted Desktops verbessern außerdem die Systemverfügbarkeit und vermindern durch den Einsatz von Thin Clients den Stromverbrauch. Doch virtuelle Infrastrukturen für Desktops stehen heute noch am Anfang der Entwicklung. Anwender sind daher gut beraten, mit einem erfahrenen IT-Hersteller zusammenzuarbeiten. Immerhin müssen für ein rund laufendes System verschiedene Softwarekomponenten kombiniert werden. Daher bietet Fujitsu Siemens Computers auch umfassende End-to-End-Services über den gesamten Projektzyklus an und unterstützt so Unternehmen bei der Planung, Realisierung und Verwaltung von „Dynamic IT for Workplaces“. Betrachtet man die Entwicklung der Geschäftsprozesse und die damit einhergehenden Entwicklungen in der IT-Branche, wird klar, dass Virtualisierung nach ihrem Einzug in Rechenzentren auch individuelle Arbeitsplätze erobern wird. Es ist daher nur eine Frage der Zeit, ❏ bis auch Ihr PC virtuell sein wird. Infrastruktur | Desktop-Virtualisierung Startschuss zur großen Freiheit Der Markt für Desktop-Virtualisierung boomt: neue Hard- und SoftwareLösungen einiger Platzhirsche und einiger Neuankömmlinge im Überblick. Alexandra Riegler Jetzt bekommen beide Seiten, wonach sie verlangen. Die neuen Lösungen der Desktop-Virtualisierung sollen es Benutzern und Administratoren gleichermaßen recht machen. Sie versprechen tadellose Performance, geringere TCO, verstärkte Sicherheit und Management-Tools, die die Verwaltung klassischer PC-Fuhrparks alt aussehen lassen. Es gibt platzsparende Clients in der Größe eines unbefüllten Rolodex, die USB unterstützen und dem User das Ambiente eines „echten“ Rechners suggerieren. Es gibt Desktops, die auf einem USB-Stick Platz finden und Software-Lösungen, die, obwohl nur eine Handvoll Megabytes groß, einen ganze Palette an Betriebssystemen virtualisieren. Desktop-Virtualisierung boomt. Keine zwei Wochen vergehen ohne den Markteintritt eines neuen Startups, das sich dem Thema verschreibt. Die Großen picken sich inzwischen die Rosinen aus dem Kuchen und kaufen ein, was dem eigenen Portfolio noch fehlt. Der Trend, den EMC bereits Ende 2003 mit dem Einkauf von VMware begann, setzten unter anderem Sun, Symantec und Citrix in der jüngeren Vergangenheit mit den Akquisitionen von innotek, AppStream und XenSource fort. VMware baute seine prominente Marktstellung indes mit den Übernahmen von Thinstall und Foedus aus. Aufgefettete Portfolios Microsoft beging den Jahreswechsel mit der Übernahme von Calista Technologies. Die Lösungen von Calista zielen auf die nach Angaben des Unternehmens zwei größten Barrieren der Desktop-Virtualisierung: Benutzererlebnis und Kosten pro User. Benutzer sollen bei Calista daher ein vollwertiges Mit VMware ACE lassen sich unterschiedliche Sicherheitszonen für das Host- und Gastsystem schaffen. Windows-Erlebnis auf den Bildschirm geliefert bekommen, 3D-Grafiken inklusive. Weil die Software besonders viele User auf den Virtual Desktop Server packen kann, sinken unterm Strich die Kosten je Arbeitsplatz. Mitte März legte Microsoft mit dem Kauf von Kidaro nach. Die Lösung der Firma ermöglicht es, Software auf verschienen PCs zu nutzen, ohne diese dort zu installieren. Die Applikation soll in das „Mi- Macintosh verträgt. Im Vergleich zu Übernahmen wie jener von Storagetek, die Sun 4 Mrd. Dollar kostete, ist innotek ein kleiner Fisch, doch Experten schreiben dem Schritt einige Bedeutung zu.VirtualBox ermöglicht es auf Desktops und Notebooks mehrere Betriebssysteme gleichzeitig zu betreiben. Das System ist in zwei Varianten erhältlich: Unter einer proprietären sowie der GNU General Public License. Entsprechend steht die kompakte Software der Download ist gerade einmal 20 MB groß - bei Open Source-Entwicklern hoch im Kurs und fügt sich damit auch nahtlos in Suns Portfolio ein. Verbesserte Positionierung Parallels Desktop bringt Windows in Apple-Umgebungen. crosoft Desktop Optimization Pack for Software Assurance“ einfließen und Kunden die Migration in Richtung Windows Vista erleichtern. Mitbewerber Sun verleibte sich im Februar die deutsche Firma innotek ein, Hersteller der Virtuellen Maschine „VirtualBox“, die sich mit 32- und 64-Bit-Systemen der Plattformen Windows, Linux und monitor | Special Kommunikation 4A/2008 VMware startete unterdessen mit dem Kauf von Thinstall ins neue Jahr. Das StreamingProgramm der Firma lässt Windows-Rechner Applikationen ohne vorherige Installation betreiben. Die dazu gehörige Rechnung für IT-Manager: Je mehr Applikationen in Thinstall verpackt werden, desto weniger müssen im Windows Disk Image untergebracht sein. Etwa zur selben Zeit holte sich VMware ein kleines Unternehmens aus New Hamphire an Bord, das sich auf Management-Software virtualisierter Desktops und Server spezialisiert. Neben Anwendungen bietet die 30 Mann hohe Foedus auch Consulting an. Beide Akquisitionen sollen die Marktabdeckung von VMware vergrößern und verdeutlichen zudem die steigende Bedeutung des Desktop-Virtua31 Infrastruktur | Desktop-Virtualisierung Hohe Nachfrage nach Desktop-Virtualisierung Kommentar von Peter Hanke, Country Manager Austria von Citrix Systems GmbH, zum Thema Desktop-Virtualisierung. Auch wenn das Konzept der Desktop-Virtualisierung im Vergleich zur Servervirtualisierung relativ neu ist, ist die Nachfrage hoch. Vor allem große Unternehmen mit komplexen Anforderungen, beispielsweise in Finanzabteilungen oder der Buchhaltung, haben einen erhöhten Bedarf an kosteneffizienten Technologien, um ihren Mitarbeitern die benötigte Desktop-Umgebung bereitzustellen. So beobachten wir,dass auch in Österreich Unternehmen mit strengen ComplianceVorschriften - wie Banken und Finanzdienstleister oder auch Pharmahersteller - großes Interesse an virtuellen Desktop-Lösungen zeigen, da diese die Kontrolle über die Benutzerumgebung zum Schutz sensibler Daten gewährleistet. Die Daten liegen nicht mehr auf einzelnen Endgeräten, sondern auf gut gesicherten Servern. Zugriffsrechte können somit zentral verwaltet und an die jeweilige Benutzerrolle angepasst werden.Vor allem für global agierende Unternehmen, die geschäftskritische Informationen ausschließlich an ihrem Hauptsitz vorhalten wollen, zählt die zentrale Datenhaltung und Datensicherung als Selbstverständlichkeit. Neben erhöhten Sicherheitsanforderungen sind natürlich die Reduktion von Komplexität und Kosten,Aspekte die für die Desktop-Virtualisierung sprechen. Denn die Ab- kopplung des Benutzer-Desktops vom Endgerät reduziert Wartungsaufwand und eröffnet damit hohes Einsparpotenzial.Die Administratoren können alle notwendigen Installationen und Konfigurationen auf den zentralen Servern vornehmen und müssen nicht den Arbeitsplatz des Anwenders aufsuchen, um einen Benutzer-Desktop einzurichten. So ermöglicht Citrix XenDesktop die dynamische Bereitstellung ganzer Windows-Umgebungen aus dem Rechenzentrum heraus. Große Software-Einführungen und Migrationen, wie zum Beispiel eine unternehmensweite Umstellung auf das neue Windows Vista, lassen sich damit zu einem Bruchteil von Kosten und Zeit erledigen.Nebenbei lassen sich auch noch Hardware-Kosten auf der Client-Seite einsparen: Ein lokal installiertes Windows Vista setzt sehr leistungsfähige Endgeräte voraus.Wenn der Desktop virtualisiert bereitgestellt wird, können stattdessen nahezu beliebig vorhandene PCs oder auch stromsparende und wartungsarme Thin Clients eingesetzt werden. Virtuelle Desktops bieten aber auch den Anwendern Vorteile - vor allem in puncto Flexibilität: Die Benutzer erhalten an jedem beliebigen Rechner im Unternehmen Zugang zu ihrer persönlichen Arbeitsumgebung. Neue Ansätze wie die von Citrix unterstützte „Instant On“-Technologie sorgen dafür, dass die Benutzerumgebung di- lisierungsmarktes. Für VMwares „Virtual Desktop“ und Microsofts „Terminal Services“ ist die Lösung des US-Unternehmen Provision Network konzipiert, das im letzten Jahr von der kalifornischen Quest Software gekauft wurde. „Provision Networks Virtual Access Suite“ gilt als ausgefeilte Lösung, um Anwendungen und die Verteilung von Desktop-Images zu konsolidieren. Das Unternehmen entstand ursprünglich als Spinoff von Emergent OnLine mit dem Ziel eine Citrix-ähnliche Lösung für den KMU-Bereich zu anzubieten. Mit der Akquisition seines OEM-Partners AppStream rüstet sich auch Symantec für den Desktop-Virtualisierungsmarkt. Die Application Streaming-Software des Unternehmens überträgt virtuelle Images in Richtung PC und lässt sich außerdem für License Management verwenden. Das Programm findet bereits jetzt in Symantecs Software „Virtualization Solution Pro“ Eingang. Das System funktioniert unabhängig, fügt sich auf Wunsch aber auch in VMware- und Citrix XenSource-Umgebungen. Citrix selbst hat die weltweite Verfügbarkeit seiner Desktop-Delivery-Lösung XenDesktop für Ende Mai 2008 angekündigt. Im Gegensatz zu herkömmlichen Technologien für die Virtual-Desktop-Infrastruktur verspricht Citrix ein umfassendes Endto-End-DesktopDelivery-System, um Windows-Desktops im Rechenzentrum zu vir- 32 monitor | Special Kommunikation 4A/2008 „Wege zur DesktopVirtualisierung gibt es viele, aber aus strategischer Sicht ist es empfehlenswert das Thema von der Applikationsseite her aufzurollen.“ Peter Hanke, Country Manager Austria von Citrix Systems GmbH rekt nach der Anmeldung zur Verfügung steht und nicht erst hochgefahren werden muss. Bei Bedarf können die Administratoren bestimmten Benutzern sogar unterschiedliche Betriebssysteme zur Verfügung stellen, zwischen denen diese im laufenden Betrieb hin und her schalten können. Wege zur Desktop-Virtualisierung gibt es viele,aber aus strategischer Sicht ist es empfehlenswert das Thema von der Applikationsseite her aufzurollen und sich zunächst Gedanken über Benutzertypen und Anwendungsszenarien zu machen. Die ersten Eindrücke aus Österreich decken sich mit dieser Einschätzung: Die meisten Unternehmen, die sich heute mit dem Thema Desktop-Virtualisierung auseinandersetzen, haben bereits seit längerer Zeit Erfahrungen mit der virtualisierten Bereitstellung von Applikationen gesammelt und wollen dieses Prinzip nun auf den Desktop ausdehnen. Im Backend werkt das Blade von ClearCube, beim Benutzer verbleibt nur noch Port, der Bildschirm, Tastatur und Co anbindet. tualisieren und Nutzern on-demand an jedem beliebigen Standort bereitzustellen. Schnieke Hardware Geht es nach dem US-Unternehmen Pano Logic, tritt bald ein kleiner Metallwürfel die Nachfolge herkömmlicher PCs an. Die gesamte Software wird dabei auf den Server verlagert, dem Benutzer bleibt ein Metallkästchen ohne CPU, Speicher oder Betriebssystem - allerdings mit USB-Anschluss. Am Bildschirm erscheint die gewohnte Windows-Umgebung. Der bis aufs Äußerste abgespeckte Thin Client deutet die Kostenersparnis an, die Pano Logic schließlich ausführt: Kunden, die die Software all ihrer Desktop-Rechner auf den Server verlegen können 70% der TCO einsparen. Den PC in den Formfaktor eines Blade bringt die texanische Firma ClearCube. Aus User-Seite verbindet lediglich eine Schnittstelle Monitor,Tastatur, Maus und USB-Peripheriegeräte mit dem Blade - via LAN oder drahtlos. Administratoren können das System, wie die Firma betont, von jedem beliebigen Punkt der Welt aus über die dazu gehörige Management-Software kontrollieren. Brandneu am Markt ist das Startup MokaFive, das mit „LivePC“ den Benutzern ein Desktop-Image am USB-Stick in die Hand gibt und Administratoren die Möglichkeit, das System zentral zu warten. Benutzer können damit auch ohne Netzwerkverbindung arbeiten sowie den Computer in einem bestimmten Zustand pausieren, den sie an anderer Stelle fortführen. Geht ein User online, werden etwaige ausstehende Updates automatisch Links www.appstream.com www.citrix.com www.ericom.com www.foedus.com www.clearcube.com www.innotek.de www.microsoft.com www.moka5.com www.panologic.com www.parallels.com www.provisionnetworks.com www.sun.com www.symantec.com www.thinstall.com www.virtualbox.org www.vmware.com www.xensource.org Ein Thin Client zur schicken Metallbox abgespeckt: Die Hardware-Lösung von Pano Logic. geladen. SAP soll MokaFive dem Vernehmen nach unternehmensintern im SalesBereich verwenden. Lösungen für Umsteiger Als Anbieter für unternehmensweite Applikationszugangs- und Virtualisierungslösungen beschreibt sich das 1993 gegründete Unternehmen Ericom. Die hauseigene Lösung „PowerTerm WebConnect DeskView“ wird als eine Art abgespeckte Alternative zu Citrix vermarktet. Die Software soll bessere Performance bei geringeren Kosten liefern. Ericom nennt etwa das britische Modehaus Jaeger oder den kanadischen Versicherer und Finanzdienstleister Western Financial Group, die beide ihre Citrix-Landschaft durch „PowerTerm WebConnect“ ersetzen. „Citrix liefert umfangreichen Schnickschnack mit seinem Produkt, aber wir brauchen diese Funktionalitäten alle nicht“, wird Doug Bennett, IT-Manager Networking & Technology bei Western Financial zitiert. PowerTerm würde über alle notwendigen Features verfügen und dies zu einem Bruchteil der Kosten bei Citrix. Bekannt wurde das Washingtoner Unternehmen Parallels mit seiner Software, die Windows endlich auch auf Apple-Hardware zum Laufen brachte. Gegründet wurde die Firma bereits 1999, lange bevor Intel-Architektur und damit die Möglichkeit, Windows auszuführen, auf Apple-Computern Einzug hielt. Heute hat Parallels an die 900 Mitarbeiter und bietet Virtualisierungslösungen für Server und Desktops mit Mac OS an. Laut Angaben des Unternehmens verwenden rund eine halbe Million Leute die Software, in Summe ist man auf mehr als einer Million Server und Desktops ❏ präsent. monitor | Special Kommunikation 4A/2008 33 Security | Sicherheitsraum Auf der sicheren Seite Bei Knauf Österreich weiß man, dass Sicherheit und Vorsorge zusammengehören. Deshalb schützt ein Sicherheitsraum das neue Rechenzentrum. „Zu einem anständigen Rechenzentrum gehört auch ein anständiges Sicherheitssystem“, weiß Ing.Armin Schreiegg, Leiter der Datenverarbeitung bei Knauf GmbH Österreich. Diese Meinung wird leider noch nicht in jedem Unternehmen vertreten. Häufig werden die Gefahren, die von Brand, korrosiven Gasen oder Löschwasser ausgehen, unterschätzt. Tagelange Ausfälle können die Folge sein. Und was das bedeutet, kann man sich leicht ausrechnen: enorme finanzielle Verluste bis hin zur Schließung des Unternehmens. Meist findet erst nach solchen elementaren Schadensfällen ein Umdenken statt. Da ist es umso erstaunlicher, dass sich die ITVerantwortlichen bei Knauf mit ihrer Einstellung durchsetzen konnten. Ohne offensichtliche Gefahrenquellen und Sicherheitsrisiken für die Produktion hat man sich für einen Sicherheitsraum der Firma Lampertz entschieden. „Für uns ist der Raum wie eine Versicherung.Abgeschlossen für den Fall des Falles“, sagt Schreiegg. Bestens geschützt Knauf, im obersteirischen Weißenbach bei Liezen gelegen, ist Spezialist für Trockenbausysteme. Die Knauf-Gruppe Osteuropa ist derzeit in 20 Ländern Zentraleuropas tätig und unterhält 16 Produktionsstätten mit etwa 1.900 Beschäftigten. In Weißenbach werden die IT-Systeme der Vertriebsbüros in Wien und Linz sowie der Niederlassun- Ing. Armin Schreiegg (rechts) und Ing. Bernhard Stiegler im neuen Sicherheitsraum. gen in Serbien, Slowenien, Bosnien und Montenegro betreut und verwaltet. Anfänglich wurde zur Sicherung der Daten nur an einen Lampertz Datensafe gedacht. Dieser war allerdings für den Standort im 1. Stock des Bürogebäudes zu schwer. Deshalb folgte die Planung eines neuen Raumes im Erdgeschoß, der nun von einem LSR 9.3 umschlossen wird. Der LSR 9.3 hält bei einer Beflammung von 90 Minuten die Grenzwerte der DIN 4102 ein und darüber hinaus auch die strengeren Grenzwerte der Euro-Norm EN 1047-2 bei 30-minütiger Beflammung für die Temperaturerhöhung und relativen Luftfeuchtigkeit. Zudem ist er gas- und wasserdicht. Und Schreiegg fügt hinzu: „Nun sind wir doppelt gesichert, denn die Innenwände unseres Büros sind ja aus Knauf-Trockenbausystemen.“ Einfache Montage Der Raum wurde modular aus einzelnen Lampertz Facts . IT-Sicherheitsräume für Serverfarmen und Rechenzentren . Flexible Infrastruktur (z. B. USV und Klimaanlagen) für bestehende Rechenzentren . Status-Checks und Sicherheitsanalysen . Modulsafes für kompakte Server- und Storage-Racklösungen . Mediensafes für Ihre Backups . Geprüfte Sicherheit (ECB-S, EN1074-2/ECB-S etc.) 34 monitor | Special Kommunikation 4A/2008 Bauteilen gefertigt und konnte so flexibel an die räumlichen Begebenheiten angepasst werden. Ein sehr wichtiger Punkt, denn das neue Rechenzentrum muss nun auch den bereits im Raum vorhandenen Niederspannungsverteiler beherbergen. Was anfangs nach einem notwendigen Übel aussah, hat sich sehr schnell zu einer durchaus sinnvollen Einrichtung gewandelt. Der Verteiler nimmt nun auch die Verkabelung des Rechenzentrums in sich auf. Fazit Neben den gängigen Maßnahmen - redundant ausgelegte Hardware,Virenschutzprogramme und Firewalls - ist die Auseinandersetzung mit möglichen physikalischen Gefahren im Rechenzentrum ein Muss - und das nicht erst nach dem Eintreten einer Katastrophe. Für Armin Schreiegg von der Knauf GmbH Österreich war die Errichtung entsprechender Sicherungsmaßnahmen selbstverständlich. Das neue Rechenzentrum konnte nun im Jänner in Betrieb gehen. „Ich kann nur jedem empfehlen, den Umbau nicht im Winter zu beginnen. Ein halber Meter Schnee am Dach war bei der Verlegung der Klimaleitungen nicht sehr hilfreich. Aber sonst sind wir mit unserem neuen Rechenzentrum sehr zufrieden“, schließt Schreiegg ab. www.lampertz.at www.knauf.at Hexen besiegen. Leicht. Würmer besiegen. Leichter. 1. Mausgewöll und Spinnendreck. Schwupps, schon ist die Hexe weg! Was Suppen für Paul Bocuse, sind Zaubertränke für Hexen. Wieso also nicht selber einen brauen und gegen sie verwenden. Klar, Lurchaugen gibt’s nicht an jeder Straßenecke, aber im Internet findet man doch praktisch alles. 1. Steigen Sie um auf Microsoft Forefront. ® TM TM 2. Zart schmelzende Hexe. Sie kennen die Filme und auch das dicke Ende. Ein Eimer voll Wasser gen Hexe geschüttet, schon dampft sie, schmilzt und löst sich in eine kleine Lacke auf dem Boden auf. Eiswürfel daraus machen und rein in den Cocktail. Schmeckt zauberhaft. 3. Magie mit Magie bekämpfen. Mit einem eigenen Zauberstab – sagen wir mal einem Laserpointer – können auch Sie Ihre Magie spielen lassen. Dreimal schwarzer Kater, schon ist die Hexe eine Kröte. Komisch eigentlich. 4. Die große Hexenbeleidigung. Trotz ihres warzigen Äußeren sind Hexen sensible, zerbrechliche Wesen. Fragen Sie „Hey Hexe – ist das deine Nase oder eine grüne Banane?“ und die Gute verbringt die nächsten Wochen beim Therapeuten. 5. Besen, Besen – war’s gewesen. Fast jede Hexe besitzt einen fliegenden Besen. Stehlen Sie ihn und die Hexe landet hart am Boden der Tatsachen – sie ist besiegt. Positiver Nebeneffekt: Das Öffi-Fahren hat ein Ende. Forefront macht es Ihnen leichter, Ihre Systeme zu schützen. Die bedienungsfreundliche Familie von modernen Client-, Server- und Netzwerk-Sicherheitsprodukten macht es Ihnen einfacher als je zuvor, mit Sicherheitsbedrohungen für Ihren PC fertig zu werden. Fallstudien, gratis Testversionen, Demos und die neuesten Entwicklungen finden Sie auf www.easyeasier.com Security | Anti-Crimeware „Anti-Crimeware“-Strategien und Ausblicke Die Kriminalisierung der Spam- und Malware-Branche setzt Anwender und Security-Anbieter unter Druck. MONITOR befragte 13 führende Hersteller von Antimalware- und Antispam-Tools zur aktuellen Situation. Dominik Troger Unbestrittenes Faktum ist, dass sich in den letzten vier bis fünf Jahren die Malwareszene zunehmend kriminalisiert und kommerzialisiert hat. Man kann mit recht von „Crimeware“ sprechen,die nichts mehr mit „klassischen“ Virenprogrammen zu tun hat.Heute geht es um vor allem darum, finanziell möglicherweise lukrative Informationen auszuspionieren oder Computer und Webseiten heimlich für kriminelle Zwecke zu nutzen. „Das Internet gleicht vom Gefahrenpotenzial mittlerweile eher einem Minenfeld“,beschreibt etwa Matthias Malcher, G DATA Countrymanager Österreich,die aktuelle Situation. Belebt wird diese „Szene“ von einem Schwarzmarkt,auf dem Personaldaten ebenso zu haben sind wie Kreditkartennummern, Bankaccounts oder praktikable Toolkits, um im Internet Geld zu machen. Es hat sich eine Milliarden Euro schwere Schattenwirtschaft entwickelt, arbeitsteilig durchorganisiert und global tätig,die auch die Ressourcen hat, um vielversprechende Objekte sehr gezielt und raffiniert unter Beschuss zu nehmen. Für spezielle Anforderungen entwickelte „Designer-Malware“ und für den Massengebrauch entwickelte „Wegwerf“-Trojaner schaffen zusammen mit der unermüdlichen Spamflut eine Bandbreite an Bedrohungen und Belästigungen,die noch vor wenigen Jahren undenkbar gewesen ist. „Auch die millionenfachen Penny-Stock-Spam-E-Mails versprechen den Spammern eine gigantische Einnahmequelle - selbst dann,wenn auch nur eine Promille-Anzahl den Aktienempfehlungen der Spammer nachkommt“, analysiert Andreas Kroisenbrunner,Avira Country Manager Österreich, die Einnahmemöglichkeiten der Crimeware- und Spam-Branche. Paradigmenwechsel mit weitreichenden Konsequenzen Diesen Paradigmenwechsel spürt auch die Security-Branche. „Vor zwei Jahren konnten wir noch 90% aller Schädlinge mit rund 250.000 Signaturen erkennen“,erläutert dazu Axel Diekmann,Managing Director Central Europe, Kaspersky Lab, der für 2008 damit rechnet, dass hier die Millionengrenze durchbrochen wird. Aber nicht nur diese Flutwelle an „bösem Code“ ist eine Herausforderung,auch der Infektionsweg beginnt sich zu verändern: neben E-Mail-Attachments treten zunehmend „Drive-By-Infektionen“ auf. Dazu Diekmann:„Im schlimmsten Fall infiziert der User seinen Rechner allein durch das Ansurfen einer Website, ohne bewusst etwas herunterzuladen oder die Ausführung einer Datei zu „Avira setzt die innovative AheAD (Advanced Heuristic Analysis and Detection) Technologie zum Erkennen unbekannter oder sich schnell verändernder Angreifer für proaktive Sicherheit ein und überwacht den Internet-Datenverkehr (incoming & outgoing), sowie http- und ftp-Verbindungen in Echtzeit. Mit dem aktuellen Release-Wechsel im April haben wir unsere Avira AntiVir Workstation umbenannt, die Software heißt ab sofort Avira AntiVir Professional. Die neue Such-Engine geht mit einem 20% höheren Durchsatz auf Jagd nach Viren und anderer Malware. Daneben sind Unternehmen durch das integrierte Modul WebGuard noch sicherer im Netz unterwegs. Darüber verfügt die Businesslösung über einen MailGuard, der ein- und ausgehende E-Mails auf Infektionen untersucht und auch noch ein optionales Whitelisting bietet.“ Andreas Kroisenbrunner, Avira Country Manager Österreich 36 monitor | Special Kommunikation 4A/2008 bestätigen. Der dafür notwendige Schadcode wird oft auf Webseiten eigentlich harmloser Anbieter eingeschmuggelt.“ Die installierte Schadsoftware verhält sich dann so unauffällig wie möglich.„Dies beinhaltet auch automatische Updates im 5-Minuten-Takt,um den neuesten Antiviren-Signaturen zu entkommen!“, wie Rainer Link, Senior Security Specialist Anti-Malware bei Trend Micro ergänzt. „Heutige Malware ist weniger auffällig, da sie für Cyberkriminelle die wirtschaftliche Grundlage ist.“ Die Konsequenzen sind vielfältig und betreffen die globale Wirtschaft ebenso wie einzelne Unternehmen und Anwender.„Global entstehen Milliardenschäden durch den Missbrauch gestohlener Informationen.Langfristig könnte das Vertrauen in Online-Geschäfte, egal ob es sich um Online-Banking oder den Kauf und Verkauf von Gütern handelt, nachhaltig beschädigt werden“, fasst Toralv Dirro,McAfee Security Strategist EMEA zusammen. Umfassende Security-Konzepte sind gefragt Unternehmen müssten sich bewusst sein, dass sie möglicherweise mit einem Wahrnehmungsproblem zu kämpfen haben, meint Trend Micro-Spezialist Link: „In der subjektiven Wahrnehmung der Anwender hat sich die Malware-Situation in den letzten Jahren stark verbessert, weil die klassischen signaturbasierten Ansätze für Virus-Scanning und Security | Anti-Crimeware URL-Filterung keine Malware finden.“ Doch gerade das Gegenteil sei Fall. Außerdem sei es heute bedeutend gefährlicher, „wenn ein Unternehmen über einen längeren Zeitraum ausspioniert wird,ohne etwas davon zu merken“, so Axel Diekmann, Kaspersky Lab. Es bestehe auch die große Gefahr,„dass die eigene IT-Infrastruktur gekapert wird und zur Spam-Schleuder mutiert“,betont Oliver Kunzmann, Business Consultant, Norman Deutschland & Österreich. Deshalb wird es, wie Marcus Rapp, Product Specialist bei F-Secure beifügt, immer wichtiger, „die gesamte eingesetzte Software auf Sicherheitslücken zu überwachen und ständig aktuell zu halten.“ Die Konsequenz muss also sein, ein umfassendes Security-Konzept zu entwickeln, „das beispielsweise auch die Netzwerkzugangskontrolle berücksichtigt und sicherstellt, dass sich nur ausreichend geschützte Endgeräte ins Netzwerk einklinken dürfen“, so Christoph Hardy, Security Consultant, Sophos GmbH. „Wichtig sei auch ein umfassendes Consulting vor der Kaufentscheidung und während der Laufzeit“,betont Andreas Kroisenbrunner, Avira. „Ziel muss es sein, am Ende des Prozesses ganzheitlich angepasste Strukturen zu haben, die das Unternehmen signifikant vor aktuellen und künftigen Risiken schützen. Das kann ein individuelles Implementationskonzept, Schulungen und Trainings der Mitarbeiter und IT-Sicherheitsbeauftragten oder eine begleitende Überwachung sicherheitsrelevanter Prozesse beinhalten.“ Quadratur des Kreises „Ein wichtiger Aspekt der BitDefender Sicherheitslösungen für Geschäftskunden ist die einfache Bedienbarkeit der Programme. Darüber hinaus beeinträchtigen unsere Lösungen die Netzwerkkapazitäten nur wenig, das heißt, sie sorgen für hohe Sicherheit, ohne die anderen Prozesse zu verlangsamen. Doch besonders ausgezeichnet werden unsere Lösungen für die zentralen Aspekte einer Sicherheitslösung: proaktiver Schutz, Erkennungsraten und Reaktionszeiten. Mit B-HAVE setzen wir auf eine verhaltensorientierte heuristische Erkennungstechnologie, die Viren an ihren Verhaltensweisen in einem virtualisierten, isolierten Umfeld erkennt, anstatt sich lediglich auf das Aufspüren bekannter Malware-Signaturen zu verlassen. Außerdem haben wir große Fortschritte im Einsatz von neuralen Netzwerken gemacht, um Bild-Spam zu identifizieren und zu blockieren.“ Harald Philipp, Geschäftsführer Bitdefender Deutschland „Der Weg, Antivirus und Antispyware nicht mit einem Scanner, sondern mit mehreren Scannern unter einem zentralen Management zu betreiben, hat sich als der richtige erwiesen. Diesen Weg werden wir auch gehen um unser Host-Based Intrusion Prevention System zu integrieren und damit unseren Kunden eine Lösung anzubieten, die gegen alle aktuellen Bedrohungen einen vernünftigen, leistbaren und gut verwaltbaren Schutz bietet. CA hat Antivirus und Antispyware unter ein zentrales Management gestellt und ein clientbasiertes Intrusion Prevention System vorgestellt. Im nächsten Schritt werden wir auch das miteinander verschmelzen und so eine wirklich zentral verwaltbare Edge-Security-Lösung zur Verfügung stellen.“ Joachim Neuhäusser, Channel Account Manager bei CA Software Österreich GmbH „Als Technologie für die Heuristik ist bei ESET NOD32 sowie ESET Smart Security die pro-aktive Scantechnologie ThreatSense im Einsatz, die auch Rückmeldungen über die global herrschende momentane Gefahrensituation liefert. Zu den Highlights ESET NOD32 und ESET Smart Security Business Edition zählen bestmöglicher Schutz vor Viren, Würmern, Trojanern, Spyware, Rootkits, Phishing und anderer Malware, extrem niedriger Ressourcenverbrauch bei hoher Scangeschwindigkeit, laufende Updates von Antiviren-Signatur, einfache Installation und Bedienung, Fernverwaltung und zentrales Management von Netzwerken, Spiegelungen von Updates in Netzwerken, kostenloser Support.“ Martin Penzes, Technischer Direktor von Sicontact, exklusiver Vertriebspartner von ESET-Produkten in Österreich In Anbetracht der genannten, rasch wechselnden Bedrohungen befinden sich die Security-Hersteller in einer Zwickmühle.„Das Katz und Maus-Spiel zwischen MalwareAutoren und Antiviren-Herstellern hat deutlich an Fahrt zugenommen“, meint etwa Matthias Malcher, G DATA. „Immer mehr Schadprogramme müssen in den Virenlabors untersucht werden. Die Reaktionszeit auf neue Gefahren ist also ein entscheidender Faktor.“ „Antimalwarehersteller werden den Entwicklungen immer hinterherlaufen, das ist de facto so“, meint Martin Penzes, Technischer Direktor von Sicontact, dem exklusiven Vertriebspartner von ESET-Produkten in Österreich.„Wir selbst können zum einen Aufklärungsarbeit betreiben. Zum anderen gilt es auf technologischer Ebene, die Heuristik, also das Erkennen unbekannter Bedrohungen, weiter und weiter zu verbessern, um den Schritt, den wir hinterherlaufen, schon zu antizipieren.“ Vor diesen neuen Anforderungen geraten herkömmliche Technologien zunehmend ins Hintertreffen und es folgt daraus, dass sich die klassische Philosophie von reinen Antivirus-Produkten überlebt hat. „Heute muss eine Anti-Malware verschiedenen Aspekten der Schädlingsbekämpfung Rechnung tragen“, so Joachim Neuhäusser, Channel Account Manager bei CA Software Österreich monitor | Special Kommunikation 4A/2008 GmbH. So haben für Rainer Link,Trend Micro, Pattern als proaktive Schutzmaßnahme überhaupt ausgedient: „Hier sind neue Schutzkonzepte gefragt, die in Echtzeit (d. h. ohne Patternauslieferungsverzug) vor bekannten und unbekannten Gefahren schützen. So kann man beispielsweise verschiedene Datenquellen wie Domain-Reputation,IP Geolocation, Spam History berücksichtigen und den Status in Echtzeit ‘in the cloud’ überprüfen.“ „Die Zukunft von Sicherheitsprogrammen kann sicherlich nicht mehr ausschließlich aus der althergebrachten Erkennung auf Signaturbasis bestehen, die gegenüber den 37 Security | Anti-Crimeware immer schneller weiter entwickelten Schadprogrammen grundsätzlich nur reaktiv vorgehen kann. Die Kombination von Applikationskontrolle als Schutz für die hochsensiblen Bereiche im Unternehmen mit klassischem Blacklist-Virenschutz - idealerweise ergänzt durch flexible Behavior-BlockingFunktionen - bringt ein Ergebnis,bei dem hohe Sicherheit mit entsprechender Flexibilität erreicht werden kann. Auch Ansätze von Whitelisting werden im Unternehmensumfeld erprobt“,weiß Alexander Austein,Principal Systems Engineer bei Symantec Österreich. Und Joachim Neuhäusser, Channel Account Manager bei CA Software Österreich GmbH, ist überzeugt, dass der Markt „zunehmend eine Kombination von Antivirus,Antispyware und Intrusion PreventionSystemen unter einem zentralen Management fordert.Die Hersteller müssen mit entsprechenden Produkten darauf reagieren.“ Ist die Technik überfordert? Einstimmigkeit herrscht darüber, dass der Einsatz von moderner Technik durch weitere Maßnahmen ergänzt werden muss.„Der beste Schutz vor Infektionen bleibt weiterhin der gesunde Menschenverstand“, fasst Axel Diekmann die Ausgangssituation zusammen.„Die technische Umsetzung der Lö- sung ist bei den meisten Herstellern bereits passiert“, betont Joachim Neuhäusser, CA, und fordert ein „Umdenken bei vielen Kunden“.Ins selbe „Horn“ stößt F-Secure Mann Marcus Rapp: „Technologische Mittel stellen einen wichtigen Baustein dar, aber ebenso müssen Prozesse und Denkweisen überarbeitet werden. Außerdem muss das Nutzerverhalten sensibilisiert werden.“ Für McAfee Security Strategist Toralv Dirro ist offensichtlich, dass „eine Lösung nur in Kombination aus technischen Mitteln, organisatorischen Maßnahmen und der Aufklärung der Nutzer über die Risiken funktionieren kann.“ Dabei darf die organisatorische Seite nicht vernachlässigt werden:„Auf der technischen Seite sehen wir die Integration einzelner Lösungen in ein sogenanntes IT-Risiko Management, das zentral verwaltet und gesteuert wird. Hier lässt sich auch die organisatorische Seite wie Zugriffs- und Rechtebeschränkung abbilden.“ Dies könne über Compliance-Vorgaben und die Definition von Richtlinien gesteuert werden. In diesem Sinne ist, so Christopher Hardy, „Sicherheit nicht nur eine Frage der Technologie, sondern bedarf auch strategischer Erwägungen und Entscheidungen.“ „Generell gilt, dass man beim Security in Depth Ansatz möglichst auf allen Ebenen die verfügbaren Mittel einsetzt. Also eben eine bestmögliche Konfiguration der Systeme,der „Security-as-a-Service ist ein sehr wichtiger Punkt, den wir in Zukunft stark wachsen sehen, weshalb wir hier auch mit entsprechenden Produkten unser Portfolio abgerundet haben.Technologisch setzen wir derzeit auf einen Mix aus verhaltensbasierter Erkennung, speziellen Anti-Rootkit-Techniken,Tools, um Drittsoftware zu überprüfen und Unterstützung beim Patchen sowie Anti-Phishing-Filter und anderem mehr.“ Marcus Rapp, Product Specialist bei F-Secure „In unseren Security-Lösungen setzen wir mehrere Schilde zur Abwehr von Malware ein. Zum einen ist dies die G DATA DoubleScanTechnologie, bei der zwei Viren-Engines parallel zum Einsatz kommen. Diese Technologie ermöglicht die höchste Malware-Erkennungsrate. Die von G DATA eingesetzte OutbreakShield-Technologie rundet das Security-Portfolio ab und schützt PCs bereits eine halbe Minute nach Viren-Outbreak.Weil es für Unternehmen kaum mehr möglich ist, den Überblick über aktuelle Gefahren oder veränderte Taktiken der Online-Kriminellen zu behalten, gewinnt die Beratungsleistung von Fachhändlern und Systemshäusern stark an Bedeutung. Genau hier setzen wir an und haben unser Partnerprogramm in Österreich deutlich ausgebaut.“ Matthias Malcher, G DATA Countrymanager Österreich 38 monitor | Special Kommunikation 4A/2008 Einsatz von Sicherheits-Software und regulatorische Kontrolle ihrer Wirksamkeit“,fasst Alexander Austein, Symantec, die gestellten Herausforderungen zusammen. Wie steht es um Security in Österreich? Österreich ist keine Insel der Seligen - oder um es mit den Worten von Harald Philipp, Geschäftsführer Bitdefender Deutschland, zu formulieren: „Das Internet kennt keine Landesgrenzen.Deshalb wird auch in Österreich in Zukunft ein erhöhter Bedarf an ausgefeilten Sicherheitslösungen bestehen, um wichtige Daten von Unternehmen wie auch von Privatanwendern zu schützen.“ Der hohe Anteil an kleinen und mittelständischen Unternehmen birgt in Österreich sogar eher einen Risikofaktor,meint Toralv Dirro,McAfee:„Studien von McAfee haben ergeben,dass sich solche Unternehmen oft gar nicht vorstellen können, Opfer von Angriffen zu werden.Viele halten sich dafür für zu wenig wichtig.“ Auch für Andreas Kroisenbrunner, Avira Country Manager Österreich, zeigt sich der Mittelstand als Achillesferse: „Das liegt zum einen daran, dass sich die Mittelständler weniger mit der Thematik IT-Security beschäftigen oder nicht über die entsprechenden Fachkräfte verfügen. Zum anderen scheuen kleine und mittelständische Unternehmen nach wie vor die notwendigen Investitionen für Schutzmaßnahmen. Unser Ziel ist es, in diesem Bereich mehr Aufmerksamkeit zu erzeugen und damit zu einer sicheren IT-Struktur der kleinen und mittelständischen Unternehmen beizutragen.“ Die aktuelle Marktsituation unter den Anbietern wird zunehmend als Verdrängungswettbewerb beschrieben.„Um hier bestehen zu können, reicht es nicht aus, einfach einen reinen Malware-Schutz anzubieten. Gefragt sind integrierte Lösungen, die alle Bereiche der IT zuverlässig schützen und es zudem ermöglichen,gesetzliche und firmeneigene Sicherheitsrichtlinien effizient umzusetzen. Auch der Bedarf an Consultingleistungen wächst“, weiß Christoph Hardy, Sophos. „Unternehmen suchen dafür qualifizierte Partner,die technisch ausgereifte SicherheitsProdukte liefern.Heute wird also nicht mehr aus der Hüfte geschossen, sondern Anbieter werden genau geprüft und erst nach reiflicher Überlegung ausgewählt“, meint Alex Diekmann, Kaspersky Lab, der aber insgesamt das Sicherheitsbewusstsein in Öster- Security | Anti-Crimeware reich im Vergleich zu anderen europäischen Ländern als relativ hoch einschätzt. Was ist für Antimal- und -spamware im Businessumfeld wichtig? „Neben der Erkennungsrate ist die möglichst vollständige Vermeidung von Fehlalarmen ein wesentlicher Punkt für den Einsatz im Unternehmen. Fehlalarme können sehr schnell viel höhere Kosten verursachen als ein wirklicher Ausbruch von Malware“, so Toralv Dirro. „Wir müssen unseren Kunden innovative Lösungen für eine maximale Sicherheit im Internet bieten können, ohne jedoch den Ressourcenverbrauch der Rechner zu erhöhen. Zudem müssen sie einfach zu gebrauchen sein“, meint etwa Margarita Mitroussi,zuständig für die Pressebetreuung bei Panda Security. Besonders Gewicht wird seitens der Hersteller auch auf ein einheitliches Management gelegt.„Für uns als Lieferant von Kunden mit großen Netzwerken ist nach wie vor einfaches,leicht zu bedienendes Management ein Kernthema. Wenn die Bedienung der technischen Lösung zu kompliziert ist und deswegen die Performance leidet oder die Überwachung gar nicht stattfindet,hilft auch die ausgefeilteste Technologie nichts“,erläutert Joachim Neuhäusser,CA Software Österreich. „Managementlösungen werden inzwischen von allen wichtigen AV-Herstellern angeboten, aber auch hier gibt es große Unterschiede,gerade was die Skalierbarkeit in größeren Netzwerken betrifft.Aus diesem Grund sollten Unternehmen während der Evaluationsphase nicht nur auf die Feature-Liste eines Anbieters schauen,sondern sich auch von der Tauglichkeit im Großeinsatz überzeugen“, meint Alex Diekmann. „Eine zentrale und benuterzfreundliche Managementkonwww.avira.at www.bitdefender.de www.ca.com/at/ www.eset.at www.f-secure.de www.gdata.de www.kaspersky.com/de www.mcafee.at/de www.norman.com/de www.panda-software.de www.sophos.de www.symantec.com/de/at de.trendmicro.com „Um die Zeit zwischen Erscheinen eines Schädlings und der dazu passenden Signatur durch AV-Hersteller zu überbrücken, gewinnen heuristische und proaktive Erkennungsmechanismen mehr und mehr an Bedeutung. Da bei diesen Technologien signaturunabhängig und vollautomatisiert ermittelt wird, ob eine Anwendung gefährlich ist oder nicht, spielt der Zeitfaktor keine Rolle mehr. Das damit einhergehende Risiko von Fehlalarmen wird in Zukunft durch die Einführung von Whitelists, in denen zu 100% vertrauliche Anwendungen und Treiber geführt werden, auf ein Minimum reduziert. Unsere Business Produkte harmonieren perfekt mit den Hosted Security Services. Wir können nun als einer der ganz wenigen Anbieter unsere Kunden vor lokalen und netzwerkbasierten Bedrohungen sowie Gefahren aus dem Internet schützen. Kaspersky Lab bietet in diesem Zusammenhang auch spezielle Bundlepreise an.“ Axel Diekmann, Managing Director Central Europe, Kaspersky Lab „Heute setzen wir auf den Endgeräten eine Kombination aus signaturbasierter Erkennung und der exakten Identifikation bekannter Malware mit verhaltensbasierten Schutzmassnahmen gegen unbekannte Malware ein. McAfee ergänzt das mit einem netzwerkbasierten Intrusion Prevention System (IPS), das teilweise die Kommunikation von Trojanern nach außen erkennen und eine Isolierung der als infiziert erkannten Systeme im Netzwerk durchsetzen kann. McAfee bietet außerdem Schutz am Gateway zur Erkennung von Malware, Spam und Angriffen über E-Mail und HTTP. In Zukunft werden verhaltensbasierte Schutzmaßnahmen, die wirksam vor unbekannter Malware schützen, eine noch größere Rolle spielen.“ Toralv Dirro, McAfee Security Strategist EMEA „Wir setzen Schutzlösungen an anderen als den bisher gängigen Stellen im Unternehmensnetz ein und haben dafür eine spezielle Lösung entwickelt, das Security-Gateway Norman Network Protection. Damit lässt sich die Ausbreitung von Malware verhindern, die zum Beispiel über mobile Datenträger ins Unternehmensnetz eingeschleppt wurde. Die Lösung lässt sich nämlich an jeder beliebigen Stelle im Netzwerk installieren und schützt damit zielgerichtet besonders sensible Netzwerksegmente. NNP scannt, mit klassischem Scanner und mittels der SandBox-Technologie, den durch sie hindurch gehenden Datenstrom. Intelligente technische Funktionalitäten sorgen dafür, dass sich NNP den anderen Netzwerkkomponenten gegenüber neutral und transparent verhält und der Scanprozess die Datenübermittlung nicht spürbar verzögert.“ Oliver Kunzmann, Business Consultant, Norman Deutschland & Österreich sole erleichtert die Verwaltung und spart Zeit, Nerven und Geld. Dieser Aspekt ist häufig für KMUs ausschlaggebend“, so Andreas Kroisenbrunner,Avira, Ein in der Vergangenheit nicht immer mit Lobeshymnen bedachtes Gebiet war die Perfomance der eingesetzten Security-Applikation. Das Ziel ist freilich, dass man „die Existenz einer Antimalwaresoftware nicht spürt“, ist Martin Penzes, Sicontact, überzeugt. „Das heißt, Produkte sollten zum einen wenig Speicherplatz benötigen und gleichzeitig den Computer nicht verlangsamonitor | Special Kommunikation 4A/2008 men.“ Dem kann Oliver Kunzmann, Norman, nur zustimmen: „Verfügbarkeit und Performance sind ganz wichtige Punkte. Security-Lösungen dürfen den Rechner nicht belasten.Die Anwender würden sonst Mittel und Wege finden, um den Virenschutz zu umgehen, und das wäre kontraproduktiv.“ Für Andreas Kroisenbrunner lässt sich durch Anpassen des Suchumfangs und der Suchintensität an die individuellen Bedürfnisse beziehungsweise der technischen Gegebenheiten die Performanz zusätzlich steigern.Wichtig sei aber auch „plattformüber39 Security | Anti-Crimeware greifender Schutz, das heißt die Sicherheitslösungen sollten für Windows sowie die gängigen UNIX-basierten Plattformen verfügbar sein.“ Für Christopher Hardy ist neben einer möglichst einfachen und zentralen Verwaltung das häufige und regelmäßige Aufspielen von Updates wichtig.Entscheidend ist für ihn auch der Service der Hersteller:„Die ständige Erreichbarkeit der zuständigen Mitarbeiter, deren Fachkompetenz sowie ein reibungsloser Support sollten gewährleistet sein.“ „Sicherheit bedeutet für Panda eine Kombination aus Service und Lösung. Die Businessprodukte ‘Panda Security for Business’ und ‘Panda Security for Enterprise’ bieten einfachen und effizienten Schutz mit zentralisiertem Management und minimaler Belastung von Workstations, File-Servern und Microsoft Exchange-Servern. Das integrierte Administrations-Tool ‘AdminSecure’ passt sich jeder Unternehmensstruktur perfekt an. Panda Security erweitert den Security-Level um eine zusätzliche Stufe: Dem Security Audit ‘Malware Radar’. Dazu werden höchst fortschrittliche Technologien und äußerst empfindliche Heuristiksysteme eingesetzt, die auf dem ‘Collective Intelligence’ Ansatz basieren. Das gesamte Analyseverfahren sowie der Auswertungsprozess finden automatisch, schnell und zentralisiert statt.“ Margarita Mitroussi, Presse und PR, Panda Security Neue Chancen für gehostete Security-Services? „Gehostete Security-Dienste sind vor allem für kleinere und mittlere Unternehmen attraktiv,die das entsprechende Know-how und die Kapazitäten nicht inhouse bereitstellen können oder wollen“, meint Oliver Kunzmann, Norman. „Das Marktforschungs- und Beratungshaus Gartner erwartet bereits für 2011, dass 25% der neuen Business-Software als SaaS geliefert wird.Aktuell sind es gerade einmal 5%“, erklärt Alexander Austein, Symantec. Und auch bei Panda Security ist man überzeugt,dass „gehostete Security Services in Zukunft mit ansteigender Akzeptanz von Seiten der Nutzer an Bedeutung gewinnen werden.Sie ermöglichen höhere Erkennungsraten, da Technologien eingesetzt werden können, die auf ‘normalen’ Systemen aufgrund der fehlenden Rechenleistung nicht erbracht werden können.“ „Wir sehen in diesen sogenannten Managed Security Services eine Chance auch für kleinere Unternehmen, aktuelle Lösungen zum Schutz effektiv einzusetzen,ohne dafür eigens geschultes Personal und weitere Ressourcen zu haben“, meint Toralv Dirro, McAfee. „Das Auslagern des Managements an Partner, denen man auch sonst die Konfiguration des Netzwerkes und die Beratung anvertraut, bietet neue Möglichkeiten.“ Von hervorragenden Chancen für Hosted Security Services ist man bei Kaspersky Lab überzeugt: „Vor allem der Mittelstand profitiert durch den Einsatz von Hosted Security Services und erreicht dadurch ein Sicherheitsniveau, das sich sonst nur große Unternehmen leisten können.Dies trifft für Österreich ebenso zu, wie für alle europäischen Märkte, in denen wir tätig sind.“ Vorsichtiger formuliert Christoph 40 „In unseren Lösungen enthalten sind neben proaktiven Erkennungstechnologien auch eine PUA Detection zum Schutz vor potenziell unerwünschten Anwendungen, wie Dialern oder Adware, sowie die Application Control. Mit dieser können Unternehmen die Nutzung bestimmter Anwendungen, wie Instant Messenger oder PC-Spiele, erlauben oder blocken und so Sicherheitsrisiken oder Produktivitätsverluste vermeiden. Zudem ist in Sophos Anti-Virus eine Buffer Overflow Protection integriert, der verhindert, dass die SchutzSoftware selbst Angriffen zum Opfer fällt. Die Sophos Web Security and Control Appliance vereint URL-Filtering und Content Security in einer Hardware-Lösung und bietet umfassende Funktionen zur URL-Klassifikation mit einer Datenbank, die mehr als 24 Millionen Websites enthält. Systemadministratoren erhalten die Möglichkeit, schnell und einfach anwendergruppen-spezifische Richtlinien einzurichten und durchzusetzen.“ Christoph Hardy, Security Consultant, Sophos GmbH „Alle Vorteile wichtiger Sicherheitstechnologien wie Virenschutz, Antispyware, Desktop-Firewall, Intrusion Prevention, Gerätekontrolle werden in Symantec Endpoint Protection vereint. Zudem erlaubt die Applikationskontrolle die zentrale Verwaltung durch einen einzigen Agenten. Die zentrale Management-Konsole integriert die Kontrollfunktionen für Geräte und außerdem ist bereits eine Funktion zur Network Access Control enthalten.“ Alexander Austein, Principal Systems Engineer bei Symantec Österreich Hardy, Sophos: „Security ist für Unternehmen heute ein so wichtiges und sensibles Thema,dass man es ungern außer Haus gibt.Immer mehr Unternehmen entscheiden sich daher für den Einsatz von Security-Appliances, die sich mit wenig Aufwand verwalten lassen und eine gute Alternative zum Outsourcing darstellen. Die Daten selbst bleiben auf jeden Fall im Unternehmen.“ Und für Martin Penzes,Technischer Direktor von Sicontact, machen gehostete Security-Lösungen nur dann Sinn, „wenn zudem weitere IT-Services ausgelagert werden.“ „Hosted-Security-Lösungen machen nach unserer Einschätzung generell wenig Sinn“, findet Matthias Malcher, G DATA. „Die Komonitor | Special Kommunikation 4A/2008 stenvorteile sind auf Kundenseite faktisch nicht vorhanden. Im Vergleich zu anderen Herstellern haben wir bei der Entwicklung unserer Business-Lösungen größten Wert darauf gelegt, Security-Performance mit Usability in Einklang zu bringen.“ Für Harald Philipp, Bitdefender, sind die Internet-Service-Anbieter „die natürlichen Wächter für gehosteste Security-Dienste und wir unterstützen sie dabei mit den nötigen Mitteln, wie zentral verwaltbare Client Security sowie mit Sicherheitslösungen für Server.“ Eine differenzierte Haltung zu diesem Thema nimmt Andreas Kroisenbrunner, Avira, ein: „Um sich umfassend zu schützen, müs- Security | Anti-Crimeware sen Betriebe ein Sicherheits-Modell wählen, das ihren Bedürfnissen und ihren IT-Umgebungen am besten entspricht. Security as a Service ist dabei vor allem für Unternehmen eine Option,bei denen kein individuelles Implementierungskonzept nötig ist,d.h.wo nur wenig oder keine individuellen Anpassungen vorzunehmen sind und kaum direkte Kontrolle der Software erforderlich ist. Bei komplexen IT-Strukturen oder vielfältigen Sicherheitsregeln ist Security as a Service sicher nicht die beste Wahl.“ Zudem müsse sich jeder Nutzer von Security as a ServiceModellen über die Abhängigkeit von einem externen Partner bewusst sein und unbedingt Vorkehrmaßnahmen für den Ausfall des Service-Providers treffen. Fazit „Der Kampf gegen die Kriminellen ist von staatlicher Seite äußerst schwierig, da diese vergleichbar mit Großunternehmen - weltweit agieren. Multinationale Konzepte zur Bekämpfung sind von Seiten der Strafver- „Mit IMHS (InterScan Messaging Hosted Security) bietet Trend Micro eine Rundumlösung für gehostete Mail Security an. Hierbei werden dieselben Funktionalitäten wie in Standalone-Systemen mittels Hard- oder Software geboten. Grundsätzlich bietet sich Hosted Security für Firmen an, die keine oder wenig dedizierte Ressourcen für die Pflege bzw.Wartung von Systemen und Servern haben bzw. die den existierenden Aufwand vermindern wollen. Mit Web Threat Protection hat Trend Micro eine Technologie entwickelt, die den Status in Echtzeit ‘in the cloud’ überprüft.Als Datenquelle dienen verschiedenste Informationen, u. a. Domain-Reputation, IP Geolocation, Spam History. Diese Daten werden korreliert und dem Anwender in Echtzeit zur Verfügung gestellt. Wird eine URL als gefährlich eingestuft, werden automatisch alle Anwender unverzüglich, ohne langwieriges Patternupdate, geschützt.“ Rainer Link, Senior Security Specialist Anti-Malware bei Trend Micro folgungsbehörden kaum ausgeprägt und scheitern bereits an fehlenden international verzahnten Strukturen der Verbrechensbekämpfung“, zeichnet Matthias Malcher, G DATA, ein düsteres Zukunftsbild. Gibt es also keine Chance, aus der Defensive zu kommen? „Das Bewusstsein in puncto Sicherheit ist auch bei Software-Entwicklern oftmals nicht ausreichend geschärft, obwohl es das sein sollte“, zeigt Harald Philipp, Bitdefender, einen weiteren Aspekt auf. „Im Zuge eines Umdenkens im Bereich Sicherheit muss in Zukunft in größerem Umfang präventiv vorgegangen und bereits bei der Programmierung eventuellen Sicherheitslücken entgegengewirkt werden.“ Zumindest die Fehler,die man selbst vermeidet, können andere nicht bösartig ausnützen. ❏ we protect your digital worlds® Ein neuer Weg, Viren einen Gedanken voraus zu sein ESET® Smart Security ESET NOD32 Antivirus ESET NOD32 Antispyware ESET Personal Firewall ESET Antispam Testen Sie jetzt 30 Tage gratis. www.eset.at www.eset.at Security | Web Reputation Management Web Reputation Management Abwehrkonzepte sollten keine Schönfärberei betreiben Eine umfassend abgedichtete Reputationspflege gehört für Unternehmen zum unverzichtbaren Bestandteil eines Sicherheitskonzepts. Es gilt den strategischen Hebel aber an der richtigen Stelle anzusetzen, da sich über webbasierte Anwendungen ständig neue Schlupflöcher auftun. Lothar Lochmaier Laut Gartner rücken Internetanwendungen im kommenden Jahr zur Nummer eins bei der Verbreitung von Malware auf. Den drohenden Flächenbrand nur punktuell zu löschen, bringt einen indes kaum weiter. Gefragt sind vielmehr Konzepte, die sich wirksam in den Datenschutz und die vorhandenen IT-Sicherheitsrichtlinien integrieren lassen. Immerhin:Der Ruf und die Glaubwürdigkeit von Unternehmen stünden auf dem Spiel, argumentieren die Marktforscher von Gartner. Die webbasierte Sicherheit sei endgültig zum „geschäftskritischen Faktor“ aufgestiegen,so die Auguren.Während die Malware-Architekten oftmals leichtes Spiel haben,feilen die Sicherheitsspezialisten weiterhin an wirksamen Lösungsstrategien. Die Liste der Anbieter mit dezidierten Konzepten wie URL-Filter oder Scanreports erweitert sich fast im wöchentlichen Rhythmus.Was indes zählt,ist die rasche Reaktion, um Eindringlinge möglichst schon an der Eingangstüre ins Unternehmen abzufangen. Doch ist die Umsetzung nicht leicht.Aus Sicht der Corporate Security lauert der erste Fallstrick spätestens bei der Umsetzung von Datenschutzrichtlinien. Zwar bekräftigen so gut wie alle Abteilungen die Tatsache,dass Diebstahl oder der Verlust von Kundendaten einen schädlichen Einfluss auf den Markenwert und den Ruf der Organisation haben könnten.Bloß zieht diese Erkenntnis oftmals kein praktisches Handeln nach sich. Denn es fehlt an einer konsistenten Strategie, um die vielfältigen Gefahren aus der Tiefe des World Wide Webs abzuwehren. 42 Abwehrphalanx bleibt ohne Durchschlagskraft Bei kleineren Unternehmen scheitert dies allein schon am fehlenden Geld oder an mangelndem Personal.Aber auch größere Unternehmen bieten unzählige Schlupflöcher. „Web Reputation ist aber nur ein Teilaspekt von dem, was tatsächlich getan werden muss“,sagt Raimund Genes,CTO Anti-Malware beim Sicherheitsspezialisten Trend Micro. Zahlreiche große Hersteller von Anti-Malware-Konzepten arbeiten an entsprechenden umfassenden Lösungen, mitunter auch als Unified Treat Management (UTM) bezeichnet. Bislang jedoch ohne durchschlagenden Erfolg. Die Eindringlinge sind immer einen Schritt voraus. Vor allem gelangen unbekannte Systemschwächen heute nicht mehr an den Hersteller,sondern an den Meistbietenden im Internet.Folglich lässt sich ein Endgerät kaum auf unbekannte Systemschwächen oder Schadsoftware überprüfen. Die verstärkt auf den Plan getretenen Hersteller setzen auf mehr und vor allem schnellere Informationen über bereits gefundene Schwachstellen. So schützt etwa ein vom Sicherheitsspezialisten Grisoft entwickelter „LinkScanner“ vor gefährlichen Websites und riskanten Downloads. „Unsichere Hyperlinks und die Verwanzung seriöser Websites stellen eine der größten Bedrohungen seit dem Aufkommen der Viren dar“, bekräftigt J.R. Smith, CEO von Grisoft.Das Unternehmen will die integrierte Lösung LinkScanner von der kürzlich übermonitor | Special Kommunikation 4A/2008 nommenen Exploit Prevention Labs in das AVG Anti-Virus Free einbinden. Darüber wird ein kostenloser On-demand-Service zum Scannen von Internetadressen direkt auf der AVG-Website angestrebt. Konzepte der Hersteller bislang zu punktuell ausgerichtet Andere Anbieter wie SecureComputing setzen vor allem auf leistungsfähige EchtzeitInformationen über neue Schwachstellen.So stellt der Reputationsdienst TrustedSource.org ein Frühwarnsystem dar, das in Echtzeit IPAdressen, Domains und URLs durchforstet und bewertet.Auch Ironport hat kürzlich seine Appliances um die neue Funktionalität eines reputationsbasierten URL-Filters erweitert. Sicherheitsanbieter NetNames wiederum sorgt mit seinem Service „NetNames Platinum Service“ dafür, dass Unternehmen bei der Vielzahl der Domainnamen und unterschiedlicher Regelungen den Überblick behalten sollen. Persönliche Kundenberater unterstützen demnach das Unternehmen dabei, eine individuelle Domainstrategie aufzubauen. NetNames überwacht zudem das Internet und informiert Firmen durch einen wöchentlichen „Name Alert“ über neue Registrierungen, die den Markennamen enthalten. Und schließlich kann der Kunde dort auch sinnvolle Gegenmaßnahmen einleiten lassen. Im Kern aber stellen derartige Informationsdienste kaum eine wirkliche Neuheit gegenüber den bereits seit Jahren erprobten Frühinformationssystemen aus der IT-Sicherheit dar, wie etwa dem von Symantec Optimaler Schutz für dynamische Unternehmens-Netzwerke herausgegebenen Alert Service „Deep Sight Analyzer“. Schutzsuiten dichten nur zentrale Löcher ab Gefragt sind also umfassende und ganzheitlich ins Unternehmen integrierbare Schutzkonzepte.Doch trotz gradueller Fortschritte stellt sich die Frage,ob es überhaupt ein realistisches Ziel sein kann, die komplexe Infektionskette im Internet zu unterbrechen.Wollen die Anbieter dadurch letztlich nicht nur neue Tools vermarkten? Den IT-Sicherheitsspezialisten bliebe dann nur die etwas unliebsame Rolle, in der Schlacht um den guten Ruf des Unternehmens nicht gänzlich unterzugehen. Finanzielle Mittel in der betrieblichen Budget-Planung für ein proaktiv aufgestelltes Web Reputation Management freizumachen, stellt oftmals einen organisatorischen Drahtseilakt dar. Aufgrund der komplexen Bedrohungsmuster gilt es die technischen Lösungen deshalb in das gesamte Reputationsmanagement einzubinden, inklusive einer Evaluierung am gemeinsamen runden Tisch mit den zuständigen Fachabteilungen. Gelingt die organisatorische Verankerung nur unzureichend, bleiben alle Bemühungen, einen größeren Schaden vom Ruf des Unternehmens abzuwenden,eine inhaltsleere Marketingblase. Denn die derzeit von den Abwehrspezialisten propagierten Lösungskonzepte allein können die via Internet oder eigene Webanwendungen eingeschleuste Malware kaum unschädlich machen. „URL-Filter und Trafficscans reichen natürlich nicht aus, um die Reputation einer Web-Seite zu bestimmen“, sagt Raimund Genes. Er verweist auf Methoden,die Web Crawler austricksen und den Nutzern beim Crawlen eine „gute“ Seite lediglich vor- gaukeln.„Der echte,ehrliche Anwender, der zum Beispiel mit einem deutschen Browser surft, hat aber eine Webseite mit eingebetteter Malware zu verdauen“, betont der Experte. Erweiterte Kriterien ins Reputationsmanagement einbinden Derzeitige Frühwarnsysteme sind außerdem nur auf herkömmliche Malware zugeschnitten und arbeiten hauptsächlich signatur- und nicht verhaltensbasiert, obwohl mittlerweile jeden Monat über 400.000 Schädlinge neu in Umlauf gelangen. Selbst wenn ein neuer Schadcode entdeckt wird, dauert es viel zu lange, um darauf mit einer neuen Signatur zu reagieren.Also könne sich ein umfassendes Reputationsmanagement nicht mehr ausschließlich auf Signaturen und auf regelmäßige Aktualisierungen des Anwenders verlassen, sondern müsse sich proaktiv auf neue Bedrohungen einstellen und diesen anpassen, regt Genes an. Um Webseiten mit einer schlagkräftigen Reputation zu versehen, sollten neben URLFiltering und Trafficscans deshalb wesentlich mehr Kriterien herangezogen werden, um die Seite zu bewerten. Hierzu gehören etwa die Stabilität und die Registrier-Informationen zur Seite sowie die Analyse von Malware und der darin befindlichen URLs, um Links auf „schlechte Seiten“ aufzuspüren. Einzubeziehen wären auch Rückmeldungen der lokalen Antimalware Agenten bzw. Scanner. Verändert der Besuch auf einer Webseite zum Beispiel die Registry oder wird versucht, automatisch Code zu starten, kann der lokale Virenschutz bei manchen Herstellern mittels einer „Feedback Loop“ diese Seite zumindest als verdächtig melden. Firmen-Netzwerke sind offener und dynamischer geworden – doch mit Subnetzen, Laptops und Smartphones gefährdeter denn je. Kaspersky Open Space Security schützt Firmen-Netzwerke jeder Größe inklusive externer Mitarbeiter und mobiler User zuverlässig – und wächst mit allen zukünftigen Anforderungen an die Unternehmens-IT. Endlich sind Freiheit und Flexibilität sowie optimaler Schutz miteinander vereinbar. Kaspersky Open Space Security Optimaler Schutz vor Viren, Spyware und Hackern auf allen Netzwerk-Ebenen Proaktiver Schutz der Workstations Schutz von Mail- und File-Servern Echtzeit-Scan von Mails und Internet-Traffic Flexibel skalierbar Automatische Isolierung infizierter Clients und Verhinderung von Virus-Epidemien Zentrale Administration mit umfangreichem Berichts-System de.trendmicro.com w w w. k a s p e r s k y. a t Security | Authentisierung „Starke Authentisierung“: Schonfrist definitiv vorbei Die Sicherheit im Internet rückt auch in Österreich immer stärker ins öffentliche Bewusstsein. Unter anderem wird in Fachkreisen unter dem Oberbegriff „Identity and Access Management“ intensiv diskutiert, ob Schutzmaßnahmen wie „Zwei-Faktor-Authentisierung“ heute noch genügen. Urs Zurbuchen Wenn Vertreter der IT-Security-Branche vermehrt Sicherheit anmahnen, könnte man das als Laie unter Umständen noch im Bereich Eigeninteresse ansiedeln. Doch wenn sich die Meldungen in den Medien über die Sicherheit im Internet - insbesondere beim E-Banking und bei E-Shops - häufen, das öffentlich Bewusstsein erwacht und sich sogar die Rechtsprechung vermehrt dem Thema annimmt, weiß man: Jetzt geht’s ans Eingemachte. Die Kadenz der Meldungen und das Ausmaß der Bedrohung haben allein schon in den letzen Monaten spürbar zugenommen. Metapher bieten sich geradezu an. Manche behaupten, das Internet als Kontakt-, Informations- und Shoppingparadies bekomme immer mehr den Charakter eines Dschungels. Im Gegensatz zu real existierenden Urwäldern, wo Raubtiere immer mehr unter Druck geraten, haben reißende Tiere in der freien Internet-Wildbahn ganz offensichtlich ihre „ökologischen Nischen“ gefunden. Es wimmelt von Phishing-Hyänen und Malware-Schlangen. Oder man bemüht das Vokabular der Kriegskunst.Auf Angriff folgt Verteidigung. Und auf eine erfolgreiche Verteidigung folgt ein neuer, andersartiger Angriff. Diese auch auf dem „Internet-Schlachtfeld“ zu beobachtende Dynamik, erinnert an einen Begriff aus dem kalten Krieg, den wir eigentlich alle gerne nur noch in Werken zur Zeitgeschichte lesen würden: das Wettrüsten. Doch wohlgemerkt: Es geht nicht um Panikmache, sondern einfach darum, den Tatsachen ins Auge zu schauen und praxisorientierte Vorbeuge- und Abwehrmaßnahmen zu entwickeln. Denn es gibt wirksame Instrumente. Entsprechendes Gewicht erhält 44 Authentisierungstrends: Woher weht der Wind? der vielschichtige Bereich „Identity and Access Management“ (IAM). Die grundlegende Mission des IAM ist, einen kontrollierten Zugriff auf Informationsressourcen und Anwendungen zu ermöglichen. Marktvolumens in Österreich von 16%. Die springende Frage für die Entscheider: In welche Technologien bzw. Lösungen soll investiert werden? Oder anders gefragt:Welche Systeme genügen, und wohin geht die Entwicklung? Wahrnehmung in Österreich verstärkt Online-Banking stark gefordert IAM bzw. Identity Management wird ebenfalls in einer eben erschienenen, vom Austrian Security Forum (ASF) initiierten Studie zum IT-Security-Markt Österreich als eines der drei wichtigsten Themen der Zukunft aufgeführt.Als Initiative mit Breitenwirkung darf auch die „Internetoffensive Österreich“ nicht ungenannt bleiben, insbesondere der Arbeitskreis „Sicherheit und Konsumentenschutz“. Ohne Zweifel werden die Ausgaben für IT-Sicherheit im Allgemeinen und für Maßnahmen gegen Phishing, d. h. E-Mail-Security und Malware im Speziellen in den nächsten Jahren signifikant zunehmen. Allein für 2009 rechnet die erwähnte Studie mit einem Wachstum des IT-Security monitor | Special Kommunikation 4A/2008 Es gibt wohl kaum eine Branche, in der diese brennenden Fragen intensiver diskutiert werden als im Finanzbereich, besonders beim Online-Banking. Der Druck kommt von allen Seiten: Berichte über Identitätsdiebstahl (Phishing) oder kriminelle Umleitung von Überweisungen (z. B. mittels Trojaner) verunsichern generell die Kundschaft und fügen betroffenen Banken erheblichen Imageschaden zu - ganz zu schweigen von konkreten rechtlichen Forderungen (vermutlich ist die Dunkelziffer bei den Schadenssummen hoch). Ferner müssen Banken unter dem Stichwort „Compliance“ immer mehr und immer strengeren nationalen, europäischen und internationalen Normen ge- Security | Authentisierung nügen. Da sich das Online-Banking in der Bevölkerung zur gängigen Praxis entwickelt hat, sind die Banken gefordert, Lösungen anzubieten, die sich breit anwenden lassen. Auch hier geht es ums Abwägen - wie eigentlich immer in der IT-Security. Die Systeme haben einfach einsetzbar und bezahlbar zu sein und ein angemessenes Maß an Sicherheit zu bieten. Es können also keine Maximallösungen sein, die zu teuer sind oder die Geschäftsprozesse bzw. den Kundenkomfort behindern. Integraler Bestandteil aller Lösungen ist der Themenkomplex „Authentisierung“ oder „starke Authentisierung“. Begriffsvielfalt wird, was aber irreführend sein kann, da man auch die Drei-Faktor-Authentisierung kennt. Die Frage der Authentisierungsstärke Die „Stärke“ einer Authentisierung bezieht sich auf den Grad der Sicherheit in der Identitätsfeststellung. Sie wird über spezielle Authentisierungssysteme wie Identity Management Server, Authentication Server oder Web Application Firewall erreicht. Starke Authentisierung ist heute im Banking ein unbestrittenes Muss.Weil sich aber die Bedrohungslage durch die Verbreitung von Malware verschärft hat, vertreten viele die Meinung, dass eine Zwei-Faktor-Authentisierung nicht mehr ausreicht. In diesem Zusammenhang ist kürzlich eine Schweizer Bank dazu übergegangen, das bisherige zweistufige Login-Verfahren durch den Einsatz einer Chipkarte mit PIN-Code und einem USB-Stick zu ersetzen. Der USBStick enthält einen eigens konzipierten Browser als Alternative zum Browser, der fest auf dem Computer des Benutzers installiert ist. Das ist immerhin eine Erhöhung der Sicherheit, doch auch diese Lösung kann grundsätzlich vom Angreifer, der sich be- Mag. Urs Zurbuchen ist Business Engineer bei der Schweizer United Security Providers AG. Das Unternehmen ist auch in Österreich aktiv und offen für Partnerschaften. www.united-security-providers.ch reits im Computer eingenistet hat, umgangen werden. Das Grundproblem liegt in der Natur der Malware, das an zwei Fronten angreift: Einerseits werden via E-Mail Sicherheitslücken auf Betriebssystem- oder Applikationsebene genutzt, um infizierte Attachements oder Links zu präparierten Webseiten auf dem Kundenrechner einzunisten. Andererseits zielt die Malware auf den Browser. Dabei verändern Angreifer Kontonummer, Empfängername und Betrag noch bevor die eigentlichen Transaktionsangaben des Benutzers verschlüsselt an die Bank gelangen. Selbst die Bestätigung der Bank wird mit der Malware abgefangen und im Browser manipuliert angezeigt. Wie so oft werden auch hier die Begriffe nicht immer einheitlich verwendet. Es wird von Authentisierung, Authentifizierung oder gar Authentikation gesprochen. Für manche Fachleute haben die Begriffe sehr wohl unterschiedliche Bedeutungen. Streng genommen verwenden sie die Authentisierung als Vorlage eines Nachweises zur Identifikation und die Authentifizierung als Überprüfung dieses Nachweises. Glücklich sind da die Englischsprachigen: In ihrer Sprache kennt man keine Unterscheidung, man spricht einfach von „authentication“ oder eben „strong authentication“. Der weit verbreiteten Praxis entsprechend wird an dieser Stelle der Begriff Authentisierung im weitesten Sinne als Verifikation der Identität einer Person (oder eines Objekts) eingesetzt. Die methodischen Grundlagen der AuWIR SORGEN FÜR SICHERHEIT thentisierung sind allgemein bekannt und bewegen sich in den Bereichen Wissen (das Ein Stromausfall oder Schwankungen in der Netzversorgung Subjekt weiß etwas, z. B. ein können zu Systemstörungen, Datenverlusten oder zu noch Passwort), Besitz (das Subjekt schlimmeren Schäden führen. Die einfachste und effektivste Möglichkeit diese Störungen zu vermeiden, ist der Einsatz eihat etwas, z. B. einen Schlüsner USV-Anlage (Unterbrechungsfreie Stromversorgung). Wir sel) und Biometrie (das Subgewährleisten mit USV-Anlagen von Aros Ihre sichere Stromjekt bzw. eines seiner Merkversorgung. Jetzt neu: Sentinel XR 3,3 – 10kVA als Stand- oder male ist anwesend, z. B. Fin19’’Zoll Gerät einsetzbar. Weil Systemwissen entscheidet. gerabdruck). Bei einer Kombination von zwei Methoden spricht man von Zwei-FaktorA-1230 Wien, Kolpingstraße 15 Tel.: (01) 6162180-23 Authentisierung, was zum Fax: (01) 6162180-99 E-Mail: [email protected] Teil auch mit „starker Auwww.schmachtl.at/usv thentisierung“ gleichgesetzt monitor | Special Kommunikation 4A/2008 Neue Wege gehen Da sich diese Trojaner weder durch SSL-Verschlüsselung noch durch starke Authentisierung blockieren lassen, verfolgt die Transaktionsverifikation einen anderen Ansatz. Vereinfacht ausgedrückt werden dabei dem Benutzer sensible Transaktionen über ein zweites, unabhängiges Medium vorgelegt. Das kann (kostengünstig) über das Mobile Phone mittels SMS oder über ein spezielles Stand-alone Token geschehen. Abgesehen von konkreten Systemevaluationen müssen heute Banken und E-Commerce-Anwender wie E-Shops beim Thema Authentisierung Grundsätzliches berücksichtigen. Zum Beispiel die Entwicklung umfassender, in die übergeordneten Security-Richtlinien eingeordnete IAM-Konzepte sowie Web Application Server, die eine offene Basis bieten für neue Wege wie die Transaktionsverifi❏ kation. 45 Security | Veranstaltung RSA Conference 2008: IT zwischen Datenschutz und Datensicherheit Die RSA Conference gilt im SecurityBereich als Pflichtveranstaltung. Vom 8. bis 10. April trafen sich IT-SecurityExperten aus aller Welt in San Francisco, um sich über die neuesten Sicherheitstrends und Gefahrenszenarien in der IT zu informieren und darüber auszutauschen. Klaus Lorbeer Die Liste der Vortragenden auf der RSAKonferenz liest sich wie ein Who’s who der IT-Security-Branche und reicht von Craig Mundie, Chief Research and Strategy Officer von Microsoft und John W. Thompson, CEO von Symantec über die IT-Gurus Hugh Thompson und Bruce Schneier bis hin zum Erfolgsbuchautor Malcom Gladwell („Blink! Die Macht des Moments“ und „Der Tipping Point.Wie kleine Dinge Großes bewirken“). Mehr als Publikumsmagnet denn als Security-Experte referierte selbst der ehemalige US-Vizepräsident Al Gore auf der RSA allerdings weniger über sichere als über umweltschonende Technologien. Neben den einzelnen Lösungen, die die 350 Aussteller in der Messehalle zeigten, ging es im Moscone-Center in San Francisco vor allem um neue Gefahrenpotenziale und Security-Trends. Tatsächlich hat sich das Bedrohungsszenario verändert, ist Paul Stamp,Analyst bei dem Marktforschungsunternehmen Forrester Research, überzeugt. So hätten sich die Unternehmen noch nicht mit entsprechenden Sicherheitsrichtlinien auf die neuen Gefahren eingestellt, die die stetig zunehmenden mobilen Einsatzszenarien mit Notebooks, BlackBerrys und Smartphones mit sich brächten. Eine Erkenntnis, die auch in Österreich Gültigkeit hat, wie die im April veröffentlichte Studie „IT-Security in Österreich 2008“ des Austrian Security Forum (durchgeführt von TechConsult) zeigt. Demnach haben bloß 49% der Unternehmen dedizierte Sicherheitsrichtlinien für mobile IT, bei allgemeinen IT-Security-Policys liegt der 46 Einsatzgrad bei 72%. Zudem machen Security-Maßnahmen 7-8% des IT-Budget aus, weiß Stamp, wobei die Budgets zumindest in den USA oft zurückgehen. Das heißt ITSecurity-Verantwortliche stehen vor der Herausforderung, mit weniger Geld mehr erreichen zu müssen. Dabei sollte heute das Hauptaugenmerk weniger auf den Schutz der IT-Infrastruktur gerichtet werden, so Stamp, sondern auf den Schutz der Daten und Vorbeugung vor Datenverlust. Im Falle eines Falles muss die schnelle Wiederherstellung der Daten möglich sein. Der Buchautor Malcolm Gladwell hielt einen packenden Vortrag darüber, wie man zur richtigen Entscheidung findet. Microsoft ruft Industrie zum Dialog Microsofts Bereichsleiter für Forschung und Strategie, Craig Mundie, nutzte die RSAKonferenz um anstelle einer sonst üblichen neuen Strategieankündigung zum branchenweiten Dialog der IT-Hersteller aufzurufen. Das von Mundie angestrebte Ziel heißt „End-to-end-Trust“ und bezeichnet eine vertrauenswürdige Kommunikation im Internet. Dazu sind laut Mundie drei Forderungen zu erfüllen: . Die Entwicklung einer sicheren Kette, in monitor | Special Kommunikation 4A/2008 der jedes Glied authentifiziert werden kann und vertrauenswürdig ist - angefangen vom Betriebssystem über Anwendungen bis hin zu Menschen und Daten. . Ein System, das es Anwendern erlaubt, weitgehend über den Grad ihres Identitätsnachweises zu bestimmen, während gleichzeitig die Authentifizierungs-,Autorisierungs- und Zugriffsvorgänge gewahrt werden. . Eine engere Zusammenarbeit aller Beteiligten in technischer, politischer, sozialer und wirtschaftlicher Hinsicht, um zügige Fortschritte zu erzielen, die zur Erreichung der „End-to-end-Trust“-Vision führen. Eine genaue Beschreibung der End-to-endTrust-Initiative hat Microsoft in einem White Paper niedergelegt, das unter www. microsoft.com/endtoendtrust zum Download bereitsteht. Die Zeit für diesen Dialog ist reif, meint auch der Verfasser des Weißpapiers Scott Charney, Bereichsleiter Trustworthy Computing bei Microsoft. So sind wichtige Technologien wie die Public Key Infrastructure (PKI) oder SmartCards bereit für einen breiten Einsatz. Es sei jetzt möglich, glaubt Charney, die Sicherheit zu erhöhen und dabei gleichzeitig den Schutz der persönlichen Daten zu verstärken. So muss nicht immer der ganze Name als Identitätsnachweis gefordert sein, manchmal reiche auch die Angabe von Alter oder Staatsbürgerschaft, erklärt Charney. Neben der End-to-end-Trust-Initiative setzt Microsoft für ihre Kunden auf eine integrierte Lösung und stellte in San Francisco die Beta-Version ihrer Managementkon- Wien hat das Mehr. Für JEDE von uns erin? Wir Produktitronikrenommiertes Mechagroßes, wir im Netz, wmitie Auftragsferschauenonsunternehmen tigung für Sondermaschinenbau . AUFönnenWiens. das mitwerSitzdenim kSüden ORACLE ENTWICKLER (M/W). Wir suchen zum nächstmöglichen Zeitpunkt für den Dienstort Wien einen ORACLE Software-Entwickler (m/w). Projektlaufzeit: 9 Monate (die ersten 3 Monate in Wien vor Ort, danach 6 Monate über Home Office möglich). Folgende fachliche Voraussetzungen sollten Sie mitbringen: PL/SQL, Oracle 10g (oder 9i), Kenntnisse von ERP-Systemen (Lagerwirtschaft oder Finanztransaktionen oder Warenwirtschaft), Umgebung ORACLE EBusiness Suite. Wir bieten Ihnen: Karrieremöglichkeiten in einem innovativen und dynamischen Umfeld bei Österreichs größtem unabhängigen Technologie-Dienstleister, strategische Aus- und Weiterbildung sowie Persönlichkeitsentwicklung in unserer hauseigenen BEKOAkademie. Wir freuen uns auf Ihre Bewerbung! Tel.: 555 83 26, Kennwort: „Karrieresprung“. GABE: Projektierung und Konstruktion von Maschinen und Anlagen, Mitarbeit bei der Angebotserstellung, Aufgaben im Engineering von Maschinen und Anlagen, internationales Projektmanagement, Erarbeitung von Lösungen für Spezialanwendungen, internationale, Kundenbetreuung. STAHLBAUKONSTRUKTEURIN FÜR DIE PLANUNG VON STIEGEN, PODESTEN, HANDLÄUFEN UND ALU-GLASKONSTRUKTIONEN MIT CA. 2 JAHREN ERFAHRUNG. WEITERS SOLLTEN SIE EIN GÄNGIGES CADSYSTEM WIE AUTOCAD BEHERRSCHEN. WIR BIETEN EINE INTERESSANTE, VIELSEITIGE ENTWICKLERTÄTIGKEIT MIT LAUFENDER WEITERBILDUNG SOWIE LEISTUNGSORIENTIERTE BEZAHLUNG. TEL.: 555 77 84, KENNWORT: „ENTWICKLUNG“. Weiterbildung ne SYSTEMADMIli n o s fo In d n u NISTRATOR (M/W) IT-EXPERTIN: Wir suchen Frauen, die mitServer Server, User, Microsoft SQL und InN e t z we r k i nDienstort: f r a s t r u kWien. t u r, frastruktur. Router auf du und du sind. Aufgabengebiet: Administration Karrierechancen sind vorund Betrieb der Microsoft SQL programmiert. 2005 Cluster, Analyse, Konzepti- Mechatronikerin: VERKAUFSORIENTIERTE/-N Drehen, Fräsen, Programmieren, TECHNIKER/-IN ZUM AUFBAU Steuerungen bauen und MaDER SERVICEABTEILUNG im schinen reparieren ist dein Bereich Lüftung und Klimatechnik Hobby? Dann und mach einen (Gebäudetechnik Industrie). Beruf daraus. Ihr Aufgabengebiet umfasst den on und Wartung der Microsoft selbstständigen Aufbau der SerServerumgebung, Sicherstellung viceabteilung und demgemäß die des täglichen Betriebs. Betreuung von bestehenden und rger tin Sand ra Frau Anforderungen: Aus-enbeNeukunden, entsprechend dem Frau enst adträTechnische bildung (HTL oder FH), umfangrei- aktuellen Stand der Technik teilche Erfahrung in den Bereichen weise vor Ort und die Perspektive Windows 2000/2003 Server, Ex- zum/-r zukünftigen LeiterIn der change Server, Active Directory, Abteilung. Wir erwarten: TechniWindows-Cluster und Microsoft sche Ausbildung mit SchwerSQL Server 2005, Microsoft Share- punkt Klima und Lüftung, einpoint und Kenntnisse im Bereich schlägige Berufserfahrung im Citrix Presentation Server von Vor- Kontext Service und Wartung, teil, hohe Teamorientierung, Kom- fundiertes kaufmännisches Wismunikationsfähigkeit. Wir freuen sen, Leistungsbereitschaft, ausuns über Ihre Bewerbung! Tel.: geprägte Kunden- und Service555 36 26, Kennwort: „Zukunft“ orientierung, hohes Engagement und Gestaltungskreativität, FlexiKONSTRUKTEUR MECHANI- bilität im Denken und Handeln, SCHES ENGINEERING (M/W). Stressresistenz und Organisati- onstalent. Wir bieten für geeignete KandidatInnen eine Position mit Gestaltungsmöglichkeiten und persönlichem Spielraum mit Karrierechancen im Umfeld eines Global Players. Tel.: 555 12 3378, Kennwort:Au „Karriere“. tom technik in Wien-Simmering – sucht zum ehesten Eintritt eine/-n Sprungbrett in ungewöh KFZTECHNIKER/-IN nlichen Job! für die Montage von Staplerfahr- echanikerin! Super, genau das, was ich verfügen Sie gesucht hab. Worauf ich zeugen. Idealerweise bei dereine Bewabgeschlossene erbung achten Lehre ELEKTROMECHANIKER/MEüber muss, weiß ich dank unKfz-Techniker, gbrett. Die heleinige CHATRONIKER Wir be- Sprals Befen miJahre r auch,(W/M). wenn es mit dieser Lehrstelle geistern unsere Kunden und baurufspraxis undnic elektrische ht klappt. GrundSprungbrett: Telefo 789 45 45 Wir bieten einen langen eine bessere Dabei le-n 01/ kenntnisse. wwZukunft. w.sprungb rett.o ben wir unsere Werte: Integrität,r.at fristigen Arbeitsplatz mit guten Ver- Mut zur Veränderung, Teamarbeit und hohes Engagement. Für den Profi am Bau bieten wir innovative Lösungen mit überlegenem Mehrwert. Und dies in 120 Ländern. Ihre Verantwortung: Reparatur von Hilti-Geräten im Innendienst, Ausführung von Serviceleistungen gemäß den Hilti-Qualitätsvorgaben. Ihr Profil: Ausbildung als MechanikerIn, ElektromechanikerIn bzw. MechatronikerIn, Erfahrung in der Reparatur von elektromechanischen Anlagen, Geräten oder Baugruppen, sehr gute PC-Kenntnisse und idealerweise SAP-Erfahrung, engagierte, flexible und teamfähige Persönlichkeit, die in jeder Situation den Überblick behält. Wir freuen uns auf Ihre Bewerbung. Tel.: 555 70 33-22, Kennwort: „Elektro“. Da mussh ich mic gt unbedin !! bewerben! dienstmöglichkeiten. Wir freuen Automechanikerin: uns auf Ihre Bewerbung!SchrauTel.: 555 benschlüssel und Hebebühne 25 89-7898, Chiffre: 413 88. sind keine Fremdworte für dich? Dann bist du REIFENbei uns KFZ-MECHANIKER, richtig! Wir(M/W). suchenPersönliche Mädchen, MONTEUR die den Mut haben, einen unAnforderungen: teamfähig, betypischen Beruf zuReisebereitergreifen. lastbar, flexibel; schaft; Stellenbeschreibung: Reifenmontieren, Erfahrung mit Lkw-Reifen von Vorteil, sehr gute Verdienstmöglichkeiten, Vollzeit (Saisonjob), Unterkunft wird zur Verfügung gestellt. Wir bieten Ihnen: Wenn Sie an dieser attraktiven Position in einem renommierten Unternehmen interessiert sind, übermitteln Sie uns Ihre Bewerbungsunterlagen mit tabellarischem Lebenslauf und Gehaltsvorstellungen vorzugsweise per E-Mail. Tel.: 555 32 75-222, Kennwort: „MechanikerIn“. TRAINERINNEN TRAFFIC MANAGER/-IN. In dieser Position übernehmen Sie in den Bereichen Berufsorien- nach einer Einschulung schritttierung, Aktivierung und Einzel- weise die Einbuchung von Onlinecoaching. Unser Unternehmen ist Kampagnen in unser Admanageein renommierter Schulungsan- ment-System. Sie sind in ein enbieter im Bereich Arbeitsmarkt- gagiertes Team eingebunden. und Beschäftigungspolitik. Ihre Ihre Aufgaben: Disposition von Aufgaben: selbstständiges Online-Werbekampagnen in das Durchführen von vermittlungsori- Admanagement-System, Monitoentierten Trainings, Outplace- ring von Online-Werbekampagment, TeilnehmerInnenadministra- nen, Erstellen kampagnenbe343 Seiten im han tion. Ihr Profil: Berufserfahrung zogener Redlichen als TrainerIn in der Tas ErwachsenenBetreuchenformatports, mit den bildung, TrainerInnenCoa- Anl ung von wicoder htigsten aufstellen chingausbildung (zusätzliche AusOnline-Werbezu Job, We iterbildung und bildung im SozialWirt-r. trägern. vielbzw. em meh schaftsbereich erwünscht), gute Ihr Profil: AffiniEDV-Kenntnisse. Tel.: 555 40 33- tät zum Medium 12, Kennwort: „Trainieren“. Internet, Affinität zu Werbung, BeUnser Kunde – ein nahmhaftes Un- r u f s e r f a h r u n g ternehmen im Bereich der Förder- wünschenswert. Unser Angebot: WERBUNG – PID-Wien Hdab ich in Bildungskompass Sofort bestellen. Mehr Chancen geelrerSnchule Tel. 01/4000-83518 t ! n e u für Fra Gratis!! Foto: Pertramer; Illustrationen: Tim Maresch – südlich STELLENGESUCHE ITSondermaschinenbau in, von Wien. ExxpertUNTERNEHMEN: -E pandierendes, führendes, mittel- Security | Veranstaltung sole Stirling für die Forefront-Sicherheitslösung zum Download zur Verfügung. Dank Stirling (=Codename) sollen sich jetzt Antiviren- und Antispam-Anwendungen, Messaging-Server, Firewalls und Security-Gateways mit einer einheitlichen Oberfläche konfigurieren und überwachen lassen. Bisher hatten die einzelnen Forefront-Produkte eine jeweils eigene Oberfläche oder werden über die Microsoft Management Console konfiguriert und verwaltet. Im Privatanwenderbereich hat Microsoft ihren auch in Österreich verfügbaren Online-Dienst Windows Live OneCare (http://onecare.live.com) zur Bekämpfung von Schadsoftware ausgebaut. Mit dieser Lösung konkurriere man weniger mit bekannten Anbietern von Antivirus-Software, sondern „gegen Anwender, die nicht hinreichend vor Schadsoftware geschützt sind“, sagt Amy Barzdukas,Senior Director von Windows Live OneCare bei Microsoft. Immerhin verwendeten 60% der Privatanwender keine oder veraltete Antivirus-Software, berichtet Barzdukas. Da sei das bedienungseinfache OneCare eine gute Lösung. Zudem machen neue Funktionen wie monatliche Berichte und proaktive Aktionen OneCare transparenter und leistungsfähiger. Eine zentralisierte Backup-Möglichkeit für alle PCs, die dasselbe OneCare-Abonnement haben sowie ein neues online Photo-Backup runden das Angebot ab. Last but not least hat Microsoft auch die Beta 1 des Internet Explorer 8 zum Download zur Verfügung gestellt. Der IE8 soll sich durch Einhaltung der vom World Wide Web Consortium (W3C) vorgegebenen Standards auszeichnen. Beispielsweise hat der IE8 den Acid2-Test (eine Testsite zur Überprüfung der Standard-Kompatibilität) korrekt absolviert. Der gehobene Sicherheitsanspruch beim IE8 zeigt sich auch daran, dass Micro- soft den Hackerschutz DEP/NX (Data Execution Protection/No Execute) standardmäßig einschaltet. Beim IE7 war DEO/NX zwar auch schon vorhanden, aber aus Kompatibilitätsgründen mit einigen Add-ons von Haus aus ausgeschaltet gewesen. Der Security-Guru Bruce Schneier ging diesmal der psychologischen Seite der Sicherheit nach. Die Psychologie der Sicherheit Bruce Schneier, CTO bei BT Counterpane, ist Autor von mehreren Security- und Verschlüsselungsbüchern und Verfasser eines vielgelesenen Blogs sowie Security-Newsletters. Darüber hinaus hat er als gern gehörter Redner quasi ein Dauerabo bei den RSAKonferenz-Referenten. In seinen diesjährigen Sessions wandte er sich weniger der Technik als der Psychologie zu, ein Aspekt, der gerade im Security-Bereich nicht vernachlässigt werden darf. Schneier unterscheidet zwischen reeller und gefühlter Sicherheit - zwei Dinge, die oft genug grundverschieden seien. Schneier: „Man kann sich sicher fühlen, obgleich man RSA und RSA-Konferenz im Überblick Der Name RSA geht auf das 1977 von Ron Rivest,Adi Shamir und Len Adlemann am MIT (Massachusetts Institute of Technology) erfundene asymmterische Kryptosystem zurück, das einerseits für Verschlüsselung von Daten als auch zur digitalen Signatur verwendet werden kann. RSA sind die Anfangsbuchstaben der Nachnamen der Erfinder, die auch das Unterneh- 48 men RSA Security gründeten. Dieses veranstaltete 1991 die erste RSA-Konferenz. Seit 2006 ist RSA Security eine Tochtergesellschaft von EMC. Die RSA-Konferenz wird jährlich in den USA, Europa und Japan abgehalten. Die europäische Konferenz findet vom 27. bis 29. Oktober in London statt. www.rsaconference.com monitor | Special Kommunikation 4A/2008 es nicht ist. Man kann aber auch sicher sein, ohne sich sicher zu fühlen.“ Das Problem dabei ist, dass ein Wort zwei Erlebniszustände beschreibt. Schneier interessiert nun, wann diese Konzepte konvergieren und wann sie divergieren und was passiert, wenn sie konvergieren - also wie wir über Sicherheit denken. Als Beispiel wo reelle und gefühlte Sicherheit divergieren nennt Schneier die Luftfahrt. Viele Leute haben mehr Angst vorm Fliegen als vorm Autofahren, obgleich das Autofahren sehr viel unsicherer ist. Umgekehrt ist die Einschätzung der Verbrechensrate ein Beispiel, wo gefühlte und tatsächliche Sicherheit konvergieren. Schneier: „Anrainer wissen normalerweise ganz gut Bescheid darüber, wie sicher das eigene Viertel ist.“ Ein Grund, warum die Einschätzung der Verbrechensrate (die „gefühlte“ Rate) im Wohnviertel mit der tatsächlichen Verbrechensrate konvergiert,nicht aber bei der Einschätzung von Terroranschlägen im Flugwesen, ist, dass es im letztgenannten Fall nicht genügend Ereignisse gibt, um unsere Sicht der Dinge zu schärfen. Craig Mundie nutzte die RSA Conference, um die End-to-EndTrust-Initiative vorzustellen. Im Unternehmen ist dieser Unterschied zwischen gefühlter und reeller Bedrohung sehr wichtig. IT-Security-Verantwortliche könnten ein Lied davon singen, meint Schneier. Sie wissen, dass es sehr schwer ist, die subjektiven Sichtweisen der Menschen zu ändern.Wie überzeugt man seinen Boss von einer realen Bedrohung. Oder wie sagt man seinem Boss, dass die Gefahr,die er für so schrecklich hält,gar nicht so schrecklich ist. Schneier: „Wie überzeugt man die Mitarbeiter,dass manche Bedrohungen sehr gefährlich sind und manche weniger.Jeder,der mit Security zu tun hat,muss mit individuellen Einschätzungen seitens der Mitarbeiter umgehen lernen.“ Letztlich bekommt ein IT-Mann nur Unterstützung von den Unternehmensmitarbeitern, wenn sie glauben, dass er etwas Sinnvolles macht. ❏ maupi.com Ich will das Original mit allen Fakten in der Hand haben! IT-B US INE SS IN IT-BUSINESS IN ÖSTERREICH 2008 Dat un en, d zu Fa m kten IT-S un tand d Tr ort ends Öst zu erre r ös ich terre ÖS TE R ich RE isch IC en H IT-W 2 irtsc00 ha 8 ft Daten, Fakten und Trends zur österreichischen IT-Wirtschaft und zum IT-Standort Österreich Der Jahres-Gesamtüberblick mit den wichtigsten Fakten und Trends im IT-Sektor. Exklusiv mit den top-aktuellen IDC-Daten! Die siebte Ausgabe des Standardwerks bietet viel Neues: Cover, Layout, Grafik, bessere Übersichtlichkeit, erweiterter Bundesländer-Teil u. v. m. Das Buch, das keine Fragen offen lässt. Bestellen Sie jetzt „IT-Business in Österreich 2008“ zum Preis von € 25,und erhalten Sie auf Wunsch ein Halbjahresabo des MONITOR gratis dazu. MONITOR – immer bestens informiert! IT-BUSINESS IN ÖSTERREICH 2008 Daten, Fakten und Trends zur österreichischen und zum IT-Standort IT-Wirtschaft Österreich Bohmann Druck und Verlag GmbH & Co KG, Leberstraße 122, 1110 Wien. [email protected], www.monitor.co.at/itbuch,Tel. +43 (0)1 740 95 - 410 Security | Data Leakage Prevention Data Leakage Prevention: Hier bestimmt der Computer, was vertraulich ist Richteten die IT-Administratoren im Unternehmensbereich ihr Augenmerk bislang hauptsächlich auf Sicherheitsprobleme durch externe Angreifer, so gewinnen in letzter Zeit auch firmeninterne Vorfälle an Bedeutung. Dabei handelt es sich sowohl um Datenverluste aufgrund von fahrlässigen, aber nicht mutwilligen Aktionen von unbescholtenen Mitarbeitern, als auch um mutwilligen Diebstahl vertraulicher Daten durch kriminelle Mitarbeiter. Michael Alfred Schmidt In einer US-Studie aus dem Jahr 2006 [1] gaben 78% der befragten Firmen an, bereits Datensicherheitsvorfälle bedingt durch autorisierte Innentäter im eigenen Unternehmen erlitten zu haben. Sowohl in den USA, wo Datensicherheitsvorfälle bekannter Firmen schnell eine verheerende öffentliche Reaktion hervorrufen können, als auch in Europa gewinnt daher eine neue Produktkategorie im Bereich Datensicherheit an Bedeutung: „Content Monitoring & Filtering“ (CMF)-Produkte richten sich gegen den Verlust vertraulicher Daten durch Innentäter; der Begriff „Data Leakage Prevention“ (auch „Data Loss Prevention“, DLP) ist als Synonym zu CMF ebenso im Gebrauch. In diesem Beitrag wird im Folgenden nur noch der Begriff DLP verwendet. Leider lassen sich die klassischen Mechanismen der Datensicherheit nicht einfach unverändert auf die neuen Anforderungen im Bereich DLP übertragen: Schützt man sich gegen Angriffe von außen im Wesentlichen durch die klassischen Mechanismen Zugriffskontrolle und Verschlüsselung, so ist mit diesen Mechanismen alleine kein praktikabler Schutz gegen den Verlust vertraulicher Daten durch Interne möglich. Es gibt einfach genügend legitime Gründe, wieso ein loyaler Mitarbeiter ein Dokumente aus der gesicherten Domäne heraus auf ein Medium unter seiner Kontrolle oder ein Ziel im Internet kopieren möchte wie beispielsweise die Kopie einer Präsentation auf einen USB-Stick zur Vorstellung beim Kunden oder auch der Versand eines Dokumentes auf das private E-Mail-Konto zur weiteren Bearbeitung von Zuhause. Bei diesen 50 Dokumenten kann es sich sowohl um nicht vertrauliche als auch um vertrauliche Dokumente handeln. Ein generelles Unterbinden der Kopieroperation behinderte die Arbeitsabläufe unnötig, und stieße ebenso auf mangelnde Akzeptanz durch die Mitarbeiter. Viel praktikabler wäre es doch, Datensicherheitsmaßnahmen nur dann einzufordern oder durchzusetzen, wenn es sich wirklich um ein vertrauliches Dokument handelte. Damit würden erst einmal alle Anwender entlastet, die sich prinzipiell nur mit nicht vertraulichen Dokumenten beschäftigen. Anwender, die sich gelegentlich mit vertraulichen Dokumenten beschäftigen, könnten ihr Bewusstsein dafür schärfen, welche Dokumente wirklich vertraulich sind, und welche Maßnahmen diese Klassifizierung nach sich zieht. Für Anwender, die routinemäßig mit vertraulichen Dokumenten arbeiten, würde sich normalerweise nichts ändern, da sie ohnehin mit den entsprechenden Sicherheitsmaßnahmen vertraut sind. Es sei denn, ihre Absichten wären unlauter. Dann würden sie durch die entsprechenden Maßnahmen gestoppt (Zugriffskontrolle) oder zumindest gehindert. Architekturen Man kann bei den sich auf dem Markt befindlichen DLP-Systemen im Wesentlichen zwischen zwei Architekturen unterscheiden: Serverbasierte Architekturen setzen zwingend den Einsatz einer (oder mehrer) Rechner in der Serverdomäne voraus, und fühmonitor | Special Kommunikation 4A/2008 ren ihre Überwachungsfunktionalität großteils oder ausschließlich innerhalb dieser Domäne durch. Sie erfordern typischerweise den Einsatz individueller Proxys für HTTP, FTP und E-Mail (SMTP, IMAP)-Verkehr zur Überwachung des ausgehenden Netzwerkverkehrs über die entsprechenden Protokolle. Diese dezidierten Proxys erlauben eine effiziente Überwachung auch bei hohem Datenaufkommen und ermöglichen es durch Ihre Store-and-Forward-Architektur, jedes zu inspizierende Datenelement so lange zu blockieren, bis auch zeitraubende Überprüfungen durchgeführt worden sind. Aus Performance- und Sicherheitsgründen sind sie typischerweise auf dezidierten UNIX- Apliances implementiert. (Abbildung 1 zeigt den typischen Aufbau eines serverbasierten DLP-Systems.) Rein serverbasierte Architekturen besitzen den Vorteil, dass sie keine Installationen auf den Endpoints erfordern. Das verringert den logistischen Aufwand, und vermeidet Security | Data Leakage Prevention Organisatorische Lösungen waren gestern: Data Leak Prevention ist heute PROMOTION Data Leak Prevention Lösungen helfen, den Verlust kritischer Daten zu vermeiden. Vertrauliche Daten müssen zuverlässig innerhalb des eigenen Unternehmens bleiben, da in falschen Händen großer wirtschaftlicher Schaden entstehen kann.Dabei die Übersicht zu bewahren,ist nicht immer einfach.Es gibt jetzt erstmals technische Möglichkeiten,sich gegen den Verlust kritischer Daten zu schützen. Bacher Systems zeigt, wie Sie Ihre sensiblen Daten sicher innerhalb der von Ihnen festgelegten Grenzen halten können. Netzwerk hinaus und erstreckt sich unter anderem bis hin zu Wechseldatenträger. Aber auch ausgedruckte Inhalte stellen ein Risiko dar - oder die Autofill-Funktion für Empfängeradressen in E-Mail-Programmen,mit der sehr schnell eine Nachricht unabsichtlich an den falschen Adressaten versenden werden kann.Mit einer Data Loss Prevention-Lösung kann diese Art des Datenverlustes verhindert werden. Unverwechselbarer Fingerabdruck Umfassende Klassifizierung Heute verfügen IT-Verantwortliche über ausgefeilte technische Möglichkeiten,um sensible Daten eines Unternehmens zuverlässig zu schützen.Diese von Bacher Systems empfohlenen hochintelligenten Systeme erstellen unverwechselbare Fingerabdrücke der schützenswerten Daten. Damit so ein System effektiv arbeiten kann, bedarf es einer Klassifizierung der Daten. In einer frühen Phase muss festgelegt werden, welche Daten wie sensibel sind und wo sie liegen.Wenn die Daten einmal klassifiziert sind, ist später irrelevant, wo sie liegen und auch über welche Zeitdauer. Unterschätzte Gefahren Regelwerk erstellen In einem Netzwerk werden permanent Informationen über E-Mail, Instant Messaging und gemeinsam genutzte Dateien ausgetauscht. Die Gefahr geht jedoch über das Zusätzlich wird ein Regelwerk festgelegt,wer welche Daten „bewegen“ darf und welche Maßnahme abgeleitet wird.Damit ist sichergestellt, dass unternehmenskritische Daten Kompatibilitätsprobleme mit anderen, „kritischen“ Client-Applikationen, wie Virenscannern. Diesem Vorteil steht jedoch der Nachteil gegenüber, dass der Export vertraulicher Daten auf dem Endpoint nicht überwacht werden kann. Inwieweit dieser Nachteil durch administrative Maßnahmen, wie der Deaktivierung oder Blockade jeglicher Geräte mit externen Datenträgern sowie aller Netzwerkschnittstellen durch Betriebssystemmittel kompensiert werden kann, hängt vom Einzelfall ab. Bei portablen Geräten ist dies meist schwierig bis unmöglich. Endpointbasierte Architekturen führen ihre Überwachungsfunktionalität auf den Endpoints aus. Der Server hat hier typischerweise die Aufgaben zentrale Administration, Policy-Verteilung, Speicherung der gemeldeten Log Events und (bei manchen Produkten) Unterstützung der Überwachungsfunktionalität der Endpoints. Letzteres setzt natürlich eine permanente Netzwerk-Verbindung zwischen Server und Endpoints voraus (Abbildung 2 zeigt den typischen Aufbau eines endpointbasierten DLP- Systems.). Endpointbasierte Architekturen besitzen den Vorteil, dass sich mit ihnen (bei entsprechend vollständiger Implementierung) praktisch jeder Datenexport auf externe Medien, Netzwerkziele sowie über drahtgebundene und drahtlose Schnittstellen verbundene Geräte überwachen lässt. Das umfasst z. B. Kopieroperationen von Dateien auf USB Sticks, Versand von E-Mails im Internet-Cafe über Wireless LAN, Export von Fotodateien über Bluetooth etc. Als Nachteile sind die Notwendigkeit der Installation eines DLP Agents auf jedem Endpoint sowie die technische Herausforderung für den Hersteller, einen leiststungsfähigen Agenten zu implementieren, der möglichst alle vorhandenen Exportkanäle abdichtet, aufzuführen. Letzteres ist gemessen an den Produkten, die sich derzeit auf dem Markt befinden, nicht zu unterschätzen. Konzepte und Algorithmen Doch wie führen nun diese Produkte die monitor | Special Kommunikation 4A/2008 auch wirklich im Unternehmen bleiben und nicht durch Unachtsamkeit oder böse Absicht in falsche Hände gelangen. Bacher Systems EDV GmbH Clemens-Holzmeister-Straße 4 1100 Wien Tel.: 01-601 26-0 www.bacher.at Klassifizierung des Inhalts eines zu überprüfenden Dokumentes durch? Im Wesentlichen kommen hierbei drei Konzepte zum Einsatz: . Das zu analysierende Dokument wird gegen eine vom Administrator festgelegte Liste von Stichworten (z. B.: „vertraulich“, „confidential“, „Lustreise“) geprüft. . Das zu analysierende Dokument wird auf das Vorhandensein vom Administrator festgelegter regulärer Ausdrücke überprüft. Ein regulärer Ausdruck ist ein Ausdruck mit einem festen, durch eine Schablone definierbaren Format (z. B. Kreditkartennummer,Ausweisnummer, US-Sozialversicherungsnummer). Der hierbei verwendete Prüfalgorithmus sollte hierbei nicht nur die Übereinstimmung des Formates der zu überprüfenden Zeichenkette mit der Schablone verifizieren, sondern weitere Plausibilitätstests (z. B. Prüfsumme bei Kreditkartennummer) durchführen. Damit kann das Auftreten sog. „False Positives“ (fehlerhafter Erfolgsmeldungen) deutlich reduziert werden. 51 Security | Data Leakage Prevention Abbildung 1: Serverbasierte DLP-Architektur . Das zu überprüfende Dokument wird auf „Ähnlichkeit“ mit bereits als vertraulich registrierten Dokumenten analysiert. Doch nicht jedes einmalige Auftreten eines gesuchten Wortes markiert gleich den unautorisierten Export eines vertraulichen Dokuments. Sinnvoller ist es, das Auftreten von Übereinstimmungen innerhalb der einzelnen Kategorien zu gewichten, die Übereinstimmungen mit dem entsprechenden Faktor aufzuaddieren und erst beim Erreichen eines definierbaren Schwellwertes eine Sanktion auszulösen. Prinzipiell gibt es verschiedene Ansätze, um ein Dokument nach Stichworten zu durchsuchen. Der Einfachste ist sicherlich der Vergleich aller Worte des Textes mit den Worten in der Stichwortliste. Doch was in einer Sprache wie dem Englischen mit seiner einfachen Grammatik noch zu geringen Einschränkungen führt, führt bei einer Sprache wie dem Deutschen mit seiner intensiveren Flexion (Beugung) von Substantiven, Adjektiven und Verben schon zu etwas stärkeren Einbußen: So wird zum Beispiel das Plural-Substantiv „Züge“ nicht durch das Singular-Stichwort „Zug“ erkannt. Allerdings ist es nicht sehr wahrscheinlich, dass in einem zu durchsuchenden Dokument der entsprechende Begriff nur im Plural vorkommt. Leistungsfähiger ist hier schon ein 52 System, das mittels integrierter Linguistik in der Lage ist, gebeugte Formen in ihre jeweiligen Grundformen (z. B. Singular Maskulinum beim Substantiv und Adjektiv, Infinitiv beim Verb) zurückzuführen. Diese Systeme erlauben dann über die reine Suche nach Übereinstimmungen hinaus schon eine gewisse Form der Ähnlichkeitsanalyse, da sich zu einem Thema gehörige Begriffe wesentlich messbarer suchen lassen, wenn die Übereinstimmung auch bei Flexion noch festgestellt werden kann. Leistungsfähigere Systeme bieten im Suchbereich auch noch eine Skriptsprache an, die unter Anderem die Kombination von Stichworten über logische Verknüpfungen, wie z. B. UND, ODER zulässt, sowie weitere typische Elemente einer regulären Programmiersprache enthält. Eine weitere Form der Ähnlichkeitsanalyse kann durch „Fingerprinting“ durchgeführt werden. Bei einem Fingerprint handelt es sich um einen Hash (eine Abbildung eines Textes auf ein wenige Byte großes Datum mit konstanter Länge). Dabei wird jedoch nicht der Hash über das gesamte Dokument gerechnet, sondern nur über relativ wenige charakteristische Fragmente (in der Größenordnung von vielleicht 20-30 Zeichen) des Textes. Die große Kunst des verwendeten Fingerprinting-Algorithmus monitor | Special Kommunikation 4A/2008 liegt nun darin, die Fragmente mit der größten inhaltlichen Relevanz herauszufinden, und nur über sie die Hashes zu berechnen. Der Lohn für die intelligente Auswahl liegt sowohl in der geringen Größe der Fingerprint-Datenbank pro Dokument, als auch in der hohen Performanz der späteren Vergleichsoperationen (in Echtzeit!). Zudem wird das System weitgehend resistent gegen zufälliges oder sogar mutwilliges Umsortieren von Textbestandteilen, da diese meist größer sind als die Fragmente, über die die Fingerprints gerechnet werden. Der Workflow beim Fingerprinting sieht typischerweise so aus, dass der für die Einführung eines DLP-Produktes verantwortliche Administrator eines Unternehmens erst einmal eine Datenbank von Dokumenten mit relevanten (vertraulichen) Inhalten anlegt, und das Produkt über diese Dokumente die Fingerprints errechnen lässt. Diese Fingerprints werden dann serverseitig als Referenz gespeichert, und bei Bedarf en bloc auf die serverseitigen Proxys bzw. die DLPgesicherten Endpoints heruntergeladen. Soll nun ein Dokument aus dem System exportiert werden, so werden dessen Fingerprints während des Exportvorgangs in Echtzeit errechnet, und gegen die gespeicherten Fingerprints verglichen. Bei Übereinstimmung wird eine Sanktion ausgelöst. Im realen Einsatz wird es häufig auf eine Kombination von Stichwortsuche und Fingerprints hinauslaufen. Eine fundierte und detailierte Übersicht der grundsätzlichen Konzepte findet sich in [2]. Datenquellen Doch woher kommen eigentlich die zu untersuchenden Dokumente? Im Falle der Proxys für die verschiedenen Internetprotokolle werden die Dateien beispielsweise aus dem FTP-Datenstrom oder den Anhängen der E-Mails herausgefischt. Im Falle von E-Mails wird natürlich auch noch sinnvollerweise der Header und der Körper der Nachricht untersucht. Auf dem Endpoint läuft es im Prinzip genauso mit diesen Internetprotokollen.Allerdings liegt hier die technische Herausforderung wesentlich höher, da sich nicht einfach für jedes Protokoll ein dezidierter Proxy installieren lässt.Vielmehr muss dieser irgendwo in den lokalen Netzwerk-Stack hineingemogelt werden, und so intelligent und performant implementiert werden, dass ein temporär blockierter Ex- Security | Data Leakage Prevention port einer E-Mail nicht gleich die SMTPVerbindung abbricht, und auch die generelle Performance nicht zu sehr darunter leidet. Noch schwieriger wird es, wenn man den Export von Nachrichten bei Unternehmens-E-Mail-Lösungen wie MS Outlook oder Lotus Notes überwachen will. Hier lassen sich häufig im Netzwerk-Stack keine brauchbaren Daten abgreifen (z. B. wegen Verschlüsselung zwischen Client und Server), so dass Plug-Ins für die jeweiligen Clients zum Einsatz kommen. Dasselbe gilt im Wesentlichen auch für Instant Messenger. Letztere lassen sich ausschließlich auf dem Endpoint überwachen. Soll ein Dokument auf dem Endpoint auf ein externes Medium exportiert werden, so schlägt ebenfalls die Überwachung zu. Dafür können jedoch seitlangem bekannte und bewährte Schnittstellen des Betriebssystems genutzt werden. Hat das System erst einmal den Export eines potenziell vertraulichen Dokuments angehalten, so stellt sich gleich die nächste Herausforderung: Das Dokument liegt meist in einem Format vor (MS Word etc.), mit dem der Suchalgorithmus erst einmal nichts anfangen kann. Nun ist es erforderlich, die Dateien auszupacken und/oder das Format in ein möglichst einfaches Format (z. B. UTF-8) zu konvertieren. Der dazu verwendete Konverter sollte einige Hundert Formate unterstützen können, um eine effiziente Kontrolle zu gewährleisten. Sanktionen Wird der versuchte Export eines vertraulichen Dokuments festgestellt, so kommt es - je nach gesetzten Policy-Einstellungen zu entsprechenden Sanktionen. Diese können z. B. im ausschließlichen Logging der Operation und der weiteren Gewährung derselben liegen. Dadurch erhält der Administrator immerhin einen gewissen Überblick über die aktuelle Sicherheitslage des Unternehmens. Natürlich kann die Operation auch geblockt werden. Eine besonders elegante Variante ist der interaktive Dialog mit dem Benutzer: Das System weist den Benutzer per Dialog auf Sicherheitsbedenken hin, und fordert ihn auf, eine Begründung für den Export einzugeben. Diese Begründung wird natürlich administrationsseitig gespeichert. Dieser Ansatz ist sehr nützlich bei der sanften Einführung eines sicheren Dokumenten-Work- Abbildung 2: Endpointbasierte DLP-Architektur flows im Unternehmen, da er dem Benutzer nichts verbietet, sondern seine Kooperation einfordert. Zuletzt kann es sinnvoll sein, die Verschlüsselung des Dokuments im E-Mail oder auf dem Zieldatenträger zu erzwingen. Dr. Michael Alfred Schmidt ist Utimaco Projektleiter Entwicklung www.utimaco.de Entdeckungsreise Doch nicht in jeder Unternehmensumgebung ist es erforderlich, sofort mit der Brechstange den Export von vertraulichen Dokumenten aus dem System zu unterbinden. Häufig ist es erst einmal ausreichend, sich einen Überblick über die Gefährdungssituation zu verschaffen, indem man den vorhandenen Dokumentenbestand vollständig analysiert und klassifiziert. Technisch ist dieser Scan wesentlich einfacher, da die Eingriffe ins Betriebssystem und in den Netzwerk-Stack fast vollständig entfallen. Sind die Windows Endpoints per Netzwerk-Share vom Server zu erreichen, so könnte sogar die Installation eines eigenen Client Agents entfallen. Letzteres könnte dann allerdings zu stark erhöhtem Netzwerkverkehr führen. Hat man sich per Scan einen Überblick über den Dokumentenbestand verschafft, so gilt es, erst einmal den Umgang im Unternehmen mit vertraulichen Dokumenten zu überdenken, und ggf. monitor | Special Kommunikation 4A/2008 entsprechende Richtlinien zu schaffen. Bei Bedarf kann man dann immer noch ein vollwertiges DLP-Produkt mit Echtzeit-Überwachung einführen. Der Workflow lautet hier also: Erfassung, Klassifizierung, (evtl.) Schutzmaßnahme. Marktsituation Das DLP-Lager wurde einige Jahre lang im Wesentlichen von kleineren Firmen, teilweise Startups, beherrscht. In den letzten Jahren hat jedoch das große Fressen durch die etablierten Datensicherheitsfirmen eingesetzt: McAfee hat Onigma übernommen, EMC Tablus, TrendMicro Provilla, und schließlich Symantec Vontu. Es bleibt zu hoffen, dass mit dieser Marktbereinigung eine Professionalisierung der 53 Security | Data Leakage Prevention Branche sowie eine bessere Integration der bislang allein stehenden DLP-Produkte in die klassischen Sicherheitsprodukte (Verschlüsselung,Virenscanner etc.) einher geht. Erfahrungen Wer versucht, mittels eines DLP-Produktes eine tragfähige Exportkontroll-Policy zu erstellen, muss erst einmal eine Anforderungsanalyse innerhalb seiner Organisation durchführen. Meist wird dies auf eine intelligente Kombination aller zur Verfügung stehenden Mechanismen hinauslaufen, und jede Abteilung wird ihre eigene Policy erstellen. Mit dem weitgehend automatisierten Erstellen einer Fingerprint-Datenbank aus allen vom Such-Agenten gefundenen Dokumenten ist es sicherlich nicht getan. Wichtig ist es ebenfalls zu akzeptieren, dass es sich bei DLP um keine exakte Wissenschaft handelt. Das gilt sowohl für die Inhaltsanalyse als auch für die Exportkontrolle. Bei der Inhaltsanalyse können durch Doppeldeutigkeiten von Stichworten False Positives auftreten. Ebenso können gesetzte Stichworte bei Flexion übersehen werden (bei nicht-linguistischen Systemen), speziell bei Umlautbildung im Deutschen. Zuletzt ist auch die Exportkontrolle nicht absolut sicher vor den IT-Spezialisten unter den Innentätern: So reicht es z. B., einen Text mit dem früher bei Usenet-Newsreadern populären ROT-13-Algorithmus zu verschleiern (es handelt sich hier um eine Verschiebung im Alphabet um 13 Zeichen), um ihn sicher vor gängigen DLP-Produkten ex- portieren zu können. Die Entschleierung ist ebenso trivial. Ein entsprechendes Add-on ist z. B. für Mozilla/Thunderbird frei verfügbar. Weitere Probleme ergeben sich bei den unterstützten Dokumentenformaten sowie den abgesicherten Exportkanälen auf dem Endpoint (z. B. bei Instant Messengern): Der Hersteller eines DLP-Produktes muss hier ständig den jeweils aktuellen Neuerungen hinterherlaufen und die Unterstützung in seiner nächsten Produktversion bzw. Service Release nachziehen. Bis dahin ist es Aufgabe des Administrators, ggf. die Nutzung der entsprechenden Programme in seiner Organisation zu unterbinden, wie dies auch schon bei den klassischen Sicherheitsprodukten häufig der Fall ist. Fazit DLP bietet mit seinem innovativen, inhaltsbasierten Ansatz eine interessante Alternative zu den klassischen Datensicherheitskonzepten mit ihren relativ statischen Policies. Als softwarebasiertes Instrument zur Bekämpfung von Datenverlust durch Innentäter ist es derzeit ohne Alternative. Auch wenn es von seinen technischen Möglichkeiten nicht 100%ig jeden mutwilligen Datendiebstahl verhindern kann, so bietet es jedoch mächtige Instrumente sowohl zur Bestandserfassung und Risikoanalyse als auch zur sanften Durchsetzung von Workflows im Sinne der Verhinderung von Datenverlust. Die kürzlich eingesetzte Bereinigung des DLP-Marktes lässt eine verbesserte Integration dieser Produkte mit den klassischen Datensicherheitsprodukten und deren leistungsfähigen Administrationskonsolen erhoffen, sodass letztlich ein echter Mehrwert für den Kunden entsteht. [1] Latest Ponemon Institute Study Ties Lack of Awareness in Corner Office to Insider Threat Challenges, ArcSight und Ponemon Institute, September 2006, www.ponemon.org [2] Automatic Document Classification: A thorough Evaluation of various Methods, C. Goller, J. Löning, T. Will, W. Wolff, UVK Verlagsgesellschaft mbH, 2000, www.inf-wiss.uni-konstanz.de Inserentenverzeichnis Allied Telesyn . . . . . . . . . . . . . . . . . . .21 Alpha Select . . . . . . . . . . . . . . . . . . . . . .7 APC . . . . . . . . . . . . . . . . . . . . . . . . . .4.U Bacher Systems . . . . . . . . . . . . . . . . .51 BTR Netcom . . . . . . . . . . . . . . . . . . . . .3 Canon . . . . . . . . . . . . . . . . . . . . . . . . .2.U Cerberus . . . . . . . . . . . . . . . . . . . . . . . .5 Dätwyler . . . . . . . . . . . . . . . . . . . . . . .27 G DATA . . . . . . . . . . . . . . . . . . . . . . . .3.U Kaspersky . . . . . . . . . . . . . . . . . . . . . .43 KSI . . . . . . . . . . . . . . . . . . . . . . . . . . . .28 Konica Minolta . . . . . . . . . . .Covercorner Microsoft . . . . . . . . . . . . . . . . . . . . . . .35 Mobil-Data . . . . . . . . . . . . . . . . . . . . . .11 mPAY24 . . . . . . . . . . . . . . . . . . . . . . . .48 Opternus . . . . . . . . . . . . . . . . . . . . . . .23 PatchSee . . . . . . . . . . . . . . . . . . . . . . .33 Rittal . . . . . . . . . . . . . . . . . . . . . . . . . .17 Schmachtl . . . . . . . . . . . . . . . . . . . . . .45 Schrack Technik . . . . . . . . . . . . . . . . .19 Sicontact . . . . . . . . . . . . . . . . . . . . . . .41 Stadt Wien . . . . . . . . . . . . . . . . . . . . . .47 Tyco . . . . . . . . . . . . . . . . . . . . . . . . . . .25 Wiener Zeitung . . . . . . . . . . . . . . . . . . .9 Impressum Medieninhaber und Verleger: Bohmann Druck und Verlag Ges.mbH & Co KG, Leberstr. 122, A-1110 Wien, Telefon 01/74095410, Telefax 01/74095-425, E-Mail: [email protected], www.monitor.co.at - Chefredakteur: Dipl.-Ing. Rüdiger Maier (mai) - Redaktion: Mag. Dominik Troger (dat) - Autoren: Conrad Gruber, Peter Hanke, Wolfgang Horak, Gerd Kaufmann, Thorsten Kurpjuhn, Klaus Lackner, Gerhard Lagler, Lothar Lochmaier, Klaus Lorbeer, Walter Ludwig, Alexandra Riegler, Michael Alfred Schmidt, Christine Wahlmüller, Urs Zurbuchen - Anzeigenleitung: Alexander Havlik - Technischer Leiter & Layout: Druckauflage Gerhard Hegedüs - Anzeigenverwaltung: Hildegard Fatahtouii - Aboverwaltung: Bohmann Aboservice: Tel.:01-74095- 4. Quartal/2007: 14.500 466, E-Mail: [email protected] - Druck: Leykam Druck GmbH und Co. KG, Bickford Str. 21, 7201 Neudörfl. - Verlags und Herstellungsort: Wien Erscheinungsweise: 11 x im Jahr plus drei Specials: „HARDWARE“, „SOFTWARE“, „KOMMUNIKATION“ - Einzelverkaufspreise: € 3,80 - Monitor-Jahresabo: € 34,50 - Auslandsabo: € 60,90 Anzeigenpreise: Es gilt die Anzeigenpreisliste laut Mediadaten 2007 - Bankverbindung: Bank Austria Creditanstalt AG Blz.: 12000, Kto.: 653 092 700, Österr. PSK - Blz.: 60000, Kto.: 1732.755 - DVR: 0408689 - FBNR: 9642f/FB - Gericht: HG Wien - ARA Liz.-Nr.: 1214 - UID ATU10940909 Für unverlangt eingesandte Manuskripte und Fotos wird keine Haftung übernommen. Die veröffentlichten Beiträge sind urheberrechtlich geschützt. Vervielfältigung, Nachdruck oder Übersetzung sind ebenso wie die Speicherung in Datenverarbeitungsanlagen und das bieten über Online-Dienste nur mit schriftlicher Genehmigung des Verlages erlaubt. Mit „Promotion“ gekennzeichnete Beiträge sind entgeltliche Einschaltungen. 54 monitor | Special Kommunikation 4A/2008 Businesslösungen vom Qualitätsführer. Wegen großer Nachfrage Testaktion verlängert! Jetzt 90 kostenlos Tage testen! Die G DATA Businesslösungen fügen Testsieger-Technologien wie Leistungsübersicht G DATA Business-Produkte G DATA Businesslösung ClientSchutz das performanceoptimierte Multithreading DoubleScan und das in Fileserver- Mailserver- Inklusive Inklusive Zentrale VollautoSchutz Schutz Firewall Spamfilter Admin. matik Rekordzeit reagierende OutbreakShield nahtlos in Ihr Unternehmens- G DATA ClientSecurity BUSINESS – Netzwerk ein. Ob komfortable, zentral administrierte Client/Server- G DATA ClientSecurity ENTERPRISE Software mit vollautomatischem und ferngesteuertem Schutz oder G DATA AntiVirus BUSINESS – – – Mailserver-unabhängiges MailGateway gegen Viren und Spam - die G DATA AntiVirus ENTERPRISE – Businesslösungen von G DATA lassen keine Lücke offen. G DATA MailSecurity – – – Fordern Sie jetzt Ihre kostenfreie 90 Tage Testversion an: Weitere Informationen unter: www.gdata.at [email protected] oder +49-234-9762-154 Geschützt. Geschützter. G DATA. W hi Neu te e Pa pe r! Wir haben nahezu €80 Millionen investiert, um Lösungen für mögliche Serverprobleme von morgen zu finden. White Paper #114 (WP-114) Die Umsetzung energiesparender Datencenter "Die Umsetzung energiesparender Datencenter" Neu White Paper #114 White Paper #18 (WP-18) The Seven Types of Power Problems €9500 White Paper #18 GRATIS White Paper #141 (WP-141) Data Center Projects: Project Management "Data Center Projects: Project Management" Neu White Paper #141 €5500 White Paper #6 (WP-6) "Ermitteln der Total Cost of Ownership (TCO) für Datencenterund Serverraum- Infrastrukturen" White Paper #6 Neu €5500 White Paper #117 Überdimensionierte Datencenterund Netzwerkraum-Infrastrukturen: Kostenvermeidung Neu White Paper #37 White Paper #37 (WP-37) €9500 €9500 GRATIS €5500 "Parameteranalyse einer leistungsfähigen KühlungsInfrastruktur" White Paper #40 €5500 GRATIS White Paper #102 (WP-102) White Paper #82 (WP-82) Physikalische Sicherheit in betriebskritischen Anlagen "Überwachung von physikalischen Bedrohungen im Datencenter" White Paper #102 "Netzwerkkritische physische Infrastruktur: Optimierung des Geschäftswerts" White Paper #40 (WP-40) Parameteranalyse einer leistungsfähigen Kühlungs-Infrastruktur "Überdimensionierte Datencenterund Netzwerkraum-Infrastrukturen: Kostenvermeidung" GRATIS Überwachung von physikalischen Bedrohungen im Datencenter White Paper #117 (WP-117) GRATIS GRATIS GRATIS Ermitteln der Total Cost of Ownership (TCO) für Datencenterund ServerraumInfrastrukturen Netzwerkkritische physische Infrastruktur: Optimierung des Geschäftswerts "The Seven Types of Power Problems" Neu €5500 "Physikalische Sicherheit in betriebskritischen Anlagen" White Paper #82 €9500 GRATIS GRATIS Warum investieren Sie nicht ein paar Minuten? Wir haben mit Tausenden Kunden gesprochen – von Berlin bis Bangkok. Dabei haben wir viel über die guten, die weniger guten und die wirklich ungeeigneten Maßnahmen gelernt, die Kunden für die Planung ihres Datencenters eingesetzt haben. In vielen Fällen haben Budgetkürzungen sogar dazu geführt, dass Planungen gestoppt wurden. Kennen Sie und ihre Mitarbeiter die zehn Fehler, die Sie bei der Planung vermeiden sollten? Die einfachste Möglichkeit, die Kühlung ohne zusätzliche Kosten zu verbessern? Antworten auf diese Fragen und vieles mehr finden Sie in unseren aktuellen White Papers. Nutzen Sie diese wertvollen Informationen heute, um später Kosten und Arbeitsaufwand zu sparen. GRATIS APC White Paper hier herunterladen! Überwachung von physikalischen Bedrohungen im Datencenter White Paper #102 Sie können sich jetzt verschiedene White Paper kostenlos downloaden. Gültig innerhalb der nächsten 90 Tage. Melden Sie sich online unter http://promo.apc.com an, und geben Sie den Schlüsselcode 66599t ein. Mit der Registration nehmen Sie automatisch an der Verlosung eines APC Power Ready Travel Backpacks teil. Tel: 080 099 9670s&AX089 51417-100 ©2008 American Power Conversion Corporation. Alle Warenzeichen sind Eigentum der jeweiligen Besitzer. APC3F6EF-AT Kein Kauf notwendig. Die tatsächlich vergebenen Produkte können von den gezeigten Produkten abweichen. * Nur solange Vorrat reicht. APC Deutschland GmbH, Elsenheimerstraße 47a, D-80687, München