Whitepaper Desktop Virtualisierung

Transcrição

Whitepaper Desktop Virtualisierung
White Paper
Desktop Virtualisierung.
Die Zukunft des Unternehmensdesktops.
Inhalt.
3
1. Vorwort.
4
2. Historie: Die Entwicklung vom Terminal Server zum PC und „zurück“.
6
3. Was Unternehmen treibt.
6
3.1 Management, Wartung und Support.
7
3.2 Sicherheit.
7
3.3 Wirtschaftlichkeit /Total Cost of Ownership.
8
3.4 Flexibilität und Skalierbarkeit.
8
3.5 Green IT.
9
9
4.1 Terminal Services.
9
4.2 Virtueller Desktop.
10
4.3 Applikationsvirtualisierung.
10
4.4 Virtuelle Systeme.
10
4.5 Blade PC.
11
5. T-Systems Dynamic Desktop und My Access Key. 12
6. Ausblick und Fazit.
13
7. Glossar.
15
8. Abkürzungsverzeichnis.
16
9. Quellenverzeichnis.
4. Desktop Virtualisierung.
1. Vorwort.
Kosten, Sicherheit und Mitarbeitermotivation auf der einen, Flexibilität, Erreichbarkeit sowie die Leistungsfähigkeit
der eingesetzten Technologien auf der anderen Seite – Die Arbeitsumgebung ist für Unternehmer aus verschiedenen Gründen ein entscheidender Wirtschaftsfaktor. Je schlanker und wartungsfreier sie ist, desto schneller können
sie im Wettbewerb agieren und reagieren.
Desktop Virtualisierung trennt Endgeräte und Anwendungen strikt voneinander. Damit bietet sie für viele Unternehmen die optimale Lösung für Arbeitsplatzrechner. Durch die zentrale Haltung von Anwendungen und Daten im Rechenzentrum und ihren Abruf übers Netz kann der Anwender ortsunabhängig auf seinen PC zugreifen. Laut Forrester Research bietet das „entscheidende Vorteile, einschließlich bessere Sicherheit, Handhabung und Zugang zu
Desktop-Anwendungen in einer mobilen Arbeitswelt.“¹ Die International Data Corporation (IDC) erwartet, dass virtualisierte Infrastrukturen bis 2011 einen Anteil von mehr als 10% des deutschen PC-Marktes erzielen.²
Doch bei aller Euphorie geraten die Kernfragen zum Thema „Desktop Virtualisierung“ leicht in Vergessenheit:
Ist Desktop Virtualisierung eine ernstzunehmende Technologie, die ihr Versprechen an den Kunden hält? Oder ist sie bloß ein Nebenprodukt der Virtualisierung im Serverbereich, das keine nennenswerten Vorteile bietet?
Welche neuen Möglichkeiten des zukünftigen Arbeitens schafft Desktop Virtualisierung und unter welchen Rahmenbedingungen?
Die folgenden Absätze befassen sich mit diesen und anderen Fragen. Außerdem stellen sie die Virtualisierungslösung Dynamic Desktop von T-Systems auf den Prüfstand.
[1] Quelle: Forrester Research, David Friedlander and Simon Yates, 5 January 2006, Desktop Virtualization Is The Future Of The Corporate PC.
[2] Quelle: IDC, Viewpoint Details, Dr. Thomas Reuner, November 2007.
3
2. Historie - Die Entwicklung vom Terminal Server
zum PC und „zurück“.
„Mr. Watson, kommen Sie her – ich möchte Sie sehen.“ Waren es diese bahnbrechenden Worte, die Alexander Graham Bell 1876 in der Boston University als erste durchs Telefon sprach, die den Grundstein legten für das digitale
Zeitalter oder war es 1941 der Z3 von Konrad Zuse? Beides ist richtig. Denn während Bell die Entwicklung der Telekommunikation einleitete, war der erste funktionstüchtige Computer für die Informationstechnologie vergleichbar
mit der Erfindung des Rades.
Ende des 20. Jahrhunderts: Der Siegeszug des PC.
In den ersten Jahrzehnten waren Computer riesige Rechenmaschinen, die von zahlreichen Ingenieuren bedient
werden mussten. Später erschlossen Terminals, die zunächst lokal, danach über ein Netzwerk angeschlossen wurden, auch „Endanwendern“ neue Möglichkeiten.
In den 70er Jahren eroberte dann eine neue Gattung die Computerwelt, die Mikrocomputer. Sie waren erst mit der
Erfindung des Mikroprozessors möglich, der zunehmend die Leistung eines ehemaligen Großrechners auch für „zu
Hause“ bot. Durch ihre vielfältigen Einsatzbereiche stieg die Anzahl der verkauften Exemplare und der Preis sank
gleichermaßen. Die nun günstigeren Computer fanden sowohl Einlass in die Arbeitswelt als auch in die Privathaushalte. Bis zum Ende des letzten Jahrhunderts hatte sich der Personal Computer fast überall etabliert. Er verdrängte
zugleich bisherige Lösungen, bei denen Terminals auf zentrale Rechnerinfrastrukturen zugriffen.
DSL verbindet erstmals Sprache und Daten.
In der Telekommunikation existierten währenddessen zunächst hauptsächlich analoge Leitungen. Mit der Entwicklung von ISDN (Integrated Services Digital Network) 1989 konnten mehrere Telefonkanäle und ein separater Datenstrom gleichzeitig über eine Leitung genutzt werden. Heute ist DSL (Digital Subscriber Line bzw. Digitaler Teilnehmeranschluss mit bis zu 210 Mbit/s) quasi flächendeckend verfügbar und sowohl private als auch geschäftliche
Rechner sind übers Internet bzw. Intranet durchgehend verbunden.
21. Jahrhundert: Aus IT und Telekommunikation wird ICT.
Die Grenzen zwischen Telekommunikation und Informationstechnologie verschwinden immer weiter. So genannte
ICT-Lösungen (Information and Communication Technologies) kombinieren beide Welten. Gleichzeitig nimmt das
Tempo, in dem Innovationen auf den Markt kommen, permanent zu. Damit wächst für Unternehmen die Herausforderung, immer auf dem aktuellen Stand der Technik zu bleiben.
Dynamic Desktop: Die Antwort auf die Anforderungen der Gegenwart.
Vor diesem Hintergrund stellt der Dynamic Desktop von T-Systems den Arbeitsplatz der Next Generation dar. Dabei
handelt es sich bei ihm genau genommen nicht um eine neue Technologie, sondern um den aktuellsten Entwicklungsstand des früheren Zentralcomputers und seiner Terminals. Die Weiterentwicklung der Netzbandbreite und
eine verbesserte Virtualisierungstechnik ermöglichen die Verlagerung des „klassischen“ Personal Computers in
ein Rechenzentrum. Auf dem Schreibtisch verbleiben lediglich Bildschirm, Maus, Tastatur und ein Thin Client.
Der Dynamic Desktop wird dabei analog zum Strom zentral produziert und dann über Leitungen verteilt. Bei letzterem genügt ein Anschluss an das Stromnetz und schon können Nutzer immer auf die Energie zugreifen, ohne
dass jeder sein eigenes kleines Kraftwerk braucht.
4
Commodity Service
Abbildung 1: Commodity Services.
Genauso rufen Anwender den Dynamic Desktop übers Netz aus dem Rechenzentrum ab.
Mit dem komplett gemanagten Service steht ihnen unabhängig vom Zugriffsort immer der eigene, persönliche
Desktop zur Verfügung. Damit sind die Anwender jederzeit up to date. Die Kosten für jeden Arbeitsplatz lassen
sich transparent kalkulieren und deutlich reduzieren.
!
Vorteile des Dynamic Desktop sind, im Vergleich zu heutiger PC-Technik, sein geringerer Preis und die Sicherheit einer zentralen Desktop
Infrastruktur.
5
3. Was Unternehmen treibt.
Wer sich zurzeit intensiver mit aktuellen Desktop Services beschäftigt, kommt um das Thema Desktop Virtualisierung nicht herum. Gleichsam wie ein Spiegel scheint Desktop Virtualisierung die Defizite klassischer Desktop Landschaften aufzudecken. Die nachfolgende Grafik zeigt die wichtigsten Gründe potenzieller Nutzer, sich für Desktop
Virtualisierung zu entscheiden. Bei dieser Befragung waren mehrere Antworten erlaubt.
Gründe für Desktop Virtualisierung
40%
36%
35%
32%
29%
30%
25%
20%
15%
10%
4%
5%
0%
0%
Manageability
Sicherheit
Kosten
Andere
Unabhängigkeit
von Microsoft
Abbildung 2: Gründe für Desktop Virtualisierung.³
3.1 Management, Wartung und Support.
Bei klassischen Desktops entfallen mehr als 2/3 der Gesamtaufwände4 auf Service und Support, Betriebs- und Unterstützungsleistungen, Bemühungen des Anwenders usw. Zentralisierte Desktop Infrastrukturen, auf die Anwen­der
über Thin Clients zugreifen, bieten hier erhebliche Einsparpotenziale. Jedem Nutzer wird ein seinem Profil entsprechender virtueller Desktop zur Verfügung gestellt, der zentral verwaltet wird. Dazu gehören Sicher­heitsupdates
ebenso wie neue Software beziehungsweise ihre regelmäßige Aktualisierung. Ein hoher Grad an Standardisierung
erhöht in Verbindung mit der Zentralisierung der Daten und Applikationen noch die Effizienz der Gesamtlösung. Die
Thin Clients kommen so im Betrieb überall mit minimalem Management aus. Auch beim Roll out, Umzügen oder
Regeltausch haben Thin Clients Vorteile gegenüber Personal Computern, d. h. ohne lokale Datenhaltung ist keine
Installation vor Ort notwendig, ein Roll out oder Umzug erfolgt durch Logistiker und Thin Clients haben ein längere
Lebensdauer (60 Monate).
[3] Quelle: Goldman Sachs, Laura Conigliaro, Rick G. Sherlund, Sarah Friar and Derek Bingham, Independent Insight, US technology Strategy, December 5, 2006.
[4] Damit sind die Aufwände des Benutzers zur Erledigung seiner eigentlichen Arbeitsaufgabe und die Aufwände der IT-Abteilung zur Betreuung des Users gemeint.
6
3.2 Sicherheit.
Daten gehören zu den wichtigsten Unternehmensaktiva der heutigen Zeit. Umso wichtiger ist ihr Schutz. Zahlreiche
Untersuchungen zeigen, dass der interne Datendiebstahl bzw. Missbrauch ganz oben auf der Liste der Bedrohungen steht. Die Sicherung lokal gespeicherte Informationen von Desktop Computern und Notebooks mit ihren zahl­
reichen Schnittstellen – CD- oder DVD-Brenner bzw. USB-Anschlüsse für Massenspeicher – ist aufwändig und damit
oftmals ein Schwachpunkt. Umso sinnvoller erscheint es, an Stelle der heutigen Personal Computer auf zentrale
Datenhaltung beim virtuellen Desktop zu setzen.
Bei der Desktop Virtualisierung werden zum Endgerät hin nur Grafikinformationen übertragen, also der Bildschirm­
inhalt. Dieser ist zusätzlich verschlüsselt. Die eigentlichen Daten verbleiben im hochsicheren Rechenzentrum. Hier
findet auch ein entsprechendes Backup der Daten statt. Gegen Viren und andere Schadsoftware lässt sich die zentrale Infrastruktur ebenfalls einfacher schützen. Die Thin Clients selbst sind schon aufgrund ihrer Einfachheit so gut
wie immun bzw. kein „lohnendes“ Opfer für Schädlinge.
Und während im Katastrophenfall – etwa bei einem Gebäudebrand oder einer Grippeepidemie – der Einsatz heutiger
Infrastrukturen meist ausgeschlossen ist, bieten zentrale Konzepte die Möglichkeit, dass Mitarbeiter von zuhause
aus weiterarbeiten. Somit können Unternehmen ihren Geschäftsbetrieb – wenn auch eingeschränkt – aufrechterhalten.
3.3 Wirtschaftlichkeit / Total Cost of Ownership.
Seit der Verfügbarkeit von Terminal Services werden diese als kostengünstige Alternative zu Desktop PC propagiert.
Dabei werden allerdings oftmals „Äpfel mit Birnen“ verglichen. Seriöse Vergleiche unterscheiden in der Regel zwischen „Unmanaged rich desktop“, „Typically managed rich desktop“ und „Well managed rich desktop“. Und nur
letzterer lässt sich sinnvoll und aussagekräftig mit Desktop Virtualisierung vergleichen. Dabei kam es in der Vergangenheit in einigen Fällen zum Effekt, dass signifikante Einsparungen durch notwendige Lizenzen der marktführenden Lösung teilweise kompensiert wurden. Verschärfter Wettbewerb bei Desktop Virtualisierung und offene
Systemarchitekturen bringen neue Einsparpotentiale und verringern nebenbei die Abhängigkeit von einzelnen Softwarelieferanten.
Neben der Providersicht der T-Systems, die Desktop Services relativ günstig anbieten kann, sind für den Kunden
Aspekte wie Mitarbeiterproduktivität (siehe oben), aber z. B. auch boot time, d.h. die Startzeit bis der Anwender
arbeiten kann, und Stromverbrauch (siehe unten) relevant. Anhand eines Kundenszenarios kommt eine Studie von
Fraunhofer ebenfalls zu signifikanten Kosteneinsparungen:
!
„Mit diesem realistischeren Rechenmodell ergibt sich ein Einsparpotential von 41-44% gegenüber einem „Managed PC“ und sogar 60-70%
gegenüber einem vollständig manuell administrierten Arbeitsplatz.“5
[5] Fraunhofer, C. Knermann / C. Köchling, PC vs. Thin Client Wirtschaftlichkeitsbetrachtung, 2007, Seite 21f.
7
Gegenüberstellung der Gesamtkosten
5.000 €
4.500 €
4.000 €
3.500 €
3.000 €
2.500 €
2.000 €
1.500 €
1.000 €
500 €
0€
Unmanaged PC
Managed PC
Thin Client
Abbildung 3.2: Fraunhofer, PC vs. Thin Client Wirtschaftlichkeitsbetrachtung.
3.4 Flexibilität und Skalierbarkeit.
Der ständige Wandel, dem Arbeitsplatz und -umgebung unterliegen, ist für Unternehmen ein beträchtlicher Zeitund Kostenfaktor. Das macht sich zum Beispiel beim Aufbau neuer Abteilungen bemerkbar. Thin Clients bieten
hier deutliche Vorteile. Sie sind schnell konfigurierbar und stehen als Arbeitsplatz in kürzester Zeit bereit. Die Programme und Daten liegen auf zentralen Servern, d. h. Installationen und Konfigurationen vor Ort sind nicht notwendig.
Auch Updates oder die Implementierung neuer Anwendungen erfolgen einfach und zentral und stehen zeitnah
allen Anwendern zur Verfügung.
3.5 Green IT.
Die IT produziert mit jährlich rund 600 Millionen Tonnen zwei Prozent der weltweiten CO² Emissionen. Um das zu
kompensieren, benötigte es ungefähr 60 Milliarden Bäume. Aus diesem Grund wächst der Druck auf Unternehmen
und die IT-Branche. Ursprünglich ein Kostenfaktor, rückt heute der Umweltschutz als eigenständiges Argument in
den Vordergrund:
!
Wird ein Desktop PC durch einen Thin Client inkl. Terminal Server ersetzt, so sinken die Emissionen des Arbeitsplatzsystems um über 54%.6
Ein positiver Nebeneffekt des geringen Stromverbrauchs bei Thin Clients sind die geringen Geräusch- und Abwärmeemissionen: Der Einsatz leistungs- und stromverbrauchsoptimierter Prozessoren und das Fehlen einer Festplatte
ermöglichen den Bau von lüfterlosen Geräten. Das erhöht in vielen Fällen das Wohlbefinden und die Produktivität
der Mitarbeiter.
Und noch ein Vorteil für Umwelt und Budget: Die Nutzungsdauer von Thin Clients liegt mit 60 Monaten deutlich
über der von herkömmlichen Personal Computern (36 Monate).
[6] Quelle: Fraunhofer, Ökologischer Vergleich der Klimarelevanz von PC und Thin Client Arbeitsplatzgeräten 2008, Seite 3.
8
4. Desktop Virtualisierung.
Hinter dem Oberbegriff „Desktop Virtualisierung“ verbergen sich verschiedene Technologien:
4.1 Terminal Services.
Bei Terminal Services sind alle Programme nur einmal auf dem Server vorhanden. Jedes Programm können dabei
mehrere Anwender gleichzeitig nutzen (Multi-User-Fähigkeit). Citrix ist hierbei die bekannteste Lösung am Markt.
War dabei bisher unter Citrix der Presentation Server (heute XenApp) als Terminal Server zu verstehen, so stellt
sich das Unternehmen Citrix Systems heute „breiter“ auf. XenApp bietet auch Application Streaming und neben
XenApp offerieren die Softwarehersteller aus Fort Lauderdale in Florida eine Lösung (XenDesktop), die mit Desktop Images im Data Center arbeitet (siehe unten). Da Citrix als „Aufsatz“ auf die Windows Terminal Services neben
erhöhter Funktionalität auch erhöhte Kosten in Form von Lizenzen und Wartung mit sich bringt, setzen viele Unter­
nehmen dort, wo der Leistungsumfang ausreicht, die „reinen“ Windows Terminal Services ein.
Neben den Windows Terminal Services gibt es auch Terminal Services unter Linux. Hier stellen optimierte Server­
versionen dem Endanwender einen Open Source Desktop zur Verfügung. Statt mit Windows und Office arbeiten
Anwender mit dem Gnome oder KDE Desktop und nutzen OpenOffice.
Beide „Welten“ (Windows- oder Open Source-Desktop) bietet der Hersteller NoMachine seinen Kunden. Er setzt
dabei auf das quelloffene NX-Protokoll. Dadurch reduziert sich der Anteil der Lizenzkosten signifikant und die Ab­
hängigkeit von einem Softwarehersteller wird vermieden.
4.2 Virtueller Desktop.
Bei dieser Art der Virtualisierung wird vom Thin Client aus ein Image auf einer Serverfarm aufgerufen.
!
Trivial lassen sich diese Lösungen also als Verlagerung der Festplatte
und des Hauptspeichers vom Personal Computer ins Rechenzentrum
bezeichnen.
Bekannteste Lösungen dieser Art sind VMware View und Citrix XenDesktop. Die Hardwarehersteller bieten verschiedene Varianten, die entweder in die entsprechenden Managementtools eingebunden sind (IBM, HP) oder
über spezielle Erweiterungen/Optimierungen verfügen (SUN).
Der grundlegende Unterschied zwischen VMware View und Citrix XenDesktop ist das verwendete Zugriffsprotokoll. Das von Citrix entwickelte ICA (Independent Computing Architecture) bietet gegenüber dem Remote Desktop Protocol (RDP) Vorteile eines geringeren Bandbreitebedarfs und, ein zunehmend wichtiger Aspekt, in der Latenz (Verzögerung).
Gegenüber Terminal Services unterscheiden sich diese Lösungen durch ihre höheren Individualisierungsmöglichkeiten, die meist aber auch mit höheren Kosten einhergehen. Diese sind zum Teil in den hohen Speicherkapazitäten der Images begründet. Aktuelle Ansätze halten nicht für jeden Nutzer ein komplett eigenes Image vor,
sondern setzen das individuelle Userimage aus einem einmal vorhandenen Masterimage und userspezifischen
Teilen zusammen.
9
4.3 Applikationsvirtualisierung.
Diese Lösung behebt Defizite klassischer PC-Installationen. Die Vielzahl an installierten Softwarepaketen benötigt
oftmals exakte Versionsstände an Softwaresystembibliotheken. So entstehen Abhängigkeiten und Konflikte zwischen Anwendungen, die die Aufwände beim einmaligen Engineering und vor allem im laufenden Support in die
Höhe treiben. Beim Einsatz von Applikationsvirtualisierung wird typischerweise die Anwendung nicht lokal instal­
liert, sondern in eine Sandbox auf den Client gestreamt. Die Sandbox isoliert die Anwendung, so dass Konflikte
z. B. im Filesystem oder der Registry vermieden werden. Die bekannteste Lösung ist sicherlich Softgrid. Die ehemals eigenständige Lösung wurde von Microsoft gekauft und in das Gesamtportfolio unter dem Namen App-V
integriert.
4.4 Virtuelle Systeme.
Bei virtuellen Systemen besteht – analog zu bekannten Techniken im Serverumfeld – die Möglichkeit, ein vollstän­
diges Betriebssystem und damit eine vollständige weitere Umgebung auf einer Hardware, dem lokalen Personal
Computer, zu schaffen. Dabei wird dann in der Regel zwischen einem Wirts- und einem Gastbetriebssystem unterschieden. So wäre es z. B. möglich, in einem Unternehmen einheitlich auf einen Open Source Desktop umzusteigen, einem speziellen Team aber dennoch eine benötigte Windowsanwendung im virtuellen System zur Verfügung zu stellen. Bekannte Produkte sind VMware ACE (Assured Computing Environment) und Microsoft Virtual PC.
4.5 Blade PC.
Der Vollständigkeit halber seien an dieser Stelle auch Lösungen aufgeführt, bei denen die „Physik“ verlagert wird.
Dabei steht für jeden User ein eigener PC im Rechenzentrum, auf den er zugreifen kann. Bekannte Hersteller sind
HP und ClearCube.
10
5. Dynamic Desktop und My Access Key.
Der Dynamic Desktop bietet folgende Vorteile:
Abhängig von den Anforderungen und Gegebenheiten (z.B. vorhandene Lizenzen) setzt T-Systems die für
den Kunden optimale Technologie ein.
Alternativ zum bekannten und bisher üblichen Windows Desktop kann ein Open Source Desktop (Linux,
OpenOffice, Firefox usw.) zur Verfügung gestellt werden.
Unabhängig von der Technologie kommen die etablierten Prozesse (z.B. Order- und Incidentmanagement)
der T-Systems zum Einsatz.
Die Verlagerung des persönlichen Desktops ins Data Center und der variable Zugriff darauf schafft neue
Möglichkeiten. Beispielhaft seien hier der Schichtbetrieb oder die Nutzung durch Teilzeitkräfte genannt.
Man erschließt neue Benutzergruppen (z. B. Arbeiter in der Produktion) oder schafft neue Flexibilität (z.B.
Roaming User).
!
Der Dynamic Desktop stellt, dank strikter Trennung von Endgerät und
Anwendungen, eine wartungsarme und kostengünstige Lösung dar.
Auf dem Schreibtisch steht nur noch ein Terminal. Die Daten und Applikationen liegen im Rechenzentrum und
werden zentral und einheitlich gepflegt. Ein vermeintlicher Nachteil zentraler Desktop Virtualisierung ist die ger­inge
bzw. nicht vorhandene Mobilität. Gerade für heutige Nutzer von Notebooks scheint die „neue Welt“ keine adä­quate
Ersatzlösung zu bieten. Ein genauerer Blick auf die Bedürfnisse offenbart allerdings eine andere, differenziertere
Sicht: Viele Notebook User arbeiten nicht wirklich „auf der Straße“, sondern benötigen das Gerät lediglich, um an
anderen Unternehmensstandorten arbeitsfähig zu sein. Diesen Nutzern bietet Dynamic Desktop ihren persönlichen
Desktop an jedem Unternehmensstandort und von jedem Endgerät aus, ohne Nachteile wie z. B. Kosten fürs Note­
book, potenzielle Schäden bei Verlust oder Diebstahl usw.
Als weitergehende Möglichkeit können Mitarbeiter mit My Access Key unterwegs auf ihre Arbeitsplatzumgebung
zugreifen.
!
My Access Key ist ein USB-Stick, der Zugriff auf den persönlichen
Desktop ermöglicht.
Einfach in einen beliebigen Laptop oder PC mit Internetzugang eingesteckt, erfolgt über den integrierten Smart­
cardreader ein verschlüsselter Zugriff auf die eigene Arbeitsoberfläche. Nach getaner Arbeit verbleiben keine Spuren
auf dem genutzten Rechner. So eignet sich My Access Key auch für den Zugriff aus dem Home Office. Verbunden
mit dem heimischen Rechner hat der Benutzer Zugriff auf seinen Unternehmensdesktop und alle Möglichkeiten,
die er am Schreibtisch im Unternehmen hat.
Mit dem My Access Key plus, einer erweiterten Version, lassen sich Anwendungen auch lokal auf dem Stick betreiben.
11
6. Ausblick und Fazit.
Nach den bisherigen Ausführungen dürften die Antworten auf die anfangs gestellten Fragen deutlich sein:
Ist Desktop Virtualisierung eine ernstzunehmende Technologie, die ihr Versprechen an den Kunden hält?
Oder ist sie bloß ein Nebenprodukt der Virtualisierung im Serverbereich, das keine nennenswerten Vorteile bietet?
Desktop Virtualisierung wie der T-Systems Dynamic Desktop ist eine ernstzunehmende Technologie, die
zahlreiche Vorteile für Unternehmen bietet.
Welche neuen Möglichkeiten des zukünftigen Arbeitens schafft Desktop Virtualisierung und unter welchen
Rahmenbedingungen?
Desktop Virtualisierung ist kein Generalersatz für aktuelle PC-Technologie. Bereits heute gibt es aber zahl­
reiche Szenarien, in denen Dynamic Desktop im Vergleich die bessere Lösung ist. Das können rein wirtschaftliche Gründe, sicherheitsrelevante Vorschriften, flexible Arbeitsmodelle oder ein Mix aus allem sein.
Deutliche Vorteile bietet der Einsatz von Dynamic Desktop vor allem in Unternehmen mit vielen identischen, standardisierten Arbeitsplatzsystemen. Auch für den Schichtbetrieb, wenn verschiedene Anwender die Arbeitsplätze
zu unterschiedlichen Zeiten nutzen, lässt sich der Dynamic Desktop optimal einsetzen.
!
Fazit: Ein näherer Blick auf die neuen Services und das Hinterfragen
bisheriger Ansätze lohnt sich.
12
7. Glossar.
ICAIndependent Computing Architecture (ICA) ist ein Protokoll für ein Terminalserver/Application Service Providing System, das von Citrix Systems entwickelt wurde. Das Protokoll
legt eine Spezifikation fest, um Daten zwischen Server und Clients zu übertragen, ist aber
an keine bestimmte Plattform gebunden.
ITInformation Technology (IT), deutsch: Informationstechnik, ist ein Oberbegriff für die Informations- und Datenverarbeitung sowie für die dafür benötigte Hard- und Software.
LANLocal Area Network; ein lokales Datennetzwerk, bestehend aus Verkabelung und Zugangs­
komponenten zu diesem. In allen praktischen Fällen ist dies seit Anfang des 21. Jahrhunderts auf Basis von Ethernet nach dem Industriestandard IEEE 802.3 ausgeführt.
Managed rich
desktop
Arbeitsplatzcomputer, bei dem die Erstinstallation, die Software-Verteilung und das Manage­
ment von Patches und Antiviren-Patterns automatisiert ist.
RDPDas Remote Desktop Protocol (RDP) ist ein Protokoll von Microsoft. Es stellt die technische
Basis für die Implementierung von Terminaldiensten („Terminal Services“) zwischen zwei
Computersystemen bereit.
Trojaner Als Trojanisches Pferd, (engl. Trojan Horse) auch kurz Trojaner genannt, bezeichnet man
ein Computerprogramm, das als nützliche Anwendung getarnt ist, im Hintergrund aber ohne
Wissen des Anwenders eine andere Funktion erfüllt. Ein Trojanisches Pferd zählt zur Familie
unerwünschter bzw. schädlicher Programme, der sogenannten Malware. Es wird umgangs­
sprachlich häufig mit Computerviren synonym verwendet, sowie als Oberbegriff für Back­
doors und Rootkits gebraucht, ist davon aber klar abzugrenzen.
Unmanaged richArbeitsplatzcomputer, bei dem die Erstinstallation, die Software-Verteilung und das Manage­
ment von Patches und Antiviren-Pattern nicht automatisiert ist.
desktop
USBDer Universal Serial Bus (USB) ist ein serielles Bussystem zur Verbindung eines Computers
mit externen Geräten. Mit USB ausgestattete Geräte oder Speichermedien (z. B. USB-Sticks)
können im laufenden Betrieb miteinander verbunden werden (Hot-Plugging), angeschlossene Geräte und deren Eigenschaften werden dabei automatisch erkannt.
VoIPVoice over IP bezeichnet die Zusammenführung von Sprache und Daten auf einer gemein­samen Infrastruktur (TCP/IP-Protokoll). Man versteht darunter das Telefonieren über Com­puternetzwerke, und zwar Datennetze, die mit dem weit verbreiteten Internet-Protokoll (IP)
arbeiten. Die VoIP-Technologie nutzt die bisher vorhandenen Leitungs-Ressourcen deutlich effizienter aus. Hierdurch sinken die Gesprächskosten. Zudem können IT-Anwendungen und Telefonie dank gemeinsamer Netz-Infrastruktur besser zusammenarbeiten.
13
VPN Virtual Private Network, deutsch: Virtuelles Privates Netz. Ein VPN ist ein Kommunikationsnetz, das zum Transport privater Daten ein öffentliches Netz nutzt. Die Verbindung über das
öffentliche Netz läuft durch sogenannte Tunnel und wird üblicherweise verschlüsselt. Aller­
dings bedeutet der Begriff „Private“ nicht zwangsläufig, dass es sich um eine verschlüsselte Übertragung handelt. Die heute gebräuchliche Interpretation für VPNs sind die IP-VPNs,
bei denen die Teilnehmer über IP-Tunnel verbunden sind.
WAN Wide Area Networks (WAN), deutsch: Weitverkehrsnetze, sind für die Sprach- oder Daten­
übertragung über weite Strecken hinweg konzipiert. Die Konzeption solcher Netze wird im
Wesentlichen durch das Dienstangebot geprägt. So eignet sich das klassische analoge Fern­sprechnetz ebenso wie ISDN für die Telefonie. Dagegen wurden die öffentlichen Datenpaket­netze für Datenübertragungsdienste konzipiert.
14
8. Abbildungsverzeichnis.
Abbildung 1: Commodity Services.
Abbildung 2: Gründe für Desktop Virtualisierung.
Abbildung 3: Fraunhofer, PC vs. Thin Client Wirtschaftlichkeitsbetrachtung.
15
9. Quellenverzeichnis.
[Forrester Research 2006]David Friedlander and Simon Yates, Desktop Virtualization Is The Future Of The
Corporate PC.
[Fraunhofer 2007]C. Knermann / C. Köchling, PC vs. Thin Client Wirtschaftlichkeitsbetrachtung,
Seite 21f.
[Fraunhofer 2008]Ökologischer Vergleich der Klimarelevanz von PC und Thin Client Arbeitsplatzgeräten, Seite 3.
[Goldman Sachs 2006] Laura Conigliaro, Rick G. Sherlund, Sarah Friar and Derek Bingham, Independent Insight, US technology Strategy.
[IDC 2007]Dr. Thomas Reuner, Viewpoint Details, November 2007.
16
Herausgeber:
T-Systems Enterprise Services GmbH
Pascalstr. 8
D-52076 Aachen
Verantwortlich für den Inhalt:
Competence Team DSS
Kontakt:
T-Systems Enterprise Services GmbH
Marketing
Uli Kunesch
Fasanenweg 5
70771 Leinfelden-Echterdingen
E-Mail: [email protected]
T-Systems Enterprise Services GmbH
Marketing
Heike Glockemann
Pascalstr. 11
10587 Berlin
E-Mail: [email protected]

Documentos relacionados