top-themen - gattner.name
Transcrição
top-themen - gattner.name
TOP-THEMEN: - Microsoft Hyper-V, Herausforderer in Sachen Virtualisierung - Zehn typische Fehler bei der Server-Virtualisierung - Mit Virtualisierung Stromkosten senken - In zehn Schritten zur erfolgreichen Virtualisierung - Praxistest: VirtualBox – Open-Source-Konkurrenz zu VMware und Co. © TecChannel Microsoft Hyper-V, Herausforderer in Sachen Virtualisierung › Hyper-V heißt Microsofts neue Virtualisierungs-Engine. Der Hypervisor schiebt sich im Gegensatz zum Virtual Server als dünne Schicht zwischen Hardware und Betriebssystem. Wir zeigen, wie man im Bereich Virtualisierung mit einem Hypervisor wie dem neuen Hyper-V ohne Umweg zu schnellen virtuellen Maschinen kommt. VON Elmar Török (18.09.2008) Offiziell gibt es Hyper-V erst seit ein paar Tagen, die Ready-to-Manufacture (RTM) Version steht allerdings schon seit Monaten zur Verfügung. Entsprechend groß ist die Verbreitung der Virtualisierungsplattform im Markt bereits. Deshalb beziehen sich allerdings auch die meisten Kommentare entweder auf die RTM oder auf die noch ältere Beta-Ausgabe. Zum fertigen Produkt hat sich da meistens noch etwas getan, ohnehin dürfte Microsoft auch in Zukunft noch einige Bestandteile von Hyper-V fertig stellen oder ergänzen und auf den Markt bringen. So kamen gerade diese Woche die Linux Integration Components heraus, die optimierte Netzwerk, Grafik und Speichertreiber für Linux-Gäste enthalten. Work-in-Progress könnte man sagen, bei Microsoft bedeutet dass manchmal auch „Prinzip Banane“ – das Produkt reift beim Kunden. Allerdings ist der Hyper-V in seiner Release-Version ein durchaus ernst zu nehmendes und vollständiges Produkt, zumindest was den Hypervisor angeht. Die beiden Konkurrenten um einen Platz an der Virtualisierungssonne Citrix und VMware hatten im Vorfeld immer mal wieder geunkt, dass zu einer kompletten Virtualisierungslösung für den Unternehmenseinsatz mehr gehört, als ein Hypervisor allein. Stimmt auch, in der Tat lässt Hyper-V einige der weitergehenden Funktionen wie Live-Migration von virtuellen Maschinen eines Hyper-V Servers zu einem anderen Hyper-V Server vermissen. Aber mit dem aktuellen Funktionsumfang kann man durchaus anfangen die ersten Erfahrungen im Virtualisierungsumfeld zu machen. Und durch die Integration in Windows Server 2008 ist Hyper-V nur ein paar Mausklicks von der Einsatzfähigkeit entfernt. Die 60-Tage Testversion des Windows Server 2008 samt Hyper-V findet sich übrigens hier (http://technet.microsoft.com/de-de/evalcenter/cc137123.aspx) . Theoretisch ist der Windows Server 2008 auch ohne Virtualisierung erhältlich, im Moment liegt der Unterschied rechnerisch bei etwa 28 US-Dollar. Ob Firmen Windows Server 2008 tatsächlich ohne Virtualisierung kaufen werden, ist fraglich, die Summe ist zu gering, um sich merklich im Budget auszuwirken. In den nächsten vier Wochen wird auch eine Version namens Hyper-V-Server 2008 heraus kommen, die für Kunden völlig kostenlos ist. Dabei soll es sich um eine, auf die Virtualisierungsfunktion reduzierte, Ausgabe von Windows Server 2008 handeln. Eine ganze Menge von Kunden dürfte also Hyper-V automatisch im Unternehmen vorfinden und durch die kostenlose Version gibt es auch keinerlei Hemmschwelle für das Ausprobieren. Vielleicht abgesehen von den recht knackigen Hardwareanforderungen. › Anforderungen des Hyper-V: Hardware und Lizenzen Eine CPU mit Virtualisierungsunterstützung, also Intels-VT oder AMD-V, muss es schon sein, laut Minimalanforderung mit einem Gigahertz, zwei GHz sind empfohlen. Auch die 2 GByte RAM muss man eher als Beruhigungspille denn als realistische Arbeitskonfiguration betrachten. Überhaupt: nur weil der Server an sich läuft sind ja noch keine Ressourcen an die virtuellen Maschinen verteilt. Damit man vor allem beim knappen RAM-Adressraum nicht ganz schnell in die Limits läuft, ist eine 64-Bit Version des Serverbetriebssystems sehr zu empfehlen. Dann gibt es auch hinsichtlich des Arbeitsspeichers (fast) keine Grenzen nach oben. Als leistungsfähige Testkonfiguration für den Artikel kam ein Dell R905 mit 16 GByte RAM und vier AMD Opteron Quad-Core CPUs zum Einsatz. Hyper-V erlaubt bei genügend physikalisch vorhandenen Kernen die Zuordnung von bis zu vier virtuellen CPUs und 64 GByte RAM pro virtueller Maschine. Für Anwender der Standard-Edition des Betriebssystems stehen 32 GByte pro VM zur Verfügung. Mehr als genug in jedem Fall, auch wenn man leistungshungrige Anwendungen virtualisieren will. © TecChannel 2 Die neue Intel® Centrino® 2 und vPro™ Technologie macht mit Hardware die Verwaltung per Funk möglich: ferngesteuertes Untersuchen und Instandsetzen von Notebooks, sogar bei heruntergefahrenem Gerät oder ausgefallenem Betriebssystem.** * Die angegebenen Ergebnisse stammen aus EDS-Praxisbeispielen mit Intel® Centrino® Pro; die Bewertung von IT-Umgebungen wurde von Intel in Auftrag gegeben, wobei Testumgebungen mit PCs mit Intel Centrino Pro verglichen wurden mit Umgebungen ohne Intel Centrino Pro. Die tatsächlichen Ergebnisse können von Fall zu Fall unterschiedlich sein. Die Untersuchungen sind unter intel.com/vpro und eds.com verfügbar. **Für die Fernverwaltung muss das Computersystem mit einem für die Intel® AMT vorgesehenen Chipsatz ausgestattet sein. Darüber hinaus sind entsprechende Netzwerkhardware und Software sowie der Anschluss an eine Spannungsversorgung und eine Verbindung mit dem Firmennetzwerk erforderlich. Die Einrichtung dieser Funktionalität erfordert u. U. eine besondere Konfiguration, bestimmte Einrichtungen oder die Integration in vorhandene Systeme. Abhängig vom Betriebszustand des Systems sind die Funktionen der Intel AMT eventuell eingeschränkt oder nicht verfügbar. Informieren Sie sich unter intel.com/technology/platform-technology/intel-amt. ©2008 Intel Corporation. Intel, das Intel-Logo, das Centrino-Logo, Centrino und vPro sind Marken der Intel Corporation in den USA und anderen Ländern. Die Edition des Server-Betriebssystems haben noch weitere Auswirkungen auf Hyper-V, vor allem, was die Lizenzen angeht: So ist in der Standard-Edition der Einsatz eines weiteren Windows 2008 Servers in einer virtuellen Maschine abgedeckt, bei der Enterprise Edition sind des deren vier und mit der Datacenter-Edition kann man aus dem Vollen schöpfen, dann sind unbegrenzt viele virtuelle Windows 2008 Server auf dem physikalischen Host erlaubt. Dabei dürfen auch andere Editionen als die des Hosts in einer VM laufen, beispielsweise eine Standard-Edition auf einem Datacenter-Host. Anlegen kann der Anwender übrigens beliebig viele VMs, nur gleichzeitig in Betrieb sein darf nur die maximale Menge der lizenzierten virtuellen Maschinen. › Installation Genug der Theorie, die Installation von Hyper-V steht an. Weil ab Windows Server 2008 alle Funktionsgruppen des Servers in so genannte Rollen aufgeteilt sind, ist auch Hyper-V als Rolle integriert. Diese wählt man über den Server-Manager aus, wenn Sie Hyper-V als volle Variante auf einem bestehenden Server installieren wollen. Voll bedeutet, und hier deuten die Mitbewerber hämisch mit dem Finger, etwa 10 GByte Speicherplatz auf der Platte. Verglichen mit anderen Hypervisoren, die teilweise extrem auf das Wesentliche reduziert wurden und mit 32 MByte(!) Platz auskommen, ist das natürlich ein schwerer Brocken. Rolle: Hyper-V ist eine Server-Rolle und wird dementsprechend über den Server-Manager durchgeführt. Bei einer kompletten Neuinstallation des Serverbetriebssystems hat man zusätzlich die Option, Hyper-V als Core-Variante zu installieren. Diese verzichtet auf viele Komponenten wie den größten Teil des grafischen Benutzer-Interface und spart deshalb massiv Speicherplatz, bleibt aber mit 2 GByte immer noch weit über den kleinen Hypervisoren der Konkurrenz. Möglicherweise ändert sich das mit der Verfügbarkeit von Hyper-V-Server 2008. Der eigentliche Hypervisor Microkernel ist nur etwa ein Megabyte groß, das könnte zu einem sehr kompakten und noch dazu kostenlosen Hyper-V Paket führen. › Nach dem Neustart Die Auswahl und Installation läuft jedenfalls Windows-typisch problemlos ab und ist nach etwa zwei Minuten und einem Neustart erledigt. © TecChannel 3 Connectivity: Netzwerkverbindungen für die virtuellen Maschinen. Danach sieht man nach dem Anmelden den Windows-Desktop vor sich, als wäre nichts gewesen. Dennoch ist eine ganze Menge passiert: Während der Installation ist das komplette Windows Betriebssystem sozusagen ein Stückchen nach oben gerutscht. Zwischen dem Betriebssystem und der Hardware sitzt nun der Hypervisor. Was nun läuft, sieht zwar aus wie der normale Windows Server 2008, ist aber eigentlich bereits ein virtualisiertes Betriebssytem – die so genannte Parent-Partition. Die komplette Verbindung mit der Hardware läuft ab jetzt über die Virtualisierungsschicht, genauso wie bei virtuellen Gästen. Sichtbar wird das vor allem bei der Netzwerkverbindung. Neustart: Der Neustart ist erforderlich, damit sich der Hyper-V zwischen Hardware und Server-Betriebssystem setzen kann. Bevor man an die Konfiguration der Software geht und die ersten virtuellen Maschinen erstellt, sollten Sie aber die Aktualität aller Komponenten sicher stellen. Am einfachsten erledigen Sie das über Windows Update. Seit Windows Server 2008 ist im Bildschirm „Erstkonfiguration“ eine Sofortabfrage der Update-Quellen im Internet und für einen WSUS-Updateserver im eigenen Netz vorgesehen. Sind alle Updates herunter geladen und installiert, kann es an die erste virtuelle Maschine gehen. › Virtuelle Maschinen Verwaltet werden Hypervisor und Gäste über den „Hyper-V Manager“. Er steht im Menü „Verwaltung“ als eigener Eintrag bereit oder ist über den Server-Manager erreichbar. Die Managementoberfläche ist eigentlich ein Snap-In für die MMC (Microsoft Management Console) und unterscheidet sich nun recht deutlich von der Web-basierten GUI der Vorgängerversionen. © TecChannel 4 Verwaltung: Virtuelle Maschinen und der Hyper-V werden im Servermanager verwaltet. Der Hyper-V Manager hält für die Erstellung neuer VMs einen Installationswizard bereit, der auch unerfahrenen Nutzern die Aufgabe sehr leicht macht: › Zunächst gibt es eine freundliche Einleitung, die man nach dem ersten Mal nicht mehr lesen muss. › Dann geht es mit Namen und Speicherort der VM weiter. › Als nächstes folgt die Angabe des gewünschten Arbeitsspeichers. › Dann legen Sie fest, welche Netzwerkkarte mit der VM verbunden werden soll. › Dann geht es mit dem Massenspeicher weiter. › Jetzt will der Wizard wissen, woher denn die Installationsdateien kommen sollen. › Damit kann die VM hochgefahren werden. › Einrichtung von VMs im Detail Bei der Auswahl der Netzwerkkarte für die VM geht es zunächst um die Repräsentation der früher einmal physikalischen Netzwerkkarte. Die ist zwar mittlerweile durch die Installation von Hyper-V in einen virtuellen Adapter verwandelt worden, wird aber nach wie vor als Hardware angezeigt. Welche Netzwerkkarte die virtuelle Maschine sieht, entscheidet sich erst später. Hyper-V verwendet für Massenspeicher das .vhd-Format, es ist kompatibel mit den vhds von Virtual Server 2007, vorhandene Dateien können Sie problemlos mit Hyper-V einsetzen. Die Datei, denn nichts anderes ist eine virtuelle Festplatte, kann entweder eine fixe Größe haben oder dynamisch wachsen. Dann wird der virtuellen Maschinen die maximale mögliche Gesamtgröße vorgetäuscht, während die Datei selbst nur so groß ist, um alle darin zu speichernden Daten abzulegen. Dynamische Platten sind praktisch, weil sie nicht von haus aus Speicherplatz horten. Sie sind aber langsamer als statische virtuelle Festplatten. Hyper-V erlaubt die nachträgliche Konvertierung von dynamisch in statisch, falls das zu einem späteren Zeitpunkt gewünscht wird. Per Default ist „dynamisch“ eingestellt. Ebenfalls möglich: das Limit für dynamische Platten zu erhöhen und frei gewordenen Bereiche innerhalb einer dynamischen Platte komprimieren. Natürlich kann der VM auch eine bereits bestehende Datei zugeordnet werden. Microsoft bietet übrigens bereits fertige VHDs von Windows Server 2008 und Core Server 2008 (http://www.microsoft.com/downloads/details.aspx?FamilyID=060f0c51-339a-4c4e-bb6e-716bb7401fd4&displaylang=en) zum Download an. © TecChannel 5 › Die frische VM Zwei Dinge sind bei der neuen virtuellen Maschine noch zu beachten. Zum einen ist die grafische Repräsentation als Fenster optional. Eine gestartete VM kann auch ohne eigene Bildschirmausgabe auf dem Host laufen. Die Funktion „Start“ bezieht sich nur auf den „Einschalter“ des virtuellen Computers. Wer dazu auch noch ein Bild sehen will, nutzt die Funktion „Verbinden“. Erst diese öffnet ein Fenster, in dem Sie Tastatur- und Mauseingaben machen können. Ohne die Integration Components „fängt“ das Fenster Maus und Tastatur ein. Um aus diesem „Gefängnis“ zu entkommen, verwenden Sie die Tastenkombination Ctrl-Alt-„Pfeil-nach-Links“. In den Einstellungen zu Hyper-V können Sie auch eine andere Kombination auswählen. Maus-Freigabe: Die Maus wird automatisch in der VM gefangen und muss per Hotkey befreit werden. Jede VM lässt sich mit einer ganzen Reihe von Parametern konfigurieren. Die meisten können Sie allerdings nur im abgeschalteten Zustand ändern. Arbeitsspeicher, Bootreihenfolge oder serielle Schnittstellen gehören dazu. Hardware für VMs: Über diesen Dialog legen Sie die Hardware für die VM fest. › USB in der VM USB-Support ist für virtuelle Maschinen nicht vorgesehen. Das ist im Serverbereich zwar kein großer © TecChannel 6 Beinbruch, kann aber gelegentlich stören, beispielsweise bei USB-Dongles für Anwendungs-Software. In diesem Fall helfen USB-Netzwerkadapter wie der AnywhereUSB von Digi International weiter. USB-Massenspeicher werden auf Wunsch wie andere physikalische Massenspeicher am Host „durchgeschleift“. Dazu muss der Datenträger am Host angeschlossen, aber offline sein. Das erledigen Sie über die Datenträgerverwaltung von Windows Server 2008. Mit einem kleinen Umweg ermöglichen Sie USB-Geräte aber trotzdem. Wenn Sie unter Vista mit dem neuesten RDP-Client eine Verbindung zu einer VM aufbauen, können Sie im Tab „Lokale Ressourcen“ ein am Computer angestecktes USB-Gerät in die VM einblenden. Für das Dongle-Problem stellt dieser Weg jedoch keine Lösung dar. › Netzwerke Interessant könnten noch die Netzwerkverbindungen sein. Nach der Hyper-V Installation fügt das System weitere Adapter in die Netzwerkverbindungen ein. Neue NICs: Hyper-V richtet neue Netzwerkkarten ein. Im Bild ist ganz rechts die physikalische Netzwerkkarte zu sehen, die aber mittlerweile auch durch den Hypervisor geleitet wird. Links sieht man die genauso genannte, virtuelle Netzwerkkarte, an die wir im Test die VMs gebunden haben. Deren Verbindungsgeschwindigkeit wird als 10 Gigabit angezeigt, egal welche physikalische Geschwindigkeit möglich wäre. Innerhalb der VM steht im Gerätemanager die bereits beschriebene synthetische VMBus Netzwerkkarte. Virtual Machine Bus: Die Integration Components erlauben direkteren Zugriff auf bestimmte Hardware-Komponenten. Ebenfalls zu beachten: nur die virtuelle Netzwerkkarte ist in den Eigenschaften an den virtuellen Switch gebunden, die physikalische Karte hat an dieser Stelle kein Häkchen. Im Prinzip kann man bei der virtuellen Netzwerkkonfiguration sehr wenig falsch machen, Hyper-V lässt dem Benutzer auch weniger Möglichkeiten, als beispielsweise der VMware Server. © TecChannel 7 Geregelt: Hyper-V nimmt die notwendigen Einstellungen in der Firewall automatisch vor. Es gibt nur drei Netzwerktypen: extern, intern und privat. Dabei kann ersteres auch auf den physikalischen Adapter zugreifen, bei intern sind der Host und die VMs unter sich und im privaten Netz sprechen nur die VMs miteinander. NAT, Hosted oder Bridged wie beispielsweise bei VMware gibt es nicht, eine Fehlerquelle weniger bei der Konfiguration. Die Einstellungen für die Firewall von Windows Server 2008 übernimmt Hyper-V bei der Installation selbst. › Einrichtung des Betriebssystems Wer die VM sofort bei der Einrichtung mit einem Betriebssystem bestücken will, hat im Prinzip drei Möglichkeiten: Entweder nutzen Sie ein ISO-Image und mappen das virtuelle DVD- oder CD-Laufwerk auf das Image. Oder Sie legen eine physikalische DVD oder CD ein und verbinden das physikalische DVD-Laufwerk des Hosts mit der VM. Wenn Sie einen Deployment-Server im Netzwerk haben, zum Beispiel die Remote-Installation Services (RIS) oder Windows Deployment Services (WDS) von Windows, können Sie die VM direkt vom Verteilungsserver booten und sich das Betriebssystem als Image schicken lassen. Erfreulicherweise unterstützt Hyper-V hier den PXE-Standard (http://www.tecchannel.de/link.cfm?pk=402257) (PreBoot Execution Environment), so dass auch Deployment- und Imaging-Lösungen anderer Hersteller funktionieren. Im Test klappte es (fast) problemlos mit Acronis Snap Deploy für Server sowie dessen OEM-Variante Scriptlogic Image Center 2.5. WDS: Dieser XP-Gast wurde über die Windows Deployment Services ausgerollt. © TecChannel 8 Installation des Gastes: Das Fenster sehen Sie nur, wenn Sie sich mit der VM "verbunden" haben. Fast problemlos deshalb, weil die PXE-Unterstützung bei Hyper-V stellenweise noch unrund läuft. Um die VM bootfähig zu machen, emuliert die Software eine so genannte emulierte „Ältere Netzwerkkarte“, des Typs Digital Equipment 21140. Damit kann die VM zwar Verbindung mit dem Deployment-Server aufnehmen, der Treiber gehört aber nicht zu der neuen Generation, die explizit für die Zusammenarbeit mit virtuellen Maschinen entwickelt wurde. Diese nutzen den internen VMBus von Hyper-V, eine Art Abkürzung und Schnellstraße für die Inter-Prozess Kommunikation. Microsoft nennt diese Treiber „synthetisch“, sie werden auch über die Hyper-V Integrationsdienste installiert. Die Integrationsdienste heißen bei anderen Herstellern Gasterweiterungen und sorgen für schnellere Bildschirmupdates, höhere Videoauflösungen und nahtlose Maus- und Tastaturumschaltung zwischen Host und VM. Mit Einschränkungen: Die Maschine startet auch per PXE. Die „ältere Netzwerkkarte“ gehört nicht zu den synthetischen sondern zu den emulierten Treibern und ist geradezu erbärmlich langsam. Wer sich ein mehrere Gigabyte großes Serverimage per PXE in die VM holen möchte, sollte trotz Gigabit-Ethernet viel Geduld mitbringen. Immerhin, wenn das Image als eigenständige VM läuft, kann der Anwender die emulierte Netzwerkkarte gegen eine synthetische austauschen, dann klappt es auch mit der Geschwindigkeit im Netzwerk. › Integrationsdienste für Windows und Linux Die Integration Services waren in den RTM- und Beta-Versionen nur für eine Handvoll Betriebssysteme verfügbar. Inzwischen hat Microsoft deutlich aufgestockt. Neben allen Ausführungen von Windows Server 2003 und 2008 (sowohl x64 als auch x86) sind nun Windows 2000 SP4, Windows XP SP2 und SP3 sowie © TecChannel 9 Windows Vista mit von der Partie. Unterschiede beim Funktionsumfang gibt es eigentlich nur bei den Online-Kopien von aktiven Partitionen. Die neueren Betriebssysteme unterstützen Volumenschattenkopien, die älteren nicht. Bei Linux sieht die Situation deutlich schlechter aus, nur SUSE Linux Enterprise Server 10 SP2 x86 und SUSE Linux Enterprise Server 10 SP2 x64 werden komplett unterstützt, alle anderen Betriebssysteme müssen sich mit den emulierten Treibern herum schlagen. Der Download-Pfad für die Linux Integration Components läuft im Moment noch über Microsoft Connect (https://connect.microsoft.com/site/sitehome.aspx?SiteID=495) , man benötigt einen Account und muss sich für die entsprechende Gruppe eintragen. Das Paket ist im ISO-Format abgelegt, um die Einbindung in einen Linux-Gast zu vereinfachen. Enthalten sind synthetische Netzwerk- und Speichercontroller sowie ein Hypercall-Adapter für Xen. Damit lassen sich Xen-spezifische Funktionsaufrufe ohne Umweg in ihr Hyper-V Pendant umsetzen, was zu sehr schnellen virtuellen Linux Maschinen führt. › Fazit Im Prinzip ähneln der Umgang und die Verwaltung von Hyper-V dem Konzept von VMware oder Xen-basierten Lösungen. Der Funktionsumfang des Grundpakets, wie es Microsoft jetzt veröffentlicht hat, reicht für die Virtualisierung von Basisdiensten im Netzwerk aus. Für Redundanz muss der Anwender selbst sorgen, beispielsweise mit einem Shared-Storage und Cluster-Diensten. Microsoft bietet viele Schritt-für-Schritt Anleitungen (http://www.microsoft.com/downloads/details.aspx?FamilyID=518d870c-fa3e-4f6a-97f5-acaf31de6dce&DisplayLang=en) zu häufig vorkommenden Szenarien an, allerdings auf Englisch. Auch der Planing und Deployment Guide (http://www.microsoft.com/downloads/details.aspx?FamilyID=5da4058e-72cc-4b8d-bbb1-5e16a136ef42&DisplayLang=en) kann zum Einstieg sehr hilfreich sein und ist mit 30 Seiten überschaubar kurz. (Elmar Török/mha) © TecChannel 10 Zehn typische Fehler bei der Server-Virtualisierung › Server lassen sich schnell und einfach virtualisieren. Dennoch können Probleme und Fehler den eigentlichen Vorteil zunichte machen. Welche Faktoren es bei der Analyse, Planung und Durchführung der Virtualisierung von Servern zu beachten gilt, schildert der folgende Beitrag. VON Günther Aust (05.03.2008) In der Theorie bringt die Virtualisierung von Servern ausschließlich Vorteile mit sich. Die Auslastung der Systeme wird optimiert, und obendrein könnte in vielen Fällen die absolute Anzahl der physikalischen Server verringert werden. Zudem sorgt eine Entkoppelung der Applikationen und des Betriebssystems vom physikalischen System für deutlich mehr Flexibilität. In der Praxis gefährdet jedoch beispielsweise ein planloses Einsetzen von virtuellen Maschinen die mögliche Steigerung der Effizienz. Im Folgenden finden Sie einige typische Fehler, die es bei einer Virtualisierungsstrategie in Sachen Server zu vermeiden gilt. Wie sich durch Virtualisierung der Energiebedarf in Rechenzentren senken lässt, verrät Ihnen der Beitrag Mit Virtualisierung Stromkosten senken (http://www.tecchannel.de/link.cfm?pk=1745365) . Welche Fallstricke es bei der Storage-Virtualisierung zu beachten gilt, schildert der Artikel Die zehn häufigsten Fehler bei der Storage-Virtualisierung (http://www.tecchannel.de/link.cfm?pk=1747699) . › Virtualisierung ist kein Selbstzweck Ungebremste Zunahme von virtuellen Maschinen (VM) Durch Virtualisierung nimmt die Komplexität von IT-Architekturen aus der Perspektive des Systemmanagements ab. Während die physischen Systeme reduziert werden, erhöht sich auf der anderen Seite sehr oft die Anzahl der virtuellen Instanzen. Eine neue VM ist nur einen Mausklick entfernt! Alle virtuellen Maschinen müssen jedoch verwaltet, gewartet und gepflegt werden. Daher sollten klare Regeln für die Bereitstellung neuer VMs definiert werden, um deren ausuferndes Wachstum zu verhindern. Unzureichende Workload-Analyse Oft wird die Ist-Situation nicht präzise analysiert. Wichtig ist es, im Vorfeld von Virtualisierungsprojekten herauszufinden, welche realen Systeme sich überhaupt virtualisieren lassen und welche Betriebsmittel sie in der realen Welt benötigen. In einem zweiten Schritt wird dann ermittelt, welche Ressourcen diese Systeme in einer virtualisierten Umgebung erfordern. In dieser Phase ist äußerste Sorgfalt der Schlüssel zu einem erfolgreichen Virtualisierungsprojekt. › Technische Homogenität und wirtschaftliche Aspekte Heterogenität der Plattform Häufig ist die Plattform, auf der virtualisiert werden soll, durch uneinheitliche Systeme, Komponenten und Treiber gekennzeichnet. Umgebungen, die hinsichtlich Storage-, Netzwerk- und Server-Architektur eine gewisse Homogenität aufweisen, sind jedoch bezüglich Installation, Wartung und Pflege wesentlich einfacher zu managen als heterogene Plattformen. Auch setzen manche Funktionen des Hypervisors eine gewisse Homogenität voraus (beispielsweise VMotion). Nichtbeachtung von betriebswirtschaftlichen Aspekten Oft werden bei Virtualisierungsprojekten allein technische Aspekte berücksichtigt. Es wird analysiert, welche Ressourcen die zu virtualisierenden Systeme im Schwerpunkt benötigen: Manche erfordern einen großen Arbeitsspeicher, andere benötigen eher leistungsfähige Prozessoren. Verschiedene Klassen von Applikationen werden dann zusammen auf einem Server konsolidiert, damit die verfügbaren Ressourcen gleichmäßig ausgelastet sind. Wichtig ist es hier, betriebswirtschaftliche Zusammenhänge zu kennen und zu © TecChannel 11 berücksichtigen. Kommunizieren etwa bestimmte VMs in hohem Maße miteinander, ist es sinnvoll, beide Systeme auf einem physikalischen Server laufen zu lassen. So ist für Applikationen, die betriebswirtschaftlich zusammenwirken, ein sinnvoller Mix zu ermitteln, über den festgelegt ist, wie sie gruppiert und auf dem Server verteilt werden können. › Fehlerhafte Planung Mangelnde Planung beim Einsatz von VMotion Die VMotion-Technologie von VMware erlaubt es, eine komplette virtuelle Maschine im laufenden Betrieb unverzüglich von einem Server auf einen anderen zu verschieben. Sinnvolle Kombinationen von Applikationen auf einem Server dürfen aber nicht durch den Einsatz dieser Technologie zerrissen werden. Vielmehr muss die Planung berücksichtigen, dass komplette Gruppierungen dem VMotion-Prozess unterzogen werden. Auch hier ist eine homogene Hardwarelandschaft entscheidend. Fehlerhafte Planung bei automatisierter Virtualisierung Der VMware Distributed Resource Scheduler (DRS) überwacht die Auslastung von Ressourcen-Pools kontinuierlich und verteilt die VMs gerecht auf die verfügbaren Kapazitäten. Auch bei diesen Automatismen muss die Planung technische und betriebswirtschaftliche Aspekte bei der Gruppierung von Applikationen berücksichtigen. › Regeln sind unabdingbar Nichteinhalten von Policies Feste Regeln, die seit jeher für reale Server-Landschaften gelten, etwa Sicherheitsaspekte, dürfen in virtualisierten Umgebungen nicht aufgebrochen werden, sondern sind dort zwingend einzuhalten. Der Administrator als Super Super User: Feste Regeln und die Einhaltung des Vieraugenprinzips sind angesagt. Der Administrator als "Super Super User" Der Administrator erhält durch Virtualisierungsprojekte die Rolle eines "Super Super Users", der viele virtuelle Maschinen im Blick haben muss. Der geringste Fehler kann sich hier auf die komplette Server-Landschaft auswirken. Dies sollte mittels durchdachter Kontrollmechanismen und Einhaltung des Vieraugenprinzips vermieden werden. › Server sind nicht alles Unterschätzen der "politischen" Auswirkungen von Virtualisierung Die Teilung von Infrastrukturen innerhalb unterschiedlicher Fachabteilungen kann betriebspolitische Probleme bereiten. Hier sind klare und nachvollziehbare Abrechnungsverfahren gefragt. Isolierte Betrachtung der Server-Virtualisierung Oft wird die Virtualisierung der Server als "Allheilmittel" verstanden. Sie sollte jedoch nur ein Baustein einer ganzheitlichen Infrastruktur-Optimierung sein und mit anderen Initiativen wie I/O- und © TecChannel 12 Storage-Konsolidierung einhergehen. (mje) Dieser Beitrag basiert auf einem Artikel unserer Schwesterpublikation ChannelPartner (http://www.channelpartner.de/) , der Fachzeitschrift für den IT-Handel. © TecChannel 13 Mit Virtualisierung Stromkosten senken › In zahlreichen Rechenzentren von IT-Dienstleistern gehören virtualisierte Systeme längst zum Alltag. Denn durch die Virtualisierung von Servern lassen sich Rechnerfarmen effizienter gestalten und Stromkosten senken. Inzwischen setzten auch viele Unternehmen auf eine Virtualisierung ihrer Server. VON Frank Niemann (07.02.2008) In der Vergangenheit wurde die Virtualisierung von Servern häufig als Ansatz betrachtet, die Hardware besser auszulasten sowie die Systemverwaltung zu vereinfachen. Einige leistungsstarke statt weniger einzelne Computersysteme kommen zum Einsatz. Neben den genannten Faktoren bringt dies einen weiteren, bislang noch wenig beachteten Effekt mit sich: Die Leistungsaufnahme sinkt, was dazu beiträgt die Betriebskosten der IT zu senken. › Was ist Server-Virtualisierung? Optimierung: Virtualisierung kann im Rechenzentrum zu einer höheren Auslastung der Server führen. Auf diese Weise lässt sich die Anzahl der Systeme reduzieren und somit auch der Bedarf an Kühlung. Alles zusammen hilft, den Strombedarf deutlich zu senken. Virtualisierungstechnik erlaubt es, Prozessoren, Festplatten und Arbeitsspeicher eines Computers mehreren virtuellen Computern zur Verfügung zu stellen. In den virtuellen Maschinen lassen sich voneinander unabhängige Softwarekonfigurationen einrichten, die sich eine physikalische Hardware teilen. Neu ist diese Idee keineswegs: Erste Virtualisierungsansätze hatte IBM bereits um 1970 für seine Großrechner entwickelt. Mittlerweile sind solche Verfahren für eine Reihe von Rechnerplattformen verfügbar. Sie lassen sich entweder auf Grundlage eines vorhandenen Betriebssystems wie etwa Linux oder Windows installieren oder direkt auf der Hardware des Computers, wobei dann die Virtualisierungssoftware ein eigenes Betriebssystem beinhaltet. Einen Überblick intelligenter IT-Konzeptenzum Betrieb von Rechenzentren liefert Ihnen der Beitrag Strom, Klima, Fläche: Rechenzentren am Limit (http://www.tecchannel.de/link.cfm?pk=1742763) . Das intelligentes Server-Management Stromkosten sparen kann vermittelt der Beitrag Cool on Demand (http://www.tecchannel.de/link.cfm?pk=492660) . © TecChannel 14 › Einsparungen von 50 bis 80 Prozent Laut einer Studie mit dem Titel "Energy efficient servers in Europe" beeinflussen Server und die dazugehörige Infrastruktur maßgeblich den Stromverbrauch in Büros und Rechenzentren, und zwar durch die erforderliche Energie für die Stromversorgung und Kühlung der Komponenten. Verfasser sind die österreichische und die französische Energieagentur, die IT-Hersteller Sun und IBM sowie die Universität Karlsruhe. Vom gesamten Stromverbrauch innerhalb der EU entfallen demnach 1,5 Prozent auf Server-Hardware und Infrastruktur, was Kosten von etwa sechs Milliarden Euro entspricht. Nach Überzeugung der Fachleute lassen sich durch die Virtualisierung von Servern 50 bis 80 Prozent Stromkosten einsparen. Als weitere Möglichkeiten nennen die Experten nennen darüber hinaus energieeffizientere CPUs und Festplatten sowie eine gemeinsame Stromversorgung statt Netzteilen für jedes einzelne Gerät. Das Einsparpotenzial ergibt sich unter anderem, weil sich durch Virtualisierung die Rechnerhardware besser auslasten lässt: In der Regel werden nur zehn bis 30 Prozent der verfügbaren Rechenleistung von Servern genutzt, trotzdem verbrauchen die Systeme meist etwa so viel Strom wie unter Volllast. Gelingt es, beispielsweise zehn solche Computer per Virtualisierung durch zwei leistungsfähigere Rechner zu ersetzen, die dann deutlich besser ausgelastet sind, fällt die Stromrechnung automatisch niedriger aus. Zudem benötigen zwei Komponenten weniger Platz und Kühlung, was sich ebenfalls positiv auf den Energieverbrauch auswirkt. Doch nicht nur die geringere Anzahl der Server hilft, Strom zu sparen: Der verfügbare Arbeitsspeicher lässt sich ebenfalls in einer virtuellen Umgebung besser auslasten als bei einem einzelnen Computer. Auch der Hauptspeicher benötigt Strom, und da der Memory von Jahr zu Jahr größer wird, nimmt auch sein Energiehunger zu. › Rechenbeispiel für den Mittelstand Virtualisierungsprojekte nehmen Unternehmen vor allem in Angriff, um die Hardwarekosten zu reduzieren und die Verwaltung ihrer IT-Landschaft zu vereinfachen, was ebenfalls die Betriebskosten drückt. Analysten des Beratungshauses Experton Group aus München behaupten, allein schon die Stromeinsparungen könnten Virtualisierungsprojekte rechtfertigen. Experton belegten das mit einem Fallbeispiel eines mittelständischen Unternehmens mit 900 Mitarbeitern und drei Niederlassungen in Deutschland. Dessen Rechenzentrum umfasst 25 dedizierte Server und 120 Blade-Systeme (Computer mit besonderer Bauform für die Montage in speziellen Rechnerschränken, auch Racks genannt). Zudem betreibt es Speichergeräte (insgesamt 10 TByte), Netzwerk-Equipment, Bandlaufwerke sowie Klimatisierungsanlagen. Die gesamte IT-Umgebung benötigt etwa 1,2 Megawatt pro Jahr, was Stromkosten von rund 165.000 Euro verursacht. Die Experton Group hat beispielhaft berechnet, wie sich Investitionen in Virtualisierung und stromsparende Hardware über einen Abschreibungszeitraum von fünf Jahren auswirken. Würde die Firma im Rahmen eines Virtualisierungsprojekts die Anzahl der dedizierten Server auf 19 und die der Blade-Systeme auf 84 reduzieren sowie das Speichervolumen auf 7,5 TByte herunterschrauben, ließen sich 47.200 Euro Stromkosten im Jahr einsparen. Dazu geht Experton von Investitionen in Höhe von 60.000 Euro für Software und 40.000 Euro für Beratung aus. Über einen Zeitraum von fünf Jahren betrachtet, ergeben sich Gesamtkosten von 112.000 Euro unter Berücksichtigung der Abschreibungsfrist für Softwareprodukte von fünf Jahren. › Energieeffiziente Komponenten Die Stromkosten der Beispielarchitektur ließen sich durch energieeffizientere Komponenten weiter drücken. Hierzu zählen dedizierte Server und Blades mit geringerer Stromaufnahme. Diese Anschaffung umfasst 184 200 Euro und wird ebenfalls über fünf Jahre abgeschrieben. Das führt zu weiteren Stromkosteneinsparungen von 35.100 Euro, was gemeinsam mit den Effekten der Virtualisierung die Energiegebühren um 82.300 Euro im Jahr senkt. © TecChannel 15 Waren es anfangs nur vergleichsweise unkritische Anwendungen, die Firmen auf virtuellen Maschinen betrieben haben, gehen Unternehmen nun dazu über, auch Geschäftsapplikationen in virtuelle Infrastrukturen einzubetten. Für IT-Dienstleister ist die Virtualisierung von Servern schon lange ein Thema und wird es durch die steigenden Energiekosten erst recht. Solche Firmen betreiben Rechenzentren und stellen Kunden beispielsweise E-Mail-Postfächer, Umgebungen für individuelle Web-Seiten und Software zur Verfügung. Anders als bei den IT-Serviceanbietern scheint das Thema in vielen Unternehmen noch nicht angekommen zu sein. Gezielt damit befasst haben sich offenbar nur wenige IT-Experten. Daher ermitteln bisher auch nur wenige Firmen, ob ihre IT energieeffizient arbeitet. (Computerwoche (http://www.computerwoche.de) /mje) Dieser Beitrag stammt von computerwoche.de (http://www.computerwoche.de/) , der führenden deutschsprachigen Website für den gesamten Bereich der Informationstechnik - aktuell, kompetent und anwendungsorientiert. © TecChannel 16 In zehn Schritten zur erfolgreichen Virtualisierung › Die Heilsversprechen der Virtualisierung sind gewaltig, doch ohne eigene Leistung wird ein solches Projekt nicht zum Erfolg führen. Vorab müssen IT-Verantwortliche einige entscheidende Punkte klären. VON Alexander Freimark (13.07.2007) Mit weniger Einsatz mehr erreichen, das Optimum aus den Systemen herausholen, brachliegende Ressourcen nutzen – Virtualisierung verspricht viel. Doch leider haben bekanntlich die Götter von den Lohn den Schweiß gesetzt. Die US-Beratung Enterprise Management Associates (http://www.emausa.com/) (EMA) hat eine Liste mit zehn Fragen zusammengestellt, die sich IT-Verantwortliche vor einem Virtualisierungsprojekt stellen müssen, denn: "Virtualisierung darf nicht über das Knie gebrochen werden", warnt EMA-Analyst Andi Mann. Seiner Einschätzung nach sollten Unternehmen das Vorhaben nicht als isoliertes Projekt, sondern vielmehr als Strategie begreifen. Nur wer den langfristigen Nutzen suche, könne auch langfristig Vorteile erlangen. Vor einem unternehmensweiten Vorhaben zur Virtualisierung empfiehlt der EMA-Analyst die Beantwortung folgender zehn Fragen: › 1. Verfügen Sie über die nötigen Fähigkeiten, um die Virtualisierung zu leisten? Die adäquaten Skills im Team bilden im Regelfall die größte Herausforderung für die erfolgreiche Einführung der Virtualisierung, so Mann. Nach seinen Untersuchungen gehen drei Viertel der Unternehmen, die noch nicht virtualisiert haben, davon aus, dass ihnen die für den Einsatz der Technologie benötigten Kompetenzen fehlen. Die Beratung empfiehlt dringend, vor dem Projektstart mit dem Training der Mitarbeiter zu beginnen, die Anforderungen festzulegen, absehbare Veränderungen zu dokumentieren und mit begrenzten Pilotversuchen zu starten. › 2. Sind Sie bereit, die "politischen" Folgen der Virtualisierung zu verkraften? Auch der zweite Punkt betrifft den menschlichen Faktor. Wenn eine IT-Abteilung bislang ihr Dasein im technischen Silo gefristet hat, könnte sich dies bei der Virtualisierung als Hemmschuh erweisen, wenn es darum geht, die allgemeine Akzeptanz der "betroffenen" Fachabteilungen zu erlangen. Sollten sich gewisse Interessengruppen im Unternehmen weigern, ihre Server mit anderen zu teilen, bleiben der IT nur zwei Möglichkeiten, um das Eis zu brechen: Entweder müssen die Widerständler von der verbesserten Performance durch die Virtualisierung überzeugt werden, oder ihnen muss die Angst genommen werden, dass ihnen die Teilung von Ressourcen Nachteile verschafft. › 3. Kennen und akzeptieren Sie die Risiken? Durch die Virtualisierung sinkt im Idealfall der Verbrauch physikalischer Ressourcen für den Betrieb verschiedener Systeme und Anwendungen. Gleichzeitig werden mehr Nutzer und Applikationen auf weniger virtuelle Umgebungen konzentriert, die zudem komplexer in der Verwaltung sind. Der Ausfall von Hardware, menschliche Fehler, Sicherheitslücken, Planungsprobleme und Supportfragen erhalten dadurch ein größeres Gewicht. Die EMA warnt vor einer Virtualisierung, ohne dass zuvor detaillierte Pläne für Business Continuity und Disaster Recovery entwickelt wurden – und zwar für alle Phasen des Projekts. › 4. Wie robust sind Ihre Sicherheitssysteme? Durch die Virtualisierung öffnen sich neue Sicherheitslücken, die Systeme werden anfälliger für andersartige © TecChannel 17 Malware, und nur die wenigsten Unternehmen sind in der Lage, die Schwachstellen zu schützen. Dies liegt auch daran, dass sich die aktuelle Technologie schwer tut, mit den neuen Bedrohungen umzugehen. Hypervisor-Infektionen, Rootkit-Viren und bösartige virtuelle Maschinen "können an den heutigen Tools praktisch unerkannt vorbeischlüpfen", berichtet EMA-Analyst Mann. IT-Verantwortliche müssen virtuelle Maschinen genau so wie physikalische Rechner schützen und zusätzliche Anstrengungen unternehmen, um die virtuellen Umgebungen abzuriegeln. › 5. Haben Sie kompatible Systeme und Applikationen? Einige Anwendungen und Systeme harmonieren nicht reibungslos mit der Virtualisierung. Die Berater nennen hierfür beispielsweise Anwendungen mit einer großen Effizienz im Einsatz, gravierenden Spitzen in den Anforderungen oder einer anhaltend hohen Auslastung. Auch Applikationen, die direkt mit der Hardware interagieren, können ein Virtualisierungsvorhaben stoppen. › 6. Beherrschen Sie die Kapazitätsplanung? Der Wildwuchs virtueller Server ist ein bekanntes Phänomen, wobei häufig die vorhandene Kapazität durch die Einführung der Virtualisierung übertroffen wird. Die Berater empfehlen, dass IT-Abteilungen eine detaillierte Kapazitätsplanung unternehmen, damit Hardware- und Software-Ressourcen in ausreichender Menge zur Verfügung stehen. Sollte dies nicht der Fall sein, kann die Virtualisierung schnell außer Kontrolle geraten. › 7. Lassen sich Ihre Installationen virtualisieren? Viele populäre Applikationen aus der Box unterstützen die Virtualisierung, aber es gibt auch diverse Anwendungen, die sich der Technologie verweigern. IT-Abteilungen müssen im Vorfeld klären, welche Programme und Hardware-Plattformen funktionieren und welche Systeme vor einem Rollout aufgerüstet werden müssen. › 8. Unterstützt ihr Netz die Virtualisierung? Netze und Speicher sind potenzielle Flaschenhälse für die Virtualisierung im Rechenzentrum. So funktionieren Virtualisierungstechnologien, die auf den Nutzer ausgerichtet sind (Anwendungs- und Desktop-Virtualisierung beziehungsweise Application Streaming), in Netzen mit einer geringen Transferrate nicht zufriedenstellend. IT-Verantwortliche sollten Beschränkungen in Netzen und Speichern mit Technologien zur WAN-Optimierung behandeln oder die starke Vermehrung von Images unterbinden. › 9. Können Ihre Management-Systeme in virtuellen Umgebungen existieren? Auch wenn Virtualisierung die physikalischen Ressourcen verringert und zumindest deren Verwaltung erleichtert, steigt dabei die Gesamtkomplexität an, was für IT-Verantwortliche neue Management-Probleme aufwerfen kann. Da die rein technische Einführung der Virtualisierung relativ leicht von der Hand geht, kommt es häufig zum Wildwuchs virtueller Maschinen, was wiederum deren Verwaltung gravierend erschwert. Ein weiterer Grund für die Mehrarbeit der IT-Manager ist die zusätzlich eingezogene Softwareschicht und die damit "hinzugewonnene" Komplexität. Bis die Management-Tools sattelfest mit den neuen Herausforderungen umgehen könnten, so die Berater, liegt der Schlüssel zum Erfolg in der Einrichtung starker Prozesse etwa für Performance-, Konfigurations-, Patch- und Service-Level-Management sowie für Beschaffung und Disaster Recovery. › 10. Hilft die Virtualisierung, um geschäftliche Ziele zu erreichen? Laut EMA ist die Abstimmung der technischen Implementierung mit den geschäftlichen Zielen der Faktor, der bei einem Virtualisierungsvorhaben am häufigsten übersehen wird. Um den Erfolg eines Virtualisierungsprojekts abschätzen zu können, müssen IT-Organisationen im Vorfeld erst einmal definieren, was sie mit dem Vorhaben überhaupt erreichen wollen. © TecChannel 18 Die Berater empfehlen, dass IT-Verantwortliche ein derartiges Vorhaben anhand langfristiger, strategischer Resultate ausrichten und nicht als schnelle Lösung für ein akutes Problem betrachten. Beispielsweise würden sich viele Unternehmen von der Virtualisierung sinkende Kosten erwarten, so EMA. Dieses Ergebnis sei aber längst nicht der Regelfall. So werde der einmalige Spareffekt der Server-Konsolidierung oft durch beträchtlich steigende Kosten für Software wieder egalisiert. (hal) Dieser Beitrag stammt von Computerwoche.de (http://www.computerwoche.de/) , der führenden deutschsprachigen Website für den gesamten Bereich der Informationstechnik - aktuell, kompetent und anwendungsorientiert. © TecChannel 19 Praxistest: VirtualBox – Open-Source-Konkurrenz zu VMware und Co. › Kompakt, schnell und für Privatanwender kostenlos. Das sind die Eckdaten, die VirtualBox der etablierten Konkurrenz wie VMware oder Virtual PC entgegensetzt. Wir haben uns die aktuelle Version 1.3.8 vorgenommen und zeigen, wie gut das gelingt. VON STEFAN RUBNER (29.03.2007) Virtualisierung – also das Bereitstellen von Software und Diensten auf per Software emulierten Rechnern – ist quasi das Bloggen der Netzwerktechnik: Jeder spricht darüber, viele tun es bereits, und probieren möchten es alle einmal. Kein Wunder, dass in der letzten Zeit mehr und mehr Produkte zur Bereitstellung virtueller Rechner auf den Markt drängen. Ein interessanter Newcomer ist VirtualBox (http://www.virtualbox.org) der deutschen Softwareschmiede InnoTek. Vielseitige Open-Source-Virtualisierung: VirtualBox ist eine ernst zu nehmende Alternative zu VMware, Microsoft und Parallels Desktop. Der große Unterschied zu vergleichbaren Produkten wie VMware Workstation oder Virtual PC von Microsoft: Die komplette Software ist im Quelltext verfügbar. Davon verspricht man sich bei InnoTek eine aktive Entwicklergemeinde, die dabei hilft, die Software zu verbessern. › Günstiger Einstieg Auch in anderen Bereichen geht man bei InnoTek moderne Wege, denn VirtualBox ist für private Anwender kostenlos. Firmenkunden haben die Wahl zwischen dem Entrichten einer Lizenzgebühr oder dem eigenständigen Übersetzen des Quellcodes. In letzterem Fall leistet InnoTek allerdings keinen Support bei im Betrieb eventuell auftretenden Problemen. Zudem muss auf einige Features verzichtet werden, etwa die Unterstützung des Remote Desktop Protocols (RDP) zum Fernsteuern virtueller Rechner, USB-Unterstützung, Shared Folders für gemeinsamen Datenzugriff und der iSCSI-Initiator zum direkten Ansteuern von entfernten Speichermedien. Also genau die Funktionen, die speziell bei der Konsolidierung von Rechnern zum Tragen kommen. © TecChannel 20 Mischbetrieb: Auch der parallele Betrieb von Vista und Linux ist kein Problem für VirtualBox – sofern ausreichend Hauptspeicher verfügbar ist. Mit dieser Strategie bewegt sich VirtualBox ziemlich genau in der Mitte zwischen Microsoft und VMware. Die Windows-Schmiede gibt Virtual PC 2007 (http://www.tecchannel.de/link.cfm?type=article&pk=462559) ebenfalls kostenlos ab. Bei VMware ist der Player (http://www.tecchannel.de/link.cfm?type=article&pk=434074) zum Ausführen fertiger virtueller Maschinen ebenso kostenfrei verfügbar wie der VMware Server, während die Desktop-Version VMware Workstation nach wie vor Geld kostet. Da VirtualBox für den reinen Desktop-Einsatz konzipiert ist, ist auch das Konkurrenzumfeld klar umrissen: Virtual PC 2007, VMware Workstation und Parallels Desktop. Im Vergleich zu den genannten Produkten bietet VirtualBox eine solide Mischung aus allen wichtigen Features. So unterstützt es den Betrieb unter den 32-Bit-Versionen von Windows und modernen Linux-Distributionen. Als Gastsysteme sind neben dem obligatorischen Support für Windows und Linux auch OS/2, diverse BSD-Versionen und Solaris erlaubt. Damit richtet sich VirtualBox eher an die Nutzer von VMware und Parallels, denn an die Besitzer von Virtual PC, das zumindest auf dem Papier nur Windows-Betriebssysteme auf den virtuellen Maschinen unterstützt. InnoTek unterstützt derzeit keine 64-Bit-Systeme, weder als Host noch als Gast. › Einfache Installation Das Installationsarchiv von VirtualBox ist gerade einmal 13 MByte groß, entsprechend schnell ist der Download erledigt, und es kann an die Installation gehen. Diese beschränkt sich im Wesentlichen auf die Auswahl des Zielverzeichnisses sowie das Bestätigen der von Windows ausgegebenen Warnungen über fehlende Zertifikate der Software. Danach ist die Software eingerichtet, eine Verknüpfung auf dem Desktop legt die Setup-Routine dabei übrigens nicht an. Bekanntes Problem: Die Treiber für den Zugriff auf © TecChannel 21 USB-Geräte und LAN-Adapter sind auch bei VirtualBox nicht signiert. Nach dem Start überrascht VirtualBox mit einer Benutzerschnittstelle, die deutlich farbenfroher ist als die der Konkurrenz. Der Bedienbarkeit tut das aber keinen Abbruch, die einzelnen Optionen zum Anlegen, Konfigurieren, Löschen, Starten und Verwerfen der virtuellen Maschinen sind leicht erreichbar, die Anzeige der vorhandenen VMs ist übersichtlich. › Einrichten in zwei Schritten Ebenfalls etwas abseits der ausgetretenen Pfade läuft das Einrichten neuer virtueller Rechner ab. Zwar steht auch hier ein Assistent zur Verfügung, der schnell und sicher durch die einzelnen Schritte wie das Anlegen der als Datei erzeugten virtuellen Festplatte für das Gastbetriebssystem oder die Auswahl des geplanten Gastsystems selbst führt. Einzelne Feineinstellungen lassen sich aber erst nach dem Abschluss dieses Schnelldurchlaufs vornehmen. Geführt: Beim Einrichten neuer virtueller Maschinen unterstützt ein Assistent den Anwender. Dazu zählt auch ein nettes Highlight: VirtualBox gestattet es nicht nur, den in der virtuellen Maschine verfügbaren Hauptspeicher festzulegen. Auch das RAM der virtuellen Grafikkarte lässt sich vom Vorgabewert von 8 MByte auf bis zu 128 MByte aufstocken. Natürlich geht dies zusätzlich zulasten des Hauptspeichers im Host-System. › Einzelne Schwachpunkte Allerdings vermisst man mitunter essenzielle Dinge, beispielsweise die Unterstützung von CD- oder DVD-Brennern. Diese behandelt VirtualBox wie reine Leselaufwerke. Ebenfalls nicht vorhanden ist ein System, mit dessen Hilfe sich einzelnen virtuellen Rechnern CPU-Zeit oder Hauptspeicher bevorzugt zuteilen lassen. Womit auch schon ein echter Schwachpunkt genannt wäre: der Hauptspeicher im Host-Rechner ist ein echter Stolperstein für VirtualBox. Anders als etwa bei VMware wird dieser nicht dynamisch je nach realem Bedarf an die einzelnen virtuellen Rechner zugeteilt, sondern sofort bei dessen Start reserviert. © TecChannel 22 Notwendige Helfer: Ohne die zusätzlichen Tools für Gastsysteme besteht unter Vista kein Zugriff auf die virtuelle Netzwerkkarte. Somit ist sowohl beim Anlegen der virtuellen Maschinen wie auch beim Starten darauf zu achten, dass deren Speicherbedarf den noch verfügbaren Hauptspeicher des Rechners nicht überschreitet. Auslagerungsspeicher wird von VirtualBox nicht genutzt. In Verbindung mit der durch das 32-Bit-System vorgegebenen, maximal verwaltbaren Speichermenge von vier GByte schränkt das die Zahl der parallel ausführbaren virtuellen Maschinen erheblich ein. Gerade beim Einsatz als Entwicklungssystem auf einem typischen Desktop-Rechner ist da schnell bei zwei oder drei virtuellen Maschinen Schluss. › Vista-Tauglichkeit als großer Vorteil Von besonderem Interesse ist natürlich, ob sich in der emulierten Umgebung auch Windows Vista ausführen lässt. Die Antwort ist einfach: Ja, mit den auch von anderen Virtualisierungslösungen bekannten Einschränkungen. So erfüllt auch VirtualBox nicht alle Kriterien, die zum Freischalten aller Features und speziell der Neuerungen der grafischen Oberfläche notwendig sind. Hier ist VirtualBox in guter Gesellschaft von VMware Workstation und Parallels Desktop, die beide mit demselben Problem zu kämpfen haben. Beim Versuch, den Leistungsindex des virtuellen Rechners zu ermitteln, bricht Vista unter VirtualBox mit einer Fehlermeldung ab; Auswirkungen auf den Betrieb von Vista hat das aber keine. Ohne Wertung: Die Bewertung der Leistung des virtuellen Rechners lässt sich im Test nicht erfolgreich durchführen, Vista arbeitet aber trotzdem einwandfrei. Ansonsten ist der Vista-Support tadellos. Nach der Installation der mitgelieferten Zusatz-Tools für die virtuelle Umgebung stehen nicht nur erweiterte Auflösungen, sondern auch der Zugriff auf die virtuelle © TecChannel 23 Netzwerkkarte zur Verfügung. Insgesamt stellt VirtualBox bis zu vier LAN-Adapter bereit, wovon der erste zwingend als NAT-Interface zum Host-System arbeiten muss. Wer in der virtuellen Maschine eine IP-Adresse aus dem Produktivnetz benötigt, muss daher immer zwei LAN-Schnittstellen einrichten, wofür es zumindest technisch keinen wirklichen Grund gibt. Einmal installiert läuft Vista in der virtuellen Maschine je nach Hardwareausstattung des Hosts relativ flüssig. Während des gesamten Testbetriebs treten keinerlei Probleme oder Abstürze auf. Insgesamt ist der Betrieb von Vista unter VirtualBox also problemlos möglich. › Ecken, Kanten und Features – VirtualBox im Einsatz Bei der Arbeit mit virtuellen Maschinen zeigt VirtualBox zunächst einige Auffälligkeiten, da sich das Produkt in diversen Punkten anders verhält als der Mittbewerb. So fällt den Testern auf, dass die virtuellen Disk-Images nicht zusammen mit den Einstellungen der virtuellen Maschine, sondern in einem separaten Verzeichnis abgelegt werden. Ordentlich: Der Virtual Disk Manager erlaubt die komfortable Verwaltung virtueller Datenträger und der ISO-Images von CDs und DVDs. Gewöhnungsbedürftig ist anfangs auch die Umschaltung von Tastatur und Maus zwischen VM und Host-Betriebssystem. Was alle anderen Produkte mittels » Strg + Alt « erledigen, erfolgt bei VirtualBox über einen Druck auf die rechte » Strg- « Taste. Nach einer kurzen Eingewöhnungszeit ist die Irritation jedoch verschwunden, und spätestens nach der Installation der für Windows- und Linux-Gastsysteme verfügbaren VirtualBox-Treiber und dem damit verbundenen automatischen Fokuswechsel, sobald der Mauszeiger aus dem Fenster des Gastsystems herausbewegt wird, ist das Thema sowieso vom Tisch. Vielseitig und aktuell: VirtualBox bietet bereits für Vista optimierte Settings der virtuellen Maschinen. Ansonsten bietet VirtualBox eine übersichtliche aber sinnvolle Feature-Liste. Es unterstützt Snapshots, um © TecChannel 24 den aktuellen Stand eines Gastsystems zu sichern und beispielsweise nach einer misslungenen Installation neuer Software eine Wiederherstellung durchzuführen. Einen Vollbildmodus für Gastsysteme gibt es ebenso wie die automatische Anpassung der Bildschirmauflösung der VM an die aktuelle Fenstergröße. Ein schönes Feature ist der Virtual Disk Manager. Mit seiner Hilfe lassen sich nicht nur die Disk-Images der virtuellen Maschinen komfortabel verwalten. Er erlaubt darüber hinaus das Management von CD- und DVD- sowie Floppy-Images. › Tabelle – VirtualBox im Überblick Host-Voraussetzungen Host-Betriebssystem Windows 2000, Windows XP, Windows Server 2003 OpenSUSE 10.2, Ubuntu 6.06, Ubuntu 6.10, Debian 3.1, Debian 4.0 Red Hat Enterprise Linux 4 Minimale Taktrate CPU (MHz) keine Angabe Empfohlene Taktrate CPU (MHz) keine Angabe Unterstützt mehrere CPUs Nein Minimaler Arbeitsspeicher (MByte) 512 Empfohlener Arbeitsspeicher (MByte) 1024 Emulierte Hardware Prozessor Wie Host, nur 32 Bit Mainboard Intel 440BX BIOS Proprietär Maximaler Arbeitsspeicher pro virtueller Maschine (GByte) 3,6 Maximaler Arbeitsspeicher gesamt (GByte) Vier Keyboard Standard-Keyboard Maus PS/2-Maus, gegebenenfalls Rollrad Sound Intel 82801AA AC 97 Floppy Ein Gerät, physikalisches Laufwerk oder Datei Video Virtual Box Graphics Adapter (SVGA) USB Ein USB-1.1-Controller CD-ROM, DVD-ROM Gerät oder ISO-Image CD-R/RW, DVD-R/RW Nur lesen © TecChannel 25 NIC AMD PCNET Netzwerk-Modi NAT/Bridged/Deaktiviert Maximale Anzahl an unterstützten Netzwerkkarten pro VM Vier IDE Bis zu drei IDE-Festplatten SCSI Nicht verfügbar Drag and Drop zwischen Host und Gast Nein Maximale Größer einer Festplatte (GByte) IDE: 128, SCSI: Nicht verfügbar Direktzugriff auf echte Festplatte Nein Virtuelle Festplatte als reale Datei Dynamisch/Statisch Wiederherstellung Ja, Snapshots › Fazit Insgesamt zeigt sich VirtualBox als robustes System, das sich in der aktuellen Version vor allem für den Einsatz in kleineren Projekten eignet. Dazu zählt das Testen neuer Betriebssysteme oder Applikationen sowie in begrenztem Umfang auch die Softwareentwicklung. Die etwas unglücklich gelöste Speicherverwaltung verbietet derzeit noch den Einsatz in größeren Projekten, hier haben VMware Workstation oder VMware Server deutliche Vorteile. Einziger echter Wermutstropfen: Der Preis für die kommerzielle Lizenz ist mit 119 Euro vergleichsweise hoch. Dank günstigem Dollarkurs ist ein kompletter Parallels Desktop schon für weniger als die Hälfte zu haben. Wer aber auf die erweiterten Features verzichten kann oder privater Endanwender ist, fährt mit der kostenfreien Vollversion von VirtualBox sicher nicht schlecht. (mja) IDG Business Media GmbH Alle Rechte vorbehalten. Jegliche Vervielfältigung oder Weiterverbreitung in jedem Medium in Teilen oder als Ganzes bedarf der schriftlichen Zustimmung der IDG Business Media GmbH. DPA-Texte und Bilder sind urheberrechtlich geschützt und dürfen weder reproduziert noch wiederverwendet oder für gewerbliche Zwecke verwendet werden. Für den Fall, dass in TecChannel unzutreffende Informationen veröffentlicht oder in Programmen oder Datenbanken Fehler enthalten sein sollten, kommt eine Haftung nur bei grober Fahrlässigkeit des Verlages oder seiner Mitarbeiter in Betracht. Die Redaktion übernimmt keine Haftung für unverlangt eingesandte Manuskripte, Fotos und Illustrationen. Für Inhalte externer Seiten, auf die von TecChannel aus gelinkt wird, übernimmt die IDG Business Media GmbH keine Verantwortung. © TecChannel 26