top-themen - gattner.name

Transcrição

top-themen - gattner.name
TOP-THEMEN:
- Microsoft Hyper-V, Herausforderer in Sachen Virtualisierung
- Zehn typische Fehler bei der Server-Virtualisierung
- Mit Virtualisierung Stromkosten senken
- In zehn Schritten zur erfolgreichen Virtualisierung
- Praxistest: VirtualBox – Open-Source-Konkurrenz zu VMware und Co.
© TecChannel
Microsoft Hyper-V, Herausforderer in
Sachen Virtualisierung
› Hyper-V heißt Microsofts neue Virtualisierungs-Engine. Der Hypervisor schiebt sich im
Gegensatz zum Virtual Server als dünne Schicht zwischen Hardware und Betriebssystem.
Wir zeigen, wie man im Bereich Virtualisierung mit einem Hypervisor wie dem neuen
Hyper-V ohne Umweg zu schnellen virtuellen Maschinen kommt.
VON Elmar Török (18.09.2008)
Offiziell gibt es Hyper-V erst seit ein paar Tagen, die Ready-to-Manufacture (RTM) Version steht allerdings
schon seit Monaten zur Verfügung. Entsprechend groß ist die Verbreitung der Virtualisierungsplattform im
Markt bereits. Deshalb beziehen sich allerdings auch die meisten Kommentare entweder auf die RTM oder
auf die noch ältere Beta-Ausgabe.
Zum fertigen Produkt hat sich da meistens noch etwas getan, ohnehin dürfte Microsoft auch in Zukunft noch
einige Bestandteile von Hyper-V fertig stellen oder ergänzen und auf den Markt bringen. So kamen gerade
diese Woche die Linux Integration Components heraus, die optimierte Netzwerk, Grafik und Speichertreiber
für Linux-Gäste enthalten. Work-in-Progress könnte man sagen, bei Microsoft bedeutet dass manchmal auch
„Prinzip Banane“ – das Produkt reift beim Kunden. Allerdings ist der Hyper-V in seiner Release-Version ein
durchaus ernst zu nehmendes und vollständiges Produkt, zumindest was den Hypervisor angeht.
Die beiden Konkurrenten um einen Platz an der Virtualisierungssonne Citrix und VMware hatten im Vorfeld
immer mal wieder geunkt, dass zu einer kompletten Virtualisierungslösung für den Unternehmenseinsatz
mehr gehört, als ein Hypervisor allein. Stimmt auch, in der Tat lässt Hyper-V einige der weitergehenden
Funktionen wie Live-Migration von virtuellen Maschinen eines Hyper-V Servers zu einem anderen Hyper-V
Server vermissen. Aber mit dem aktuellen Funktionsumfang kann man durchaus anfangen die ersten
Erfahrungen im Virtualisierungsumfeld zu machen. Und durch die Integration in Windows Server 2008 ist
Hyper-V nur ein paar Mausklicks von der Einsatzfähigkeit entfernt. Die 60-Tage Testversion des Windows
Server 2008 samt Hyper-V findet sich übrigens hier (http://technet.microsoft.com/de-de/evalcenter/cc137123.aspx) .
Theoretisch ist der Windows Server 2008 auch ohne Virtualisierung erhältlich, im Moment liegt der
Unterschied rechnerisch bei etwa 28 US-Dollar. Ob Firmen Windows Server 2008 tatsächlich ohne
Virtualisierung kaufen werden, ist fraglich, die Summe ist zu gering, um sich merklich im Budget
auszuwirken.
In den nächsten vier Wochen wird auch eine Version namens Hyper-V-Server 2008 heraus kommen, die für
Kunden völlig kostenlos ist. Dabei soll es sich um eine, auf die Virtualisierungsfunktion reduzierte, Ausgabe
von Windows Server 2008 handeln. Eine ganze Menge von Kunden dürfte also Hyper-V automatisch im
Unternehmen vorfinden und durch die kostenlose Version gibt es auch keinerlei Hemmschwelle für das
Ausprobieren. Vielleicht abgesehen von den recht knackigen Hardwareanforderungen.
› Anforderungen des Hyper-V: Hardware und Lizenzen
Eine CPU mit Virtualisierungsunterstützung, also Intels-VT oder AMD-V, muss es schon sein, laut
Minimalanforderung mit einem Gigahertz, zwei GHz sind empfohlen. Auch die 2 GByte RAM muss man eher
als Beruhigungspille denn als realistische Arbeitskonfiguration betrachten. Überhaupt: nur weil der Server an
sich läuft sind ja noch keine Ressourcen an die virtuellen Maschinen verteilt. Damit man vor allem beim
knappen RAM-Adressraum nicht ganz schnell in die Limits läuft, ist eine 64-Bit Version des
Serverbetriebssystems sehr zu empfehlen. Dann gibt es auch hinsichtlich des Arbeitsspeichers (fast) keine
Grenzen nach oben.
Als leistungsfähige Testkonfiguration für den Artikel kam ein Dell R905 mit 16 GByte RAM und vier AMD
Opteron Quad-Core CPUs zum Einsatz. Hyper-V erlaubt bei genügend physikalisch vorhandenen Kernen
die Zuordnung von bis zu vier virtuellen CPUs und 64 GByte RAM pro virtueller Maschine. Für Anwender der
Standard-Edition des Betriebssystems stehen 32 GByte pro VM zur Verfügung. Mehr als genug in jedem
Fall, auch wenn man leistungshungrige Anwendungen virtualisieren will.
© TecChannel
2
Die neue Intel® Centrino® 2 und vPro™ Technologie macht mit Hardware die
Verwaltung per Funk möglich: ferngesteuertes Untersuchen und Instandsetzen von
Notebooks, sogar bei heruntergefahrenem Gerät oder ausgefallenem Betriebssystem.**
* Die angegebenen Ergebnisse stammen aus EDS-Praxisbeispielen mit Intel® Centrino® Pro; die Bewertung von IT-Umgebungen wurde von Intel in Auftrag gegeben, wobei Testumgebungen mit PCs mit Intel Centrino Pro verglichen wurden mit Umgebungen ohne Intel Centrino Pro. Die tatsächlichen Ergebnisse können von Fall zu Fall unterschiedlich sein. Die Untersuchungen sind unter intel.com/vpro und eds.com verfügbar. **Für die Fernverwaltung
muss das Computersystem mit einem für die Intel® AMT vorgesehenen Chipsatz ausgestattet sein. Darüber hinaus sind entsprechende Netzwerkhardware und Software sowie der Anschluss an eine Spannungsversorgung und
eine Verbindung mit dem Firmennetzwerk erforderlich. Die Einrichtung dieser Funktionalität erfordert u. U. eine besondere Konfiguration, bestimmte Einrichtungen oder die Integration in vorhandene Systeme. Abhängig vom
Betriebszustand des Systems sind die Funktionen der Intel AMT eventuell eingeschränkt oder nicht verfügbar. Informieren Sie sich unter intel.com/technology/platform-technology/intel-amt. ©2008 Intel Corporation. Intel, das
Intel-Logo, das Centrino-Logo, Centrino und vPro sind Marken der Intel Corporation in den USA und anderen Ländern.
Die Edition des Server-Betriebssystems haben noch weitere Auswirkungen auf Hyper-V, vor allem, was die
Lizenzen angeht: So ist in der Standard-Edition der Einsatz eines weiteren Windows 2008 Servers in einer
virtuellen Maschine abgedeckt, bei der Enterprise Edition sind des deren vier und mit der Datacenter-Edition
kann man aus dem Vollen schöpfen, dann sind unbegrenzt viele virtuelle Windows 2008 Server auf dem
physikalischen Host erlaubt. Dabei dürfen auch andere Editionen als die des Hosts in einer VM laufen,
beispielsweise eine Standard-Edition auf einem Datacenter-Host. Anlegen kann der Anwender übrigens
beliebig viele VMs, nur gleichzeitig in Betrieb sein darf nur die maximale Menge der lizenzierten virtuellen
Maschinen.
› Installation
Genug der Theorie, die Installation von Hyper-V steht an. Weil ab Windows Server 2008 alle
Funktionsgruppen des Servers in so genannte Rollen aufgeteilt sind, ist auch Hyper-V als Rolle integriert.
Diese wählt man über den Server-Manager aus, wenn Sie Hyper-V als volle Variante auf einem
bestehenden Server installieren wollen. Voll bedeutet, und hier deuten die Mitbewerber hämisch mit dem
Finger, etwa 10 GByte Speicherplatz auf der Platte. Verglichen mit anderen Hypervisoren, die teilweise
extrem auf das Wesentliche reduziert wurden und mit 32 MByte(!) Platz auskommen, ist das natürlich ein
schwerer Brocken.
Rolle: Hyper-V ist eine Server-Rolle und wird
dementsprechend über den Server-Manager
durchgeführt.
Bei einer kompletten Neuinstallation des Serverbetriebssystems hat man zusätzlich die Option, Hyper-V als
Core-Variante zu installieren. Diese verzichtet auf viele Komponenten wie den größten Teil des grafischen
Benutzer-Interface und spart deshalb massiv Speicherplatz, bleibt aber mit 2 GByte immer noch weit über
den kleinen Hypervisoren der Konkurrenz. Möglicherweise ändert sich das mit der Verfügbarkeit von
Hyper-V-Server 2008. Der eigentliche Hypervisor Microkernel ist nur etwa ein Megabyte groß, das könnte zu
einem sehr kompakten und noch dazu kostenlosen Hyper-V Paket führen.
› Nach dem Neustart
Die Auswahl und Installation läuft jedenfalls Windows-typisch problemlos ab und ist nach etwa zwei Minuten
und einem Neustart erledigt.
© TecChannel
3
Connectivity: Netzwerkverbindungen für die virtuellen
Maschinen.
Danach sieht man nach dem Anmelden den Windows-Desktop vor sich, als wäre nichts gewesen. Dennoch
ist eine ganze Menge passiert: Während der Installation ist das komplette Windows Betriebssystem
sozusagen ein Stückchen nach oben gerutscht. Zwischen dem Betriebssystem und der Hardware sitzt nun
der Hypervisor. Was nun läuft, sieht zwar aus wie der normale Windows Server 2008, ist aber eigentlich
bereits ein virtualisiertes Betriebssytem – die so genannte Parent-Partition. Die komplette Verbindung mit der
Hardware läuft ab jetzt über die Virtualisierungsschicht, genauso wie bei virtuellen Gästen. Sichtbar wird das
vor allem bei der Netzwerkverbindung.
Neustart: Der Neustart ist erforderlich, damit sich der
Hyper-V zwischen Hardware und
Server-Betriebssystem setzen kann.
Bevor man an die Konfiguration der Software geht und die ersten virtuellen Maschinen erstellt, sollten Sie
aber die Aktualität aller Komponenten sicher stellen. Am einfachsten erledigen Sie das über Windows
Update. Seit Windows Server 2008 ist im Bildschirm „Erstkonfiguration“ eine Sofortabfrage der
Update-Quellen im Internet und für einen WSUS-Updateserver im eigenen Netz vorgesehen. Sind alle
Updates herunter geladen und installiert, kann es an die erste virtuelle Maschine gehen.
› Virtuelle Maschinen
Verwaltet werden Hypervisor und Gäste über den „Hyper-V Manager“. Er steht im Menü „Verwaltung“ als
eigener Eintrag bereit oder ist über den Server-Manager erreichbar. Die Managementoberfläche ist
eigentlich ein Snap-In für die MMC (Microsoft Management Console) und unterscheidet sich nun recht
deutlich von der Web-basierten GUI der Vorgängerversionen.
© TecChannel
4
Verwaltung: Virtuelle Maschinen und der Hyper-V
werden im Servermanager verwaltet.
Der Hyper-V Manager hält für die Erstellung neuer VMs einen Installationswizard bereit, der auch
unerfahrenen Nutzern die Aufgabe sehr leicht macht:
› Zunächst gibt es eine freundliche Einleitung, die man nach dem ersten Mal nicht mehr lesen muss.
› Dann geht es mit Namen und Speicherort der VM weiter.
› Als nächstes folgt die Angabe des gewünschten Arbeitsspeichers.
› Dann legen Sie fest, welche Netzwerkkarte mit der VM verbunden werden soll.
› Dann geht es mit dem Massenspeicher weiter.
› Jetzt will der Wizard wissen, woher denn die Installationsdateien kommen sollen.
› Damit kann die VM hochgefahren werden.
› Einrichtung von VMs im Detail
Bei der Auswahl der Netzwerkkarte für die VM geht es zunächst um die Repräsentation der früher einmal
physikalischen Netzwerkkarte. Die ist zwar mittlerweile durch die Installation von Hyper-V in einen virtuellen
Adapter verwandelt worden, wird aber nach wie vor als Hardware angezeigt. Welche Netzwerkkarte die
virtuelle Maschine sieht, entscheidet sich erst später.
Hyper-V verwendet für Massenspeicher das .vhd-Format, es ist kompatibel mit den vhds von Virtual Server
2007, vorhandene Dateien können Sie problemlos mit Hyper-V einsetzen. Die Datei, denn nichts anderes ist
eine virtuelle Festplatte, kann entweder eine fixe Größe haben oder dynamisch wachsen. Dann wird der
virtuellen Maschinen die maximale mögliche Gesamtgröße vorgetäuscht, während die Datei selbst nur so
groß ist, um alle darin zu speichernden Daten abzulegen.
Dynamische Platten sind praktisch, weil sie nicht von haus aus Speicherplatz horten. Sie sind aber
langsamer als statische virtuelle Festplatten. Hyper-V erlaubt die nachträgliche Konvertierung von
dynamisch in statisch, falls das zu einem späteren Zeitpunkt gewünscht wird. Per Default ist „dynamisch“
eingestellt. Ebenfalls möglich: das Limit für dynamische Platten zu erhöhen und frei gewordenen Bereiche
innerhalb einer dynamischen Platte komprimieren. Natürlich kann der VM auch eine bereits bestehende
Datei zugeordnet werden. Microsoft bietet übrigens bereits fertige VHDs von Windows Server 2008 und Core
Server 2008
(http://www.microsoft.com/downloads/details.aspx?FamilyID=060f0c51-339a-4c4e-bb6e-716bb7401fd4&displaylang=en) zum
Download an.
© TecChannel
5
› Die frische VM
Zwei Dinge sind bei der neuen virtuellen Maschine noch zu beachten. Zum einen ist die grafische
Repräsentation als Fenster optional. Eine gestartete VM kann auch ohne eigene Bildschirmausgabe auf dem
Host laufen. Die Funktion „Start“ bezieht sich nur auf den „Einschalter“ des virtuellen Computers. Wer dazu
auch noch ein Bild sehen will, nutzt die Funktion „Verbinden“. Erst diese öffnet ein Fenster, in dem Sie
Tastatur- und Mauseingaben machen können.
Ohne die Integration Components „fängt“ das Fenster Maus und Tastatur ein. Um aus diesem „Gefängnis“
zu entkommen, verwenden Sie die Tastenkombination Ctrl-Alt-„Pfeil-nach-Links“. In den Einstellungen zu
Hyper-V können Sie auch eine andere Kombination auswählen.
Maus-Freigabe: Die Maus wird automatisch in der VM
gefangen und muss per Hotkey befreit werden.
Jede VM lässt sich mit einer ganzen Reihe von Parametern konfigurieren. Die meisten können Sie allerdings
nur im abgeschalteten Zustand ändern. Arbeitsspeicher, Bootreihenfolge oder serielle Schnittstellen gehören
dazu.
Hardware für VMs: Über diesen Dialog legen Sie die
Hardware für die VM fest.
› USB in der VM
USB-Support ist für virtuelle Maschinen nicht vorgesehen. Das ist im Serverbereich zwar kein großer
© TecChannel
6
Beinbruch, kann aber gelegentlich stören, beispielsweise bei USB-Dongles für Anwendungs-Software. In
diesem Fall helfen USB-Netzwerkadapter wie der AnywhereUSB von Digi International weiter.
USB-Massenspeicher werden auf Wunsch wie andere physikalische Massenspeicher am Host
„durchgeschleift“. Dazu muss der Datenträger am Host angeschlossen, aber offline sein. Das erledigen Sie
über die Datenträgerverwaltung von Windows Server 2008. Mit einem kleinen Umweg ermöglichen Sie
USB-Geräte aber trotzdem. Wenn Sie unter Vista mit dem neuesten RDP-Client eine Verbindung zu einer
VM aufbauen, können Sie im Tab „Lokale Ressourcen“ ein am Computer angestecktes USB-Gerät in die VM
einblenden. Für das Dongle-Problem stellt dieser Weg jedoch keine Lösung dar.
› Netzwerke
Interessant könnten noch die Netzwerkverbindungen sein. Nach der Hyper-V Installation fügt das System
weitere Adapter in die Netzwerkverbindungen ein.
Neue NICs: Hyper-V richtet neue Netzwerkkarten ein.
Im Bild ist ganz rechts die physikalische Netzwerkkarte zu sehen, die aber mittlerweile auch durch den
Hypervisor geleitet wird. Links sieht man die genauso genannte, virtuelle Netzwerkkarte, an die wir im Test
die VMs gebunden haben. Deren Verbindungsgeschwindigkeit wird als 10 Gigabit angezeigt, egal welche
physikalische Geschwindigkeit möglich wäre. Innerhalb der VM steht im Gerätemanager die bereits
beschriebene synthetische VMBus Netzwerkkarte.
Virtual Machine Bus: Die Integration Components
erlauben direkteren Zugriff auf bestimmte
Hardware-Komponenten.
Ebenfalls zu beachten: nur die virtuelle Netzwerkkarte ist in den Eigenschaften an den virtuellen Switch
gebunden, die physikalische Karte hat an dieser Stelle kein Häkchen. Im Prinzip kann man bei der virtuellen
Netzwerkkonfiguration sehr wenig falsch machen, Hyper-V lässt dem Benutzer auch weniger Möglichkeiten,
als beispielsweise der VMware Server.
© TecChannel
7
Geregelt: Hyper-V nimmt die notwendigen
Einstellungen in der Firewall automatisch vor.
Es gibt nur drei Netzwerktypen: extern, intern und privat. Dabei kann ersteres auch auf den physikalischen
Adapter zugreifen, bei intern sind der Host und die VMs unter sich und im privaten Netz sprechen nur die
VMs miteinander. NAT, Hosted oder Bridged wie beispielsweise bei VMware gibt es nicht, eine Fehlerquelle
weniger bei der Konfiguration. Die Einstellungen für die Firewall von Windows Server 2008 übernimmt
Hyper-V bei der Installation selbst.
› Einrichtung des Betriebssystems
Wer die VM sofort bei der Einrichtung mit einem Betriebssystem bestücken will, hat im Prinzip drei
Möglichkeiten:
Entweder nutzen Sie ein ISO-Image und mappen das virtuelle DVD- oder CD-Laufwerk auf das Image. Oder
Sie legen eine physikalische DVD oder CD ein und verbinden das physikalische DVD-Laufwerk des Hosts
mit der VM. Wenn Sie einen Deployment-Server im Netzwerk haben, zum Beispiel die Remote-Installation
Services (RIS) oder Windows Deployment Services (WDS) von Windows, können Sie die VM direkt vom
Verteilungsserver booten und sich das Betriebssystem als Image schicken lassen. Erfreulicherweise
unterstützt Hyper-V hier den PXE-Standard (http://www.tecchannel.de/link.cfm?pk=402257) (PreBoot Execution
Environment), so dass auch Deployment- und Imaging-Lösungen anderer Hersteller funktionieren. Im Test
klappte es (fast) problemlos mit Acronis Snap Deploy für Server sowie dessen OEM-Variante Scriptlogic
Image Center 2.5.
WDS: Dieser XP-Gast wurde über die Windows
Deployment Services ausgerollt.
© TecChannel
8
Installation des Gastes: Das Fenster sehen Sie nur,
wenn Sie sich mit der VM "verbunden" haben.
Fast problemlos deshalb, weil die PXE-Unterstützung bei Hyper-V stellenweise noch unrund läuft. Um die
VM bootfähig zu machen, emuliert die Software eine so genannte emulierte „Ältere Netzwerkkarte“, des Typs
Digital Equipment 21140. Damit kann die VM zwar Verbindung mit dem Deployment-Server aufnehmen, der
Treiber gehört aber nicht zu der neuen Generation, die explizit für die Zusammenarbeit mit virtuellen
Maschinen entwickelt wurde. Diese nutzen den internen VMBus von Hyper-V, eine Art Abkürzung und
Schnellstraße für die Inter-Prozess Kommunikation.
Microsoft nennt diese Treiber „synthetisch“, sie werden auch über die Hyper-V Integrationsdienste installiert.
Die Integrationsdienste heißen bei anderen Herstellern Gasterweiterungen und sorgen für schnellere
Bildschirmupdates, höhere Videoauflösungen und nahtlose Maus- und Tastaturumschaltung zwischen Host
und VM.
Mit Einschränkungen: Die Maschine startet auch per
PXE.
Die „ältere Netzwerkkarte“ gehört nicht zu den synthetischen sondern zu den emulierten Treibern und ist
geradezu erbärmlich langsam. Wer sich ein mehrere Gigabyte großes Serverimage per PXE in die VM holen
möchte, sollte trotz Gigabit-Ethernet viel Geduld mitbringen. Immerhin, wenn das Image als eigenständige
VM läuft, kann der Anwender die emulierte Netzwerkkarte gegen eine synthetische austauschen, dann
klappt es auch mit der Geschwindigkeit im Netzwerk.
› Integrationsdienste für Windows und Linux
Die Integration Services waren in den RTM- und Beta-Versionen nur für eine Handvoll Betriebssysteme
verfügbar. Inzwischen hat Microsoft deutlich aufgestockt. Neben allen Ausführungen von Windows Server
2003 und 2008 (sowohl x64 als auch x86) sind nun Windows 2000 SP4, Windows XP SP2 und SP3 sowie
© TecChannel
9
Windows Vista mit von der Partie. Unterschiede beim Funktionsumfang gibt es eigentlich nur bei den
Online-Kopien von aktiven Partitionen. Die neueren Betriebssysteme unterstützen Volumenschattenkopien,
die älteren nicht.
Bei Linux sieht die Situation deutlich schlechter aus, nur SUSE Linux Enterprise Server 10 SP2 x86 und
SUSE Linux Enterprise Server 10 SP2 x64 werden komplett unterstützt, alle anderen Betriebssysteme
müssen sich mit den emulierten Treibern herum schlagen. Der Download-Pfad für die Linux Integration
Components läuft im Moment noch über Microsoft Connect
(https://connect.microsoft.com/site/sitehome.aspx?SiteID=495) , man benötigt einen Account und muss sich für die
entsprechende Gruppe eintragen. Das Paket ist im ISO-Format abgelegt, um die Einbindung in einen
Linux-Gast zu vereinfachen. Enthalten sind synthetische Netzwerk- und Speichercontroller sowie ein
Hypercall-Adapter für Xen. Damit lassen sich Xen-spezifische Funktionsaufrufe ohne Umweg in ihr Hyper-V
Pendant umsetzen, was zu sehr schnellen virtuellen Linux Maschinen führt.
› Fazit
Im Prinzip ähneln der Umgang und die Verwaltung von Hyper-V dem Konzept von VMware oder
Xen-basierten Lösungen. Der Funktionsumfang des Grundpakets, wie es Microsoft jetzt veröffentlicht hat,
reicht für die Virtualisierung von Basisdiensten im Netzwerk aus. Für Redundanz muss der Anwender selbst
sorgen, beispielsweise mit einem Shared-Storage und Cluster-Diensten.
Microsoft bietet viele Schritt-für-Schritt Anleitungen
(http://www.microsoft.com/downloads/details.aspx?FamilyID=518d870c-fa3e-4f6a-97f5-acaf31de6dce&DisplayLang=en) zu
häufig
vorkommenden Szenarien an, allerdings auf Englisch. Auch der Planing und Deployment Guide
(http://www.microsoft.com/downloads/details.aspx?FamilyID=5da4058e-72cc-4b8d-bbb1-5e16a136ef42&DisplayLang=en) kann
zum
Einstieg sehr hilfreich sein und ist mit 30 Seiten überschaubar kurz. (Elmar Török/mha)
© TecChannel
10
Zehn typische Fehler bei der
Server-Virtualisierung
› Server lassen sich schnell und einfach virtualisieren. Dennoch können Probleme und
Fehler den eigentlichen Vorteil zunichte machen. Welche Faktoren es bei der Analyse,
Planung und Durchführung der Virtualisierung von Servern zu beachten gilt, schildert der
folgende Beitrag.
VON Günther Aust (05.03.2008)
In der Theorie bringt die Virtualisierung von Servern ausschließlich Vorteile mit sich. Die Auslastung der
Systeme wird optimiert, und obendrein könnte in vielen Fällen die absolute Anzahl der physikalischen Server
verringert werden. Zudem sorgt eine Entkoppelung der Applikationen und des Betriebssystems vom
physikalischen System für deutlich mehr Flexibilität.
In der Praxis gefährdet jedoch beispielsweise ein planloses Einsetzen von virtuellen Maschinen die mögliche
Steigerung der Effizienz. Im Folgenden finden Sie einige typische Fehler, die es bei einer
Virtualisierungsstrategie in Sachen Server zu vermeiden gilt.
Wie sich durch Virtualisierung der Energiebedarf in Rechenzentren senken lässt, verrät Ihnen der Beitrag Mit
Virtualisierung Stromkosten senken (http://www.tecchannel.de/link.cfm?pk=1745365) . Welche Fallstricke es bei der
Storage-Virtualisierung zu beachten gilt, schildert der Artikel Die zehn häufigsten Fehler bei der
Storage-Virtualisierung (http://www.tecchannel.de/link.cfm?pk=1747699) .
› Virtualisierung ist kein Selbstzweck
Ungebremste Zunahme von virtuellen Maschinen (VM)
Durch Virtualisierung nimmt die Komplexität von IT-Architekturen aus der Perspektive des
Systemmanagements ab. Während die physischen Systeme reduziert werden, erhöht sich auf der anderen
Seite sehr oft die Anzahl der virtuellen Instanzen. Eine neue VM ist nur einen Mausklick entfernt! Alle
virtuellen Maschinen müssen jedoch verwaltet, gewartet und gepflegt werden. Daher sollten klare Regeln für
die Bereitstellung neuer VMs definiert werden, um deren ausuferndes Wachstum zu verhindern.
Unzureichende Workload-Analyse
Oft wird die Ist-Situation nicht präzise analysiert. Wichtig ist es, im Vorfeld von Virtualisierungsprojekten
herauszufinden, welche realen Systeme sich überhaupt virtualisieren lassen und welche Betriebsmittel sie in
der realen Welt benötigen. In einem zweiten Schritt wird dann ermittelt, welche Ressourcen diese Systeme
in einer virtualisierten Umgebung erfordern. In dieser Phase ist äußerste Sorgfalt der Schlüssel zu einem
erfolgreichen Virtualisierungsprojekt.
› Technische Homogenität und wirtschaftliche Aspekte
Heterogenität der Plattform
Häufig ist die Plattform, auf der virtualisiert werden soll, durch uneinheitliche Systeme, Komponenten und
Treiber gekennzeichnet. Umgebungen, die hinsichtlich Storage-, Netzwerk- und Server-Architektur eine
gewisse Homogenität aufweisen, sind jedoch bezüglich Installation, Wartung und Pflege wesentlich
einfacher zu managen als heterogene Plattformen. Auch setzen manche Funktionen des Hypervisors eine
gewisse Homogenität voraus (beispielsweise VMotion).
Nichtbeachtung von betriebswirtschaftlichen Aspekten
Oft werden bei Virtualisierungsprojekten allein technische Aspekte berücksichtigt. Es wird analysiert, welche
Ressourcen die zu virtualisierenden Systeme im Schwerpunkt benötigen: Manche erfordern einen großen
Arbeitsspeicher, andere benötigen eher leistungsfähige Prozessoren. Verschiedene Klassen von
Applikationen werden dann zusammen auf einem Server konsolidiert, damit die verfügbaren Ressourcen
gleichmäßig ausgelastet sind. Wichtig ist es hier, betriebswirtschaftliche Zusammenhänge zu kennen und zu
© TecChannel
11
berücksichtigen. Kommunizieren etwa bestimmte VMs in hohem Maße miteinander, ist es sinnvoll, beide
Systeme auf einem physikalischen Server laufen zu lassen. So ist für Applikationen, die
betriebswirtschaftlich zusammenwirken, ein sinnvoller Mix zu ermitteln, über den festgelegt ist, wie sie
gruppiert und auf dem Server verteilt werden können.
› Fehlerhafte Planung
Mangelnde Planung beim Einsatz von VMotion
Die VMotion-Technologie von VMware erlaubt es, eine komplette virtuelle Maschine im laufenden Betrieb
unverzüglich von einem Server auf einen anderen zu verschieben. Sinnvolle Kombinationen von
Applikationen auf einem Server dürfen aber nicht durch den Einsatz dieser Technologie zerrissen werden.
Vielmehr muss die Planung berücksichtigen, dass komplette Gruppierungen dem VMotion-Prozess
unterzogen werden. Auch hier ist eine homogene Hardwarelandschaft entscheidend.
Fehlerhafte Planung bei automatisierter Virtualisierung
Der VMware Distributed Resource Scheduler (DRS) überwacht die Auslastung von Ressourcen-Pools
kontinuierlich und verteilt die VMs gerecht auf die verfügbaren Kapazitäten. Auch bei diesen Automatismen
muss die Planung technische und betriebswirtschaftliche Aspekte bei der Gruppierung von Applikationen
berücksichtigen.
› Regeln sind unabdingbar
Nichteinhalten von Policies
Feste Regeln, die seit jeher für reale Server-Landschaften gelten, etwa Sicherheitsaspekte, dürfen in
virtualisierten Umgebungen nicht aufgebrochen werden, sondern sind dort zwingend einzuhalten.
Der Administrator als Super Super User: Feste Regeln
und die Einhaltung des Vieraugenprinzips sind
angesagt.
Der Administrator als "Super Super User"
Der Administrator erhält durch Virtualisierungsprojekte die Rolle eines "Super Super Users", der viele
virtuelle Maschinen im Blick haben muss. Der geringste Fehler kann sich hier auf die komplette
Server-Landschaft auswirken. Dies sollte mittels durchdachter Kontrollmechanismen und Einhaltung des
Vieraugenprinzips vermieden werden.
› Server sind nicht alles
Unterschätzen der "politischen" Auswirkungen von Virtualisierung
Die Teilung von Infrastrukturen innerhalb unterschiedlicher Fachabteilungen kann betriebspolitische
Probleme bereiten. Hier sind klare und nachvollziehbare Abrechnungsverfahren gefragt.
Isolierte Betrachtung der Server-Virtualisierung
Oft wird die Virtualisierung der Server als "Allheilmittel" verstanden. Sie sollte jedoch nur ein Baustein einer
ganzheitlichen Infrastruktur-Optimierung sein und mit anderen Initiativen wie I/O- und
© TecChannel
12
Storage-Konsolidierung einhergehen. (mje)
Dieser Beitrag basiert auf einem Artikel unserer Schwesterpublikation ChannelPartner
(http://www.channelpartner.de/) , der Fachzeitschrift für den IT-Handel.
© TecChannel
13
Mit Virtualisierung Stromkosten
senken
› In zahlreichen Rechenzentren von IT-Dienstleistern gehören virtualisierte Systeme längst
zum Alltag. Denn durch die Virtualisierung von Servern lassen sich Rechnerfarmen
effizienter gestalten und Stromkosten senken. Inzwischen setzten auch viele Unternehmen
auf eine Virtualisierung ihrer Server.
VON Frank Niemann (07.02.2008)
In der Vergangenheit wurde die Virtualisierung von Servern häufig als Ansatz betrachtet, die Hardware
besser auszulasten sowie die Systemverwaltung zu vereinfachen. Einige leistungsstarke statt weniger
einzelne Computersysteme kommen zum Einsatz. Neben den genannten Faktoren bringt dies einen
weiteren, bislang noch wenig beachteten Effekt mit sich: Die Leistungsaufnahme sinkt, was dazu beiträgt die
Betriebskosten der IT zu senken.
› Was ist Server-Virtualisierung?
Optimierung: Virtualisierung kann im Rechenzentrum
zu einer höheren Auslastung der Server führen. Auf
diese Weise lässt sich die Anzahl der Systeme
reduzieren und somit auch der Bedarf an Kühlung.
Alles zusammen hilft, den Strombedarf deutlich zu
senken.
Virtualisierungstechnik erlaubt es, Prozessoren, Festplatten und Arbeitsspeicher eines Computers mehreren
virtuellen Computern zur Verfügung zu stellen. In den virtuellen Maschinen lassen sich voneinander
unabhängige Softwarekonfigurationen einrichten, die sich eine physikalische Hardware teilen. Neu ist diese
Idee keineswegs: Erste Virtualisierungsansätze hatte IBM bereits um 1970 für seine Großrechner entwickelt.
Mittlerweile sind solche Verfahren für eine Reihe von Rechnerplattformen verfügbar. Sie lassen sich
entweder auf Grundlage eines vorhandenen Betriebssystems wie etwa Linux oder Windows installieren oder
direkt auf der Hardware des Computers, wobei dann die Virtualisierungssoftware ein eigenes Betriebssystem
beinhaltet.
Einen Überblick intelligenter IT-Konzeptenzum Betrieb von Rechenzentren liefert Ihnen der Beitrag Strom,
Klima, Fläche: Rechenzentren am Limit (http://www.tecchannel.de/link.cfm?pk=1742763) . Das intelligentes
Server-Management Stromkosten sparen kann vermittelt der Beitrag Cool on Demand
(http://www.tecchannel.de/link.cfm?pk=492660) .
© TecChannel
14
› Einsparungen von 50 bis 80 Prozent
Laut einer Studie mit dem Titel "Energy efficient servers in Europe" beeinflussen Server und die
dazugehörige Infrastruktur maßgeblich den Stromverbrauch in Büros und Rechenzentren, und zwar durch
die erforderliche Energie für die Stromversorgung und Kühlung der Komponenten. Verfasser sind die
österreichische und die französische Energieagentur, die IT-Hersteller Sun und IBM sowie die Universität
Karlsruhe.
Vom gesamten Stromverbrauch innerhalb der EU entfallen demnach 1,5 Prozent auf Server-Hardware und
Infrastruktur, was Kosten von etwa sechs Milliarden Euro entspricht. Nach Überzeugung der Fachleute
lassen sich durch die Virtualisierung von Servern 50 bis 80 Prozent Stromkosten einsparen. Als weitere
Möglichkeiten nennen die Experten nennen darüber hinaus energieeffizientere CPUs und Festplatten sowie
eine gemeinsame Stromversorgung statt Netzteilen für jedes einzelne Gerät.
Das Einsparpotenzial ergibt sich unter anderem, weil sich durch Virtualisierung die Rechnerhardware besser
auslasten lässt: In der Regel werden nur zehn bis 30 Prozent der verfügbaren Rechenleistung von Servern
genutzt, trotzdem verbrauchen die Systeme meist etwa so viel Strom wie unter Volllast. Gelingt es,
beispielsweise zehn solche Computer per Virtualisierung durch zwei leistungsfähigere Rechner zu ersetzen,
die dann deutlich besser ausgelastet sind, fällt die Stromrechnung automatisch niedriger aus. Zudem
benötigen zwei Komponenten weniger Platz und Kühlung, was sich ebenfalls positiv auf den
Energieverbrauch auswirkt.
Doch nicht nur die geringere Anzahl der Server hilft, Strom zu sparen: Der verfügbare Arbeitsspeicher lässt
sich ebenfalls in einer virtuellen Umgebung besser auslasten als bei einem einzelnen Computer. Auch der
Hauptspeicher benötigt Strom, und da der Memory von Jahr zu Jahr größer wird, nimmt auch sein
Energiehunger zu.
› Rechenbeispiel für den Mittelstand
Virtualisierungsprojekte nehmen Unternehmen vor allem in Angriff, um die Hardwarekosten zu reduzieren
und die Verwaltung ihrer IT-Landschaft zu vereinfachen, was ebenfalls die Betriebskosten drückt. Analysten
des Beratungshauses Experton Group aus München behaupten, allein schon die Stromeinsparungen
könnten Virtualisierungsprojekte rechtfertigen. Experton belegten das mit einem Fallbeispiel eines
mittelständischen Unternehmens mit 900 Mitarbeitern und drei Niederlassungen in Deutschland. Dessen
Rechenzentrum umfasst 25 dedizierte Server und 120 Blade-Systeme (Computer mit besonderer Bauform
für die Montage in speziellen Rechnerschränken, auch Racks genannt). Zudem betreibt es Speichergeräte
(insgesamt 10 TByte), Netzwerk-Equipment, Bandlaufwerke sowie Klimatisierungsanlagen. Die gesamte
IT-Umgebung benötigt etwa 1,2 Megawatt pro Jahr, was Stromkosten von rund 165.000 Euro verursacht.
Die Experton Group hat beispielhaft berechnet, wie sich
Investitionen in Virtualisierung und stromsparende
Hardware über einen Abschreibungszeitraum von fünf
Jahren auswirken.
Würde die Firma im Rahmen eines Virtualisierungsprojekts die Anzahl der dedizierten Server auf 19 und die
der Blade-Systeme auf 84 reduzieren sowie das Speichervolumen auf 7,5 TByte herunterschrauben, ließen
sich 47.200 Euro Stromkosten im Jahr einsparen. Dazu geht Experton von Investitionen in Höhe von 60.000
Euro für Software und 40.000 Euro für Beratung aus. Über einen Zeitraum von fünf Jahren betrachtet,
ergeben sich Gesamtkosten von 112.000 Euro unter Berücksichtigung der Abschreibungsfrist für
Softwareprodukte von fünf Jahren.
› Energieeffiziente Komponenten
Die Stromkosten der Beispielarchitektur ließen sich durch energieeffizientere Komponenten weiter drücken.
Hierzu zählen dedizierte Server und Blades mit geringerer Stromaufnahme. Diese Anschaffung umfasst 184
200 Euro und wird ebenfalls über fünf Jahre abgeschrieben. Das führt zu weiteren
Stromkosteneinsparungen von 35.100 Euro, was gemeinsam mit den Effekten der Virtualisierung die
Energiegebühren um 82.300 Euro im Jahr senkt.
© TecChannel
15
Waren es anfangs nur vergleichsweise unkritische Anwendungen, die Firmen auf virtuellen Maschinen
betrieben haben, gehen Unternehmen nun dazu über, auch Geschäftsapplikationen in virtuelle
Infrastrukturen einzubetten. Für IT-Dienstleister ist die Virtualisierung von Servern schon lange ein Thema
und wird es durch die steigenden Energiekosten erst recht. Solche Firmen betreiben Rechenzentren und
stellen Kunden beispielsweise E-Mail-Postfächer, Umgebungen für individuelle Web-Seiten und Software zur
Verfügung.
Anders als bei den IT-Serviceanbietern scheint das Thema in vielen Unternehmen noch nicht angekommen
zu sein. Gezielt damit befasst haben sich offenbar nur wenige IT-Experten. Daher ermitteln bisher auch nur
wenige Firmen, ob ihre IT energieeffizient arbeitet. (Computerwoche (http://www.computerwoche.de) /mje)
Dieser Beitrag stammt von computerwoche.de (http://www.computerwoche.de/) , der führenden deutschsprachigen
Website für den gesamten Bereich der Informationstechnik - aktuell, kompetent und anwendungsorientiert.
© TecChannel
16
In zehn Schritten zur erfolgreichen
Virtualisierung
› Die Heilsversprechen der Virtualisierung sind gewaltig, doch ohne eigene Leistung wird
ein solches Projekt nicht zum Erfolg führen. Vorab müssen IT-Verantwortliche einige
entscheidende Punkte klären.
VON Alexander Freimark (13.07.2007)
Mit weniger Einsatz mehr erreichen, das Optimum aus den Systemen herausholen, brachliegende
Ressourcen nutzen – Virtualisierung verspricht viel. Doch leider haben bekanntlich die Götter von den Lohn
den Schweiß gesetzt. Die US-Beratung Enterprise Management Associates (http://www.emausa.com/) (EMA) hat
eine Liste mit zehn Fragen zusammengestellt, die sich IT-Verantwortliche vor einem Virtualisierungsprojekt
stellen müssen, denn: "Virtualisierung darf nicht über das Knie gebrochen werden", warnt EMA-Analyst Andi
Mann.
Seiner Einschätzung nach sollten Unternehmen das Vorhaben nicht als isoliertes Projekt, sondern vielmehr
als Strategie begreifen. Nur wer den langfristigen Nutzen suche, könne auch langfristig Vorteile erlangen.
Vor einem unternehmensweiten Vorhaben zur Virtualisierung empfiehlt der EMA-Analyst die Beantwortung
folgender zehn Fragen:
› 1. Verfügen Sie über die nötigen Fähigkeiten, um die Virtualisierung zu leisten?
Die adäquaten Skills im Team bilden im Regelfall die größte Herausforderung für die erfolgreiche Einführung
der Virtualisierung, so Mann. Nach seinen Untersuchungen gehen drei Viertel der Unternehmen, die noch
nicht virtualisiert haben, davon aus, dass ihnen die für den Einsatz der Technologie benötigten
Kompetenzen fehlen.
Die Beratung empfiehlt dringend, vor dem Projektstart mit dem Training der Mitarbeiter zu beginnen, die
Anforderungen festzulegen, absehbare Veränderungen zu dokumentieren und mit begrenzten
Pilotversuchen zu starten.
› 2. Sind Sie bereit, die "politischen" Folgen der Virtualisierung zu verkraften?
Auch der zweite Punkt betrifft den menschlichen Faktor. Wenn eine IT-Abteilung bislang ihr Dasein im
technischen Silo gefristet hat, könnte sich dies bei der Virtualisierung als Hemmschuh erweisen, wenn es
darum geht, die allgemeine Akzeptanz der "betroffenen" Fachabteilungen zu erlangen.
Sollten sich gewisse Interessengruppen im Unternehmen weigern, ihre Server mit anderen zu teilen, bleiben
der IT nur zwei Möglichkeiten, um das Eis zu brechen: Entweder müssen die Widerständler von der
verbesserten Performance durch die Virtualisierung überzeugt werden, oder ihnen muss die Angst
genommen werden, dass ihnen die Teilung von Ressourcen Nachteile verschafft.
› 3. Kennen und akzeptieren Sie die Risiken?
Durch die Virtualisierung sinkt im Idealfall der Verbrauch physikalischer Ressourcen für den Betrieb
verschiedener Systeme und Anwendungen. Gleichzeitig werden mehr Nutzer und Applikationen auf weniger
virtuelle Umgebungen konzentriert, die zudem komplexer in der Verwaltung sind.
Der Ausfall von Hardware, menschliche Fehler, Sicherheitslücken, Planungsprobleme und Supportfragen
erhalten dadurch ein größeres Gewicht. Die EMA warnt vor einer Virtualisierung, ohne dass zuvor detaillierte
Pläne für Business Continuity und Disaster Recovery entwickelt wurden – und zwar für alle Phasen des
Projekts.
› 4. Wie robust sind Ihre Sicherheitssysteme?
Durch die Virtualisierung öffnen sich neue Sicherheitslücken, die Systeme werden anfälliger für andersartige
© TecChannel
17
Malware, und nur die wenigsten Unternehmen sind in der Lage, die Schwachstellen zu schützen. Dies liegt
auch daran, dass sich die aktuelle Technologie schwer tut, mit den neuen Bedrohungen umzugehen.
Hypervisor-Infektionen, Rootkit-Viren und bösartige virtuelle Maschinen "können an den heutigen Tools
praktisch unerkannt vorbeischlüpfen", berichtet EMA-Analyst Mann. IT-Verantwortliche müssen virtuelle
Maschinen genau so wie physikalische Rechner schützen und zusätzliche Anstrengungen unternehmen, um
die virtuellen Umgebungen abzuriegeln.
› 5. Haben Sie kompatible Systeme und Applikationen?
Einige Anwendungen und Systeme harmonieren nicht reibungslos mit der Virtualisierung.
Die Berater nennen hierfür beispielsweise Anwendungen mit einer großen Effizienz im Einsatz, gravierenden
Spitzen in den Anforderungen oder einer anhaltend hohen Auslastung. Auch Applikationen, die direkt mit der
Hardware interagieren, können ein Virtualisierungsvorhaben stoppen.
› 6. Beherrschen Sie die Kapazitätsplanung?
Der Wildwuchs virtueller Server ist ein bekanntes Phänomen, wobei häufig die vorhandene Kapazität durch
die Einführung der Virtualisierung übertroffen wird.
Die Berater empfehlen, dass IT-Abteilungen eine detaillierte Kapazitätsplanung unternehmen, damit
Hardware- und Software-Ressourcen in ausreichender Menge zur Verfügung stehen. Sollte dies nicht der
Fall sein, kann die Virtualisierung schnell außer Kontrolle geraten.
› 7. Lassen sich Ihre Installationen virtualisieren?
Viele populäre Applikationen aus der Box unterstützen die Virtualisierung, aber es gibt auch diverse
Anwendungen, die sich der Technologie verweigern.
IT-Abteilungen müssen im Vorfeld klären, welche Programme und Hardware-Plattformen funktionieren und
welche Systeme vor einem Rollout aufgerüstet werden müssen.
› 8. Unterstützt ihr Netz die Virtualisierung?
Netze und Speicher sind potenzielle Flaschenhälse für die Virtualisierung im Rechenzentrum. So
funktionieren Virtualisierungstechnologien, die auf den Nutzer ausgerichtet sind (Anwendungs- und
Desktop-Virtualisierung beziehungsweise Application Streaming), in Netzen mit einer geringen Transferrate
nicht zufriedenstellend.
IT-Verantwortliche sollten Beschränkungen in Netzen und Speichern mit Technologien zur
WAN-Optimierung behandeln oder die starke Vermehrung von Images unterbinden.
› 9. Können Ihre Management-Systeme in virtuellen Umgebungen existieren?
Auch wenn Virtualisierung die physikalischen Ressourcen verringert und zumindest deren Verwaltung
erleichtert, steigt dabei die Gesamtkomplexität an, was für IT-Verantwortliche neue Management-Probleme
aufwerfen kann. Da die rein technische Einführung der Virtualisierung relativ leicht von der Hand geht,
kommt es häufig zum Wildwuchs virtueller Maschinen, was wiederum deren Verwaltung gravierend
erschwert.
Ein weiterer Grund für die Mehrarbeit der IT-Manager ist die zusätzlich eingezogene Softwareschicht und die
damit "hinzugewonnene" Komplexität. Bis die Management-Tools sattelfest mit den neuen
Herausforderungen umgehen könnten, so die Berater, liegt der Schlüssel zum Erfolg in der Einrichtung
starker Prozesse etwa für Performance-, Konfigurations-, Patch- und Service-Level-Management sowie für
Beschaffung und Disaster Recovery.
› 10. Hilft die Virtualisierung, um geschäftliche Ziele zu erreichen?
Laut EMA ist die Abstimmung der technischen Implementierung mit den geschäftlichen Zielen der Faktor,
der bei einem Virtualisierungsvorhaben am häufigsten übersehen wird. Um den Erfolg eines
Virtualisierungsprojekts abschätzen zu können, müssen IT-Organisationen im Vorfeld erst einmal definieren,
was sie mit dem Vorhaben überhaupt erreichen wollen.
© TecChannel
18
Die Berater empfehlen, dass IT-Verantwortliche ein derartiges Vorhaben anhand langfristiger, strategischer
Resultate ausrichten und nicht als schnelle Lösung für ein akutes Problem betrachten. Beispielsweise
würden sich viele Unternehmen von der Virtualisierung sinkende Kosten erwarten, so EMA. Dieses Ergebnis
sei aber längst nicht der Regelfall. So werde der einmalige Spareffekt der Server-Konsolidierung oft durch
beträchtlich steigende Kosten für Software wieder egalisiert. (hal)
Dieser Beitrag stammt von Computerwoche.de (http://www.computerwoche.de/) , der führenden deutschsprachigen
Website für den gesamten Bereich der Informationstechnik - aktuell, kompetent und anwendungsorientiert.
© TecChannel
19
Praxistest: VirtualBox –
Open-Source-Konkurrenz zu VMware
und Co.
› Kompakt, schnell und für Privatanwender kostenlos. Das sind die Eckdaten, die
VirtualBox der etablierten Konkurrenz wie VMware oder Virtual PC entgegensetzt. Wir
haben uns die aktuelle Version 1.3.8 vorgenommen und zeigen, wie gut das gelingt.
VON STEFAN RUBNER (29.03.2007)
Virtualisierung – also das Bereitstellen von Software und Diensten auf per Software emulierten Rechnern –
ist quasi das Bloggen der Netzwerktechnik: Jeder spricht darüber, viele tun es bereits, und probieren
möchten es alle einmal.
Kein Wunder, dass in der letzten Zeit mehr und mehr Produkte zur Bereitstellung virtueller Rechner auf den
Markt drängen. Ein interessanter Newcomer ist VirtualBox (http://www.virtualbox.org) der deutschen
Softwareschmiede InnoTek.
Vielseitige Open-Source-Virtualisierung: VirtualBox ist
eine ernst zu nehmende Alternative zu VMware,
Microsoft und Parallels Desktop.
Der große Unterschied zu vergleichbaren Produkten wie VMware Workstation oder Virtual PC von Microsoft:
Die komplette Software ist im Quelltext verfügbar. Davon verspricht man sich bei InnoTek eine aktive
Entwicklergemeinde, die dabei hilft, die Software zu verbessern.
› Günstiger Einstieg
Auch in anderen Bereichen geht man bei InnoTek moderne Wege, denn VirtualBox ist für private Anwender
kostenlos. Firmenkunden haben die Wahl zwischen dem Entrichten einer Lizenzgebühr oder dem
eigenständigen Übersetzen des Quellcodes. In letzterem Fall leistet InnoTek allerdings keinen Support bei
im Betrieb eventuell auftretenden Problemen. Zudem muss auf einige Features verzichtet werden, etwa die
Unterstützung des Remote Desktop Protocols (RDP) zum Fernsteuern virtueller Rechner,
USB-Unterstützung, Shared Folders für gemeinsamen Datenzugriff und der iSCSI-Initiator zum direkten
Ansteuern von entfernten Speichermedien. Also genau die Funktionen, die speziell bei der Konsolidierung
von Rechnern zum Tragen kommen.
© TecChannel
20
Mischbetrieb: Auch der parallele Betrieb von Vista und
Linux ist kein Problem für VirtualBox – sofern
ausreichend Hauptspeicher verfügbar ist.
Mit dieser Strategie bewegt sich VirtualBox ziemlich genau in der Mitte zwischen Microsoft und VMware. Die
Windows-Schmiede gibt Virtual PC 2007 (http://www.tecchannel.de/link.cfm?type=article&pk=462559) ebenfalls
kostenlos ab. Bei VMware ist der Player (http://www.tecchannel.de/link.cfm?type=article&pk=434074) zum Ausführen
fertiger virtueller Maschinen ebenso kostenfrei verfügbar wie der VMware Server, während die
Desktop-Version VMware Workstation nach wie vor Geld kostet. Da VirtualBox für den reinen
Desktop-Einsatz konzipiert ist, ist auch das Konkurrenzumfeld klar umrissen: Virtual PC 2007, VMware
Workstation und Parallels Desktop.
Im Vergleich zu den genannten Produkten bietet VirtualBox eine solide Mischung aus allen wichtigen
Features. So unterstützt es den Betrieb unter den 32-Bit-Versionen von Windows und modernen
Linux-Distributionen. Als Gastsysteme sind neben dem obligatorischen Support für Windows und Linux auch
OS/2, diverse BSD-Versionen und Solaris erlaubt. Damit richtet sich VirtualBox eher an die Nutzer von
VMware und Parallels, denn an die Besitzer von Virtual PC, das zumindest auf dem Papier nur
Windows-Betriebssysteme auf den virtuellen Maschinen unterstützt. InnoTek unterstützt derzeit keine
64-Bit-Systeme, weder als Host noch als Gast.
› Einfache Installation
Das Installationsarchiv von VirtualBox ist gerade einmal 13 MByte groß, entsprechend schnell ist der
Download erledigt, und es kann an die Installation gehen. Diese beschränkt sich im Wesentlichen auf die
Auswahl des Zielverzeichnisses sowie das Bestätigen der von Windows ausgegebenen Warnungen über
fehlende Zertifikate der Software. Danach ist die Software eingerichtet, eine Verknüpfung auf dem Desktop
legt die Setup-Routine dabei übrigens nicht an.
Bekanntes Problem: Die Treiber für den Zugriff auf
© TecChannel
21
USB-Geräte und LAN-Adapter sind auch bei VirtualBox
nicht signiert.
Nach dem Start überrascht VirtualBox mit einer Benutzerschnittstelle, die deutlich farbenfroher ist als die der
Konkurrenz. Der Bedienbarkeit tut das aber keinen Abbruch, die einzelnen Optionen zum Anlegen,
Konfigurieren, Löschen, Starten und Verwerfen der virtuellen Maschinen sind leicht erreichbar, die Anzeige
der vorhandenen VMs ist übersichtlich.
› Einrichten in zwei Schritten
Ebenfalls etwas abseits der ausgetretenen Pfade läuft das Einrichten neuer virtueller Rechner ab. Zwar steht
auch hier ein Assistent zur Verfügung, der schnell und sicher durch die einzelnen Schritte wie das Anlegen
der als Datei erzeugten virtuellen Festplatte für das Gastbetriebssystem oder die Auswahl des geplanten
Gastsystems selbst führt. Einzelne Feineinstellungen lassen sich aber erst nach dem Abschluss dieses
Schnelldurchlaufs vornehmen.
Geführt: Beim Einrichten neuer virtueller Maschinen
unterstützt ein Assistent den Anwender.
Dazu zählt auch ein nettes Highlight: VirtualBox gestattet es nicht nur, den in der virtuellen Maschine
verfügbaren Hauptspeicher festzulegen. Auch das RAM der virtuellen Grafikkarte lässt sich vom
Vorgabewert von 8 MByte auf bis zu 128 MByte aufstocken. Natürlich geht dies zusätzlich zulasten des
Hauptspeichers im Host-System.
› Einzelne Schwachpunkte
Allerdings vermisst man mitunter essenzielle Dinge, beispielsweise die Unterstützung von CD- oder
DVD-Brennern. Diese behandelt VirtualBox wie reine Leselaufwerke. Ebenfalls nicht vorhanden ist ein
System, mit dessen Hilfe sich einzelnen virtuellen Rechnern CPU-Zeit oder Hauptspeicher bevorzugt
zuteilen lassen.
Womit auch schon ein echter Schwachpunkt genannt wäre: der Hauptspeicher im Host-Rechner ist ein
echter Stolperstein für VirtualBox. Anders als etwa bei VMware wird dieser nicht dynamisch je nach realem
Bedarf an die einzelnen virtuellen Rechner zugeteilt, sondern sofort bei dessen Start reserviert.
© TecChannel
22
Notwendige Helfer: Ohne die zusätzlichen Tools für
Gastsysteme besteht unter Vista kein Zugriff auf die
virtuelle Netzwerkkarte.
Somit ist sowohl beim Anlegen der virtuellen Maschinen wie auch beim Starten darauf zu achten, dass deren
Speicherbedarf den noch verfügbaren Hauptspeicher des Rechners nicht überschreitet.
Auslagerungsspeicher wird von VirtualBox nicht genutzt. In Verbindung mit der durch das 32-Bit-System
vorgegebenen, maximal verwaltbaren Speichermenge von vier GByte schränkt das die Zahl der parallel
ausführbaren virtuellen Maschinen erheblich ein. Gerade beim Einsatz als Entwicklungssystem auf einem
typischen Desktop-Rechner ist da schnell bei zwei oder drei virtuellen Maschinen Schluss.
› Vista-Tauglichkeit als großer Vorteil
Von besonderem Interesse ist natürlich, ob sich in der emulierten Umgebung auch Windows Vista ausführen
lässt. Die Antwort ist einfach: Ja, mit den auch von anderen Virtualisierungslösungen bekannten
Einschränkungen. So erfüllt auch VirtualBox nicht alle Kriterien, die zum Freischalten aller Features und
speziell der Neuerungen der grafischen Oberfläche notwendig sind. Hier ist VirtualBox in guter Gesellschaft
von VMware Workstation und Parallels Desktop, die beide mit demselben Problem zu kämpfen haben. Beim
Versuch, den Leistungsindex des virtuellen Rechners zu ermitteln, bricht Vista unter VirtualBox mit einer
Fehlermeldung ab; Auswirkungen auf den Betrieb von Vista hat das aber keine.
Ohne Wertung: Die Bewertung der Leistung des
virtuellen Rechners lässt sich im Test nicht erfolgreich
durchführen, Vista arbeitet aber trotzdem einwandfrei.
Ansonsten ist der Vista-Support tadellos. Nach der Installation der mitgelieferten Zusatz-Tools für die
virtuelle Umgebung stehen nicht nur erweiterte Auflösungen, sondern auch der Zugriff auf die virtuelle
© TecChannel
23
Netzwerkkarte zur Verfügung. Insgesamt stellt VirtualBox bis zu vier LAN-Adapter bereit, wovon der erste
zwingend als NAT-Interface zum Host-System arbeiten muss. Wer in der virtuellen Maschine eine
IP-Adresse aus dem Produktivnetz benötigt, muss daher immer zwei LAN-Schnittstellen einrichten, wofür es
zumindest technisch keinen wirklichen Grund gibt. Einmal installiert läuft Vista in der virtuellen Maschine je
nach Hardwareausstattung des Hosts relativ flüssig. Während des gesamten Testbetriebs treten keinerlei
Probleme oder Abstürze auf. Insgesamt ist der Betrieb von Vista unter VirtualBox also problemlos möglich.
› Ecken, Kanten und Features – VirtualBox im Einsatz
Bei der Arbeit mit virtuellen Maschinen zeigt VirtualBox zunächst einige Auffälligkeiten, da sich das Produkt
in diversen Punkten anders verhält als der Mittbewerb. So fällt den Testern auf, dass die virtuellen
Disk-Images nicht zusammen mit den Einstellungen der virtuellen Maschine, sondern in einem separaten
Verzeichnis abgelegt werden.
Ordentlich: Der Virtual Disk Manager erlaubt die
komfortable Verwaltung virtueller Datenträger und der
ISO-Images von CDs und DVDs.
Gewöhnungsbedürftig ist anfangs auch die Umschaltung von Tastatur und Maus zwischen VM und
Host-Betriebssystem. Was alle anderen Produkte mittels » Strg + Alt « erledigen, erfolgt bei VirtualBox
über einen Druck auf die rechte » Strg- « Taste. Nach einer kurzen Eingewöhnungszeit ist die Irritation
jedoch verschwunden, und spätestens nach der Installation der für Windows- und Linux-Gastsysteme
verfügbaren VirtualBox-Treiber und dem damit verbundenen automatischen Fokuswechsel, sobald der
Mauszeiger aus dem Fenster des Gastsystems herausbewegt wird, ist das Thema sowieso vom Tisch.
Vielseitig und aktuell: VirtualBox bietet bereits für Vista
optimierte Settings der virtuellen Maschinen.
Ansonsten bietet VirtualBox eine übersichtliche aber sinnvolle Feature-Liste. Es unterstützt Snapshots, um
© TecChannel
24
den aktuellen Stand eines Gastsystems zu sichern und beispielsweise nach einer misslungenen Installation
neuer Software eine Wiederherstellung durchzuführen. Einen Vollbildmodus für Gastsysteme gibt es ebenso
wie die automatische Anpassung der Bildschirmauflösung der VM an die aktuelle Fenstergröße. Ein schönes
Feature ist der Virtual Disk Manager. Mit seiner Hilfe lassen sich nicht nur die Disk-Images der virtuellen
Maschinen komfortabel verwalten. Er erlaubt darüber hinaus das Management von CD- und DVD- sowie
Floppy-Images.
› Tabelle – VirtualBox im Überblick
Host-Voraussetzungen
Host-Betriebssystem
Windows 2000, Windows XP, Windows Server 2003
OpenSUSE 10.2, Ubuntu 6.06, Ubuntu 6.10, Debian 3.1, Debian
4.0 Red Hat Enterprise Linux 4
Minimale Taktrate CPU (MHz)
keine Angabe
Empfohlene Taktrate CPU (MHz)
keine Angabe
Unterstützt mehrere CPUs
Nein
Minimaler Arbeitsspeicher (MByte)
512
Empfohlener Arbeitsspeicher (MByte)
1024
Emulierte Hardware
Prozessor
Wie Host, nur 32 Bit
Mainboard
Intel 440BX
BIOS
Proprietär
Maximaler Arbeitsspeicher pro virtueller Maschine (GByte)
3,6
Maximaler Arbeitsspeicher gesamt (GByte)
Vier
Keyboard
Standard-Keyboard
Maus
PS/2-Maus, gegebenenfalls Rollrad
Sound
Intel 82801AA AC 97
Floppy
Ein Gerät, physikalisches Laufwerk oder Datei
Video
Virtual Box Graphics Adapter (SVGA)
USB
Ein USB-1.1-Controller
CD-ROM, DVD-ROM
Gerät oder ISO-Image
CD-R/RW, DVD-R/RW
Nur lesen
© TecChannel
25
NIC
AMD PCNET
Netzwerk-Modi
NAT/Bridged/Deaktiviert
Maximale Anzahl an unterstützten Netzwerkkarten pro VM
Vier
IDE
Bis zu drei IDE-Festplatten
SCSI
Nicht verfügbar
Drag and Drop zwischen Host und Gast
Nein
Maximale Größer einer Festplatte (GByte)
IDE: 128, SCSI: Nicht verfügbar
Direktzugriff auf echte Festplatte
Nein
Virtuelle Festplatte als reale Datei
Dynamisch/Statisch
Wiederherstellung
Ja, Snapshots
› Fazit
Insgesamt zeigt sich VirtualBox als robustes System, das sich in der aktuellen Version vor allem für den
Einsatz in kleineren Projekten eignet. Dazu zählt das Testen neuer Betriebssysteme oder Applikationen
sowie in begrenztem Umfang auch die Softwareentwicklung. Die etwas unglücklich gelöste
Speicherverwaltung verbietet derzeit noch den Einsatz in größeren Projekten, hier haben VMware
Workstation oder VMware Server deutliche Vorteile.
Einziger echter Wermutstropfen: Der Preis für die kommerzielle Lizenz ist mit 119 Euro vergleichsweise
hoch. Dank günstigem Dollarkurs ist ein kompletter Parallels Desktop schon für weniger als die Hälfte zu
haben. Wer aber auf die erweiterten Features verzichten kann oder privater Endanwender ist, fährt mit der
kostenfreien Vollversion von VirtualBox sicher nicht schlecht. (mja)
IDG Business Media GmbH
Alle Rechte vorbehalten. Jegliche Vervielfältigung oder Weiterverbreitung in jedem Medium in Teilen oder als Ganzes bedarf der schriftlichen Zustimmung
der IDG Business Media GmbH. DPA-Texte und Bilder sind urheberrechtlich geschützt und dürfen weder reproduziert noch wiederverwendet oder für
gewerbliche Zwecke verwendet werden. Für den Fall, dass in TecChannel unzutreffende Informationen veröffentlicht oder in Programmen oder
Datenbanken Fehler enthalten sein sollten, kommt eine Haftung nur bei grober Fahrlässigkeit des Verlages oder seiner Mitarbeiter in Betracht. Die
Redaktion übernimmt keine Haftung für unverlangt eingesandte Manuskripte, Fotos und Illustrationen. Für Inhalte externer Seiten, auf die von TecChannel
aus gelinkt wird, übernimmt die IDG Business Media GmbH keine Verantwortung.
© TecChannel
26

Documentos relacionados