Inhaltsverzeichnis

Transcrição

Inhaltsverzeichnis
Das_virtuelle_Datacenter_im_Datacenter_mit_Hilfe_von_VMware_Virtualisierungslösungen
Name des Autors:
Titel der Arbeit:
Hochschule und
Studienort:
Benjamin Bublitz
"Das virtuelle Datacenter im Datacenter mit Hilfe von VMware
Virtualisierungslösungen"
FOM Düsseldorf
Inhaltsverzeichnis
• 1 Einleitung
• 2 Vorstellung der Technologie
♦ 2.1 Vorstellung der
Infrastruktursoftware
♦ 2.2 Vorstellung der Optionen
◊ 2.2.1 DRS/DPM
◊ 2.2.2 VMotion
◊ 2.2.3 HA
♦ 2.3 Vorstellung Interfaces
◊ 2.3.1 vSphere CLI
◊ 2.3.2 PowerCLI
◊ 2.3.3 vSphere SDK for
Perl 4.0
◊ 2.3.4 vCenter Server
◊ 2.3.5 vCenter
Converter
♦ 2.4 Voraussetzung
◊ 2.4.1 Hardware
◊ 2.4.2 Betriebssysteme
• 3 Integrationsbeispiel
♦ 3.1 Konzept
♦ 3.2 Aufbau
◊ 3.2.1 Backup
◊ 3.2.2 Aufbau der
V-LANs
◊ 3.2.3 Einsatz der
virtuellen Maschinen
◊ 3.2.4 Aufbau des
Frameworks
◊ 3.2.5 Zugriff auf die
Kundenappliances
◊ 3.2.6 Integration einer
neuen
Kundenappliance
• 4 Analyse und Bewertung
♦ 4.1 Vorteile
◊ 4.1.1 technisch
◊ 4.1.2 ökonomisch
Inhaltsverzeichnis
1
Das_virtuelle_Datacenter_im_Datacenter_mit_Hilfe_von_VMware_Virtualisierungslösungen
♦ 4.2 Nachteile
◊ 4.2.1 technisch
◊ 4.2.2 ökonomisch
• 5 Empfehlung
• 6 Fazit
• 7 Fußnoten
• 8 Abkürzungsverzeichnis
• 9 Abbildungsverzeichnis
• 10 Tabellenverzeichnis
• 11 Literaturverzeichnis
1 Einleitung
Oftmals werden in Unternehmen Projekte mit einer Webschnittstelle geplant und realisiert. Die Erfahrung hat
gezeigt, dass hierbei oftmals die Ressourcen für diese Webschnittstellen falsch geplant werden und daher
überdimensioniert ausfallen. Um solche simplen Projekte ressourcenschonend zu realisieren, können die
Virtualisierungslösungen von VMware eingesetzt werden. Mit der Hilfe eines ESX/ESXi/vSphere Clusters kann
eine abgeschlossene Datacentereinheit abgebildet werden, die diese "Kleinprojekte" integriert.[1]
Abgrenzung zur Datacentervirtualisierung
Immer öfter wird in modernen Rechenzentren eine Datacentervirtualisierung durchgeführt, um Kosten zu senken,
Ressourcen besser zu verteilen, flexibler und ökonomischer zu arbeiten. Hierbei werden in der Regel Server,
welche noch auf Hardware laufen, vom Datacenter mittels dafür vorgesehener Software virtualisiert und in einer
neuen Clusterumgebung, z.b. in eine ESX/ESXi Umgebung, migriert, um die Hardware zu entfernen. Dabei
handelt es sich zum Großteil um komplexe Systeme mit mehreren Applikations- und Datenbank-Servern. Diese
Art der Virtualisierung ist nicht Teil dieser Seminararbeit, welche sich ausschließlich mit dem Gedanken eines
virtuellen Rechenzentrums in einem Rechenzentrum für simple Serversysteme befasst.
2 Vorstellung der Technologie
In den folgenden Kapiteln werden VMware Technologien und Software vorgestellt, die den Einsatz eines
virtuellen Rechenzentrum in einem Rechenzentrums ermöglichen, vereinfachen und administrierbar machen. Die
hier erläuterten Technologien und Softwarepakete werden als Grundlage für die spätere Analyse vorausgesetzt.
2.1 Vorstellung der Infrastruktursoftware
VMware bietet zur Zeit folgende Produkte an , mit denen man einen solchen Virtualisierungsansatz kostengünstig
umsetzten kann:
• VMware ESXi
• VMware vCenter Server
Bei ESXi handelt es sich um ein kostenloses Serverbetriebssystem auf Hypervisorbasis.[2] Einige Features sind
u.a.:[2]
• Bis zu 64 logische Kerne, 256 virtuelle CPUs (Central Processing Unit) und 1TB (Terrabyte) RAM
1 Einleitung
2
Das_virtuelle_Datacenter_im_Datacenter_mit_Hilfe_von_VMware_Virtualisierungslösungen
(Random Access Memory) pro Host
• NIC-Teaming (Network Interface Card)
• Memory Ballooning
VMware vCenter Server stellt eine Managementoberfläche für den ESXi bzw. vSphere Cluster zur Verfügung.
2.2 Vorstellung der Optionen
Nachfolgend werden diverse Optionen beschrieben, die für den Betrieb eines virtuellen Datacenters im Datacenter
vorausgesetzt werden.
Aufgrund des Lizenzmodels bei VMware sind diese Optionen nur mit einer Enterprise oder Enterprise Plus
Lizenz verfügbar. [3]
Abb. 1: Übersicht des VMware Lizenzmodells
2.2.1 DRS/DPM
DRS (Distributed Ressource Scheduling) ist ein Ressourcenoptimierungssystem von VMware. Desweiteren
können mit DRS sogenannte Ressourcepools erzeugt werden, mit deren Hilfe sich diverse VMs (Virtuelle
Maschinen) die Gesamtressourcen "teilen". Innerhalb eines Ressourcepools haben alle VMs die Möglichkeit die
maximalen, für diesen Ressourcepool konfigurierten, Ressourcen zu nutzen. Braucht eine VM kurzzeitig mehr
Arbeitsspeicher als ihr eigentlich zugeteilt wurde, so hat sie die Möglichkeit ungenutzte Ressourcen des
Ressourcepools zu aktivieren und für sich zu nutzen.[4][5]
Hierdurch ist es möglich z.B. einzelnen Unternehmensbereichen einen Ressourcepool zuzuweisen und ihnen die
Möglichkeit zu geben innerhalb dieses Pools die Ressourcen eigenständig zu verwalten, ohne Auswirkungen auf
VMs aus anderen Pools.[5]
Desweiteren wird DRS ebenfalls zur Lastverteilung auf den Hosts des Clusters eingesetzt. Sollte ein ESX-Host
nicht mehr in der Lage sein seine VMs alle mit genügend Ressourcen zu bedienen, so wird via VMotion die VM
auf einen Server migriert, der mehr Ressourcen zur Verfügungn stellen kann als der Alte.[4][5]
Eine Erweiterung von DRS is das DPM (Distributed Power Management). Mit dieser Funktion werden VMs, in
Zeiten einer Minimalauslastung, auf so wenige Server wie möglich migriert. Die Übrigen nicht
2.1 Vorstellung der Infrastruktursoftware
3
Das_virtuelle_Datacenter_im_Datacenter_mit_Hilfe_von_VMware_Virtualisierungslösungen
genutzen/gebrauchten Hosts werden heruntergefahren, was den Strombedarf von Rechenzentren enorm senkt.
[4][5]
2.2.2 VMotion
Abb. 2: VMware VMotion
VMotion bezeichnet eine VMWare Technologie zur Live-Migration von aktiven Virtuellen Maschinen zwischen
verschiedenen ESX-Hosts[6]. Sie ist die Grundlage für ein funktionierendes DRS System.[7]
Bei dieser Technologie ist eine unterbrechungsfreie Migration möglich, da u.a das Netzwerk, welches ebenfalls
virtuell ist, beibehalten wird bzw auf allen Hosts verfügbar ist. Diese kann genutz werden, um z.B. bei einer
Wartung alle VMs auf einen anderen ESX-Host zu migrieren, ohne den Betrieb zu unterbrechen. Ein integriertes
Scheduling System kann dazu genutzt werden (teilautomatisierte) Migrationstasks durchzuführen.[6]
Desweiteren ist es möglich via eines QoS (Quality of Service) Mechanismus eine Prioritätenliste für Migrationen
zu erstellen, um sicherzustellen, dass betriebskritische VMs zuerst migriert werden.[6][7]
2.2.3 HA
VMware stell eine eigene HA (High Availability) Lösung zur Verfügung, um im Falle eines Hostausfalls die
Ausfallzeit der VM-Guests so gering wie möglich zu halten.
Mit der HA Lösung werden alle, sich auf einem Host befindlichen, Guests auf andere Hosts des Clusters migirert,
sollte der erstgenannte Host, aufgrund eines Defektes, nicht mehr reagieren. Weiterhin ist es mit HA möglich
Betriebssystemfehler zu überwachen und im Fehlerfall das Gastbetriebssystem neuzustarten.[8]
Abb.: 3 VMware HA
Für die Migration auf weniger ausgelastete Hosts des Clusters sind VMware DRS und VMoition Voraussetzung[9]
2.2.1 DRS/DPM
4
Das_virtuelle_Datacenter_im_Datacenter_mit_Hilfe_von_VMware_Virtualisierungslösungen
2.3 Vorstellung Interfaces
Aufgrund der Tatsache, dass es sich bei ESXi um einen Hypervisor handelt wird keine Servicekonsole supportet,
weder am Host selber, noch per SSH (SecureShell-Verbindung)[10]. VMware bietet daher diverse Schnittstellen
zur scriptbasierten Administration,Automatisierung und operativen Betrieb für virtuelle Umgebungen, neben der
Administration über den VMware vCenter Server:[11]
Automatisierung:
• vSphere CLI (Command-Line Interface) (Kommandozeilen Schnittstelle für Windows)
• vCenter Orchestrator (Abbildung von häufig genutzten Workflows zur Automatisierung von vCenter
Tasks)
• vSphere Management Assistant (Virtuelle Appliance zum Development von Scripten und zur
Administration)
• Site Recovery Manager (Testet - und wertet Failover Scenarios aus)
SDK (Software Development Kit) & API (Application Programming Interface):
• PowerCLI (Powershell Schnittstelle)
• vSphere Web Services SDK (Java und C# Schnittstelle zur administration über den VMware Webservice)
• CIM API (Common Information Model API)
• vSphere SDK for .NET (.NET Schnittstelle)
• vSphere SDK for Perl (Perl Schnittstelle)
• Studio (VM zur Transformation von Softwarepaketen in virtuelle Appliances)
• OVF Tool (Open Virtualisation Format Command Line Utility zum Im-/Export von OVF (Open
Virtualisation Format) VMs ins vCenter)
• VDDK (Virtual Disk Development Kit) (C Library und Utilities zur Verwaltung von VMDK (Virtual
Maschine Disk) Dateien)
• VIX API (High-Level Automatisierung API für Perl, C und COM (Component Object Model) für
Gastbetriebssysteme)
• VMCI Sockets (Interface zur Kommunikation der VM mit dem Host oder VMs untereinander auf dem
selben Host)
• vSphere Guest SDK (Schnittstelle für Software um statistische Information über die VM zu sammeln)
veraltete Schnittstellen:
• Programming API (Schnitstelle für VMware Server 1.0 und früher, wurde ersetzt durch VIX Api)
• Scripting API (Schnittstelle für Perl und COM, wurde ersetzt durch SDK for Perl und Web Services SDK)
Nachfolgend werden die Wichtigsten kurz beschrieben.
2.3.1 vSphere CLI
Mit der Einführung von vSphere 4, hat VMware das unter dem alten Namen bekannte Remote-CLI Package, das
diverse Scripte und Binarys zur Administration für die ESXi/ESX Hosts bereitstellte, überarbeitet und unter dem
Namen VMware vSphere CLI released. Mit dem vSphere CLI kann man von jedem Rechner, der Zugriff auf das
selbe Netzwerk hat wie der ESXi/ESX Host oder der vCenter Server, die vSphere Umgebung administrieren.
Dieses Interface basiert auf dem vSphere SDK for Perl und wird daher zusammen mit dem SDK für Perl
2.3 Vorstellung Interfaces
5
Das_virtuelle_Datacenter_im_Datacenter_mit_Hilfe_von_VMware_Virtualisierungslösungen
installiert.[12]
2.3.2 PowerCLI
VMware bietet eine Powershellschnittselle zu den vSphere Funktionalitäten. Es werden 2 unterschiedliche Pakete
angeboten: [13]
• vSphere PowerCLI
• vCenter Update Manager PowerCLI
Das erstgenannte Paket enthält die cmdlets (Command-lets)[14] zur Administration der vSphere Umgebung.
Das zweite Paket enthält cmdlets, zur Erstellung eines Update Services für VMs und Hosts.
Als Editor wird auf dem VMware Blog "Virtualisation EcoShell" empfohlen.[15]
Abb. 4 Ecoshell
Dieser beinhaltet über 150 cmdlets als PowerShell snap-in und ermöglicht, dank PowerShell, die Administration
von Applikationen auf der VM, dem Betriebssystem der VM, dem Hypervisor des ESX/ESXi Hosts und der
generellen Infrastruktur (solange diese eine Powershellschnittstelle bietet).[16]
Der Editor stellt ein komplettes IDE (Integrated Development Environment) für PowerShell zur Verfügung und
ist als Freeware lizensiert.[16]
2.3.3 vSphere SDK for Perl 4.0
Das vSphere SDK for Perl 4.0 wir nur zusammen mit dem vSphere CLI Package angeboten, da beide Pakete
gegenseitig aufeinander aufbauen.[12] Dieses SDK stellt eine Schnittstelle zwischen Perl und der vSphere API dar.
Desweiteren sind einige Beispielscripte bzw. vorgefertigte Scripte in diesem Package schon vorhanden, die die
automatisierte scriptbasierte Administration vereinfachen[17]:
Scriptname
Beschreibung
connect.pl
Testet die Verbindung zu einem Host oder vSphere Center.
credstore_admin.pl
Wird zur Verwaltung der Zugangsdaten verwendet (Hinzufügen, Löschen, Ändern von
Benutzerkonten).
dsbrowse.pl
Zeigt die angeschlossenen Datastores an und bietet die Möglichkeit dessen Attribute zu
ändern
2.3.1 vSphere CLI
6
Das_virtuelle_Datacenter_im_Datacenter_mit_Hilfe_von_VMware_Virtualisierungslösungen
extractlog.pl
Exportiert das vmware.log File für die gewünschten VMs.
fileaccess.pl
Dient zur Verwaltung von VM Konfigurationsdateien.
guestinfo.pl
Zeigt und ändert Attribute von Gastbetriebssystemen einer/mehrere VMs.
hostdiagnostics.pl
Exportiert das ESX/ESXi Host logfile.
hostevacuate.pl
Migriert alle VMs eines Hosts auf einen anderen.
hostinfo.pl
Zeigt Netzwerk, CPU und Speicherlast eines ESX/ESXi Hosts an.
hostops.pl
Dient zur Administration des Clusters oder einzelner ESX/ESXi Hosts(Host hinzufügen,
entfernen, in Maintenancemodus setzen, herunterfahren...).
load_session.pl
Lädt eine vorher gespeicherte Session (Sessionfile) zu einem Host
save_session.pl
Verbindet zu einem Host und speichert die Sessioninformationen in einer Datei
(Sessionfile).
sharesmanager.pl
Dient zur Anzeige und Verwaltung von geteilten Ressourcen von VMs
snapshotmanager.pl Verwaltung von Snapshots.
vdiskcreate.pl
Erstellt eine neue virtuelle Festplatte für eine VM.
vidiscovery.pl
Zeigt Informationen über die Hierarchie des ESX/ESXi Hosts oder des vSphere Centers
an (Ordner, Ressourcepools u.v.a.) .
viperformance.pl
Exportiert Performancedaten eines Hosts.
viversion.pl
Zeigt Informationen über die eingesetzten Produkte an.
vmclone.pl
Dient zum Klonen und Aufbereiten von VMs und Gastbetriebssystemen.
vmcontrol.pl
Wird zum Starten, Stoppen, Pausieren von einer VM oder deren Gastbetriebssystems
verwendet.
vmcreate.pl
Erstellt aufgrund einer XML (Extensible Markup Language) Konfigurationsdatei eine
VM.
vminfo.pl
Zeigt die Eigenschaften von VMs an.
vmmigrate.pl
Migriert die angegeben VMs eines Hosts auf einen anderen Host.
vmreconfig.pl
Rekonfiguriert einzelne Eigenschaften von VMs.
vmregister.pl
Registriert oder deregistriert VMs an einem ESX/ESXi Host.
vmsnapshot.pl
Erstellt einen Snapshot.
vmtemplate.pl
Konvertiert eine VM in ein VM-Template und umgekehrt.
Quelle: In Anlehnung an:
http://www.vmware.com/support/developer/viperltoolkit/viperl40/doc/perl-toolkit-right.html
Tabelle 1: Auflistung aller Scripte aus dem SDK for Perl
2.3.3 vSphere SDK for Perl 4.0
7
Das_virtuelle_Datacenter_im_Datacenter_mit_Hilfe_von_VMware_Virtualisierungslösungen
2.3.4 vCenter Server
vCenter Server is die Managementoberfläche für vSphere und ersetzt somit den VMware Infrastructure 3 Client
(Virtual Center), der bis ESX/ESXi 3.5 genutzt wurde. Das vCenter stellt einen Großteil der oben genannten
Funktionen, wie z.B. VMotion, HA, erweiterte vSphere CLI Befehle, u.A, zur Verfügung. Weiterhin bietet das
vCenter eine große Auswahl an Administrationsmöglichkeiten:[18]
• Zentrale Lizensierungsstelle
• Performance Charts
• Integration der Perfomancedaten in Perfmon für Windows VMs
• Event- und Alarmsupport
• Error Reporting inklusive KED (Known Error Database) Link
• Host-Upgrade-Utility zum Upgrade für ältere ESX Hosts
• Datastore Management Konsole
2.3.5 vCenter Converter
Mit dem vCenter Converter ist es möglich physische Server, inclusive aller installierter Software, zu
virtualisieren. Desweiteren kann der Converter genutzt werden um eine Konvertierung zwischen den
verschiedenen virtuellen Formaten durchzuführen, wie z.b. VMware Server VMs in ESX kompatible VMs,
Microsoft VMs in VMWare Server VMs oder Norton Ghost Images in VMware kompatible VMs. [19]
Nachfolgend eine kurze Aufstellung über die Konvertierungsmöglichkeiten:[20]
Mögliche physische Quellen:
• 64-bit Windows XP/2003
• WinNT SP4+
• Windows 2000
• Windows XP
• Windows 2003
• Windows Server 2008
• Linux (Red Had Enterprise Linux (RHEL), SUSE und Ubuntu)
Kompatible Third Party Images:
• Microsoft Virtual Server
• Microsoft Virtual PC
• Parallels Desktop
• Symantec Backup Exec System Recovery (Live State Recovery)
• Norton Ghost
• Acronis
• StorageCraft
Nachfolgend sind alle Ziel VM Formate aufgeführt, in die alle oben genannten Formate konvertiert werden
können. Selbstverständlich ist auch eine Konvertierung zwischen verschiedenen VMware (Ziel-)Formaten
möglich.
Ziel VM Formate:
• VMware Workstation
• VMware GSX Server
2.3.4 vCenter Server
8
Das_virtuelle_Datacenter_im_Datacenter_mit_Hilfe_von_VMware_Virtualisierungslösungen
• VMware Player
• VMware Server
• VMware Fusion
• VMware ESX (mindestens mit VMware VirtualCenter 2.x)
2.4 Voraussetzung
2.4.1 Hardware
VMware setzt keine direkte Hardwarekomponente voraus (wie z.B. eine DL380 G6), sondern stellt einige
Ansprüche an die eingesetzte Hardware[21]:
Unterstützte Serverplattform:[21]
• VMware ESXi 4.0 kann nur auf Servern mit x86 CPUs im 64-Bit-Modus installiert und ausgeführt
werden.
♦ Bekannte 64-Bit-Prozessoren:
◊ Alle AMD Opteron-Prozessoren unterstützen 64 Bit.
◊ Alle Intel Xeon-Prozessoren der Serien 3000/3200, 3100/3300, 5100/5300, 5200/5400,
7100/7300 und 7200/7400 unterstützen 64 Bit
◊ Alle Intel Nehalem (zu denen wurden noch keine Xeon-Markennummern zugewiesen)
unterstützen 64 Bit.
• Mindestens 2 GB RAM
• Ein oder mehr Gigabit oder 10 Gb (Gigabit) Ethernet-Controller.
• Ein oder mehrere der folgenden Controller (alle Kombinationen möglich):
♦ SCSI (Small Computer System Interface)-Basis-Controller - Adaptec Ultra-160 oder Ultra-320,
LSI Logic Fusion-MPT oder die meisten NCR/Symbios SCSI-Controller.
♦ RAID (Redundant Arry of Independent Disks)-Controller - Dell PERC (Adaptec RAID oder LSI
MegaRAID) oder IBM (Adaptec) ServeRAIDController.
♦ SCSI-Festplatte oder lokale (nicht im Netzwerk befindliche) RAID-LUN mit nicht
partitioniertem Bereich für die virtuellen Maschinen.
♦ SATA (Serial Advanced Technology Attachment) - eine über unterstützte SAS-Controller oder
unterstützte On-Board-SATA-Controller verbundene Festplatte.
ESXi 4.0 Installable unterstützt die Installation auf ,und das Starten von, folgenden Speichersystemen:
• SATA-Festplattenlaufwerke - hinter unterstützten SAS (Serial Attached SCSI)-Controllern oder
unterstützten On-Board-SATAControllern verbundene SATA-Festplattenlaufwerke.
• Zu den unterstützten SAS-Controllern gehören:
♦ LSI1068E (LSISAS3442E)
♦ LSI1068 (SAS 5)
♦ IBM ServeRAID 8K SAS-Controller
♦ Smart Array P400/256-Controller
♦ Dell PERC 5.0.1-Controller
• Zu den unterstützten On-Board-SATA-Controllern gehören:
♦ Intel ICH9
♦ Nvidia MCP55
♦ ServerWorks HT1000
2.3.5 vCenter Converter
9
Das_virtuelle_Datacenter_im_Datacenter_mit_Hilfe_von_VMware_Virtualisierungslösungen
• Serial Attached SCSI-Festplattenlaufwerke werden für die Installation von ESXi 4.0 und für das
Speichern von virtuellen Maschinen auf VMFS-Partitionen unterstützt.
• USB(Universal Serial Bus)-Geräte - Unterstützt für die Installation von ESXi 4.0.
Jegliche Hardwarekombinationen kann man mit Hilfe des Hardware Compatibility Guide von VMware
verfifizieren. [22]
2.4.2 Betriebssysteme
VMware unterstützt mittlerweile sehr viele Betriebssysteme (sogenannte GuestOS) auf ESX/ESXi 4.0. Unter
anderem werden folgende GuestOS von der Virtualisierungsplattform unterstützt:[22]
• Debian GNU/Linux
• Fedora
• FreeBSD
• Mac OS X
• Red Hat Enterprise Linux
• SUSE
• Solaris
• Ubuntu
• Windows 2000
• Windows XP
• Windows 7
• Windows Server 2008
• u.v.a
Dies ist nur eine kurze Aufzählung der unterstützten Systeme. Eine komplette Liste aller zur Zeit unterstützten
Systeme kann direkt bei VMware eingesehen werden. [22]
Eine recht interessante Option ist die Möglichkeit den vCenter Server als VM auf einem ESX/ESXi Host zu
betreiben oder einen virtuellen ESX/ESXi Server zu betreiben. Somit ist es möglich kleine virtuelle ESX/ESXi
Cluster in einem Hardware ESX/ESXi Cluster zu betreiben, um ggf Infrastrukturänderungen zu Testen oder zu
entwickeln.
3 Integrationsbeispiel
3.1 Konzept
Ziel des Konzeptes ist es eine Umgebung innerhalb eines Datacenters zu schaffen um "low-level"
Webintegrationen schnell, günstig, sicher und ressourcenoptimiert zur Verfügung zu stellen. Als "low-level"
Webintegrationen werden Webintegrationen bezeichnet, die wenig bis gar keinen Kontak zu anderen Servern
haben oder Verbindungen zu Datenbanken aufbauen, die entweder in der selben VM laufen oder aber als kleine
VM im selben Projekt laufen können und entsprechend wenig Ressourcen benötigen.
Jede dieser Webintegrationen gilt als Projekt. Da diese Webintegrationen im weitesten Sinne nur einen
bestimmten Zweck erfüllen, werden sie im weiteren Verlauf als Appliances beschrieben.
Auftraggeber sind für ein Rechenzentrum im weiteren Sinne Kunden. Daher wird im folgenden Verlauf immer
wieder von Kunden, Kundenzugang und Kundenappliance gesprochen. Hierbei sind nicht die Endnutzer/Kunden
der Webintegration gemeint.
2.4.1 Hardware
10
Das_virtuelle_Datacenter_im_Datacenter_mit_Hilfe_von_VMware_Virtualisierungslösungen
Es wird von ca. 128 verschiedenen Kundenprojekten ausgegangen, um eine ungefähre Planungsgrundlage zu
schaffen. Für immer wieder genutzte VMs werden VM-Templates erstellt. Mit diesen Templates ist es möglich
schnell eine VM von einem Template zu erstellen, ohne eine komplette Neuinstallation einer VM. Nachdem aus
dem Template eine VM erstellt wurde, muss diese nur noch an einigen Stellen konfiguriert werden (z.B.
Zuweisen einer statischen DHCP [Dynamic Host Configuration Protocol] Adresse, Festlegung des Hostnamens,
u.A.), damit sie eine komplett neue, eigenständige VM darstellt.
Folgende VM Templates werden erstellt:
• IPCop [23]
• Apache mit Reverse Proxy Modul[24]
• M0n0wall[25]
• VM mit CentOS 5.4 als Projekt Konsole
Eine genaue Nutzung dieser VMs wird in Kapitel 3.2.3 beschrieben.
3.2 Aufbau
Als erstes wird hierzu ein ESXi Cluster mit vCenter Server 4 und einem Backupserver benötigt, um die
notwendigen Ressourcen zu stellen, zu verwalten und zu sichern. Es wird ein Cluster aus 4 ESXi Servern
aufgebaut und mit dem eigentlichen Rechenzentrumsnetzwerk verbunden. Jeder dieser ESXi Hosts verfügt über 5
Netzwerkschnittstellen. Zur besseren Übersicht werden diese farblich bezeichnet:
Abb. 5: Hardwareaufbauschema eines virtuellen Rechenzentrums im Rechenzentrum
3.1 Konzept
11
Das_virtuelle_Datacenter_im_Datacenter_mit_Hilfe_von_VMware_Virtualisierungslösungen
1. (Rot): Verbindung zum Datacenter Netzwerk, Kommunikation nach außen.
2. (Blau1): Verbindung der ESX Hosts untereinander, mit Hilfe eines Switches, im weiteren Verlauf
Crossbar genannt. Dieser ist notwendig, um die später konfigurierten V-LAN (Virtuellen Local Area
Network) über alle ESXi Hosts abzubilden. Auf der Crossbar wird es, aufgrund der Tatsache, dass auf
diesem "Netz" die gesamte Kommunikation aller VMs untereinander stattfindet, zu sehr hohem Traffic
kommen.
3. (Blau2): Eine zweite Netzwerkschnittstelle zur Anbindung an die Crossbar, um das eben bereits
angesprochenen hohe Trafficaufkommen zu managen.
4. (Grün): VMotion Netzwerk. Ebenfalls eine Verbindung der ESXi Hosts untereinander, allerding wird
über dieses Netzwerkinterface nur der VMotion Mechanismus abgebildet, d.h. dass im Falle einer
Migration einzig und alleine diese Netzwerkschnittstelle genutzt wird, um die VM auf einen anderen Host
zu migrieren.
Als weitere Schnittstelle erhält jeder ESXi Host eine Verbindung an einen gemeinsamen SAN (Storage Area
Network) Speicher, damit VMotion und HA auch reibungslos eingesetzt werden können. Dies wäre nicht möglich
wenn die VMs auf den lokalen Platten der einzelnen Hosts liegen würden. In diesem Fall müssten VMs erst
heruntergefahren, auf den lokalen Speicher eines anderen Hosts transportiert und dort wieder gestartet werden,
was eine ggf. längere Unterbrechung des Services bedeutet.
3.2.1 Backup
Hierzu sollte ein dediziierter Server verwendet werden, da die Erstellung der Backup-Snapshots und deren
Komprimierung einen verhältnismäßig hohen Rechenaufwand bedeuten.
Als Backuplösung sollte ein Script erstellt werden, das einen Snapshot einer VM, im laufenden Betrieb, anlegt,
diesen komprimiert und auf dem Backup SAN/NAS (Network Attached Storage) speichert. Die Anzahl der
Backup-Snapshots sollte durch das Script frei definierbar sein. Es handelt sich hierbei jedes Mal um ein
Fullbackup, da ein Snapshot den aktuellen Stand der VM abbildet.[26]
Bei dieser Lösung ist darauf zu achten, dass ein Lauf dieses Scriptes nicht länger als 24 Stunden braucht, um von
allen VMs ein Backup zu erstellen, wenn ein tägliches Backup gewünscht wird. Dies kann man entweder
umgehen, indem man nur wöchentliche Fullbackups verwendet oder aber versucht mit Multithreating und
mehreren Cores zu arbeiten.
3.2.2 Aufbau der V-LANs
Jeder VM können 0-x Virtuelle Netzwerkkarten zur Verfügung gestellt werden. Auf diese Karten werden
V-LANs gebunden, um die Kommunikation der VM mit anderen Netzen zu ermöglichen. Diese V-LANs werden
im Folgenden bezüglich Name und Verwendung genauer definiert.
Damit VMotion reibungslos und unterbrechungsfrei funktioniert, müssen alle V-LANs, die auf einem ESXi Hosts
angelegt werden, auf allen ESXi Hosts angelegt werden. Hierzu werden desweiteren virtuelle Switche benötigt.
Die Konfiguration aller virtuellen Komponenten wird, sofern nicht anders beschrieben, mit Hilfe des vCenter
Servers durchgeführt.
Zur besseren Übersicht sind die V-LANs farblich bezeichnet.
Es werden folgende V-LANs verwendet:
3.2 Aufbau
12
Das_virtuelle_Datacenter_im_Datacenter_mit_Hilfe_von_VMware_Virtualisierungslösungen
1. (Rot): Verbindung zum Datacenter Netzwerk. Dieses Netzwerk wird 1:1 gemapped mit dem roten
Interface der Hardware. Hier wird der dafür zugeteilte Adressraum des Datacenters verwendet.
Netzwerkkonfiguration: Netzadresse 192.168.100.0/23 Subnetmask: 255.255.254.0
2. (Blau): Internes Netz. Über dieses Netz wird die Kommunikation der internen VMs geleitet. Interne VMs
sind VMs die dem Erhalt, der Stablität der Umgebung und der Verbindung der Umgebung zur
"Außenwelt" dienen. Beispiele hierfür sind Firewalls, Monitoring Lösungen sowie Reverse Proxys u.A..
Abhängig von der Größe der Umgebung sollte hier ein /22 Netz genutzt werden um die Kommunikation
zu gewährleisten. Netzwerkkonfiguration: Netzadresse 192.168.248.0/22 Subnetmask: 255.255.252.0
3. (Grün): Konfigurationsnetzwerk für VMs mit einer Webschnittstelle, die nicht über das rote oder blaue
Interface erreichbar sein sollen, um die Sicherheit und Umgebungsintegrität zu gewährleisten. In der
Regel reicht hier ein /24 Netzwerk, da es meist nicht sehr viele Webschnittstellen gibt, die nicht von
Außen erreichbar sein sollten. Wichtig hierbei ist die Abgrenzung zum blauen Netzwerk, daher sollten
hier unterschiedliche Netze ausgewählt werden (z.B. 192.168.248.0/22 für Blau und 192.168.129.0/24 für
Grün). Netzwerkkonfiguration: Netzadresse 192.168.129.0/24 Subnetmask: 255.255.255.0
4. (Lila): Konfiguration meherer Projekt V-LANs zur Abgrenzung der einzelnen Webintegrationsprojekte
untereinander. Auch hier ist wieder darauf zu achten, dass nicht das selbe Netz genutzt wird wie für das
blaue oder grüne Interface. Hierbei ist zu beachten, das eine fortlaufende Nummerierung der V-LANs
durchgeführt wird. Da wir 128 Kundenprojekte integrieren wollen, müssen 128 ProjektV-LANs angelegt
werden, je ein eigenes V-LAN für jedes Projekt.
Netzwerkkonfiguration je Projekt V-LAN: Netzadresse 192.168.1.0/24 Subnetmask: 255.255.255.0
3.2.3 Einsatz der virtuellen Maschinen
Viele Hersteller bieten bereits virtuelle Appliances ihrer Software an. Virtuelle Appliances sind auf das
Wesentliche reduzierte Systeme, die nur dazu dienen den vom Hersteller vorgesehenen Dienst zu verrichten, z.B.
Goolge Search Appliances als Indexierungsdienst oder IPCop Appliances als Firewall. Für dieses Konzept
werden folgende Appliances genutzt:
• IPCop Appliance als Firewall und Schnittstelle zum Datacenternetzwerk.
• M0n0wall Appliance als Router und Firewall zur Abgrenzung einzelner Projektnetzwerke untereinander.
• Ubuntu 10.04 mit einem Apache Webserver als Namedbase Reverse Proxy.
• CentOS 5.4 als Projekt Konsole. Diese dient als Verbindungspunkt für die Auftraggeber des Projektes.
Die eigentlichen VMs, die die Webintegration beinhalten, werden nicht via vCenter Server administriert,
da der Auftraggeber keinen Zugriff auf den vCenter Server erhält.
• Nagios als Monitoringlösung.
• Eine Administrations-VM auf Basis von Ubuntu 10.04 zur Administration aller VMs mit
Netzwerkschnittstellen im blauen, grünen und lilanen V-LAN.
3.2.4 Aufbau des Frameworks
Ds folgende Bild zeigt einen schematischen Aufbau, sowie die eingestzten VMs die das Framework bereitstellen
um die Kundenappliances zu integrieren.
3.2.2 Aufbau der V-LANs
13
Das_virtuelle_Datacenter_im_Datacenter_mit_Hilfe_von_VMware_Virtualisierungslösungen
Abb. 6: Schematischer Aufbau der virtuellen Netze
Auf dem Bild ist sehr gut die Abgrenzung einzelner Projekt V-LANs zu erkennen, die eine Isolation der
Webintegrationen erst ermöglicht.
Da als Berechnungsgrundlage 128 Kundenprojekte vorausgesetzt wurden, besitzt unserere Umgebung 128
Adressen im Datacenternetzwerk (Rot), die an IPCops gebunden sind. Allerdings werden nicht 128 virtuelle
IPCop Appliances benötigt. Diese 128 Adressen werden in Blöcke à 16 IPs aufgeteilt um später Zuweisungen "je
Block" zu ermöglichen. Somit ist z.B. die Zuweisung eines Block zu einer bestimmten Firewallregel möglich, um
ggf. neben dem Intranetzugriff, auch den Zugriff vom Internet aus zu ermöglichen.
Für jeden Block wird ein IPCop verwendet, da man diese 16 Adressen alle auf einen Netzwerkadapter binden
kann (eth0 + eth0:0- eth0:14). Desweiteren wird ein Netzwerkadapter mit dem grünen Netzwerk verbunden. Über
dieses Netz soll das Konfigurations Web-GUI (Graphical User Interface) bereitgestellt werden. Ein direkter
Zugriff auf diese Web-GUI ist nicht von den anderen Netzwerken möglich. Weiterhin erhält der IPCop eine
Netzwerkschnittstelle in das blaue interne Netzwerk, um die Kommunikation mit den restlichen VMs zu
ermöglichen.
Ein ähnlicher Aufbau wird auch für die Reverse Proxys realisiert. Für jeden Block wird ein Reverse Proxy mit
mehreren Apache Instanzen für die einzelnen Projekte aufgesetzt. Auch hier werden 16 IPs, allerdings 16 IPs aus
dem internen Netz, an einen Netzwerkadapter des Reverse Proxy gebunden.
Die M0n0walls erhalten 2 Netzwerkadapter. Einen mit einer IP Adresse im internen Netz (Blau) und eine im
Projekt V-LAN (Lila) Sie arbeiten als Router zwischen den Netzen und erlauben auch nur Zugriffe aus dem
Projekt V-LAN über vorher festgelegt Ports. Jegliche andere Kommunikation vom Projekt V-LAN nach außen (in
3.2.4 Aufbau des Frameworks
14
Das_virtuelle_Datacenter_im_Datacenter_mit_Hilfe_von_VMware_Virtualisierungslösungen
das interne Netz bzw. in das Datacenternetzwerk) wird durch die M0n0wall geblockt. Weiterhin übernimmt die
M0n0wall die Rolle eines DHCP Servers im Projekt V-LAN.
Die Administrations-VM besitzt 3 Netzwerkschnittstellen, je eine in das blaue, grüne und lilane Netzwerk, wobei
die dDritte Schnittstelle für das lilane Netz frei gebunden werden kann, jenachdem in welchem Projekt V-LAN
man arbeiten möchte. Als Monitoringlösung soll Nagios zum Einsatz kommen. Hier wird aufgrund der
Ausfallsicherheit ein Nagios Cluster mit Heartbeat und DRBD (Distributed Replicated Block Device) verwendet,
mit einer Primary/Secondary Konfiguration. Da in dieser Arbeit die Virtualisierungslösung behandelt werden soll
und nicht die Monitoringlösung einer solchen Umgebung, wird nicht genauer auf diesen Abschnitt eingegangen.
Bei einer solchen Größe sollte ebenfalls ein eigener DNS (Domain Name System) Server für das interne Netz
(Blau) verwendet werden, mit statischen Releases für die stetig genutzen VMs (M0n0wall, Reverse Proxys, u.A.)
Die Projekt Konsolen erhalten eine fest zugewiesene Adresse ohne DHCP, damit diese in allen Projekt V-LANs
gleich ist, und direkt als Weiterleitungsregel in der M0n0wall eingetragen werden kann.
3.2.5 Zugriff auf die Kundenappliances
Es wird zwischen zwei verschiedenen Aufrufen der Webintegration unterschieden:
1. Administrativer Zugriff des Kunden
2. Zugriff auf die Webintegration von Endkunden/Nutzern
Der Zugriff der Endkunden wird wie folgt realisiert:
1. Der Endkunde ruft eine URL (Uniform Ressource Locator) auf.
2. Der DNS Server gibt die Adresse für diese URL zurück. Hierbei handelt es sich um eine IP-Adresse aus
dem Datacenternetzwerk. Diese Adresse ist an einen IPCop gebunden.
3. Der IPCop leitet die Anfrage auf Port 80 an den Reverse Proxy auf dem Blauen Interface weiter. Da
Name-Based Reverse Proxys genutzt werden, wird nun anhand der URL die IP einer M0n0wall ermittelt,
die die angeforderte Webintegration vom Rest des Netzwerkes abgrenzt.
4. Die Anfrage wird an eine M0n0wall auf Port 80 weitergeleitet.
5. Die M0n0wall leitet diese Anfrage an die Kundenappliance, die die Webintegration bereitstellt, weiter.
6. Die Appliance schickt die Antwort über den eben beschrieben Weg zurück an den Endkunden.
Da auch Administrative Zugriffe nötig sind, um ggf. Patches für die in der Appliance verwendeten Software
einzuspielen, muss auch eine Schnittstelle definiert sein, um den Zugriff auf die Shell Konsole oder
Windows/Linux GUI zu ermöglichen. Hierzu wird die Projekt Konsole verwendet. Beispielablauf eines Zugriffes
auf eine Linux Kundenappliance:
1. Verbindung auf die URL oder die IP mit Port 22
2. Der IPCop leitet diese Anfrage weiter an die interne Netzwerk-IP der korrespondierenden M0n0wall mit
Port 22.
3. Diese leitet die Anfrage an die Projekt Konsole, auf der ein SSH Server aktiv ist.
4. Der Kunde gibt die ihm zuvor bereitgestellten Logindaten ein und ist nun auf der Projekt Konsole
eingeloggt.
5. Zugriff auf die Kundenappliance erfolgt nun über einen weiteren SSH Aufruf auf die IP-Adresse der
Kundenappliance im Projektnetzwerk.
Sollte es sich bei der Kundenappliance um ein System mit einer GUI handeln, so muß der Zugriff auf die GUI mit
VNC (Virtual Network Computing) via SSH getunnelt werden.
3.2.5 Zugriff auf die Kundenappliances
15
Das_virtuelle_Datacenter_im_Datacenter_mit_Hilfe_von_VMware_Virtualisierungslösungen
Alle angegebenen Ports sind Beispielports, bzw. die Standardports der jeweiligen Applikation.
3.2.6 Integration einer neuen Kundenappliance
Im folgenden Abschnitt wird die Integration einer Kundenappliance in das Virtuelle Rechenzentrum beschrieben,
damit im späteren Verlauf Vor- und Nachteile besser aufgezeigt werden können.
Der Kunde liefert eine Readty-to-deploy VM, eine virtuelle Appliance, mit seinem Webdienst. Spezielle
Voraussetzungen, wie z.b. dass die Appliance ihre IP-Adresse per DHCP bezieht, müssen vorher besprochen
werden und vom Kunden umgesetzt werden.
Da VMs wie Reverse Proxy, M0n0wall, IPCop und Projekt Konsole Just-in-time in das Framework integriert
werden, muss nun kontrolliert werden, ob ein weiterer IPCop und Reverse Proxy von einem Template aus erstellt
werden muss, weil man einen neuen 16er Block anfängt, oder ob in den alten Blöcken noch genügend Platz
vorhanden ist.
Fall 1:
Es besteht noch genug Platz in einem alten Block:
• Erstellen einer neuer M0n0wall aus dem Template und Zuweisen einer statischen IP-Adresse vom DHCP
des internen Netzes.
• Erstellen einer Projek Konsole aus dem Template und Konfiguration der Netzwerkkarte auf das neue
Projekt V-LAN.
• Da die meisten Kunden VMs nicht direkt ESXi kompatibel sind müssen diese durch den VMware
Converter in die Umgebung integriert werden.
• Nach der Integration in die Umgebung, wird der Kundenappliance das Projekt V-LAN zugewiesen und
die VM erhält eine DHCP IP-Adresse von der M0n0wall diese Projektes. Diese wird sogleich statisch
gesetzt und kann aufgrund der getrennten Projekt V-LANs bei allen Kundenappliances in den
verschiedenen Projekt V-LANs, gleich sein, um M0n0wall NAT (Network Adress Translation) Regel
schon im Template zu integrieren. Ein Beispiel hierfür wäre die Portweiterleitung von Port 80.
• Beim IPCop werden die Firewall Regeln dahingehend angepasst, dass nun eine SSH oder
HTTP(Hypertext Transfer Protocol)/HTTPS (Hypertext Transport Protocol Secure) Anfrage an die
entsprechende M0n0wall bzw. den Reverse Proxy weitergeleitet wird.
• Beim Reverse Proxy wird eine neue Apache Instanz angelegt, die die Weiterleitung von Anfragen auf
Port 80/443 an die entsprechende M0n0wall übernimmt.
• Test der Verbindung von Außen und ggf. Troubleshooting im Fehlerfall.
• Alle neu erstellen VMs werden mit Hilfe von Scripten automatisch ins Monitoring eingetragen.
• Der Kunde erhält Rückmeldung über die erfolgreiche Integration seiner Appliance, inklusive der
Zugangsdaten zur Projekt Konsole (Externe IP, Login, Password)
Fall 2:
Ein neuer Block muss angelegt werden.
• Ein neuer IPCop wird aus dem Template erstellt und angepasst.
• Ein neuer Reverse Proxy wird aus dem Template erstellt und angepasst.
• Danach werden alle weiteren Schritte aus Fall 1 abgearbeitet.
4 Analyse und Bewertung
3.2.6 Integration einer neuen Kundenappliance
16
Das_virtuelle_Datacenter_im_Datacenter_mit_Hilfe_von_VMware_Virtualisierungslösungen
Im folgenden Abschnitt erfolgt eine Analyse und Bewertung der technischen Möglichkeiten, sowie eine
ökonomische Betrachtung des Systems.
4.1 Vorteile
4.1.1 technisch
• Volle Kontrolle der Umgebung mit einem Team realisierbar
• Einfache Skalierbarkeit, durch Erweiterung des Clusters mit weiterer Hardware
• Standartisierte VMs erleichtern den Administrationsaufwand
• Rapid Deployment durch Nutzung von Templates, daraus folgt eine sehr kurze Time-to-Market
• Festlegung von externen Firewallregeln für ganze Blöcke möglich
• Ausfallsicherheit durch VMware Meachnismen wie HA, Fault Tolerance und VMotion
• Aufgrund fester Standards (IP-Vergabe, IP-Bereiche, Aufgaben der VMs) leicht automatisierbar/scriptbar
• Gemeinsame Schnittstelle aller VMs und deren Guest OS (Operating System) durch VMware API &
SDK.
• Easy-to-use GUI durch vCenter Server
4.1.2 ökonomisch
• Ressourcenoptimierung durch DRS und DPM
• Besser Auslastung der Hardware
• Geringere Housing/Hostingkosten durch weniger Hardware
• Prozessoptimierte Fehleranalyse, da die gesamte Umgebung von einem Team betreut werden kann und
nicht von mehereren Abteilungen, wie in einem großen Rechenzentrum, was unter Umständen
langwierige Prozesse mit sich bringt.
• Höhere Kundenzufriedenheit aufgrund schnellerer Time-to-Market und besserer Fehleranalyse
4.2 Nachteile
4.2.1 technisch
• Wenig Customizing Spielraum, da für eine Automatisierung viele Standards eingehalten werden müssen.
• Einarbeitung in die VMware CLI erforderlich
• Sehr viel Scriptingaufwand, um die Plattform zu automatisieren und operabel zu gestalten.
• Keine VMware Tools Unterstützung bei einigen Kernkomponenten, z.B. M0n0wall.
4.2.2 ökonomisch
• Hohe Lizenzkosten durch die VMware Lizenzen
• Hohe Schulungskosten für diverse VMware Produkte, da die Schulungen aufeinander aufbauen[27]
• In der Regel ist SAN in Rechenzentren sehr kostspielig
4 Analyse und Bewertung
17
Das_virtuelle_Datacenter_im_Datacenter_mit_Hilfe_von_VMware_Virtualisierungslösungen
5 Empfehlung
Aufgrund der umfassenden technischen und ökonomischen Vorteile, ist eine oben beschriebene Umgebung
optimal, um Kosten zu sparen.Die anfallenden Lizenz- und Schulungskosten werden von den eingesparten
Energie- und Operatingkosten aufgefangen. Weiterhin wird eine bessere Time-to-Market geboten, da durch die
Reduzierung der Administration der gesamten Umgebung, auf ein Team, Prozesse optimiert werden können.
Diese Lösung verursacht allerdings im Vollausbau, im Vorfeld, einen hohen Infrastrukturaufwand sowie
Lizenzkosten, wodurch eine Umsetzung eher für Großunternehmen/Global Player, ggf. mit eigenem
Rechenzentrum, oder Webserviceprovider/Webhoster geeignet ist.
Dieses Konzept lässt sich allerdings auch auf kleinere Umgebungen übertragen, die nicht über 100
Kundenprojekte hosten wollen. Dabei werden aber einige VMware Features nicht genutzt werden können
(DRS/DPM oder VMotion), aufgrund der hohen Lizenzkosten.
6 Fazit
Mit VMware ist es möglich, aufgrund der zahlreichen Virtualisierungsoptionen, wie VMotion, HA oder DRS,
eine sichere Infrastruktur zur Verfügung zu stellen. Das Konzept der Konsolidierung interner Services in einer
virtuellen Umgebung ist für Unternehmen, die viele interne Services anbieten um ihren externen Service zu
verbessern, sehr gut geeignet, da es skalierbar, adminstrierbar und automatisierbar ist. Die hieraus resultierenden
Konsteneinsparungen, im Hosting, Housing und im Human Ressources Bereich können in neue Projekte investiert
werden. Durch vorgefertigte VMs die rein spezielle Aufgaben übernehmen, ist ein Rapid Deployment und eine
schnelle Time-to-Market realisierbar, was sich positiv auf die Customer Relations auswirkt.
Diese Konzept bietet hohes Erfolgspotential und vorallem Kosteinsparungpotential, sollte es global eingesetzt
werden. Die hieraus eingesparten Energiekosten und der verringerte CO² Ausstoß wären enorm, gemäß dem Fall
jedes Unternehmen mit einem Rechenzentrum oder jeder Global Player im Rechenzentrumsmarkt (wie Google
oder EBay) würden auf dieses Konzept wechseln, um Interne Services abzubilden. Das Konzept zeigt auf, dass es
möglich ist mit 4 ESXi Servern ca. 128 interne Services abzubilden und zu verwalten.
Darüber hinaus, besteht die Möglichkeit dieses Konzept zu erweitern und auf die Datacentervirtualisierung zu
übertragen.
7 Fußnoten
1. ? Vgl. VMware_why(2010)
2. ? 2,0 2,1 Vgl. VMware ESXi Features
3. ? Vgl. VMware Licensing
4. ? 4,0 4,1 4,2 Vgl. VMware DRS Overview
5. ? 5,0 5,1 5,2 5,3 Vgl. VMware DRS Features
6. ? 6,0 6,1 6,2 Vgl. VMware VMotion Overview
7. ? 7,0 7,1 Vgl. VMware VMotion Features
8. ? Vgl. VMware HA Overview
9. ? Vgl. VMware HA Features
10. ? Vgl. VMware ESXi FAQ
11. ? Vgl. VMware API & SDK Documentation
12. ? 12,0 12,1 Vgl. VMware vSphere CLI
13. ? Vgl. PowerCLI Documentation
14. ? http://msdn.microsoft.com/en-us/library/ms714395(VS.85).aspx
5 Empfehlung
18
Das_virtuelle_Datacenter_im_Datacenter_mit_Hilfe_von_VMware_Virtualisierungslösungen
15. ? Vgl. vSphere PowerCLI Blog EcoShell
16. ? 16,0 16,1 Vgl. EcoShell Product Presentation from Pablo Roesch
17. ? Vgl. VMware SDK for Perl 4.0 Utility Applications Reference
18. ? Vgl. VMware vCenter Features
19. ? Vgl. VMware vCenter Converter Overview
20. ? Vgl. VMware vCenter Converter Features
21. ? 21,0 21,1 Vgl. VMware ESXi 4.0 Installable
22. ? 22,0 22,1 22,2 Vgl. VMware Compatibility Guide
23. ? http://sourceforge.net/apps/trac/ipcop/wiki
24. ? http://www.apache.org/
25. ? http://m0n0.ch/wall/
26. ? VMware Snapshot Overview
27. ? Vgl. VMware Schulung Prerequisites
8 Abkürzungsverzeichnis
Abkürzung
CPU
TB
RAM
NIC
DRS
VM
VMs
DPM
QoS
HA
SSH
CLI
SDK
API
CIM
OVF
VDDK
VMDK
COM
VMCI
cmdlets
IDE
XML
KED
Gb
SCSI
7 Fußnoten
Bedeutung
Central Processing Unit
Terrabyte
Random Access Memory
Network Interface Card
Distributed Ressource Scheduling
Virtuelle Maschine
Virtuelle Maschinen
Distributed Power Management
Quality of Service
High Availbility
SecureShell
Command-Line Interface
Software Development Kit
Application Programming Interface
Common Information Model
Open Virtualisation Format
Virtual Disk Development Kit
Virtual Maschine Disk
Component Object Model
Virtual Maschine Communication Interface
Command-lets
Integrated Development Environment
Extensible Markup Language
Known Error Database
Gigabit
Small Computer System Interface
19
Das_virtuelle_Datacenter_im_Datacenter_mit_Hilfe_von_VMware_Virtualisierungslösungen
RAID
SATA
USB
DHCP
V-LAN
SAN
NAS
GUI
DRBD
DNS
URL
NAT
VNC
HTTP
HTTPS
OS
Redundant Array of Independent Disks
Serial Advanced Technology Attachment
Universal Serial Bus
Dynamic Host Configuration Protocol
Virtuelles Local Area Network
Storage Area Network
Network Attached Storage
Graphical User Interface
Distributed Replicated Block Device
Domain Name Service
Uniform Ressource Locator
Network Adress Translation
Virtual Network Computing
Hypertext Transfer Protocol
Hypertext Transfer Protocol Secure
Operating System
9 Abbildungsverzeichnis
Abb.-Nr.
1
2
3
4
5
6
Abbildung
Quelle
Übersicht des VMware
http://www.vmware.com/de/products/vsphere/buy/editions_comparison.html 2010-07Lizenzmodells
VMware VMotion
http://www.vmware.com/files_inline/images/DGRM_vSphere_vMotion.gif 2010-07-1
VMware HA
http://www.vmware.com/files_inline/images/DGRM_vSphere_HighAvailability.gif 20
https://vmware.webex.com/vmware/lsr.php?AT=pb&SP=MC&rID=34440042&rKey=
EcoShell
Minute 13:11 2010-07-17 11:18
Hardwareaufbauschema
eines virtuellen
Erstellt von Benjamin Bublitz
Rechenzentrums im
Rechenzentrum
Schematischer Aufbau
Erstellt von Benjamin Bublitz
der virtuellen Netze
10 Tabellenverzeichnis
Tabellen-Nr. Tabelle
Quelle
Auflistung
aller
In Anlehnung an:
Scripte
1
http://www.vmware.com/support/developer/viperltoolkit/viperl40/doc/perl-toolkit-right.html
aus dem
2010-07-17 11:23
SDK for
Perl
8 Abkürzungsverzeichnis
20
Das_virtuelle_Datacenter_im_Datacenter_mit_Hilfe_von_VMware_Virtualisierungslösungen
11 Literaturverzeichnis
Internetquellen
VMware_why(2010)
VMware ESXi
Features
VMware Licensing
VMware DRS
Overview
VMware DRS
Features
VMware VMotion
Overview
VMware VMotion
Features
VMware HA
Overview
VMware HA
Features
VMware ESXi FAQ
VMware API & SDK
Documentation
VMware vSphere
CLI
VMware PowerCLI
Documentation
VMware vSphere
PowerCLI Blog
EcoShell
EcoShell Product
Presentation from
Pablo Roesch
VMware SDK for
Perl 4.0 Utility
Applications
Reference
VMware vCenter
Features
VMware vCenter
Converter Overview
VMware vCenter
Converter Features
VMware ESXi 4.0
Installable
11 Literaturverzeichnis
VMware(Hrsg) Grundlagen der Virtualisierung, "Wozu Virtualisieren?" http://www.vmware.com
VMware(Hrsg) ESXi Featurelist http://www.vmware.com/de/products/esxi/features.html, 10.06.
VMware(Hrsg) Vergleich der vSphere-Editions für mittelständische und große Unternehmen http
VMware(Hrsg) DRS "Übersicht" http://www.vmware.com/de/products/vi/vc/drs_overview.html
VMware(Hrsg) DRS "Features" http://www.vmware.com/de/products/vi/vc/drs_features.html, 14
VMware(Hrsg) VMotion "Übersicht" http://www.vmware.com/de/products/vi/vc/vmotion_overv
VMware(Hrsg) VMotion "Features" http://www.vmware.com/de/products/vi/vc/vmotion_feature
VMware(Hrsg) HA "Übersicht" http://www.vmware.com/de/products/vi/vc/ha_overview.html, 1
VMware(Hrsg) HA "Features" http://www.vmware.com/de/products/vi/vc/ha_features.html, 14.0
VMware(Hrsg) ESXi FAQ http://www.vmware.com/de/products/esxi/uses.html, 10.06.2010 19:0
VMware(Hrsg) VMware APIs and SDKs Documentation http://www.vmware.com/support/pubs
VMware(Hrsg) VMware vSphere Command-Line Interface Documentation http://www.vmware
VMware(Hrsg) VMware vSphere PowerCLI Documentation http://www.vmware.com/support/p
VMware(Hrsg) vSphere PowerCLI Blog EcoShell http://blogs.vmware.com/vipowershell/2009/0
vizioncore(Hrsg) EcoShell Product Presentation from Pablo Roesch
Webex: https://vmware.webex.com/vmware/lsr.php?AT=pb&SP=MC&rID=34440042&rKey=4
Document: http://communities.vmware.com/servlet/JiveServlet/download/2530-222424-1318360
VMware(Hrsg) vSphere SDK for Perl 4.0 Utility Applications Reference http://www.vmware.co
(Frei übersetzt von Benjamin Bublitz), 24.06.2010 16:13
VMware(Hrsg) vCenter "What's New in VMware vSphere 4.0" http://www.vmware.com/suppor
VMware(Hrsg) vCenter Converter Overview http://www.vmware.com/products/converter/overv
VMware(Hrsg) vCenter Converter Features http://www.vmware.com/products/converter/features
VMware(Hrsg) "Erste Schritte mit ESXi Installable" http://www.vmware.com/files/de/pdf/vsp_4
21
Das_virtuelle_Datacenter_im_Datacenter_mit_Hilfe_von_VMware_Virtualisierungslösungen
VMware
Compatibility Guide
VMware(Hrsg) "Search the VMware Compatibility Guide" http://www.vmware.com/resources/c
VMware Snapshot
Overview
VMware(Hrsg) "Understanding virtual machine snapshots in VMware ESX"
http://kb.vmware.com/selfservice/microsites/search.do?cmd=displayKC&docType=kc&external
05.07.2010 17:56
VMware Schulung
Prerequisites
VMware(Hrsg) "Course Description for VMware vSphere: Troubleshooting [V4]" http://mylearn
11 Literaturverzeichnis
22

Documentos relacionados