Grundlagen für den Neubau eines Rechenzentrums - dc
Transcrição
Grundlagen für den Neubau eines Rechenzentrums - dc
Grundlagen für den Neubau eines Rechenzentrums 2010 Die Konzeptionen und Planungen von Rechenzentren stellen heute eine große Herausforderung dar, denn gegenüber älteren Rechenzentren sind die Last- und Verfügbarkeitsanforderungen deutlich gestiegen, was eine Unmenge von neuen Ideen und Lösungen mit sich gezogen hat. Parallel sind zwar Planungshilfen von übergeordneten Instituten wie Uptime (Verfügbarkeitsstufen Tier I bis Tier IV), Bitkom (Leitfaden für betriebssichere Rechenzentren) oder von diversen Herstellern im Umlauf, aber die entscheidenden Hilfen, wie groß und mit welcher Leistung ein Rechenzentrum gebaut werden sollte und mit welchem Budget welche Qualität erreicht werden kann, werden damit auch nicht gegeben. Ein Rechenzentrum heute bedarfsgerecht zu planen, heißt das Optimum zwischen passgenauer Leistung, Verfügbarkeit und Kosten zu finden. Deshalb empfiehlt es sich, die Kosten als drittes und in der Regel wichtigstes Entscheidungskriterium von Anfang an in den Planungsprozess aufzunehmen. Im Rechenzentrumsbau gibt es 2 bzw. 3 wesentliche Kostentreiber, die ein Rechenzentrum teuer werden lassen. Der erste Kostentreiber ist die individuelle Anforderung des Kunden an das Rechenzentrum. Eine gewisse Extravaganz kostet halt. Es kann viel Geld in Architektur und Design fließen, die nicht unbedingt die Qualität eines Rechenzentrums erhöht. Auf diese Kosten werde ich nicht weiter eingehen, da sie nicht greifbar sind. Der zweite Kostentreiber ist die Verfügbarkeitsanforderung. Zwischen einer Tier 1 Anforderung und einer Tier 4 Anforderung stecken die 3 fachen Kosten. Wenn einem diese Preisspannen bewusst sind, lassen sich häufig langwierige Auseinandersetzungen mit Verfügbarkeitsanforderung der Klasse Tier 3+ oder höher vermeiden, da die finanziellen Mittel gar nicht zu Verfügung stehen. Der dritte Kostentreiber ist die Leistungs- bzw. Lastanforderung. Sehr häufig komme ich heute zu Kunden, die sehr leichtfertig, im Namen der Zukunftssicherheit, eine Lastanforderung von 2000 W/qm und mehr angeben. Das aber zwischen 1000 W/qm und 2000 W/qm ca. 75 % Mehrkosten entstehen können, ist noch nicht in den Köpfen verankert. Gerne möchte ich an dieser Stelle ein Praxisbeispiel geben. Ein Rechenzentrumsbetreiber plante den Neubau eines Rechenzentrums. Er setzte 2000 qm als neue Rechenzentrumsfläche an, was in etwa dem der alten Fläche entsprach. Ferner war seine Planungsgröße für den Leistungsbedarf 1.500 W/qm (RZ Fläche). Aus diesen Anforderungen summierte sich die Lastanforderung auf 3 MW für die IT – Last, plus ca. 3 MW für die Infrastruktur (es wird hierbei der ungünstigste Energiebedarf – Sommer > 35 °C angesetzt). Mit der weiterhin geforderten Verfügbarkeitsanforderung Tier 3+ summierten sich die Kosten im ersten Überschlag auf 25 Mio. Investitionskosten, was ihn förmlich „aus den Socken haute“. Unter dem Damoklesschwert der Kosten wurden jetzt a) sein aktueller Leistungsbedarf, b) das mit der IT abgesprochenen Wachstumsszenario und c) die Möglichkeiten der Einbeziehung einer Virtualisierung exakt unter die Lupe genommen und brachten ein erstaunliches Ergebnis. Man errechnete, dass man den kompletten IT–Betrieb auf einer Fläche von 500 qm inklusive Wachstum darstellen könnte. Die Leistungsanforderung sank dabei auf etwa 1250 W/qm. Bei gleichbleibender Verfügbarkeit sanken gleichsam die gesamten Leistungsanforderungen auf 1,5 MW und die überschlägigen Kosten auf etwa 8 Mio. Wären von Anfang an die Kosten als Überschlag mit in die Konzeption eingeflossen, hätte man sich den ersten Umweg erspart. Was in diesem, sicherlich dramatischen Beispiel erkennbar wird, ist die Tatsache, dass ungenaue Angaben zu einer extremen Kostensteigerung führen kann. Wie Sie dem sinnvoll vorbeugen, dann in meinem nächsten Blog. Im Teil 1 dieses Blogs haben ich die möglichen, extremen Auswirkungen einer falschen Grundlagenerhebung dargestellt. Ergebnis war, dass dadurch entweder die Kosten explodieren oder das Rechenzentrum schnell an die Leistungsgrenze kommen kann. Um diese ungewünschten Auswirkungen vorzubeugen, empfahl ich die Kostentreiber Verfügbarkeit und notwendige IT Leistung (Last) genauer zu analysieren. Beginnen wir mit der Analyse der notwendigen IT- Leistung, mit der der Strom- und Kühlungsbedarf festgelegt wird und die Anlagendimensionierung maßgeblich beeinflusst wird. Aus meiner Erfahrung liegt hier eine größe Lücke zwischen Theorie und Praxis. Immer wieder wird argumentiert, dass der tatsächliche Bedarf nicht annähernd ermittelt werden kann, weil die Veränderungen in der IT- Entwicklung eine zu hohe Unbekannte darstellt. Diese Aussage ist schlichtweg falsch und man ist heute sehr wohl in der Lage mehr Planungssicherheit zu bekommen als zur Zeit akzeptiert wird. Denn es werden nicht einmal annähernd die zu Verfügung stehenden Daten als Planungsgröße analysiert. Aktuelle und Leistungsverbräuche der Vergangenheit, Wachstum der letzten Jahre, Herstellerinformationen und Trendforschung werden nicht herangezogen, womit die Planungen zwangsläufig ungenau und zufällig bleiben. Aber gerade diese wesentliche und notwendige Basisarbeit hilft das Last- und Leistungsverhalten der IT zu verstehen und daraus eigene Trends und Entwicklungen zu erarbeiten. Hierbei sind folgende Fragen zu beantworten: Welche IT betreibe ich und wie? Welchen Energieverbrauch hat diese IT und arbeitet sie energieeffizient? Ist die Hardware die richtige für meine Anwendungen? Welche Migrationen stehen an? Was kann ich virtualisieren? Welches Wachstum hat es in den letzten Jahren gegeben? Welche Folgen hatte es auf den Energieverbrauch gehabt? Stimmt die Auslastung der Server zur benötigten Energielast? Welche Veränderungen erwarte ich aus dem originären Geschäft, die welchen Einfluss auf die IT haben wird? Welche Trends leiten sich aus den Veränderungen der letzten Jahre ab? Welche neuen Erkenntnisse gibt es, die diesen Trend beeinflussen? Was sind die wesentlichen Wachstumstreiber und warum? Was sind die wesentlichen Unbekannten und warum? Mit der Analyse all dieser Fragen bildet sich ein deutliches klareres Bild des IT und RZ-Betriebes. Natürlich gibt es immer noch einige Unbekannte. Aber mit Hilfe eines „Best-and Worst-case“ Szenarios erhält man eine Entscheidungshilfe, die das Unbekannte auf das mögliche reduziert. Ich gebe ein Praxisbeispiel: Ein Mittelständler wollte ein neues Rechenzentrum bauen. Dafür stellte er einen Raum von 30 m2 zur Verfügung. Um zukunftssicher zu planen legte er 800 – 1.000 W/m2 zu Grunde, was hochgerechnet eine gesamte IT Leistung von ca. 25 kW bedeutete. Erste Schätzkosten lagen bei etwa 160.000 – 180.000 Euro. Eine angesetzte Leistungsmessung ergab, dass der tatsächliche Verbrauch der IT bei etwa 6 – 7 kW lag. Mit Hilfe der Konfigurationsprogramme der Serverhersteller wurde der maximale Verbrauch jedes Servers analysiert und das bekannte Wachstum an zusätzlicher Hardware eingerechnet. Daraus ergab sich eine maximale IT Last von 11 kW. Die Möglichkeit der Energieoptimierung durch Virtualisierung wurde nicht mit eingerechnet, da dieser Schritt noch nicht terminiert werden konnte. Jetzt wurde gemeinsam mit der GF entschieden, dass ein weiteres nicht definiertes Wachstum von 50 % berücksichtigt werden sollte, da man an einer Expansion des Unternehmens glaubte. Somit war die Last für den Endausbau auf 17 kW errechnet worden. Gegenüber dem reinen fiktiven Ansatz von 25 kW wurden 8 kW Grundlast gespart bzw. grob 40.000 bis 50.000 Euro Investitionsvolumen. Der Aufwand um diese Erkenntnis zu erarbeiten lag bei maximal 6 Personentage (Inhouse und Extern) gewesen. Die Arbeit hatte sich gelohnt.