als PDF
Transcrição
als PDF
ix.1207.x.01-12 05.11.2007 15:28 Uhr Seite I sponsored by: Ein Verlagsbeihefter der Heise Zeitschriften Verlag GmbH & Co. KG Storage extra Storage Begrenzte Lebensdauer Disks – Status quo und Trends Schwerpunkt: Disk-Systeme – Technik und Produkte Primär- oder Online-Storage steht im Mittelpunkt fast aller Speicherinfrastrukturen. Was dem Privatanwender und Geschäftsreisenden seine PC- oder Notebook-Festplatte ist, sind den Unternehmen aller Größenordnungen ihre Disksysteme. Disks – Status quo und Trends Begrenzte Lebensdauer Seite I Trends bei Disk-Subsystemen Angesagte Vielfalt Seite VIII Vorschau Netzwerke Schwerpunkt: Aktuelle Trends bei Wireless LANs Seite XII Veranstaltungen 21. – 22. November 2007, Nürnberg 20. Deutsche Oracle-Anwenderkonferenz www.doag.org/konferenz/doag/2007 3. – 5. Dezember 2007, Frankfurt Sun Tech Days de.sun.com/sunnews/events/2007/20071203 25. – 28. Februar 2008, Dresden ARCS 2008 – Architecture of Computing Systems http://arcs08.inf.tu-dresden.de 4. – 9. März 2008, Hannover Cebit 2008 www.cebit.de 31. März – 2. April 2008, Dortmund 14. GI/ITG Konferenz Messung, Modellierung und Bewertung von Rechen- und Kommunikationssystemen (MMB 2008) www4.cs.uni-dortmund.de/mmb08/index_de.html 7. – 10. April 2008, Orlando, Florida Storage Networking World USA Spring 2008 www.snwusa.com ber 90 Prozent aller neu geschaffenen Informationen sind mittlerweile elektronisch erfasst, die meisten davon auf Festplatten [1]. Dass deren Garantiezeit in der Regel nach drei Jahren ausläuft, hat seinen guten (oder schlechten) Grund: Harddisks werden nicht alt, und mit ihnen sterben die auf ihnen abgelegten digitalen Informationen. Es lohnt sich deshalb, sich etwas Gewissheit über den Aufbau und die Robustheit ihrer Komponenten zu verschaffen und darüber, welche Faktoren zu Plattenfehlern und -ausfällen führen. Die Hersteller von Festplatten und Speichersystemen haben sich ganze Arsenale von Gegenmaßnahmen und redundanten Erweiterungen einfallen lassen, um den permanent drohenden Datengau zu verhindern. Von diesen Abwehrstrategien leben sie gar nicht schlecht. Ü Die Basis: Platten, nichts als Platten In Bezug auf die mechanischen Teile einer Festplatte ist die Vorstellung weit verbreitet, heute sei Platte gleich Platte. Immerhin arbeiten die Hersteller seit 1956 an der Verbesse- rung dieser Technik. Von den einst über 100 Anbietern sind nur noch eine Handvoll übrig geblieben, der Markt ist weitgehend konsolidiert; die Preise und Gewinnmargen fallen kontinuierlich [2]. Doch auch heute noch kann es entscheidend sein, welche Festplatten-Serie ein Unternehmenskunde einsetzt – die Unterscheidungsmerkmale sind beträchtlich. Platte ist nicht gleich Platte. Sie unterscheiden sich zunächst danach, ob man hochdrehende Laufwerke mit SCSI, SAS (Serial Attached SCSI) oder Fibre Channel (FC) mit 10ˇ000 oder 15ˇ000 U/min Rotationsgeschwindigkeit oder Laufwerke auf ATA- oder SATA-Basis mit 5400 bis 7200 U/min einsetzt – höhere Rotationsgeschwindigkeit bedeutet schnellere Schreib- und Lesezugriffe und geringere Latenzzeiten – besonders wichtig bei Datenbanken oder OLTP-Transaktionen. Im Businessbereich teilten sich SCSI- und FC-Platten lange Jahre den Markt, mit immer größeren Anteilen für FC im Highend. Doch die so festgefügte Welt ist mit SATA ins Wanken geraten: Nach einigen Anläufen und Verbesserungen sind SATA-Platten dabei, die Unter- I ix.1207.x.01-12 05.11.2007 15:28 Uhr Seite II 8 AFR (%) 4 6 2 Je höher die Ausfallrate, desto öfter steht ein Plattentausch an, wobei die Rebuild-Zeit – abhängig vom gewählten RAIDLevel (Redundant Array of Inexpensive/Independent Disks) und der Plattenkapazität – mehrere Stunden bis Tage dauern kann. Verkäufer raten Anwendern heute oft in fahrlässiger Weise, statt teurer SASoder FC-Platten lieber SATA einzusetzen. Wer das tut, muss sich darüber klar sein, so urteilt Speicherspezialist Peter Sauter von IBM, dass im 24-StundenBetrieb mit hoher Wahrscheinlichkeit mehr Platten ausfallen werden als bei Fibre-ChannelLaufwerken. Unabhängig von den Ausfallraten empfiehlt sich etwa alle 5 Jahre 4 Jahre 3 Jahre 2 Jahre 1 Jahr 6 Monate 3 Monate 0 Quelle: [1] nehmenswelt zu erobern. Hier kommt es auf den 24-StundenBetrieb an, während man im PC- oder Heimbereich von maximal acht Stunden Betriebszeit pro Tag ausgeht. Während Motor, Lager und andere mechanische Teile die wichtigsten Unterschiede auf der reinen Hardwareebene ausmachen, sind der Aufbau der Magnetscheibe sowie die Elektronik des Schreib-/Lesekopfes in der Regel identisch. Julius Faubel, Presales Manager Central Europe bei Overland Storage, verweist ferner auf Kriterien wie Performance, Haltbarkeit beziehungsweise Langlebigkeit, Stromaufnahme oder Kapazität der Platten, die sich aus der Art und Qualität der Komponenten ergeben. Den Faktor Langlebigkeit bestimmt zum Beispiel das Design der Schreib-/Leseköpfe: Bei höherwertigen Platten vermeidet man, dass sich die Köpfe zu sehr in Richtung Plattenmitte oder Spindel bewegen. Dort ist der Auftrieb geringer, was die Gefahr eines vorzeitigen Crashs erhöht. Je nach Einsatzzweck gibt es Abstufungen bei den Materialien und den Prüfverfahren, wobei auf der Materialseite im Laufe der Jahre viele Verbesserungen stattgefunden haben. 10 Storage drei bis vier Jahre ein freiwillig vollzogener Austausch der Platten. Zu diesem Zeitpunkt läuft in der Regel die Gewährleistung durch den Hersteller aus, buchhalterische und Abschreibungsgründe sind weitere Anlässe für eine Neuinvestition. Doch der eigentliche Grund für diese Maßnahme liegt in einem eigenartigen Widerspruch des sogenannten digitalen Zeitalters: Zwar werden immer mehr Informationen auf magnetischen Speichern abgelegt, doch diese sind alles andere als langlebig – ein Stromausfall, ein Headcrash, Materialschäden, Diebstahl oder ein plötzliches Lebensende der Hardware genügen, um alles das, was so sorgfältig und unter Aufwand beträchtlicher Kosten ANWENDUNGEN UND GRENZEN VON FESTPLATTEN Leistungsgrenze pro Kanal Anwendungsgebiete II SATA 300 MByte/s SCSI 320 MByte/s SAS 300 MByte/s 1 max. 14 65 MByte/s 90 – 105 MByte/s 10ˇ000/ 15ˇ000 U/min Native (NCQ) Command Queuing (TCQ) 1 (128 mit Expander) 105 MByte/s 7200 U/min Native (NCQ) Command Queuing (TCQ) – – Transfer großer Dateien (> 100 KByte); DBs bis ca. 100 Nutzer; A/V-Serving und Streaming; Fileserver; Backupund Archivsysteme FC 200/400 MByte/s 1 95 – 110 MByte/s 15ˇ000 U/min 10ˇ000/ 15ˇ000 U/min Native (NCQ) Native (NCQ) Command Command Queuing (TCQ) Queuing (TCQ) ab 4 Platten – – transaktionsintensive Anwendungen mit kleinen Datenblöcken; OLTP-Datenbanksysteme; Mailingsysteme iX extra 12/2007 Quelle: Transtec Typ PATA Durchsatz pro 133 MByte/s Kanal Anzahl Festplatten max. 2 pro Kanal Performance pro 60 MByte/s Festplatte Umdrehungs5400/ geschwindigkeit 7200 U/min Organisation der – Schreib-/Lesezugriffe SUPERBLADETM GET THE EDGE ■ Performance mit bis zu 160 Cores in 7 HE ■ Einsatz von Intel® Xeon® oder AMD Opteron® Der SuperBlade™ sind optimiert für folgende Anwendungen: Enterprise, Finanzdienste, Dual- oder QuadCore Prozessoren ■ Netzteile mit 90%+ Wirkungsgrad Datenbanken, Datenbank Center, wissenschaftliche Anwendungen, HPC, Personal Super Computer. Weniger Verkabelung ■ Ethernet- und Infiniband-Switches ■ © www.artraction.de, 06/07 ■ Sehr gutes Preis-/Leistungsverhältnis ServerBlade mit 3.5" oder 2.5" Festplatten Infiniband Switch mit 10 externen Anschlüssen Weitere Informationen über unsere Produkte unter: www.cpigmbh.de und Hotline 0800-100 82 69 Alle Marken- und Produktbezeichnungen sind Warenzeichen oder eingetragene Warenzeichen des entsprechenden Unternehmens. Druckfehler, Irrtümer und Änderungen vorbehalten. ix0707_x_000_CPI.indd 1 Gigabit Ethernet Switch mit 10 externen Anschlüssen Management Modul zur Überwachung CPI Computer Partner Handels GmbH Kapellenstr. 11 D-85622 Feldkirchen Telefon: (+49)-0 89/96 24 41- 0 Telefax: (+49)-0 89/96 24 41- 33 08.06.2007 12:24:25 Uhr ix.1207.x.01-12 05.11.2007 15:28 Uhr Seite IV Storage Angaben zur Haltbarkeit Um Aussagen über die Belastbarkeit und die zu erwartende Lebensdauer zu treffen, benutzen Hersteller gerne die sogenannte MTBF (Mean Time Between Failure), einen hochgerechneten Wert über den wahrscheinlichen Ausfall eines Laufwerks. Üblich bei aktuellen Platten ist ein MTBF von 200ˇ000 bis 1 Million Stunden bei SATA-Platten und von über 1 Million Stunden bei High-EndLaufwerken. Das bedeutet aber keinesfalls, dass eine Festplatte das biblische Alter von 114 Jahren (= eine Million Stunden) erreicht. Vielmehr legen die Hersteller bei dieser „Mogelpackung“ eine hohe Anzahl von Festplatten zugrunde: Bei einer Million parallel laufenden Platten fallen statistisch in einem Jahr (8736 Stunden) 8736 Platten aus, also jede Stunde eine. Bei tausend Platten wären es noch 8,7 Platten im Jahr. Diese Werte sind aus Hersteller-Tests hochgerechnet und gelten selbstredend nur, wenn die Festplatten unter optimalen Bedingungen laufen. Da die nur selten vorkommen, dürfte die tatsächliche Ausfallrate je nach Umgebung weit höher liegen – unter einigermaßen regulierten Bedingungen wie im Serverraum etwa bei der doppelten. Übrigens bekommen Solid State Disks heute von ihren Herstellern eine MTBF von 2 Millionen Stunden zugesprochen, da ihnen die störanfälligen Teile fehlen. Allerdings verkraften sie nur eine begrenzte Anzahl von Schreibzugriffen 10ˇ000 bis 1 Million. Nachden die MTBF als Angabe zur Lebensdauer von Massenspeichern mehr Verwirrung gestiftet als Klarheit geschaffen hat und dadurch immer wieder in die Kritik geraten ist, schwenken die Hersteller auf andere Einheiten IV um. Im Kommen ist momentan die Annualized Failure Rate (AFR). Sie ermittelt sich genauso wie die MTBF, gibt aber gleich die jährliche Ausfallrate in Prozent der installierten Basis an, das heißt, wenn von tausend Platten 8,7 im Jahr ausfallen, beträgt die jährliche Ausfallrate oder AFR 0,87ˇ% (AFR (%) = 1/MTBF x POH (Power On Hours) x 100). Eine weitere neue Angabe ist Component-Design-Life (CDL). Sie gibt die vorgesehene maximale Lebensdauer der Komponenten an. Wenn ein Hersteller also eine CDL von fünf Jahren verspricht, heißt das, dass die Komponenten maximal für einen unter idealen Bedingungen stattfindenden fünfjährigen Betrieb ausgelegt sind. Auch hier sind entsprechend den tatsächlichen Belastungen und Umgebungsbedingungen Abstriche zu machen. Neuerdings veröffentlichen Hersteller auch Angaben zu konkreten Belastungen und Fehlerquellen. Dazu gehören: –ˇDuty Cycle gibt an, wie hoch der prozentuale Anteil von Schreib-, Lese- und Suchoperationen während des Betriebs sein darf, ohne dass das Laufwerk an Zuverlässigkeit verliert, –ˇLoad/Unload Cycle limitiert die Anzahl der Schreib-/Lesekopf-Positionierungen, bis zu der keine Fehler durch mechanische Abnutzung auftreten, –ˇRecommended Power On Hours verweist auf empfohlene maximale Betriebsstunden, –ˇRecoverable Error Rate besagt, wie oft behebbare Fehler auftreten, –ˇStart/Stop Cycle verrät, wie oft der Motor anfährt oder bremst, bevor Fehler durch mechanische Abnutzung auftreten können und –ˇUnrecoverable Error Rate gibt an, wie häufig nicht behebbare Fehler auftreten. gespeichert wurde, endgültig dem Nirwana zu übergeben. Harddisks geben durchschnittlich nach drei bis vier Jahren ihren Geist auf, LTOTapes sollen es inzwischen auf 30 Jahre bringen und die Highend-Tapes von IBM sogar auf 60 Jahre. Doch sollte hier Vorsicht angebracht sein. Wer heute noch an die Herstelleraussagen von vor einigen Jahren glaubt, dass CD-ROMs für 100 Jahre ein sicherer Datenspeicher sei, ist selbst schuld [3]. Von den Herstellern jedenfalls sind solche Töne bei CD-ROMs nicht mehr zu vernehmen. Der richtige Zeitpunkt für den Austausch von Festplatten hängt auch davon ab, unter welchen äußeren Bedingungen wie Temperaturschwankungen die Festplatten laufen und wie viel sie beziehungsweise die Schreib-/ Leseköpfe arbeiten müssen (Duty Cycle). Weitere Faktoren sind der sogenannte Load/Unload-Cycle (Positionierung des Schreib-/Lesekopfs) und der Start/Stop-Cycle (Anlaufen und Bremsen des Motors), denn häufiges Hochfahren und Ausschalten belastet eine Platte mehr als wenn sie 24 Stunden durchläuft – vergleichbar den Stresssituationen von Flugzeugen bei Start und Landung. Selbst wenn die Platten im Einzelfall noch etwas länger über den Drei-Jahres-Rhythmus hinaus halten sollten, handelt ein Unternehmen extrem fahrlässig, wenn es sie nicht rechtzeitig auswechseln und die Daten umkopiert: Was sind schon die (stetig fallenden) Kosten für neue Platten und die auflaufenden Administratorstunden im Verhältnis zu einem (selbst verschuldeten) Datengau, dessen Schaden ins Unermessliche explodieren kann? Mit jeder neuen Generation von Festplatten verschaffen sich die Unternehmen zugleich ein deutliches Mehr an Kapazität und können so zumindest einen Teil des Datenwachstums abfangen. Bisher ist man davon ausgegangen, dass sich etwa alle 18 Monate die Kapazität eines Laufwerks verdoppelt. Schon aus Gründen der Wirtschaftlichkeit beim Herstellungsprozess wird sich dieses Tempo auf Zeiträume von etwa zwei bis drei Jahre verlangsamen, meint IBM-Mann Sauter. Zu Ende sei es aber noch nicht, wie die gerade erst vorgestellten neuen Platten mit Kapazitäten von 750 Gigabyte oder einem Terabyte beweisen würden. Denn gerade erst hat das Perpendicular Recording die Wachstumsgrenze wieder ein Stückchen hinausgeschoben. Erst wenn eine alternative Technik auftauchen wird, die die Harddisks sowohl bei der Performance als auch beim Preis schlagen kann, wird sich laut Sauter das Ende der Disk-Ära abzeichnen. Gegenwärtig erlebten wir mit SAS jedoch noch eine Wiederbelebung der klassischen Disktechnik. Der Plattentod holt auch die Daten Ist die Platte tot, sind es auch die Daten – beide sind untrennbar miteinander verschmolzen, lassen sich allenfalls per Kopie auf ein anderes Medium verlagern. Selbst von Seagate oder Kroll-Ontrack angebotene Recovery Services können beim Ableben der Disk nur selten etwas ausrichten. Allein daraus folgt: Unternehmen, die alles auf Platte speichern – es gibt immer mehr, die sich von entsprechenden Herstellerangeboten dazu verlocken lassen – setzen voll auf Risiko. Professionelle Disksysteme besitzen deshalb eine Art Frühwarnsystem. Zum einen fahren sie Laufwerke, die lange nichts zu tun hatten, periodisch dennoch an, um ihre Funktionstüchtigkeit zu überprüfen. Reagieren sie nicht unmittelbar auf Signale oder erst bei wiederholten Versuchen, deutet das darauf hin, dass eventuell die magnetische Oberfläche nicht mehr einwandfrei ist. Zum anderen können sie iX extra 12/2007 Wenn Ihr Admin abhebt . . . www.gingcom.de . . . liegt es daran, dass Ihre Unternehmensdaten mit einem Klick gesucht, gefunden und wiederhergestellt werden! gingcom GmbH · Saline 29 · D-78628 Rottweil · Telefon +49 (0) 741 248-308 · Fax 248-307 · E-Mail [email protected] ix.1207.x.01-12 05.11.2007 15:28 Uhr Seite VI Storage über den Diagnose-Standard SMART (Self-Monitoring, Analysis and Reporting Technology) Indizien sammeln, ob eine Festplatte demnächst ausfällt. SMART geht nach bestimmten physikalischen Prinzipien vor und überprüft zum Beispiel die Neigung der Schreib-/Leseköpfe zur Mitte der Platte. Automatische Fehlerkorrektur der Sektoren und Reservesektoren auf den Festplattenblöcken ist ein weiteres Verfahren. Erreichen die gesammelten Daten bestimmte Schwellwerte, markiert das System die Platte als defekt und bindet eine der Reserveplatten in das RAID-Set ein. Oder es schickt – je nach Konfiguration – eine Meldung an den Administrator oder den Wartungsdienst. Was sich in Theorie gut anhört, sieht in der Praxis allerdings etwas anders aus. So hängt die Zuverlässigkeit der Fehlermeldungen von der Einstellung der Schwell- oder Warnwerte ab: Sind sie – ähnlich wie Spamfilter – zu niedrig fixiert, führt das zu unnötigen Fehlermeldungen und verfrühtem Plattenaustausch, bei zu hoch gesetzten Werten besteht erhöhtes Schadenspotenzial beziehungsweise Ausfallrisiko. Auf keinen Fall darf es dazu kommen, dass ein System zwei Platten in einem RAID-Verbund aufgrund falscher Fehlermeldungen gleichzeitig stilllegt – damit wäre das RAID-Prinzip ad absurdum geführt. Auch die Firma Google, die in ihren Rechenzentren weltweit massenhaft Disks einsetzt und auf den 24 x 7-Betrieb ihrer Services angewiesen ist, kommt zu dem Schluss, dass nur in jedem zweiten Fall SMART tatsächlich das nahende Ende einer Festplatte richtig anzeigt: „Unsere Analysen zeigten uns mehrere Parameter von SMART, die hoch mit Plattenausfällen korrelierten. Dennoch sind wir überzeugt, dass SMART-Parameter eher untauglich dafür sind, Plattenausfälle anzukündigen. Überraschenderweise fanden wir in unseren Untersuchungen heraus, dass entgegen der bisher verbreiteten Ansicht Temperatur und Beanspruchungsgrad weniger mit Ausfällen korreliert sind.“ [1] Alternativen ohne bewegliche Teile Man muss sich natürlich fragen, warum sich noch keine alternative Technik zu den Festplatten etablieren konnte. Geredet wurde immer wieder davon – wer erinnert sich nicht an „Tesafilm als Datenspeicher“? Holografie als Zukunftsmodell taucht immer wieder auf, wird aber ebenfalls nicht mehr so ernst genommen. Abgebrühte Geister trösten sich damit, es werde nie etwas Perfektes geben, solange man es mit Elektromagnetismus zu tun habe. Zumindest in große Arrays für Spezialanwendungen hat es das RAM (Random Access Memory) geschafft. Zwar kann es mit Geschwindigkeit, vor allem bei den Zugriffen, punkten, doch als sogenannter flüchtiger Speicher verliert es seine Daten, sobald es nicht mehr unter Strom steht. Systeme mit RAM als Massenspeicher besitzen daher immer Akkus und häufig integrierte Festplatten für stromlose Zeiten. Die einzige echte Alternative derzeit sind die Flashspeicher. Sie sind bisher vor allem an zwei Enden des Speicherspektrums zum Einsatz gekommen: zu einen im Embedded- und Mobility-Bereich, also auf Mainboards, in Digitalkameras, Mobiltelefonen, PDAs, USBSticks und Elektronik-Geräten, und zum anderen in Spezialmärkten für den Einsatz unter extremen Bedingungen. Zur echten Konkurrenz für Festplatten werden Flash-Speicher aber wohl erst in Form der Flash-basierten Solid State Disks (SSD), also im 2,5"-Gehäuse und mit SATA-Anschluss versehen. Bisher finden sich FlashSSDs in ruggedized Notebooks, in Flugschreibern und in militärischen Geräten. Ihrer weiteren Verbreitung stehen die hohen Produktionskosten entgegen. Ausgelöst vom Boom der Flashund Hybridspeicher in Notebooks scheinen die Preise jetzt ins Purzeln zu geraten. Das dürfte dann auch das Angebot an SSD-Arrays erhöhen, die sich bisher in Nischenmärkten tummeln. Der größte Vorteil der SSDs besteht darin, dass sie ohne bewegliche und damit störungsanfällige Komponenten auskommen. Dadurch ist auch die Zugriffszeit mit 0,12 ms um den Faktor 10 schneller als bei SATA-Festplatten, deren Durchschnitt bei 10 bis 15 Millisekunden liegt. Nur bei der Lese-/ Schreibgeschwindigkeit hinken die SSDs den Festplatten hinterher: Je nach verwendetem Flash-Speicher beträgt sie 10 bis 20 MByte/s – 2,5"-Notebook-Platten liegen bei etwa 25 und schnelle SAS-Platten bei 90 MByte/s [4]. Die Kapazität liegt bei 32 bis 160 GByte. Weitere Vorteile, die besonders in Notebooks und großen SSD-Arrays zum Tragen kommen, sind der niedrige Stromverbrauch und die geringe Wärmeentwicklung. Dadurch entfällt der bei Festplatten oft notwendigen Lüfter, was zu weiteren Einsparungen von Strom und beweglichen Teilen führt. Größter Wermutstropfen ist die geringe Anzahl der Schreibzyklen. Je nach verwendeter Flash-Art liegen die bei 10ˇ000 bis 100ˇ000, neuerdings geben Hersteller 1 Million Schreibzugriffe an. Finden die nicht allzu häufig statt, sollen SSDs laut Herstellerangaben über eine Lebensdauer von 10 Jahren verfügen – immerhin mehr als dreimal so viel wie bei den auf Festplatten gebannten Informationen. (sun) Hartmut Wiehr ist Fachjournalist in München und Herausgeber des Storage Compendium – Das Jahrbuch 2006/2007. Literatur Typ MTBF Power on Hours (POH) Duty Cycle Temperatur Ausfallrate (AFR) SATA 1 Mio. Std. 24 x 7 (8736 h) 10 – 20ˇ% 25°C 0,9ˇ% (24 x 7); > 3ˇ% (unter Höchstlast) Anwendungsgebiete kostengünstiger Systeme Sekundärspeicher VI SCSI/SAS/FC 1,4 Mio. Std. 24 x 7 (8736 h) Nearline SATA 1,2 Mio. Std. 24 x 7 (8736 h) 80 – 100ˇ% 60°C 0,6ˇ% 80 – 100ˇ% 60°C 1,3ˇ% (unter Höchstlast) Primärspeicher mit Dauerbetrieb; Clusterund RAID-Cluster- und RAID-Systeme Quelle: Transtec AUSFALLRATEN VON FESTPLATTEN [1]ˇE. Pinheiro/W.-D. Weber/ L. A. Barroso, Failure Trends in a Large Disk Drive Population, Februar 2007 (Google) [2]ˇViel Material zur Geschichte der Festplattenindustrie in: Clayton M. Christensen, The Innovator’s Dilemma, 2003 (Paperback reprint) [3]ˇiX extra 08/07, Archivierung [4]ˇMichael Riepe; Storage; Blitzschlag; Lebensdauer von Flash-Speichern; iX 11/2006, S. 128 iX extra 12/2007 S TO R AG E - LÖ S U N G E N konsolidiert virtualisiert hochverfügbar Sprechen Sie mit uns: American Megatrends International GmbH Telefon +49 89 969995-10 www.ami.de ix0407_x_000_AMI 1 21.02.2007 17:00:22 Uhr ix.1207.x.01-12.neu1 06.11.2007 11:50 Uhr Seite VIII Storage Angesagte Vielfalt Trends bei Disk-Subsystemen Disk-Subsysteme sind nicht einfach Blechgehäuse mit vielen Festplatten drin. Ein durchdachtes Design, die richtige Verbindungstechnik, Software zur System- und Datenverwaltung sowie die geeigneten Services spielen eine immer größere Rolle. Viele Jahre dominierte Fibre Channel (FC) die Enterprise-Arrays in der Open-Systems-Welt – sowohl innen als außen: Die einzige technische Alternative für die Verbindung mit der Außenwelt, nämlich Ficon, beschränkte sich auf Mainframe-Umgebungen. Und für die Anbindung der eingebauten Festplatten gab es nichts Vergleichbares – zum einen verkraftet ein FC-Controller mehr Platten als ein SCSI-Host, zum anderen besitzen FC-Platten zwei Ports und lassen sich von zwei Hosts steuern (Dual Host). Inzwischen haben sich mit Infiniband und SAS zwei Alternativen Gehör verschafft, die Erstere als Host-Connection im Cluster-Umfeld und Letztere als direkte Konkurrenz zu FC-Disks. Zwischen SASund FC-Platten bestehen technisch keine Unterschiede mehr, sie verfügen über die gleiche Performance und Zuverlässigkeit, über Dual-Host-Fähigkeit und liegen momentan bei den Preisen auf dem gleichen Niveau. Es zeichnet sich aber bereits ab, dass sich die SAS-Laufwerke bei Produktion höherer Stückzahlen preislich bei den SCSI-Platten einsortieren werden, deren Nachfolger sie sind. Manche Marktbeobachter wie IDC prognostizieren schon das Ende von FC – wogegen schon das berechtigte Interesse der Unternehmen am Investitionsschutz stehen dürfte. Zudem deckt keine der genannten Techniken – dazu gehört auch iSCSI (Internet SCSI) – den gesamten Einsatzbereich von Fibre Channel ab; sie stellen lediglich in klar abgegrenzten Bereichen Alternativen dar. Vor allem große Datenbanken sind mit ihren – oft gleichzeitig stattfindenden – Random-Zugriffen auf schnell drehende SAS-, SCSI- oder FC-Platten mit niedriger Latenz angewiesen. FC-Platten zeichnen sich zudem durch einen sehr großen Cache aus – einer der Gründe für ihren hohen Preis. Je größer der Cache ist, desto mehr Kommandos kann er aufnehmen und ein Tagged Command Queuing (TCQ) vorbereiten. Die Platte wartet erst eine Weile und optimiert VIII intern den Reiseweg, bevor sie jeden einzelnen Zylinder anfährt. SCSI in allen Varianten Als weiteres Argument für Disk-Arrays mit den teuren SAS- oder FC-Platten führen die Hersteller die hohe Anzahl von Platten, die bei FC und SAS an einem Controller Platz finden, ins Feld. FC soll es im Loop auf bis zu 126 Platten bringen, und bei SAS wird die Zahl von über 16ˇ000 Platten ins Spiel gebracht, die aber schon insofern utopisch ist, als dass sie einen Controller mit 128 Kanälen voraussetzt, an deren Ende sich je ein Expander mit wiederum 128 Kabeln befinden müsste. Tatsächlich besitzen in Server eingebaute SAS-Controller maximal zwei x4-Anschlüsse, SAS-Arrays kommen momentan auf maximal vier SAS-x4-Ports, maximal zwei zum Host und zwei zum Anschließen von Erweiterungs-Arrays, meist JBODs (Just a Bunch of Disks). Intern besitzen sie also maximal zwei redundant ausgelegte x4-Kanäle mit einem Durchsatz von je 1,2 GByte/s, die auf dem Weg zu den Festplatten über Expander aufgesplittet sind. Da heutige SAS-Platten dauerhaft etwa 90 MByte/s lesen und schreiben können, würden die Kanäle bei mehr als 13 Platten bei voller Auslastung bereits zum Nadelöhr werden. Momentan bilden aber die SAS-Controller den Engpass. Bei allen Unterschieden zwischen den Schnittstellen ist ihnen allerdings eines gemeinsam: Die SCSI-Kommandosprache ist bei allen gleich, egal ob SCSI, SAS oder FC. Sie hat sich seit den Anfangsjahren von SCSI kaum verändert und als Application Layer überall Eingang gefunden. Die SCSI-Befehle regeln, wie unterschiedliche Geräte über unterschiedliche Übertragungsmedien miteinander Kontakt aufnehmen, Anfragen und Bestätigungen losschicken und so weiter. Die in Enterprise-Arrays verwendeten Platten machen nicht den Unterschied zwischen ihnen aus, und es spielt kaum eine Rolle, ob sie von Fujitsu, Hitachi, Samsung oder Seagate stammen. Ein Storagesystem besteht aber nicht bloß aus einer Ansammlung von Platten und einem Kabel, das nach außen führt, sondern es ist fast so komplex wie ein Rechner. Das Design macht den Unterschied zwischen Arrays von Anbieter A, B oder C aus. Entscheidungsfrage Design Die Hersteller von Disksystemen müssen zum Beispiel über solche Fragen entscheiden: Wie viele Controller, FC- und Management-Anschlüsse soll das System haben und von welcher Art, wie viele Netzteile und Lüfter, mit welcher Leistung? Wie groß muss der Cache sein, der als Puffer eingebaut wird, um die unterschiedlich schnellen Plattensysteme und Server dennoch optimal miteinander zu verbinden? Wie wird der Cache segmentiert? Soll er batteriegepuffert sein und wie lange soll er einen Stromausfall überbrücken? Wie wird hinter dem Cache die Plattenanbindung organisiert? Wie werden die bis zu über 1000 Platten in einem System vernetzt, die ja nicht einfach Point-to-Point angeschlossen werden können, sondern einen internen Switch benötigen? Jeder der großen Hersteller hat sein eigenes Design als Antwort auf diese und andere Fragen entworfen und macht es ein bisschen anders. Selbst Mitarbeiter konkurrierender Ansätze konzedieren im persönlichen Gespräch, dass jeder Entwurf Vor- und Nachteile hat. Das trifft erst recht für die vielen Softwarekomponenten zu, die das jeweilige Systemdesign optimieren sollen. Kundenentscheidungen finden angesichts der Komplexität und der prinzipiellen Ähnlichkeit der Speicherschränke denn auch nur bedingt auf Basis technischer Kriterien statt. Entscheidender sind oft sogenannte Softfaktoren wie die Überzeugungskraft ausgefeilter Powerpoint-Präsentationen, vorgetragen in einem angemessenen Ambiente, gewachsene Kundenkontakte, VendorLocking, Referenzinstallationen und nicht zuletzt finanzielle Überlegungen. Im Zweifelsfall gewinnt das günstigste Angebot in einer Ausschreibung, die technischen Argumente rutschen nach hinten. Ingo Kraft, Senior Business Manager Storage Solutions bei Hewlett-Packard, wünscht sich denn auch ein größeres Gewicht von Sachargumenten in den Verkaufsverhandlungen. Sekundiert wird er von Detlef Lieb, Storage Marketing Manager bei Fujitsu Siemens Computers, der betont, dass gerade mittelständische Kunden mehr auf die Service Level von iX extra 12/2007 ix.1207.x.01-12.neu1 06.11.2007 11:50 Uhr Seite IX Storage Speicherprodukten achten sollten. Nur so ließe sich eine konkrete Verbindung zwischen Technik und Unterstützung der Geschäftsprozesse erreichen. Auf der Softwareebene der Disksysteme geht es darum zu entscheiden, wie die Daten plaziert werden, ohne dass ungenutzte Kapazitäten übrig bleiben. Weitere Themen sind: Datenmanagement und Verteilung der Daten, zum Beispiel der hochaktiven gegenüber kaum genutzten, oder Virtualisierung und Zuweisung von freien Speicherräumen während des laufenden Betriebs, Monitoring, Performancemanagement und Fehlersuche. Die Hersteller liefern hier teilweise Softwaremodule standardmäßig mit aus oder offerieren Zusatzpakete. Interessant für den Anwender sind auch die Geschäftsverbindungen zu Partnern, und hier verstärkt jene zu der amerikanischen Startup-Szene aus der Storage-Branche. Meistens sind es solche kleineren Unternehmen, die sich in Nischen tum- meln, die die großen Hersteller übersehen oder für nicht so wichtig erachtet haben. Themen wie Continuous Data Protection (CDP), Thin Provisioning, Unstructured Data oder zuletzt Data Deduplication wurden ursprünglich von Firmen wie Timespring, 3PAR, Kazeon oder Data Domain aufgeworfen, während sie sich nun auch bei den Großen der Branche finden. Wichtig für Anwender im deutschsprachigen Raum ist es zu wissen, dass viele dieser kleinen Anbieter durch Bundle- oder OEM-Verträge den Marktzugang suchen. Andere haben durch eine Übernahme direkt Eingang in das Produktportfolio der Branchenführer gefunden – so Avamar bei EMC oder Archivas bei Hitachi Data Systems. Beim Kauf eines Disksystems ist also auf Zusatzangebote zu achten, die man so günstiger erwerben kann, als wenn man sie einzeln einkauft. Design und Softwarekomponenten sind also das Entscheidende an einem Speicher-Array, und nicht die Platten als solche. Eine Konsequenz dieser Entwicklung: ANBIETER VON DISK-SYSTEMEN Die Übersicht erhebt keinen Anspruch auf Vollständigkeit. Hersteller 3PAR American Megatrends CPI Dell Delta Computer EMC EqualLogic Eurostor Exanet Fujitsu-Siemens Gingcom HDS Hewlett-Packard IBM Infortrend Isilon Maxdata Network Appliance Nexsan Overland Storage Pillar Data Qskills Quantum Raidsonic Starline Sun Topmedia Transtec Xyratex Produkt InServ Storage Server StorTrends Storage Konfigurator NAS- und RAID-Systeme Hochleistungs-RAID-Systeme Centera, CAS PS Series ES-Serie Clustered NAS FibreCAT Appliance gingcom T2.2/T4.4 Simple Modular Storage 100 All-in-One, StorageWorks DR550 Express, DS4000 EonStor Solutions Isilon IQ Clustered Storage NAS- und RAID-Systeme FAS2000 Diskarrays REO Series, Ultamus Axiom Series Storage-Schulungen Dxi Series NAS- und RAID-Systeme NAS- und RAID-Systeme StorageTek Array Topstore RAID Entry SAN Kit OneStor Website www.3par.com www.ami.com www.cpigmbh.de www.dell.de http://deltacomputer.de www.emc.com www.equallogic.de www.eurostor.com www.exanet.com www.fujitsu-siemens.de www.gingcom.de www.hds.com www.hp.com www.ibm.de www.infortrend.de www.isilon.com www.maxdata.de www.netapp.com www.nexsan.com www.overlandstorage.de www.pillardata.com www.qskills.de www.quantum.com http://raidsonic.de www.starline.de www.sun.de www.topmedia.de www.transtec.de www.xyratex.com iX extra 12/2007 ix1207_x_000_Straline.indd x1207 x 000 Straline indd 1 02.11.2007 02 11 2007 16:53:59 Uhr ix.1207.x.01-12.neu1 06.11.2007 11:50 Uhr Seite X Storage IBM und andere Hersteller verlangen inzwischen eigene Preise für den Softwareanteil an den Disksystemen: Je nach Größe und Aufgabenbestimmung der Maschine kommen Lizenzen für Remote Copy, temporäre Kopien oder andere Tools hinzu. Für den Hardwareteil fallen dann zum Beispiel nur noch etwa 70 Prozent der Kosten an, während der Softwareanteil 30 Prozent verschlingt – bei Geräten, die landläufig wohlgemerkt unter Hardware pur rubriziert werden. Festplatten richtig verknüpft Ebenfalls besonderes Augenmerk verdient die RAID-Implemetierung, die fester Bestandteil aller Disksysteme ist. Einzige Ausnahme bilden die JBODs, die aber ausschließlich direkt an einen Server angeschlossen werden oder als Erweiterungsmodule an RAID-Disksysteme. Das Redundant Array of Independent (je nach Lesart auch: Inexpensive) Disks geht auf eine Entwicklung der Universität Berkeley Mitte der 90er-Jahre zurück: Viele kleine und billige (inexpensive) Platten werden zu einer Gruppe zusammengefasst, um sie als logisches Laufwerk einer Applikation mit erhöhten Kapazitäts- und PerformanceAnforderungen zur Verfügung zu stellen. Ein von einem RAID-Controller oder einem Disksystem erzeugtes und verwaltetes RAID erscheint gegenüber dem Betriebssystem als eine einzige logische Festplatte. Ausnahme ist das sogenannte SoftwareRAID, für das das Betriebssystem und seine ix1207_x_000_Raidsonic.indd 1 speziellen Hilfsapplikationen verantwortlich zeichnen. Heute werden RAIDs vor allem durch ihre verschiedenen Varianten bezüglich der Datenorganisation und des Ausfallschutzes von Platten wahrgenommen: über alle Platten verteilt, gespiegelt oder mit Paritätsinformationen, die den Ausfall von ein oder zwei Disks überbrücken können. Doch ein RAIDController kann mehr: Er übernimmt die Verwaltung der Platten, ändert ihre Konfiguration und die Größe des Systemcaches, jeweils entsprechend der Applikationsanforderungen. Julius Faubel von Overland Storage sieht in der Fähigkeit, diese und andere Parameter „on the fly“ anpassen zu können, das wesentliche Differenzierungskriterium zwischen den am Markt erhältlichen RAIDSystemen. Der gemeinsame Nenner der RAIDLevel besteht darin, einmal mehr, einmal weniger für Redundanz oder für Performance zu sorgen. Die Redundanzvarianten erfordern zusätzliche Investitionen in Platten, die lediglich für den Ernstfall eines Plattenversagens bereitstehen. Dadurch kann die für die Datenspeicherung verwendbare Nettokapazität stark von der durch die Platten gelieferte Bruttokapazität abweichen. RAID 0 verzichtet als einziger Level auf jegliche Redundanzmechanismen und damit auf jeglichen Ausfallschutz, erreicht aber die höchste Performance und liefert die volle Bruttokapazität – beim Videostreaming etwa gerne gesehene Eigenschaften. Sämtliche RAID-1-Varianten – zu den klassischen RAID 1, RAID 10 und RAID 0+1 gesellen sich neuerdings die exotischeren RAID-Level 1E und 1E0 – arbeiten dagegen mit einer Spiegelung der Datenblöcke und damit doppelter Datenhaltung. Das senkt die Nettokapazität auch auf die Hälfte der Bruttokapazität, heißt aber keinesfalls, dass auch die Hälfte der Platten ausfallen darf. Aufgrund der RAID-Level-eigenen Verteilungsmechanismen der Spiegel dürfen immer nur jeweils bestimmte Disks ausfallen, wirklich robust ist eigentlich nur der RAID-Level 1, der eine einzelne Disk ein- oder mehrmals spiegelt – wie viele Spiegel ein Controller zulässt, hängt von seiner RAID-1-Implemetierung ab. Plattenverbund mit Berechnung Am weitesten verbreitet dürfte der RAIDLevel 5 sein. Er errechnet aus jeder Gruppe von über die Platten verteilten Datenblöcken einen Paritätsblock, was die Kapazität einer Festplatte kostet. Anders als das von Network Appliance favorisierte RAID 4 speichert er die Daten aber nicht auf einer separaten Paritätsplatte, sondern verteilt die Paritätsblöcke wiederum über alle ins RAID-Set eingebundenen Platten, um die dadurch entstehende zusätzliche Beanspruchung der Schreib-/Leseköpfe nicht einer einzelnen Platte aufzubürden, sondern gleichmäßig zu verteilen. An der Gleichung Nettokapazität = Bruttokapazität – 1 Disk ändert sich dadurch aber nichts, genauso wenig wie an der Tat- 05.11.2007 11:19:46 Uhr ix.1207.x.01-12.neu1 06.11.2007 11:50 Uhr Seite XI Storage sache, dass wie beim RAID 4 genau eine Platte ausfallen darf, bevor das RAID-Set unwiederbringlich Schaden erleidet. Eine Erweiterung stellt das RAID 6 dar: Durch eine zweite Parität verkraftet es den Ausstieg von zwei Festplatten, verlangt dafür aber auch die zusätzliche Kapazität von zwei Platten. Da sich die zweite Parität zwar aus den gleichen Datenblöcken, aber mit einem wesentlich komplexeren und daher rechenintensiveren Algorithmus als die erste errechnet, ist hier besonderes Augenmerk auf die Art der Implementierung zu legen: Für die Praxis interessant wurde RAID 6 erst vor etwa einem Jahr durch die Einführung von RAID-6-Hardwarebeschleunigern wie dem von Intel, die die Performance früherer Implementierungsversuche um ein Zehnfaches auf die Performance von RAID 5 steigerten. Allerdings haben sich einige Hersteller durch die recht plötzliche Markteinführung einiger hardwarebeschleunigter RAID-6Disksysteme [1] dazu verleiten lassen, ebenfalls ihre Controller um RAID 6 zu bereichern, allerdings ohne Hardwarebeschleunigung und dadurch weit entfernt von der vom RAID 5 gewohnten Performance. Auf der anderen Seite sind bereits Geräte auf dem Markt, die unter Bezeichnungen wie RAID 6+ oder RAID TP (Triple Parity) RAID-Level mit drei unterschiedlichen Paritäten anbieten. Eingebaute Reserve Ein weiteres nicht zu vernachlässigendes Thema ist das Hot Spare. Ein RAID-Set ist nach dem Ausfall einer Platte besonders anfällig für weitere Defekte und nicht sonderlich performant: Alle Zugriffsversuche auf die Blöcke der defekten Platte muss der Controller durch Berechnungen aus den verbliebenen Daten beantworten. Um die Zeit bis zur Wiederherstellung der nicht ansprechbaren Blöcke auf einer neuen Festplatte (Rebuild) zu minimieren, können RAID-Systeme und -Controller Ersatzplatten bereithalten, auf denen sie im Fehlerfall die betroffenen Blöcke sofort und ohne Eingriff durch den Administrator rekonstruieren können. Dennoch kann sich der Rebuild je nach Plattenkapazität und -geschwindigkeit über mehrere Stunden hinziehen. RAID-Systeme bieten je nach Design unterschiedliche Hot-Spare-Konfigurationen: Manche lassen dem Administrator die Wahl, ob er globale oder für jedes RAID-Set eigene Hot-Spare-Platten definieren will. Andere kennen nur die eine oder die andere Variante. Auch in Bezug auf die Anzahl definierbarer Hot-Spare-Disks verhalten sich die Systeme unterschiedlich. Neuester Trend sind die RAID-Level 5E und 5EE. Beide verteilen den durch die Hot-Spare-Platte bereitgestellten Platz auf alle Platten des RAID-Sets – der eine auf den langsamen hinteren Bereich der Disks, der andere zwischen die Datenblöcke über die gesamten Platten verstreut. Damit wollten die Entwickler das gleiche erreichen wie bei der Verteilung der Parity-Blöcke, nämlich die Belastung auf alle Platten gleichmäßig zu verteilen. Nachteil: Solche Konfigurationen setzen genau eine private Hot-Spare für das jeweilige RAID-Set voraus, globale oder mehrere Hot Spares pro RAID-Set sind damit ausgeschlossen. Anwender sollten etwas genauer auf das Kleingedruckte schauen und sich vergewissern, welche RAID-Varianten ihnen der Lieferant anbietet und ob er sogar etwas Selbstentwickeltes mit in den Einkaufskorb legt. Hewlett-Packard etwa hat ebenso wie Network Appliance eine eigene RAID-6-Variante in petto. „On top“ auf das Disk- oder RAIDSystem kann der potenzielle Kunde noch einiges an Redundanzen und Hochverfügbarkeit draufsetzen: zum Beispiel geclusterte Arrays, Spiegelung zu einem entfernten Unternehmensstandort oder Replikation des gesamten Datenbestandes. Je nachdem, ob eine SCSI-, FCoder iSCSI-Verkabelung gewünscht ist, müssen andere Controller verwendet werden, und auch bei den eingebauten Platten fallen andere Preise an. Disksysteme gibt es heute schon für einige Tausend Euro. Design, RAID-Controller, Monitoring und Management machen den echten Value Added Reseller aus, bedürfen allerdings der Nachprüfung im Einzelfall. Sollen viele Platten darin Platz finden, verdient die Kühlung des Array besondere Beachtung. Garantiezeiten, Wartung und Serviceverträge sind weitere Punkte, die die Hersteller unterschiedlich gestalten. Abgrenzungsmerkmale inklusive Die Großen der Branche machen es den Kunden einfacher, indem sie mit Alleinstellungsmerkmalen auf den Markt kommen: Die Highendboxen von EMC, HDS und IBM lassen sich neben einer Grundausstattung mit Zusatzfunktionen wie Mirroring, Disas- iX extra 12/2007 ix1207_x_11_Delta_neu.indd x1207_x_11_Delta_neu.indd 1 06.11.2007 7:31:34 Uhr ix.1207.x.01-12.neu1 06.11.2007 11:50 Uhr Seite XII Storage ter Recovery oder integrierten Tiered-Storage-Lösungen bestücken, die im Sinne von HSM (Hierarchical Storage Management) oder ILM (Information Lifecycle Management) eine bis zur Archivierung durchgängige Datensicherung versprechen. Die Kunden sind es hier gewohnt, angesichts der verlangten Performance, Ausfallsicherheit und Skalierbarkeit der Systeme etwas tiefer in die Tasche zu greifen. Die genannten Hersteller machen hier meistens schon mehr als 50 Prozent des Umsatzes mit Software und Services. Klassiker im Mittelfeld liefern beispielsweise Equallogic, Infortrend, HP (MSA), Overland Storage oder Xyratex. Die Arrays ähneln Appliances in zwei bis vier Höheneinheiten, ausgestattet mit einer Reihe Festplatten – meist 12 bis 24 – und etwas Software zum Einstellen und Verwalten. Die Platten können vom Typ SATA, SAS oder Fibre Channel sein, die Verbindung zur Außenwelt SCSI, SAS, iSCSI oder FC. Immer häufiger finden sich SAS-Systeme, die für den Mischbetrieb von SATA- und SAS-Platten zertifiziert sind. Hier ergeben sich besondere Anforderungen an das Design des Array: SATA- und SAS-Gehäuse laufen mit unterschiedlichen Rotationsgeschwindigkeiten, deren Vibrationen gegenseitig abgeschirmt werden müssen. Ein weiterer Trend zeigt sich bei den geclusterten Disksystemen, wie sie 3PAR, Isilon, Pillar Data oder Terrascale anbieten, und die vor allem auf eine erhöhte Skalierbarkeit und Performance zielen. Array-Cluster bieten auch Replikation an, eine Funktion, die früher nur mit sehr teuren Mirrorlösungen von EMC oder IBM möglich war. Für automatische Datenreplikation gibt es inzwischen sogar Open-Source-Angebote wie Async. Um ihre Disksysteme voneinander abzugrenzen, lassen sich die Hersteller immer neue Kategorien einfallen: Während vor einem Jahr nur 3PAR „Thin Provisioning“, also die automatische Zuweisung von Speicherkapazität, im Programm hatte, findet sich das inzwischen auch bei Equallogic. Ähnliches gilt für Data Deduplication, eine Reduktion mehrfach gespeicherter Daten: Nach Quantum kann man sie nun auch bei Netapp oder EMC mit einkaufen. Doch wie funktioniert „Dedup“? Und funktioniert es wirklich? Kommt es tatsächlich zu den versprochenen Einspareffekten im Disksystem von bis zu 100 Prozent? Vorschnelle Kaufentscheidungen wären heute in keinem Fall ohne Restrisiko. (sun) Susanne Nolte, Hartmut Wiehr Literatur [1]ˇMichael Riepe; Plattenspeicher; Doppelt versichert; RAIDs mit mehrfacher Parität; iX 2/2006, S. 80 In iX extra 1/2008 Netzwerke – Aktuelle Trends bei Wireless LANs Nur wenige neue Techniken haben sich so schnell durchgesetzt wie das Wireless LAN. In nur fünf Jahren Entwicklung sind WLANs sowohl in Firmen als auch im Heimnetz allgegenwärtig, und mehr als 10ˇ000 öffentliche Hotspots laden allein in Deutschland zum Surfen in Restaurants oder auf Flughäfen ein. Und die technische Entwicklung geht rasant weiter: Immer schneller sollen WLANs werden, eine größere Reichweite abdecken, ihr Einsatz künftig einfacher und komfortab- ler sein. Zudem entstehen ganz neue Anwendungsgebiete, während die Hersteller ihre Produkte immer spezieller auf den Firmeneinsatz oder den Heimbereich ausrichten. iX extra 1/08 informiert sowohl über neue Standards und technische Lösungen als auch über die zugehörigen Produktneuheiten und Einsatzgebiete. Erscheinungstermin: 13. Dezember 2007 DIE WEITEREN IX EXTRAS: Ausgabe 02/08 Mobility Thema Der mobile Arbeitsplatz Erscheinungstermin 17.1.08 03/08 IT-Security Malware-Trends – Trojaner, Bot-Netze etc. 21.2.08 04/08 Storage Energieeffiziente Server- und Storage-Systeme 20.3.08 iX extra 12/2007 ix1207_x_000_Eurostor.indd x1207 x 000 Eurostor indd 1 02.11.2007 02 11 2007 16:19:09 Uhr