als PDF

Transcrição

als PDF
ix.1207.x.01-12
05.11.2007
15:28 Uhr
Seite I
sponsored by:
Ein Verlagsbeihefter der Heise Zeitschriften Verlag GmbH & Co. KG
Storage
extra
Storage
Begrenzte
Lebensdauer
Disks – Status quo und Trends
Schwerpunkt:
Disk-Systeme –
Technik und Produkte
Primär- oder Online-Storage steht im Mittelpunkt
fast aller Speicherinfrastrukturen. Was dem Privatanwender und Geschäftsreisenden seine PC- oder
Notebook-Festplatte ist, sind den Unternehmen aller
Größenordnungen ihre Disksysteme.
Disks – Status quo und Trends
Begrenzte Lebensdauer
Seite I
Trends bei Disk-Subsystemen
Angesagte Vielfalt
Seite VIII
Vorschau
Netzwerke
Schwerpunkt: Aktuelle
Trends bei Wireless LANs
Seite XII
Veranstaltungen
21. – 22. November 2007, Nürnberg
20. Deutsche Oracle-Anwenderkonferenz
www.doag.org/konferenz/doag/2007
3. – 5. Dezember 2007, Frankfurt
Sun Tech Days
de.sun.com/sunnews/events/2007/20071203
25. – 28. Februar 2008, Dresden
ARCS 2008 – Architecture of Computing Systems
http://arcs08.inf.tu-dresden.de
4. – 9. März 2008, Hannover
Cebit 2008
www.cebit.de
31. März – 2. April 2008, Dortmund
14. GI/ITG Konferenz Messung, Modellierung und Bewertung
von Rechen- und Kommunikationssystemen (MMB 2008)
www4.cs.uni-dortmund.de/mmb08/index_de.html
7. – 10. April 2008, Orlando, Florida
Storage Networking World USA Spring 2008
www.snwusa.com
ber 90 Prozent aller neu
geschaffenen Informationen sind mittlerweile elektronisch erfasst, die meisten davon
auf Festplatten [1]. Dass deren
Garantiezeit in der Regel nach
drei Jahren ausläuft, hat seinen
guten (oder schlechten) Grund:
Harddisks werden nicht alt, und
mit ihnen sterben die auf ihnen
abgelegten digitalen Informationen. Es lohnt sich deshalb, sich
etwas Gewissheit über den Aufbau und die Robustheit ihrer
Komponenten zu verschaffen
und darüber, welche Faktoren
zu Plattenfehlern und -ausfällen
führen. Die Hersteller von Festplatten und Speichersystemen
haben sich ganze Arsenale von
Gegenmaßnahmen und redundanten Erweiterungen einfallen
lassen, um den permanent drohenden Datengau zu verhindern.
Von diesen Abwehrstrategien
leben sie gar nicht schlecht.
Ü
Die Basis: Platten,
nichts als Platten
In Bezug auf die mechanischen
Teile einer Festplatte ist die
Vorstellung weit verbreitet,
heute sei Platte gleich Platte.
Immerhin arbeiten die Hersteller seit 1956 an der Verbesse-
rung dieser Technik. Von den
einst über 100 Anbietern sind
nur noch eine Handvoll übrig
geblieben, der Markt ist weitgehend konsolidiert; die Preise
und Gewinnmargen fallen kontinuierlich [2]. Doch auch heute
noch kann es entscheidend
sein, welche Festplatten-Serie
ein Unternehmenskunde einsetzt – die Unterscheidungsmerkmale sind beträchtlich.
Platte ist nicht gleich Platte.
Sie unterscheiden sich zunächst
danach, ob man hochdrehende
Laufwerke mit SCSI, SAS (Serial
Attached SCSI) oder Fibre Channel (FC) mit 10ˇ000 oder 15ˇ000
U/min Rotationsgeschwindigkeit
oder Laufwerke auf ATA- oder
SATA-Basis mit 5400 bis 7200
U/min einsetzt – höhere Rotationsgeschwindigkeit bedeutet
schnellere Schreib- und Lesezugriffe und geringere Latenzzeiten – besonders wichtig bei
Datenbanken oder OLTP-Transaktionen. Im Businessbereich
teilten sich SCSI- und FC-Platten
lange Jahre den Markt, mit
immer größeren Anteilen für FC
im Highend. Doch die so festgefügte Welt ist mit SATA ins Wanken geraten: Nach einigen Anläufen und Verbesserungen sind
SATA-Platten dabei, die Unter-
I
ix.1207.x.01-12
05.11.2007
15:28 Uhr
Seite II
8
AFR (%)
4
6
2
Je höher die Ausfallrate, desto
öfter steht ein Plattentausch an,
wobei die Rebuild-Zeit – abhängig vom gewählten RAIDLevel (Redundant Array of Inexpensive/Independent Disks)
und der Plattenkapazität –
mehrere Stunden bis Tage
dauern kann. Verkäufer raten
Anwendern heute oft in fahrlässiger Weise, statt teurer SASoder FC-Platten lieber SATA
einzusetzen. Wer das tut, muss
sich darüber klar sein, so urteilt
Speicherspezialist Peter Sauter
von IBM, dass im 24-StundenBetrieb mit hoher Wahrscheinlichkeit mehr Platten ausfallen
werden als bei Fibre-ChannelLaufwerken.
Unabhängig von den Ausfallraten empfiehlt sich etwa alle
5 Jahre
4 Jahre
3 Jahre
2 Jahre
1 Jahr
6 Monate
3 Monate
0
Quelle: [1]
nehmenswelt zu erobern. Hier
kommt es auf den 24-StundenBetrieb an, während man im
PC- oder Heimbereich von maximal acht Stunden Betriebszeit
pro Tag ausgeht.
Während Motor, Lager und
andere mechanische Teile die
wichtigsten Unterschiede auf
der reinen Hardwareebene ausmachen, sind der Aufbau der
Magnetscheibe sowie die
Elektronik des Schreib-/Lesekopfes in der Regel identisch.
Julius Faubel, Presales Manager
Central Europe bei Overland
Storage, verweist ferner auf Kriterien wie Performance, Haltbarkeit beziehungsweise Langlebigkeit, Stromaufnahme oder
Kapazität der Platten, die sich
aus der Art und Qualität der
Komponenten ergeben. Den
Faktor Langlebigkeit bestimmt
zum Beispiel das Design der
Schreib-/Leseköpfe: Bei höherwertigen Platten vermeidet man,
dass sich die Köpfe zu sehr in
Richtung Plattenmitte oder Spindel bewegen. Dort ist der Auftrieb geringer, was die Gefahr
eines vorzeitigen Crashs erhöht.
Je nach Einsatzzweck gibt
es Abstufungen bei den Materialien und den Prüfverfahren,
wobei auf der Materialseite im
Laufe der Jahre viele Verbesserungen stattgefunden haben.
10
Storage
drei bis vier Jahre ein freiwillig
vollzogener Austausch der Platten. Zu diesem Zeitpunkt läuft in
der Regel die Gewährleistung
durch den Hersteller aus, buchhalterische und Abschreibungsgründe sind weitere Anlässe für
eine Neuinvestition. Doch der
eigentliche Grund für diese
Maßnahme liegt in einem eigenartigen Widerspruch des sogenannten digitalen Zeitalters:
Zwar werden immer mehr Informationen auf magnetischen
Speichern abgelegt, doch diese
sind alles andere als langlebig –
ein Stromausfall, ein Headcrash,
Materialschäden, Diebstahl oder
ein plötzliches Lebensende der
Hardware genügen, um alles
das, was so sorgfältig und unter
Aufwand beträchtlicher Kosten
ANWENDUNGEN UND GRENZEN VON FESTPLATTEN
Leistungsgrenze
pro Kanal
Anwendungsgebiete
II
SATA
300 MByte/s
SCSI
320 MByte/s
SAS
300 MByte/s
1
max. 14
65 MByte/s
90 –
105 MByte/s
10ˇ000/
15ˇ000 U/min
Native (NCQ)
Command
Queuing (TCQ)
1 (128 mit
Expander)
105 MByte/s
7200 U/min
Native (NCQ)
Command
Queuing (TCQ)
–
–
Transfer großer Dateien
(> 100 KByte); DBs bis ca.
100 Nutzer; A/V-Serving und
Streaming; Fileserver; Backupund Archivsysteme
FC
200/400
MByte/s
1
95 –
110 MByte/s
15ˇ000 U/min 10ˇ000/
15ˇ000 U/min
Native (NCQ)
Native (NCQ)
Command
Command
Queuing (TCQ) Queuing (TCQ)
ab 4 Platten –
–
transaktionsintensive Anwendungen mit
kleinen Datenblöcken; OLTP-Datenbanksysteme; Mailingsysteme
iX extra 12/2007
Quelle: Transtec
Typ
PATA
Durchsatz pro
133 MByte/s
Kanal
Anzahl Festplatten max. 2
pro Kanal
Performance pro
60 MByte/s
Festplatte
Umdrehungs5400/
geschwindigkeit
7200 U/min
Organisation der
–
Schreib-/Lesezugriffe
SUPERBLADETM
GET THE EDGE
■
Performance mit bis zu 160 Cores in 7 HE
■ Einsatz von Intel® Xeon® oder AMD Opteron®
Der SuperBlade™ sind optimiert für folgende
Anwendungen: Enterprise, Finanzdienste,
Dual- oder QuadCore Prozessoren
■ Netzteile mit 90%+ Wirkungsgrad
Datenbanken, Datenbank Center, wissenschaftliche
Anwendungen, HPC, Personal Super Computer.
Weniger Verkabelung
■ Ethernet- und Infiniband-Switches
■
© www.artraction.de, 06/07
■
Sehr gutes Preis-/Leistungsverhältnis
ServerBlade mit 3.5"
oder 2.5" Festplatten
Infiniband Switch mit
10 externen Anschlüssen
Weitere Informationen über unsere Produkte unter:
www.cpigmbh.de und Hotline 0800-100 82 69
Alle Marken- und Produktbezeichnungen sind Warenzeichen oder eingetragene
Warenzeichen des entsprechenden Unternehmens. Druckfehler, Irrtümer und
Änderungen vorbehalten.
ix0707_x_000_CPI.indd 1
Gigabit Ethernet Switch mit
10 externen Anschlüssen
Management Modul
zur Überwachung
CPI Computer Partner Handels GmbH
Kapellenstr. 11
D-85622 Feldkirchen
Telefon: (+49)-0 89/96 24 41- 0
Telefax: (+49)-0 89/96 24 41- 33
08.06.2007 12:24:25 Uhr
ix.1207.x.01-12
05.11.2007
15:28 Uhr
Seite IV
Storage
Angaben zur Haltbarkeit
Um Aussagen über die Belastbarkeit und die zu erwartende
Lebensdauer zu treffen, benutzen Hersteller gerne die sogenannte MTBF (Mean Time
Between Failure), einen hochgerechneten Wert über den
wahrscheinlichen Ausfall eines
Laufwerks. Üblich bei aktuellen Platten ist ein MTBF von
200ˇ000 bis 1 Million Stunden
bei SATA-Platten und von über
1 Million Stunden bei High-EndLaufwerken. Das bedeutet aber
keinesfalls, dass eine Festplatte
das biblische Alter von 114
Jahren (= eine Million Stunden)
erreicht. Vielmehr legen die
Hersteller bei dieser „Mogelpackung“ eine hohe Anzahl von
Festplatten zugrunde: Bei einer
Million parallel laufenden Platten fallen statistisch in einem
Jahr (8736 Stunden) 8736 Platten aus, also jede Stunde eine.
Bei tausend Platten wären es
noch 8,7 Platten im Jahr.
Diese Werte sind aus Hersteller-Tests hochgerechnet
und gelten selbstredend nur,
wenn die Festplatten unter optimalen Bedingungen laufen.
Da die nur selten vorkommen,
dürfte die tatsächliche Ausfallrate je nach Umgebung weit
höher liegen – unter einigermaßen regulierten Bedingungen wie im Serverraum etwa
bei der doppelten.
Übrigens bekommen Solid
State Disks heute von ihren
Herstellern eine MTBF von 2
Millionen Stunden zugesprochen, da ihnen die störanfälligen Teile fehlen. Allerdings
verkraften sie nur eine begrenzte Anzahl von Schreibzugriffen 10ˇ000 bis 1 Million.
Nachden die MTBF als Angabe zur Lebensdauer von
Massenspeichern mehr Verwirrung gestiftet als Klarheit
geschaffen hat und dadurch
immer wieder in die Kritik geraten ist, schwenken die Hersteller auf andere Einheiten
IV
um. Im Kommen ist momentan
die Annualized Failure Rate
(AFR). Sie ermittelt sich genauso wie die MTBF, gibt aber
gleich die jährliche Ausfallrate
in Prozent der installierten
Basis an, das heißt, wenn von
tausend Platten 8,7 im Jahr
ausfallen, beträgt die jährliche
Ausfallrate oder AFR 0,87ˇ%
(AFR (%) = 1/MTBF x POH
(Power On Hours) x 100).
Eine weitere neue Angabe
ist Component-Design-Life
(CDL). Sie gibt die vorgesehene maximale Lebensdauer der
Komponenten an. Wenn ein
Hersteller also eine CDL von
fünf Jahren verspricht, heißt
das, dass die Komponenten
maximal für einen unter idealen
Bedingungen stattfindenden
fünfjährigen Betrieb ausgelegt
sind. Auch hier sind entsprechend den tatsächlichen Belastungen und Umgebungsbedingungen Abstriche zu machen.
Neuerdings veröffentlichen
Hersteller auch Angaben zu
konkreten Belastungen und
Fehlerquellen. Dazu gehören:
–ˇDuty Cycle gibt an, wie hoch
der prozentuale Anteil von
Schreib-, Lese- und Suchoperationen während des Betriebs
sein darf, ohne dass das Laufwerk an Zuverlässigkeit verliert,
–ˇLoad/Unload Cycle limitiert
die Anzahl der Schreib-/Lesekopf-Positionierungen, bis zu
der keine Fehler durch mechanische Abnutzung auftreten,
–ˇRecommended Power On
Hours verweist auf empfohlene maximale Betriebsstunden,
–ˇRecoverable Error Rate besagt, wie oft behebbare Fehler
auftreten,
–ˇStart/Stop Cycle verrät, wie
oft der Motor anfährt oder
bremst, bevor Fehler durch
mechanische Abnutzung auftreten können und
–ˇUnrecoverable Error Rate
gibt an, wie häufig nicht behebbare Fehler auftreten.
gespeichert wurde, endgültig
dem Nirwana zu übergeben.
Harddisks geben durchschnittlich nach drei bis vier
Jahren ihren Geist auf, LTOTapes sollen es inzwischen auf
30 Jahre bringen und die Highend-Tapes von IBM sogar auf 60
Jahre. Doch sollte hier Vorsicht
angebracht sein. Wer heute
noch an die Herstelleraussagen
von vor einigen Jahren glaubt,
dass CD-ROMs für 100 Jahre
ein sicherer Datenspeicher sei,
ist selbst schuld [3]. Von den
Herstellern jedenfalls sind solche Töne bei CD-ROMs nicht
mehr zu vernehmen.
Der richtige Zeitpunkt für den
Austausch von Festplatten hängt
auch davon ab, unter welchen
äußeren Bedingungen wie Temperaturschwankungen die Festplatten laufen und wie viel sie
beziehungsweise die Schreib-/
Leseköpfe arbeiten müssen
(Duty Cycle). Weitere Faktoren
sind der sogenannte Load/Unload-Cycle (Positionierung des
Schreib-/Lesekopfs) und der
Start/Stop-Cycle (Anlaufen und
Bremsen des Motors), denn
häufiges Hochfahren und Ausschalten belastet eine Platte
mehr als wenn sie 24 Stunden
durchläuft – vergleichbar den
Stresssituationen von Flugzeugen bei Start und Landung.
Selbst wenn die Platten im
Einzelfall noch etwas länger
über den Drei-Jahres-Rhythmus
hinaus halten sollten, handelt
ein Unternehmen extrem fahrlässig, wenn es sie nicht rechtzeitig auswechseln und die
Daten umkopiert: Was sind
schon die (stetig fallenden) Kosten für neue Platten und die auflaufenden Administratorstunden
im Verhältnis zu einem (selbst
verschuldeten) Datengau, dessen Schaden ins Unermessliche
explodieren kann?
Mit jeder neuen Generation
von Festplatten verschaffen sich
die Unternehmen zugleich ein
deutliches Mehr an Kapazität
und können so zumindest einen
Teil des Datenwachstums abfangen. Bisher ist man davon
ausgegangen, dass sich etwa
alle 18 Monate die Kapazität
eines Laufwerks verdoppelt.
Schon aus Gründen der Wirtschaftlichkeit beim Herstellungsprozess wird sich dieses Tempo
auf Zeiträume von etwa zwei bis
drei Jahre verlangsamen, meint
IBM-Mann Sauter. Zu Ende sei
es aber noch nicht, wie die gerade erst vorgestellten neuen Platten mit Kapazitäten von 750
Gigabyte oder einem Terabyte
beweisen würden. Denn gerade
erst hat das Perpendicular Recording die Wachstumsgrenze
wieder ein Stückchen hinausgeschoben. Erst wenn eine alternative Technik auftauchen wird,
die die Harddisks sowohl bei der
Performance als auch beim Preis
schlagen kann, wird sich laut
Sauter das Ende der Disk-Ära
abzeichnen. Gegenwärtig erlebten wir mit SAS jedoch noch eine
Wiederbelebung der klassischen
Disktechnik.
Der Plattentod
holt auch die Daten
Ist die Platte tot, sind es auch
die Daten – beide sind untrennbar miteinander verschmolzen,
lassen sich allenfalls per Kopie
auf ein anderes Medium verlagern. Selbst von Seagate oder
Kroll-Ontrack angebotene Recovery Services können beim
Ableben der Disk nur selten
etwas ausrichten. Allein daraus
folgt: Unternehmen, die alles
auf Platte speichern – es gibt
immer mehr, die sich von entsprechenden Herstellerangeboten dazu verlocken lassen –
setzen voll auf Risiko.
Professionelle Disksysteme
besitzen deshalb eine Art Frühwarnsystem. Zum einen fahren
sie Laufwerke, die lange nichts
zu tun hatten, periodisch dennoch an, um ihre Funktionstüchtigkeit zu überprüfen. Reagieren
sie nicht unmittelbar auf Signale
oder erst bei wiederholten Versuchen, deutet das darauf hin,
dass eventuell die magnetische
Oberfläche nicht mehr einwandfrei ist. Zum anderen können sie
iX extra 12/2007
Wenn Ihr Admin abhebt . . .
www.gingcom.de
. . . liegt es daran,
dass Ihre Unternehmensdaten
mit einem Klick
gesucht, gefunden und
wiederhergestellt werden!
gingcom GmbH · Saline 29 · D-78628 Rottweil · Telefon +49 (0) 741 248-308 · Fax 248-307 · E-Mail [email protected]
ix.1207.x.01-12
05.11.2007
15:28 Uhr
Seite VI
Storage
über den Diagnose-Standard
SMART (Self-Monitoring, Analysis and Reporting Technology)
Indizien sammeln, ob eine Festplatte demnächst ausfällt.
SMART geht nach bestimmten
physikalischen Prinzipien vor
und überprüft zum Beispiel die
Neigung der Schreib-/Leseköpfe
zur Mitte der Platte. Automatische Fehlerkorrektur der Sektoren und Reservesektoren auf
den Festplattenblöcken ist ein
weiteres Verfahren.
Erreichen die gesammelten
Daten bestimmte Schwellwerte,
markiert das System die Platte
als defekt und bindet eine der
Reserveplatten in das RAID-Set
ein. Oder es schickt – je nach
Konfiguration – eine Meldung
an den Administrator oder den
Wartungsdienst.
Was sich in Theorie gut anhört, sieht in der Praxis allerdings etwas anders aus. So
hängt die Zuverlässigkeit der
Fehlermeldungen von der Einstellung der Schwell- oder
Warnwerte ab: Sind sie – ähnlich wie Spamfilter – zu niedrig
fixiert, führt das zu unnötigen
Fehlermeldungen und verfrühtem Plattenaustausch, bei zu
hoch gesetzten Werten besteht
erhöhtes Schadenspotenzial
beziehungsweise Ausfallrisiko.
Auf keinen Fall darf es dazu
kommen, dass ein System zwei
Platten in einem RAID-Verbund
aufgrund falscher Fehlermeldungen gleichzeitig stilllegt –
damit wäre das RAID-Prinzip ad
absurdum geführt.
Auch die Firma Google, die in
ihren Rechenzentren weltweit
massenhaft Disks einsetzt und
auf den 24 x 7-Betrieb ihrer Services angewiesen ist, kommt zu
dem Schluss, dass nur in jedem
zweiten Fall SMART tatsächlich
das nahende Ende einer Festplatte richtig anzeigt: „Unsere
Analysen zeigten uns mehrere
Parameter von SMART, die hoch
mit Plattenausfällen korrelierten.
Dennoch sind wir überzeugt,
dass SMART-Parameter eher
untauglich dafür sind, Plattenausfälle anzukündigen. Überraschenderweise fanden wir in
unseren Untersuchungen heraus, dass entgegen der bisher
verbreiteten Ansicht Temperatur
und Beanspruchungsgrad weniger mit Ausfällen korreliert
sind.“ [1]
Alternativen
ohne bewegliche Teile
Man muss sich natürlich fragen,
warum sich noch keine alternative Technik zu den Festplatten
etablieren konnte. Geredet
wurde immer wieder davon –
wer erinnert sich nicht an „Tesafilm als Datenspeicher“? Holografie als Zukunftsmodell taucht
immer wieder auf, wird aber
ebenfalls nicht mehr so ernst genommen. Abgebrühte Geister
trösten sich damit, es werde nie
etwas Perfektes geben, solange
man es mit Elektromagnetismus
zu tun habe.
Zumindest in große Arrays
für Spezialanwendungen hat es
das RAM (Random Access Memory) geschafft. Zwar kann es
mit Geschwindigkeit, vor allem
bei den Zugriffen, punkten,
doch als sogenannter flüchtiger
Speicher verliert es seine
Daten, sobald es nicht mehr
unter Strom steht. Systeme mit
RAM als Massenspeicher besitzen daher immer Akkus und
häufig integrierte Festplatten
für stromlose Zeiten.
Die einzige echte Alternative
derzeit sind die Flashspeicher.
Sie sind bisher vor allem an
zwei Enden des Speicherspektrums zum Einsatz gekommen:
zu einen im Embedded- und
Mobility-Bereich, also auf
Mainboards, in Digitalkameras,
Mobiltelefonen, PDAs, USBSticks und Elektronik-Geräten,
und zum anderen in Spezialmärkten für den Einsatz unter
extremen Bedingungen.
Zur echten Konkurrenz für
Festplatten werden Flash-Speicher aber wohl erst in Form der
Flash-basierten Solid State Disks
(SSD), also im 2,5"-Gehäuse und
mit SATA-Anschluss versehen.
Bisher finden sich FlashSSDs in ruggedized Notebooks,
in Flugschreibern und in militärischen Geräten. Ihrer weiteren
Verbreitung stehen die hohen
Produktionskosten entgegen.
Ausgelöst vom Boom der Flashund Hybridspeicher in Notebooks
scheinen die Preise jetzt ins Purzeln zu geraten. Das dürfte dann
auch das Angebot an SSD-Arrays erhöhen, die sich bisher in
Nischenmärkten tummeln.
Der größte Vorteil der SSDs
besteht darin, dass sie ohne
bewegliche und damit störungsanfällige Komponenten auskommen. Dadurch ist auch die Zugriffszeit mit 0,12 ms um den
Faktor 10 schneller als bei
SATA-Festplatten, deren Durchschnitt bei 10 bis 15 Millisekunden liegt. Nur bei der Lese-/
Schreibgeschwindigkeit hinken
die SSDs den Festplatten hinterher: Je nach verwendetem
Flash-Speicher beträgt sie 10
bis 20 MByte/s – 2,5"-Notebook-Platten liegen bei etwa 25
und schnelle SAS-Platten bei 90
MByte/s [4]. Die Kapazität liegt
bei 32 bis 160 GByte.
Weitere Vorteile, die besonders in Notebooks und großen SSD-Arrays zum Tragen
kommen, sind der niedrige
Stromverbrauch und die geringe
Wärmeentwicklung. Dadurch
entfällt der bei Festplatten oft
notwendigen Lüfter, was zu weiteren Einsparungen von Strom
und beweglichen Teilen führt.
Größter Wermutstropfen
ist die geringe Anzahl der
Schreibzyklen. Je nach verwendeter Flash-Art liegen die
bei 10ˇ000 bis 100ˇ000, neuerdings geben Hersteller 1 Million Schreibzugriffe an. Finden
die nicht allzu häufig statt, sollen SSDs laut Herstellerangaben über eine Lebensdauer von
10 Jahren verfügen – immerhin
mehr als dreimal so viel wie bei
den auf Festplatten gebannten
Informationen.
(sun)
Hartmut Wiehr
ist Fachjournalist in München
und Herausgeber des Storage
Compendium – Das Jahrbuch
2006/2007.
Literatur
Typ
MTBF
Power on Hours
(POH)
Duty Cycle
Temperatur
Ausfallrate (AFR)
SATA
1 Mio. Std.
24 x 7 (8736 h)
10 – 20ˇ%
25°C
0,9ˇ% (24 x 7); > 3ˇ%
(unter Höchstlast)
Anwendungsgebiete kostengünstiger
Systeme
Sekundärspeicher
VI
SCSI/SAS/FC
1,4 Mio. Std.
24 x 7 (8736 h)
Nearline SATA
1,2 Mio. Std.
24 x 7 (8736 h)
80 – 100ˇ%
60°C
0,6ˇ%
80 – 100ˇ%
60°C
1,3ˇ% (unter Höchstlast)
Primärspeicher mit Dauerbetrieb; Clusterund RAID-Cluster- und RAID-Systeme
Quelle: Transtec
AUSFALLRATEN VON FESTPLATTEN
[1]ˇE. Pinheiro/W.-D. Weber/
L. A. Barroso, Failure Trends
in a Large Disk Drive Population, Februar 2007
(Google)
[2]ˇViel Material zur Geschichte
der Festplattenindustrie in:
Clayton M. Christensen,
The Innovator’s Dilemma,
2003 (Paperback reprint)
[3]ˇiX extra 08/07, Archivierung
[4]ˇMichael Riepe; Storage;
Blitzschlag; Lebensdauer
von Flash-Speichern;
iX 11/2006, S. 128
iX extra 12/2007
S TO R AG E - LÖ S U N G E N
konsolidiert
virtualisiert
hochverfügbar
Sprechen Sie mit uns:
American Megatrends International GmbH
Telefon +49 89 969995-10
www.ami.de
ix0407_x_000_AMI 1
21.02.2007 17:00:22 Uhr
ix.1207.x.01-12.neu1
06.11.2007
11:50 Uhr
Seite VIII
Storage
Angesagte Vielfalt
Trends bei Disk-Subsystemen
Disk-Subsysteme sind nicht einfach Blechgehäuse mit vielen Festplatten
drin. Ein durchdachtes Design, die richtige Verbindungstechnik, Software
zur System- und Datenverwaltung sowie die geeigneten Services spielen
eine immer größere Rolle.
Viele Jahre dominierte Fibre Channel (FC) die
Enterprise-Arrays in der Open-Systems-Welt
– sowohl innen als außen: Die einzige technische Alternative für die Verbindung mit der
Außenwelt, nämlich Ficon, beschränkte sich
auf Mainframe-Umgebungen. Und für die
Anbindung der eingebauten Festplatten gab
es nichts Vergleichbares – zum einen verkraftet ein FC-Controller mehr Platten als ein
SCSI-Host, zum anderen besitzen FC-Platten
zwei Ports und lassen sich von zwei Hosts
steuern (Dual Host).
Inzwischen haben sich mit Infiniband
und SAS zwei Alternativen Gehör verschafft, die Erstere als Host-Connection im
Cluster-Umfeld und Letztere als direkte
Konkurrenz zu FC-Disks. Zwischen SASund FC-Platten bestehen technisch keine
Unterschiede mehr, sie verfügen über die
gleiche Performance und Zuverlässigkeit,
über Dual-Host-Fähigkeit und liegen momentan bei den Preisen auf dem gleichen
Niveau. Es zeichnet sich aber bereits ab,
dass sich die SAS-Laufwerke bei Produktion höherer Stückzahlen preislich bei den
SCSI-Platten einsortieren werden, deren
Nachfolger sie sind. Manche Marktbeobachter wie IDC prognostizieren schon das
Ende von FC – wogegen schon das berechtigte Interesse der Unternehmen am
Investitionsschutz stehen dürfte. Zudem
deckt keine der genannten Techniken –
dazu gehört auch iSCSI (Internet SCSI) –
den gesamten Einsatzbereich von Fibre
Channel ab; sie stellen lediglich in klar
abgegrenzten Bereichen Alternativen dar.
Vor allem große Datenbanken sind mit
ihren – oft gleichzeitig stattfindenden – Random-Zugriffen auf schnell drehende SAS-,
SCSI- oder FC-Platten mit niedriger Latenz
angewiesen. FC-Platten zeichnen sich
zudem durch einen sehr großen Cache aus –
einer der Gründe für ihren hohen Preis. Je
größer der Cache ist, desto mehr Kommandos kann er aufnehmen und ein Tagged
Command Queuing (TCQ) vorbereiten. Die
Platte wartet erst eine Weile und optimiert
VIII
intern den Reiseweg, bevor sie jeden einzelnen Zylinder anfährt.
SCSI in allen Varianten
Als weiteres Argument für Disk-Arrays mit
den teuren SAS- oder FC-Platten führen die
Hersteller die hohe Anzahl von Platten, die
bei FC und SAS an einem Controller Platz
finden, ins Feld. FC soll es im Loop auf bis
zu 126 Platten bringen, und bei SAS wird
die Zahl von über 16ˇ000 Platten ins Spiel
gebracht, die aber schon insofern utopisch
ist, als dass sie einen Controller mit 128 Kanälen voraussetzt, an deren Ende sich je ein
Expander mit wiederum 128 Kabeln befinden müsste.
Tatsächlich besitzen in Server eingebaute
SAS-Controller maximal zwei x4-Anschlüsse,
SAS-Arrays kommen momentan auf maximal
vier SAS-x4-Ports, maximal zwei zum Host
und zwei zum Anschließen von Erweiterungs-Arrays, meist JBODs (Just a Bunch of
Disks). Intern besitzen sie also maximal zwei
redundant ausgelegte x4-Kanäle mit einem
Durchsatz von je 1,2 GByte/s, die auf dem
Weg zu den Festplatten über Expander aufgesplittet sind. Da heutige SAS-Platten dauerhaft etwa 90 MByte/s lesen und schreiben
können, würden die Kanäle bei mehr als 13
Platten bei voller Auslastung bereits zum
Nadelöhr werden. Momentan bilden aber die
SAS-Controller den Engpass.
Bei allen Unterschieden zwischen den
Schnittstellen ist ihnen allerdings eines gemeinsam: Die SCSI-Kommandosprache ist
bei allen gleich, egal ob SCSI, SAS oder FC.
Sie hat sich seit den Anfangsjahren von SCSI
kaum verändert und als Application Layer
überall Eingang gefunden. Die SCSI-Befehle
regeln, wie unterschiedliche Geräte über
unterschiedliche Übertragungsmedien miteinander Kontakt aufnehmen, Anfragen und
Bestätigungen losschicken und so weiter.
Die in Enterprise-Arrays verwendeten
Platten machen nicht den Unterschied zwischen ihnen aus, und es spielt kaum eine
Rolle, ob sie von Fujitsu, Hitachi, Samsung
oder Seagate stammen. Ein Storagesystem
besteht aber nicht bloß aus einer Ansammlung von Platten und einem Kabel, das nach
außen führt, sondern es ist fast so komplex
wie ein Rechner. Das Design macht den
Unterschied zwischen Arrays von Anbieter A,
B oder C aus.
Entscheidungsfrage Design
Die Hersteller von Disksystemen müssen
zum Beispiel über solche Fragen entscheiden: Wie viele Controller, FC- und Management-Anschlüsse soll das System haben und
von welcher Art, wie viele Netzteile und Lüfter, mit welcher Leistung? Wie groß muss
der Cache sein, der als Puffer eingebaut
wird, um die unterschiedlich schnellen Plattensysteme und Server dennoch optimal miteinander zu verbinden? Wie wird der Cache
segmentiert? Soll er batteriegepuffert sein
und wie lange soll er einen Stromausfall
überbrücken? Wie wird hinter dem Cache die
Plattenanbindung organisiert? Wie werden
die bis zu über 1000 Platten in einem System
vernetzt, die ja nicht einfach Point-to-Point
angeschlossen werden können, sondern
einen internen Switch benötigen?
Jeder der großen Hersteller hat sein eigenes Design als Antwort auf diese und andere
Fragen entworfen und macht es ein bisschen anders. Selbst Mitarbeiter konkurrierender Ansätze konzedieren im persönlichen
Gespräch, dass jeder Entwurf Vor- und
Nachteile hat. Das trifft erst recht für die vielen Softwarekomponenten zu, die das jeweilige Systemdesign optimieren sollen. Kundenentscheidungen finden angesichts der
Komplexität und der prinzipiellen Ähnlichkeit
der Speicherschränke denn auch nur bedingt auf Basis technischer Kriterien statt.
Entscheidender sind oft sogenannte Softfaktoren wie die Überzeugungskraft ausgefeilter Powerpoint-Präsentationen, vorgetragen in einem angemessenen Ambiente,
gewachsene Kundenkontakte, VendorLocking, Referenzinstallationen und nicht
zuletzt finanzielle Überlegungen. Im Zweifelsfall gewinnt das günstigste Angebot in
einer Ausschreibung, die technischen Argumente rutschen nach hinten. Ingo Kraft, Senior Business Manager Storage Solutions bei
Hewlett-Packard, wünscht sich denn auch
ein größeres Gewicht von Sachargumenten
in den Verkaufsverhandlungen. Sekundiert
wird er von Detlef Lieb, Storage Marketing
Manager bei Fujitsu Siemens Computers,
der betont, dass gerade mittelständische
Kunden mehr auf die Service Level von
iX extra 12/2007
ix.1207.x.01-12.neu1
06.11.2007
11:50 Uhr
Seite IX
Storage
Speicherprodukten achten sollten. Nur so
ließe sich eine konkrete Verbindung zwischen Technik und Unterstützung der Geschäftsprozesse erreichen.
Auf der Softwareebene der Disksysteme geht es darum zu entscheiden, wie
die Daten plaziert werden, ohne dass
ungenutzte Kapazitäten übrig bleiben.
Weitere Themen sind: Datenmanagement
und Verteilung der Daten, zum Beispiel
der hochaktiven gegenüber kaum genutzten, oder Virtualisierung und Zuweisung
von freien Speicherräumen während des
laufenden Betriebs, Monitoring,
Performancemanagement und Fehlersuche. Die Hersteller liefern hier teilweise
Softwaremodule standardmäßig mit aus
oder offerieren Zusatzpakete. Interessant
für den Anwender sind auch die Geschäftsverbindungen zu Partnern, und
hier verstärkt jene zu der amerikanischen
Startup-Szene aus der Storage-Branche.
Meistens sind es solche kleineren
Unternehmen, die sich in Nischen tum-
meln, die die großen Hersteller übersehen
oder für nicht so wichtig erachtet haben.
Themen wie Continuous Data Protection
(CDP), Thin Provisioning, Unstructured Data
oder zuletzt Data Deduplication wurden
ursprünglich von Firmen wie Timespring,
3PAR, Kazeon oder Data Domain aufgeworfen, während sie sich nun auch bei den
Großen der Branche finden. Wichtig für Anwender im deutschsprachigen Raum ist es
zu wissen, dass viele dieser kleinen Anbieter durch Bundle- oder OEM-Verträge den
Marktzugang suchen. Andere haben durch
eine Übernahme direkt Eingang in das Produktportfolio der Branchenführer gefunden
– so Avamar bei EMC oder Archivas bei Hitachi Data Systems. Beim Kauf eines Disksystems ist also auf Zusatzangebote zu
achten, die man so günstiger erwerben
kann, als wenn man sie einzeln einkauft.
Design und Softwarekomponenten sind
also das Entscheidende an einem Speicher-Array, und nicht die Platten als solche. Eine Konsequenz dieser Entwicklung:
ANBIETER VON DISK-SYSTEMEN
Die Übersicht erhebt keinen Anspruch auf Vollständigkeit.
Hersteller
3PAR
American Megatrends
CPI
Dell
Delta Computer
EMC
EqualLogic
Eurostor
Exanet
Fujitsu-Siemens
Gingcom
HDS
Hewlett-Packard
IBM
Infortrend
Isilon
Maxdata
Network Appliance
Nexsan
Overland Storage
Pillar Data
Qskills
Quantum
Raidsonic
Starline
Sun
Topmedia
Transtec
Xyratex
Produkt
InServ Storage Server
StorTrends
Storage Konfigurator
NAS- und RAID-Systeme
Hochleistungs-RAID-Systeme
Centera, CAS
PS Series
ES-Serie
Clustered NAS
FibreCAT
Appliance gingcom T2.2/T4.4
Simple Modular Storage 100
All-in-One, StorageWorks
DR550 Express, DS4000
EonStor Solutions
Isilon IQ Clustered Storage
NAS- und RAID-Systeme
FAS2000
Diskarrays
REO Series, Ultamus
Axiom Series
Storage-Schulungen
Dxi Series
NAS- und RAID-Systeme
NAS- und RAID-Systeme
StorageTek Array
Topstore RAID
Entry SAN Kit
OneStor
Website
www.3par.com
www.ami.com
www.cpigmbh.de
www.dell.de
http://deltacomputer.de
www.emc.com
www.equallogic.de
www.eurostor.com
www.exanet.com
www.fujitsu-siemens.de
www.gingcom.de
www.hds.com
www.hp.com
www.ibm.de
www.infortrend.de
www.isilon.com
www.maxdata.de
www.netapp.com
www.nexsan.com
www.overlandstorage.de
www.pillardata.com
www.qskills.de
www.quantum.com
http://raidsonic.de
www.starline.de
www.sun.de
www.topmedia.de
www.transtec.de
www.xyratex.com
iX extra 12/2007
ix1207_x_000_Straline.indd
x1207 x 000 Straline indd 1
02.11.2007
02
11 2007 16:53:59 Uhr
ix.1207.x.01-12.neu1
06.11.2007
11:50 Uhr
Seite X
Storage
IBM und andere Hersteller verlangen inzwischen eigene Preise für den Softwareanteil
an den Disksystemen: Je nach Größe und
Aufgabenbestimmung der Maschine kommen Lizenzen für Remote Copy, temporäre
Kopien oder andere Tools hinzu. Für den
Hardwareteil fallen dann zum Beispiel nur
noch etwa 70 Prozent der Kosten an, während der Softwareanteil 30 Prozent verschlingt – bei Geräten, die landläufig wohlgemerkt unter Hardware pur rubriziert werden.
Festplatten richtig verknüpft
Ebenfalls besonderes Augenmerk verdient
die RAID-Implemetierung, die fester Bestandteil aller Disksysteme ist. Einzige
Ausnahme bilden die JBODs, die aber
ausschließlich direkt an einen Server
angeschlossen werden oder als Erweiterungsmodule an RAID-Disksysteme. Das
Redundant Array of Independent (je nach
Lesart auch: Inexpensive) Disks geht auf
eine Entwicklung der Universität Berkeley
Mitte der 90er-Jahre zurück: Viele kleine
und billige (inexpensive) Platten werden zu
einer Gruppe zusammengefasst, um sie als
logisches Laufwerk einer Applikation mit
erhöhten Kapazitäts- und PerformanceAnforderungen zur Verfügung zu stellen.
Ein von einem RAID-Controller oder einem Disksystem erzeugtes und verwaltetes
RAID erscheint gegenüber dem Betriebssystem als eine einzige logische Festplatte.
Ausnahme ist das sogenannte SoftwareRAID, für das das Betriebssystem und seine
ix1207_x_000_Raidsonic.indd 1
speziellen Hilfsapplikationen verantwortlich
zeichnen.
Heute werden RAIDs vor allem durch ihre
verschiedenen Varianten bezüglich der Datenorganisation und des Ausfallschutzes von
Platten wahrgenommen: über alle Platten
verteilt, gespiegelt oder mit Paritätsinformationen, die den Ausfall von ein oder zwei
Disks überbrücken können. Doch ein RAIDController kann mehr: Er übernimmt die Verwaltung der Platten, ändert ihre Konfiguration und die Größe des Systemcaches, jeweils entsprechend der Applikationsanforderungen. Julius Faubel von Overland Storage
sieht in der Fähigkeit, diese und andere Parameter „on the fly“ anpassen zu können,
das wesentliche Differenzierungskriterium
zwischen den am Markt erhältlichen RAIDSystemen.
Der gemeinsame Nenner der RAIDLevel besteht darin, einmal mehr, einmal
weniger für Redundanz oder für Performance zu sorgen. Die Redundanzvarianten
erfordern zusätzliche Investitionen in Platten, die lediglich für den Ernstfall eines
Plattenversagens bereitstehen. Dadurch
kann die für die Datenspeicherung verwendbare Nettokapazität stark von der
durch die Platten gelieferte Bruttokapazität
abweichen. RAID 0 verzichtet als einziger
Level auf jegliche Redundanzmechanismen und damit auf jeglichen Ausfallschutz, erreicht aber die höchste Performance und liefert die volle Bruttokapazität
– beim Videostreaming etwa gerne gesehene Eigenschaften.
Sämtliche RAID-1-Varianten – zu den
klassischen RAID 1, RAID 10 und RAID 0+1
gesellen sich neuerdings die exotischeren
RAID-Level 1E und 1E0 – arbeiten dagegen
mit einer Spiegelung der Datenblöcke und
damit doppelter Datenhaltung. Das senkt die
Nettokapazität auch auf die Hälfte der Bruttokapazität, heißt aber keinesfalls, dass auch
die Hälfte der Platten ausfallen darf. Aufgrund
der RAID-Level-eigenen Verteilungsmechanismen der Spiegel dürfen immer nur jeweils
bestimmte Disks ausfallen, wirklich robust ist
eigentlich nur der RAID-Level 1, der eine einzelne Disk ein- oder mehrmals spiegelt – wie
viele Spiegel ein Controller zulässt, hängt von
seiner RAID-1-Implemetierung ab.
Plattenverbund mit
Berechnung
Am weitesten verbreitet dürfte der RAIDLevel 5 sein. Er errechnet aus jeder Gruppe
von über die Platten verteilten Datenblöcken
einen Paritätsblock, was die Kapazität einer
Festplatte kostet. Anders als das von Network Appliance favorisierte RAID 4 speichert
er die Daten aber nicht auf einer separaten
Paritätsplatte, sondern verteilt die Paritätsblöcke wiederum über alle ins RAID-Set eingebundenen Platten, um die dadurch entstehende zusätzliche Beanspruchung der
Schreib-/Leseköpfe nicht einer einzelnen
Platte aufzubürden, sondern gleichmäßig zu
verteilen. An der Gleichung Nettokapazität =
Bruttokapazität – 1 Disk ändert sich dadurch
aber nichts, genauso wenig wie an der Tat-
05.11.2007 11:19:46 Uhr
ix.1207.x.01-12.neu1
06.11.2007
11:50 Uhr
Seite XI
Storage
sache, dass wie beim RAID 4 genau eine
Platte ausfallen darf, bevor das RAID-Set
unwiederbringlich Schaden erleidet.
Eine Erweiterung stellt das RAID 6 dar:
Durch eine zweite Parität verkraftet es den
Ausstieg von zwei Festplatten, verlangt
dafür aber auch die zusätzliche Kapazität
von zwei Platten. Da sich die zweite Parität
zwar aus den gleichen Datenblöcken, aber
mit einem wesentlich komplexeren und
daher rechenintensiveren Algorithmus als
die erste errechnet, ist hier besonderes
Augenmerk auf die Art der Implementierung zu legen: Für die Praxis interessant
wurde RAID 6 erst vor etwa einem Jahr
durch die Einführung von RAID-6-Hardwarebeschleunigern wie dem von Intel,
die die Performance früherer Implementierungsversuche um ein Zehnfaches auf die
Performance von RAID 5 steigerten.
Allerdings haben sich einige Hersteller
durch die recht plötzliche Markteinführung
einiger hardwarebeschleunigter RAID-6Disksysteme [1] dazu verleiten lassen,
ebenfalls ihre Controller um RAID 6 zu
bereichern, allerdings ohne Hardwarebeschleunigung und dadurch weit entfernt
von der vom RAID 5 gewohnten Performance. Auf der anderen Seite sind bereits
Geräte auf dem Markt, die unter Bezeichnungen wie RAID 6+ oder RAID TP (Triple
Parity) RAID-Level mit drei unterschiedlichen Paritäten anbieten.
Eingebaute Reserve
Ein weiteres nicht zu vernachlässigendes
Thema ist das Hot Spare. Ein RAID-Set ist
nach dem Ausfall einer Platte besonders
anfällig für weitere Defekte und nicht
sonderlich performant: Alle Zugriffsversuche auf die Blöcke der defekten Platte
muss der Controller durch Berechnungen
aus den verbliebenen Daten beantworten.
Um die Zeit bis zur Wiederherstellung der
nicht ansprechbaren Blöcke auf einer
neuen Festplatte (Rebuild) zu minimieren,
können RAID-Systeme und -Controller Ersatzplatten bereithalten, auf denen sie im
Fehlerfall die betroffenen Blöcke sofort
und ohne Eingriff durch den Administrator
rekonstruieren können. Dennoch kann
sich der Rebuild je nach Plattenkapazität
und -geschwindigkeit über mehrere Stunden hinziehen.
RAID-Systeme bieten je nach Design
unterschiedliche Hot-Spare-Konfigurationen: Manche lassen dem Administrator die
Wahl, ob er globale oder für jedes RAID-Set
eigene Hot-Spare-Platten definieren will.
Andere kennen nur die eine oder die andere Variante. Auch in Bezug auf die Anzahl
definierbarer Hot-Spare-Disks verhalten
sich die Systeme unterschiedlich.
Neuester Trend sind die RAID-Level 5E
und 5EE. Beide verteilen den durch die
Hot-Spare-Platte bereitgestellten Platz auf
alle Platten des RAID-Sets – der eine auf
den langsamen hinteren Bereich der Disks,
der andere zwischen die Datenblöcke über
die gesamten Platten verstreut. Damit wollten die Entwickler das gleiche erreichen
wie bei der Verteilung der Parity-Blöcke,
nämlich die Belastung auf alle Platten
gleichmäßig zu verteilen. Nachteil: Solche
Konfigurationen setzen genau eine private Hot-Spare für das jeweilige RAID-Set
voraus, globale oder mehrere Hot Spares
pro RAID-Set sind damit ausgeschlossen.
Anwender sollten etwas genauer auf
das Kleingedruckte schauen und sich
vergewissern, welche RAID-Varianten
ihnen der Lieferant anbietet und ob er
sogar etwas Selbstentwickeltes mit in
den Einkaufskorb legt. Hewlett-Packard
etwa hat ebenso wie Network Appliance
eine eigene RAID-6-Variante in petto.
„On top“ auf das Disk- oder RAIDSystem kann der potenzielle Kunde noch
einiges an Redundanzen und Hochverfügbarkeit draufsetzen: zum Beispiel geclusterte Arrays, Spiegelung zu einem entfernten Unternehmensstandort oder
Replikation des gesamten Datenbestandes. Je nachdem, ob eine SCSI-, FCoder iSCSI-Verkabelung gewünscht ist,
müssen andere Controller verwendet
werden, und auch bei den eingebauten
Platten fallen andere Preise an.
Disksysteme gibt es heute schon für
einige Tausend Euro. Design, RAID-Controller, Monitoring und Management
machen den echten Value Added Reseller
aus, bedürfen allerdings der Nachprüfung
im Einzelfall. Sollen viele Platten darin
Platz finden, verdient die Kühlung des
Array besondere Beachtung. Garantiezeiten, Wartung und Serviceverträge sind
weitere Punkte, die die Hersteller unterschiedlich gestalten.
Abgrenzungsmerkmale
inklusive
Die Großen der Branche machen es den
Kunden einfacher, indem sie mit Alleinstellungsmerkmalen auf den Markt kommen:
Die Highendboxen von EMC, HDS und IBM
lassen sich neben einer Grundausstattung
mit Zusatzfunktionen wie Mirroring, Disas-
iX extra 12/2007
ix1207_x_11_Delta_neu.indd
x1207_x_11_Delta_neu.indd 1
06.11.2007 7:31:34 Uhr
ix.1207.x.01-12.neu1
06.11.2007
11:50 Uhr
Seite XII
Storage
ter Recovery oder integrierten Tiered-Storage-Lösungen bestücken, die im Sinne
von HSM (Hierarchical Storage Management) oder ILM (Information Lifecycle Management) eine bis zur Archivierung durchgängige Datensicherung versprechen. Die
Kunden sind es hier gewohnt, angesichts
der verlangten Performance, Ausfallsicherheit und Skalierbarkeit der Systeme etwas
tiefer in die Tasche zu greifen. Die genannten Hersteller machen hier meistens schon
mehr als 50 Prozent des Umsatzes mit
Software und Services.
Klassiker im Mittelfeld liefern beispielsweise Equallogic, Infortrend, HP (MSA),
Overland Storage oder Xyratex. Die Arrays
ähneln Appliances in zwei bis vier Höheneinheiten, ausgestattet mit einer Reihe
Festplatten – meist 12 bis 24 – und etwas
Software zum Einstellen und Verwalten.
Die Platten können vom Typ SATA, SAS
oder Fibre Channel sein, die Verbindung
zur Außenwelt SCSI, SAS, iSCSI oder FC.
Immer häufiger finden sich SAS-Systeme,
die für den Mischbetrieb von SATA- und
SAS-Platten zertifiziert sind. Hier ergeben
sich besondere Anforderungen an das Design des Array: SATA- und SAS-Gehäuse
laufen mit unterschiedlichen Rotationsgeschwindigkeiten, deren Vibrationen gegenseitig abgeschirmt werden müssen.
Ein weiterer Trend zeigt sich bei den
geclusterten Disksystemen, wie sie
3PAR, Isilon, Pillar Data oder Terrascale
anbieten, und die vor allem auf eine erhöhte Skalierbarkeit und Performance
zielen. Array-Cluster bieten auch Replikation an, eine Funktion, die früher nur mit
sehr teuren Mirrorlösungen von EMC oder
IBM möglich war. Für automatische Datenreplikation gibt es inzwischen sogar
Open-Source-Angebote wie Async.
Um ihre Disksysteme voneinander abzugrenzen, lassen sich die Hersteller
immer neue Kategorien einfallen: Während
vor einem Jahr nur 3PAR „Thin Provisioning“, also die automatische Zuweisung
von Speicherkapazität, im Programm hatte,
findet sich das inzwischen auch bei Equallogic. Ähnliches gilt für Data Deduplication,
eine Reduktion mehrfach gespeicherter
Daten: Nach Quantum kann man sie nun
auch bei Netapp oder EMC mit einkaufen.
Doch wie funktioniert „Dedup“? Und funktioniert es wirklich? Kommt es tatsächlich
zu den versprochenen Einspareffekten im
Disksystem von bis zu 100 Prozent? Vorschnelle Kaufentscheidungen wären heute
in keinem Fall ohne Restrisiko.
(sun)
Susanne Nolte, Hartmut Wiehr
Literatur
[1]ˇMichael Riepe; Plattenspeicher;
Doppelt versichert; RAIDs mit mehrfacher Parität; iX 2/2006, S. 80
In iX extra 1/2008
Netzwerke – Aktuelle Trends bei Wireless LANs
Nur wenige neue Techniken haben sich
so schnell durchgesetzt wie das Wireless
LAN. In nur fünf Jahren Entwicklung sind
WLANs sowohl in Firmen als auch im
Heimnetz allgegenwärtig, und mehr als
10ˇ000 öffentliche Hotspots laden allein
in Deutschland zum Surfen in Restaurants
oder auf Flughäfen ein. Und die technische Entwicklung geht rasant weiter:
Immer schneller sollen WLANs werden,
eine größere Reichweite abdecken, ihr
Einsatz künftig einfacher und komfortab-
ler sein. Zudem entstehen ganz neue Anwendungsgebiete, während die Hersteller
ihre Produkte immer spezieller auf den
Firmeneinsatz oder den Heimbereich ausrichten.
iX extra 1/08 informiert sowohl über
neue Standards und technische Lösungen
als auch über die zugehörigen Produktneuheiten und Einsatzgebiete.
Erscheinungstermin:
13. Dezember 2007
DIE WEITEREN IX EXTRAS:
Ausgabe
02/08 Mobility
Thema
Der mobile Arbeitsplatz
Erscheinungstermin
17.1.08
03/08
IT-Security
Malware-Trends –
Trojaner, Bot-Netze etc.
21.2.08
04/08
Storage
Energieeffiziente Server- und
Storage-Systeme
20.3.08
iX extra 12/2007
ix1207_x_000_Eurostor.indd
x1207 x 000 Eurostor indd 1
02.11.2007
02
11 2007 16:19:09 Uhr

Documentos relacionados