NAS und SAN

Transcrição

NAS und SAN
Nr. 11, November 2001
Das Magazin für Netze, Daten- und Telekommunikation
www.lanline.de
NAS und SAN
Switch-Meshing im
Speichernetzwerk
Network File System Version 4
Serial-ATA als Basis für RAID
Network Data Management
Protocol
mit Marktübersicht
NAS-Lösungen
Im Test:
Wininstall 2000
Intelligente
Software-Verteilung
Internet Protocol
Version 6
Grundlagen, Chancen,
Neuerungen, Migration
Schwerpunkt
xDSL-Techniken
mit Marktübersicht
k
DSL-Router rdruc
e
nd für e1x1
o
S
rt
o
4 398039 714002
V
ICP
WEITERENTWICKLUNG VON EIDE
Die serielle
Konkurrenz
“Serialized AT Attachment” (kurz S-ATA) offeriert technische Vorzüge
gegenüber der EIDE-Schnittstelle. Ein wesentlicher Punkt ist dabei die
Ansteuerung bei diesem “seriellen Bus” über Gerätetreiber, die kompatibel zur parallelen EIDE-Schnittstelle sind. Damit lassen sich bestehende Programme und Betriebssysteme weiter verwenden. Die Kosten für
die neue Schnittstelle sind ähnlich günstig wie bei EIDE. Sie erlauben
es, S-ATA-Schnittstellen in Zukunft direkt in die Chipsätze und damit
auf dem Mainboard zu integrieren. Der Siegeszug dieser Technik auch
bei NAS- und RAID-Systemen scheint bevor zu stehen.
ange Zeit kamen in fast allen Bereichen des PCs intern auf dem Mainboard wie auch extern hin zur Peripherie
parallele Bussysteme zum Einsatz. Angefangen vom ISA-Bus für Einsteckkarten
auf dem Mainboard über den Speicherbus zwischen Hauptspeicher und CPU
bis hin zur SCSI-Schnittstelle für die Anbindung externer, leistungsfähiger Peripherie und zur “altehrwürdigen” Druckerschnittstelle folgten alle leistungsfähigen
Schnittstellen dem “parallelen Prinzip”.
Seit man technologisch in der Lage ist,
L
leistungsfähige, serielle Bussysteme zu
realisieren, beginnt sich das Bild zu ändern.
LAN- und WAN-Verbindungen wie
auch die klassischen seriellen Verbindungen stoßen in neue Dimensionen vor, und
auch in vielen anderen Bereichen beginnen
serielle Busse sich durchzusetzen. Fibre
Channel konkurriert im Highend-Bereich
mit SCSI. USB-2 und “Firewire” (IEEE1394) steuern Scanner und Videokameras,
und selbst auf dem Mainboard soll “IBA”
(Infiniband) die PCI-Schnittstelle ersetzen.
Bild 1. Die Entwicklung der Datentransferraten von EIDE-Festplatten mit 7200 Umdrehungen pro Minute seit 1995
L AN line 11/2001
Bei einem anderen parallelen Bussystem, das zur kostengünstigen Anbindung
von Massenspeichern verwendet wird,
der IDE-Schnittstelle, gab es bislang nur
eine moderate Weiterentwicklung. IDE
steht für “Integrated Drive Electronics”
und bedeutet, dass der Controller mit in
die Festplatte integriert ist. Die ersten
PC-Festplatten hatte noch externe Controller, meistens nach dem ST506-Standard. ATA (AT Attachment) beschreibt
die Schnittstelle genauer, denn es war ursprünglich ein AT-Controller, der dabei
in die Festplatte integriert wurde.
Aus IDE wurde EIDE (Enhanced IDE)
– die Erweiterungen umfassten vor allem
höhere Übertragungsraten durch DMAModi (ATA-33, ATA-66, ...) und ein erweitertes Protokoll ATAPI (AT Attachment Packet Interface) damit man auch
andere Geräte als Festplatten wie CDROM-Laufwerke, CD-RW und so weiter
anschließen konnte. Die Eingriffe beschränkten sich auf wenige Änderungen,
um die Kompatibilität zur ursprünglichen
AT-Technologie weitgehend aufrecht zu
erhalten. Diese Kompatibilität erlaubt es
zum Beispiel, auch ältere Betriebssysteme über Standard-IDE-Treiber auf modernen Computersystemen zu installieren. Genauso lassen sich auf älteren
Rechnersystemen neue Betriebssysteme
einsetzen. Neben der Kompatibilität sind
vor allem die geringen Kosten ein entscheidendes Argument für die IDESchnittstelle. Sie lässt sich kostengünstig
auf dem Mainboard integrieren und hält
die Festplattenpreise niedrig.
Nun gerät die EIDE-Schnittstelle an ihre technischen Grenzen, und auch hier
schickt sich eine serielle Technologie,
S-ATA (Serialized AT Attachment) an,
die parallele Schnittstelle abzulösen. Im
Folgenden wird für die parallele IDESchnittstelle die Bezeichnung EIDE (Enhanced Intregrated Drive Electronics)
verwendet, um sie im Artikel einfacher
von S-ATA, der neuen seriellen Technologie, unterscheiden zu können.
Die parallele EIDE-Schnittstelle stößt
derzeit bereits aus technischen Gesichtspunkten an ihre Leistungsgrenzen. Dies
ist ein wesentlicher Grund für die Ent-
www.lanline.de
Bild 2. Die “Roadmap” für die Weiterentwicklung von S-ATA
wicklung von S-ATA. Etwa alle drei Jahre verdoppeln sich die Transferraten von
Festplatten und Bussystemen (Bild 1).
Um dieser Entwicklung Rechnung zu tragen, muss sich auch die Geschwindigkeit
der I/O-Schnittstelle anpassen. Das lässt
sich mit der parallelen ATA-Technologie
nicht mehr bewerkstelligen. Eine Alternative, ein neuer Standard mit Potenzial
für die Zukunft, ist also erforderlich.
S-ATA bietet dieses Potenzial – soll sie
bereits heute eine Verdopplung der Geschwindigkeit für 2004 mit sich bringen.
Dabei können die vorhandenen Komponenten wie Kabel weiter verwendet werden. Für 2007 ist eine weitere Verdoppelung auf 6 GBit/s vorgesehen.
“Serial-ATA” verwendet ein zweiadriges Kabel zur Verbindung zwischen dem
Controller (HBA = Hostbus-Adapter) und
den Geräten. Dabei besteht jede Ader aus
zwei miteinander verdrillten Leitungen
und entsprechender Abschirmung/Masse. Zwei Leitungen sind notwendig, da es
sich um einen “Differenziellen Bus” handelt (LVDS = Low Voltage Differential
Signaling). Hierbei wird zur Auswertung
des Signals die Differenz zwischen zwei
Spannungen gemessen (eine Leitung
führt eine positive, die andere eine negative Spannung).
Mit diesen Verfahren erzielt man eine
geringere Störanfälligkeit des Signals, im
Gegensatz zum Verfahren die Spannung
gegenüber Masse zu messen, da sich
Störungen von außen dann auf beide Signale auswirken und somit die gemessene
Differenz zwischen den Signalen erhalten bleibt.
Die LVDS-Technolgie wird unter anderem auch bei der aktuellen SCSI-Technik (Ultra-160 und Ultra-320) verwendet.
Alle Steckverbindungen bei SerialATA sind verpolungssicher aufgebaut
(Bild 3) und für 3,5- sowie 2,5-Zoll-Fest-
L AN line 11/2001
platten identisch. Dementsprechend dürfen für beide Festplattengrößen die gleichen Kabel zum Einsatz kommen. Dabei
kann der Stromanschluss ein externer
Stecker (wie bei der Abbildung für die
größere 3,5-Zoll-Festplatte) sein oder mit
in den S-ATA-Stecker integriert werden
(wie bei dem kleineren 2,5-Zoll-Festplat-
benötigt wird um auszuhandeln, welche
Geräte am Bus miteinander kommunizieren. Der verringerte Verwaltungsaufwand vermeidet Verzögerungen und erhöht somit die Effizienz und Geschwindigkeit des Busses. Man spricht von einer
geringen Latenz – die Zeit, die zwischen
der Kontaktaufnahme zweier Geräte am
Bus und dem Abschluss des Datentransfers vergeht, ist kurz. Als Overhead bezeichnet man dabei die Aktionen, die zusätzlich notwendig sind, bis der eigentliche Datenfluss beginnt.
Eine weitere Vereinfachung resultiert
aus der Charakteristik von S-ATA: Dieses Interface ist ganz auf “Massenspei-
Schichtenmodell von S-ATA
Die verschiedenen Schichten des S-ATA Standards:
Schicht 1: Physikalische Schicht. Hier werden Kabel und Verbindungstechnik spezifiziert
sowie Signale und Laufzeiten festgelegt.
Schicht 2: Die Verbindungsschicht
definiert den Aufbau und den Ablauf
einer Befehlssequenz und des Datentransfers
Schicht 3: Übersetzt die Kommandos der Treiber- und ApplikationsSoftware in Befehle für den seriellen
digitalen Datentransfer. Hier findet
die eigentliche Umsetzung von EIDE
nach Serialized ATA statt.
Schicht 4: Auf Treiberebene stellt
sich Serial-ATA wie sein paralleles
Pendant dar. Kommandos und Registersätze sind vollständig kompatibel
zu parallelem ATA und ATAPI.
tenmodell dargestellt). Die ersten Festplatten werden sicher häufig noch mit
dem klassischen, separaten Stromstecker
ausgeliefert werden.
Serial-ATA verwendet für den Hinund Rücktransport von Daten und Befehlen zwei unterschiedliche Leitungen. Das
vereinfacht die Kommunikation, und es
entsteht ein robustes Protokoll (Bild 4).
Da sich jeweils nur ein Gerät (Target/Device) und ein Controller (Initiator/Host)
auf dem Bus befinden, fällt ein Großteil
des Overheads weg, der normalerweise
cher” hin ausgerichtet (zum Beispiel
Festplatten, CD-ROM, CD-RW und so
weiter). Geräte wie Scanner, Drucker
oder Kameras werden nicht unterstützt.
Auch das kommt der Stabilität und der
Geschwindigkeit des Protokolls zugute.
Will sich ein neuer Standard am Markt
etablieren, so muss er gegenüber der bereits eingeführten Technologie eindeutige Vorteile bieten. S-ATA hat hier eine
noch schwierigere Aufgabe zu lösen, da
nicht nur eine lange eingeführte Technologie, nämlich EIDE, abgelöst werden
www.lanline.de
Bild 3. Stecker und Kabel von S-ATA
soll, sondern bereits einige andere
Schnittstellen am Markt existieren, die
versuchen, EIDE den Rang abzulaufen.
So gibt es bereits Lösungen, Festplatten
über USB-2 oder Firewire (IEEE-1394)
anzuschließen. Im höherpreisigen Segment wiederum haben sich Schnittstellen
wie SCSI und Fibre Channel etabliert.
S-ATA setzt sich durch eine ganze Reihe
von Verbesserungen und Neuerungen
von der klassischen, parallelen EIDESchnittstelle ab.
Ein ganze Reihe von Vorteilen von
S-ATA ergeben sich bereits durch den
Einsatz einer seriellen Technologie. So
arbeitet S-ATA mit sehr dünnen, flexiblen Kabeln die innerhalb eines Computergehäuses nicht nur wenig Platz ein-
Bild 4. Der Aufbau des S-ATA Protokolls
www.lanline.de
nehmen, sondern auch keine Behinderungen für den Luftstrom und damit die
Kühlung der Computerkomponenten darstellen (Bild 5). Damit hilft die neue
Schnittstelle den typischen Kabelsalat im
PC zu verringern. Die Kabel für S-ATA
sind aber nicht nur dünn und flexibel, sondern mit einem Betrag von zirka einem
Dollar auch preisgünstig. Sie können mit
bis zu einem Meter Länge auch in größeren Computergehäusen problemlos alle
Festplatteneinschübe erreichen. Zudem
besitzen serielle Busse generell den Vorteil, durch die geringe Zahl von Steckverbindungen auch weniger Fehlerquellen
aufzuweisen. Dies wirkt sich positiv auf
die Betriebssicherheit der Schnittstelle
aus.
Sicherheit wird bei S-ATA generell
groß geschrieben. So wird wie bereits erwähnt bei der Übertragung die LVDSTechnik verwendet (Low Voltage Differential Signaling), die auch bei Ultra160
SCSI und dem neuen Ultra320 SCSI zum
Einsatz kommt. Dazu gibt es 32-BitCRC-Prüfsummen (Cyclic Redundancy
Check) für alle Daten und im Gegensatz
zu EIDE auch für Kommandos, um Übertragungsfehler zuverlässig zu erkennen
und Datenkorruption zu vermeiden. Es
sei an dieser Stelle angemerkt, dass unsinnige Kommandos dennoch fatale Fehler nach sich ziehen können.
Mit ein Argument für den Einsatz einer
neuen Technologie ist die verbesserte
Performance. S-ATA startet mit 150
MByte/s und bietet damit genügend Reserven für die nächsten zwei bis drei Jahre bei der Festplattenentwicklung. Derzeit leisten modernste Festplatten unter
günstigen Bedingungen etwa 50
MByte/s. Bei S-ATA muss sich ein Gerät
diese Bandbreite des Busses nicht mit
weiteren Gerät teilen. Der Verwaltungsaufwand für den Master-/Slave-Betrieb
wie er bei EIDE eingesetzt wird, fällt also vollständig weg. Besonders wichtig
ist, dass S-ATA als neue Technologie
auch noch Reserven für die Zukunft bietet. Wo die derzeitige parallele EIDESchnittstelle technologisch an die Leistungsgrenze kommt, startet S-ATA erst
so richtig durch. Bis zu einer Geschwindigkeit von 6,0 GBit/s (etwa 600
MByte/s) sind bei der Spezifikation bereits Vorkehrungen getroffen.
Die Geschwindigkeit eines Bussystems wird aber nicht nur durch die maximalen Transferraten, sondern auch durch
das Protokoll und den dadurch entstehenden Verwaltungsaufwand bestimmt. Bei
S-ATA fällt die komplette Arbitrierung
weg, die bei der Verwaltung von mehreren Geräten notwendig wird. Gegenüber
der SCSI-Schnittstelle erzielt man damit
eine geringere Latenz (Verzögerung) und
damit sehr schnelle Reaktionszeiten, was
letztlich zu einem verbesserten “Ansprechverhalten” führt. Ein einfaches
Protokoll fördert nebenbei auch noch die
Stabilität einer Schnittstelle und reduziert
L AN line 11/2001
lerante Ansteckmöglichkeit. S-ATA ist
somit auch für den Nachrüstmarkt gut geeignet und entspricht dem aktuellen
Trend hin zur Benutzerfreundlichkeit
durch “Plug and Play”.
S-ATA UND RAID Zusätzliche Anforde-
Bild 5. Typische S-ATA-Verkabelung innerhalb
eines PC-Systems
die Kosten der verwendeten Bauteile und
Prozessoren.
Durch die LVDS-Technik hält sich der
Stromverbrauch von S-ATA in engen
Grenzen. Das bietet Vorteile in “hochintegrierten” Systemen wie zum Beispiel
bei Notebooks. Entsprechend ist S-ATA
auch für solche Systeme bestens geeignet. S-ATA bietet für 2,5- und 3,5-ZollFestplatten die gleichen Anschlüsse und
das gleiche Kabel und somit einen Preisvorteil vor allem für die kleineren Systeme, die mit den 2,5-Zoll-Festplatten arbeiten. Der geringe Stromverbrauch verringert auch die Wärmeentwicklung und
verbessert das EMI-Verhalten (elektromagnetische Emission). Dies wiederum
ist wichtig für den Erhalt der FCC- und
CE-Prüfzeichen und dürfte vor allem die
Integratoren und Systemhersteller freuen.
Was den Endverbraucher freut, ist die
einfache Installation von S-ATA. Das
Entfallen des Master-/Slave-Betriebs hat
zur Folge, dass keine Steckbrücken an
den Geräten angebracht sind und somit
keine Notwendigkeit besteht, an Festplatten oder CD-ROMs mit S-ATA-Interface
irgendwelche Einstellungen vorzunehmen. Ein verpolungssicherer Stecker bietet des Weiteren eine einfache, fehlerto-
rungen an eine I/O-Schnittstelle entstehen durch RAID (Redundant Array of Independent Disks). RAID-Systeme sind
aus Servern heute kaum noch wegzudenken, stellen sie doch sicher, dass beim
Ausfall einer Festplatte alle Daten noch
im Zugriff sind (Erhöhung der Datenverfügbarkeit). Durch den Wunsch und die
Notwendigkeit, RAID-Technologie auf
breiter Basis einzusetzen, steigt auch der
Druck auf die Hersteller, für kostengünstige Lösungen im Einstiegssegment zu
sorgen. S-ATA folgt diesem Trend und
bietet eine Technologie für den Massenmarkt mit einigen Features die für RAIDLösungen Voraussetzung sind.
Schon jetzt versucht man, kostengünstige RAID-Lösungen auf paralleler EIDE- Technologie zu realisieren. Hintergrund sind die sehr viel günstigeren Kosten “pro MByte” bei EIDE-Festplatten
durch die Massenproduktion. Dieser Ansatz hat aber nur sehr eingeschränkt Erfolg. Die EIDE-Technologie wirft einfach zu viele Probleme auf. Die Schnittstelle bietet nur eingeschränkte Sicherheit (CRC bei Daten aber nicht bei Kommandos), viel zu geringe Kabellängen
(zirka 40 Zentimeter) und vor allem kei-
ne “Hot-Plug”-Unterstützung. “HotPlug” bedeutet, dass eine ausgefallene
Festplatte im Betrieb getauscht werden
kann. Da RAID-Technologie eben gerade deshalb eingesetzt wird, um die Datenverfügbarkeit beim Ausfall einer Festplatte zu gewährleisten, ist diese Funktion von großer Wichtigkeit. Auch zum
Tausch der Festplatte und damit zur Wiederherstellung der Ausfallsicherheit soll
das Server-System nicht angehalten werden müssen.
Genau dies wiederum ermöglicht die
S-ATA-Technik, und das zu Kosten, die
eher im Bereich von paralleler EIDETechnik anzusiedeln sind. Damit könnte
der Festplattenmarkt bald günstige Laufwerke für den Massenmarkt mit Hot-PlugFähigkeit für RAID-Lösungen bieten. Bei
S-ATA ist diese Hot-Plug-Fähigkeit bereits Teil der Spezifikation und wird auch
bei der Mechanik, das heißt den Steckverbindungen, mit berücksichtigt.
S-ATA bietet einen “SCA-Anschluss”
(Single Connector Attachment), der für
ein Hot-Plug-System die Voraussetzung darstellt. In diesem Stecker sind
die Kontakte so aufgebaut, dass die
Masse-(Ground-)Pins länger sind als
die spannungsführenden Leitungen, sodass beim Aufstecken zuerst die Masseverbindung hergestellt wird. Damit lassen sich die Festplatten, geeignete
Backplanes vorausgesetzt, im laufenden Betrieb tauschen (Hot-Plug). Diese
SCA-Technologie mit den entsprechen-
Bild 6. Der S-ATA-konforme SCA-Anschluss für “Festplatten-Hot-Plug”
www.lanline.de
den Backplanes verwenden übrigens
auch SCSI- und Fibre-Channel-basierende RAID-Systeme. Dabei ist die
Backplane einfach eine große Platine
mit Steckern, auf die die Festplatten
aufgesteckt werden. Sie stellt alle notwendigen Parameter (bei SCSI-Festplatten zum Beispiel die ID-Nummer)
auf der Festplatte ein und versorgt diese
auch mit Strom.
Größere RAID-Systeme und Server
werden sicher auch in nächster Zeit mit
der leistungsstarken SCSI- oder FibreChannel-Schnittstelle ausgestattet werden. Gerade im Einsteiger- aber auch
im Midrange-Bereich könnte sich die
S-ATA-Technologie zu einer leistungsfähigen und doch kostengünstigen Alternative entwickeln. S-ATA besitzt gegenüber SCSI nämlich durchaus Vorteile. So verwendet der SCA-Anschluss
bei S-ATA nur 22 Pins, während SCSIFestplatten einen 80-poligen SCA-Anschluss benötigen. Weniger Pins bedeuten weniger Steckverbindungen und
weniger Fehlerquellen und somit eine
verbesserte Zuverlässigkeit.
Da bei S-ATA pro Schnittstelle nur ein
Laufwerk angeschlossen wird, fällt die
aufwändige Arbitrierung des Busses weg
(bei SCSI bis zu 15 Geräte bei Fibre
Channel sogar bis zu 126). Damit wird
auch gegenüber der SCSI-Schnittstelle
Zeitverlust vermieden. Außerdem vereinfacht sich das Handling erheblich, da
am Gerät keine Einstellungen vorgenommen werden müssen. Bei SCSI ist
eine ID zu vergeben, und am physikalischen Ende des Busses muss eine Terminierung vorgenommen werden.
Kostengünstige Controller sind zumindest bei einer kleinen Zahl von Geräten
(drei bis sechs Festplatten) ein weiterer
Vorteil seitens S-ATA. Erst bei vielen
Geräten, wie bei großen RAID-Lösungen
gefordert, kann SCSI oder Fibre Channel
auf Controller-Seite Kostenvorteile für
sich verbuchen. Dies liegt daran, dass alle Geräte an eine Schnittstelle angeschlossen werden können (bis zu 15 beziehungsweise 126), während S-ATA pro
Gerät eine Schnittstelle benötigt. Nimmt
man bei der Kostenrechnung aber die
www.lanline.de
Preise der Festplatten mit hinzu und betrachtet die sehr viel günstigere Festplattenelektronik der einfachen S-ATASchnittstelle, und geht man weiterhin davon aus, dass die S-ATA-Festplatten für
den Massenmarkt in große Stückzahlen
produziert werden, so wandelt sich das
Bild.
S-ATA ist unter diesen Gesichtspunkten die weitaus günstigere Lösung wie
man an den Preisen der derzeit verfügbaren EIDE-Lösungen ablesen kann. Die
Preise pro MByte liegen hier zum Teil
um ein Vielfaches unter denen vergleichbarer SCSI- oder Fibre-Channel-Geräte.
Die gleichen Leistungsdaten wie von einer Highend-Festplatte darf man sich
mentieren sicher nicht ganz zu unrecht
damit, dass das Zusammenschalten
mehrerer Festplatten zu einem RAIDVerband bereits skalierbare Performance bietet. So betrachtet kann man den
Geschwindigkeitsnachteil einer einzelnen günstigen Standardfestplatte durch
den Einsatz von entsprechend mehr
Festplatten also wieder ausgleichen.
Ein offener Punkt ist hier allerdings
noch die Zuverlässigkeit von Standardfestplatten im Dauereinsatz eines Servers. Hier argumentiert die SCSI-Fraktion ebenso zurecht, dass der Einsatz
weniger Festplatten die Zuverlässigkeit
des RAID-Verbands ebenfalls erhöht.
Wie so oft gibt es also Argumente für
beide Seiten und
damit die Berechtigung für beide
Technologien.
S-ATA UND DIE
ZUKUNFT S-ATA
besitzt das Potenzial, auch in Zukunft
die Ansprüche an eine moderne und
leistungsfähige I/OSchnittstelle
für
Massenspeicher zu
befriedigen. Durch
den gegenüber EIDE
erweiterten
Adressbereich von
48 Bit kann S-ATA
pro Gerät 131.072
TByte (1024 GByte
entsprechen
1
TByte) Speicherkapazität adressieren.
S-ATA und ihr Platz innerhalb der relevanten Interface-Konzepte
Hohe Geschwindigkeit (bis 6 GBit/s
vorgesehen)
und
natürlich von einer solchen “Standard- skalierbare Leistung (pro Gerät eine
festplatte” nicht erwarten. Das gilt aber Schnittstelle) ermöglichen es, auch in Zuauch schon für heutige EIDE-Festplatten, kunft mit der Entwicklung von Bussystedie durch geringere Drehzahlen wesent- men und Massenspeichern mitzuwachsen.
lich höhere Zugriffszeiten aufweisen als Während SCSI pro Schnittstelle bis zu 15
entsprechende SCSI- oder Fibre-Chan- Geräte verwaltet und sich damit die Bandnel-Festplatten.
breite des Busses zwischen den Geräten
Befürworter für den Einsatz von EIDE- aufteilen muss (160 MByte/s geteilt durch
Technologie im RAID-Segment argu- 15 Geräte ergibt noch etwa 10 MByte/s
L AN line 11/2001
Vorzüge von S-ATA
Bild 7. Ein Beispiel für eine hochverfügbare SCSI-Cluster-Lösung, basierend auf zwei
Knoten
pro Gerät), skaliert die Geschwindigkeit
von S-ATA mit der Anzahl der Geräte.
Werden zum Beispiel acht moderne SATA-Festplatten an einen RAID-Controller angeschlossen, so erzielt man bei einer
Mediendatenrate pro Festplatte von 50
MByte/s eine Rate von 8 mal 50 MByte/s
L AN line 11/2001
= 400 MByte/s. Dieser Wert wird von einer (teuren) SCSI-Schnittstelle zumindest
derzeit nicht erreicht.
S-ATA besitzt gegenüber SCSI aber
auch Einschränkungen. So lassen sich
damit keine hochverfügbaren Clustering-Systeme aufbauen, da nur Punktzu-Punkt-Verbindungen zwischen zwei
Geräten möglich sind.
Bei einem “High Availability Cluster”
wie in Bild 7 gezeigt, werden zumindest
drei Komponenten (zwei Controller und
eine Festplatte) an einem “Shared-Storage Bus” benötigt, um im Fehlerfall von
einem anderen Server auf den Massenspeicher zugreifen zu können.
Betrachtet man aber ein SAN (Storage Area Network), so ist der Einsatz
von S-ATA-Komponenten wieder möglich und durch die im Gegensatz zu SCSI geringen Kosten als I/O-Schnittstelle möglicherweise sogar vorzuziehen.
So gesehen bietet S-ATA genügend Po-
– dünnes günstiges Kabel, weniger Behinderungen für den Luftstrom im Gehäuse,
– längere Kabel möglich (bis zu 1 m),
– Performance (150 bis 600 MByte/s),
– geringe Latenz, keine Arbitrierung, führt
zu geringerem Overhead und somit zu
höherer Geschwindigkeit,
– hohe Sicherheit (LVD), 32 Bit CRC-Prüfsummen, weniger Steckverbindungen bedeuten weniger Fehlerquellen.
tenzial, um selbst den etablierten I/OTechnologien die Stirn zu bieten.
S-ATA kann also selbst bei HighendLösungen sinnvoll eingesetzt werden. Wo
man S-ATA-Komponenten letztlich überall finden wird, wird der Markt entscheiden. Eines ist aber jetzt schon absehbar, die
parallele IDE-Technolgie ist am Ende ihres Lebenszyklus angelangt, da sie in naher
Zukunft die Anforderungen an Geschwindigkeit und Sicherheit nicht mehr befriedigen kann. S-ATA hat schon jetzt breite Unterstützung bei den Herstellern gefunden
und es ist erkennbar, dass sie die Nachfolge dieser Technologie antreten wird.
(Jürgen Frick/rhh)
Jürgen Frick ist bei ICP Vortex, mittlerweile von Intel übernommen, für den
Bereich “Technical Services” zuständig.
www.lanline.de
High Speed ...
... und doppelten Datentransfer erzielen Sie mit
den neuen 64-Bit
66 MHz PCI Fibre
Channel 2 (FC2)
RAID Controllern
von ICP.
Setzen Sie auf die
Zukunft, auf FC2, und
profitieren Sie von
Übertragungsraten
von max. 200 MB/sec.
pro FC2-AL.
Doppelt hält besser, und
so sind die ICP RAID
Controller mit zwei
Loops ausgestattet.
Wenn neben Hochgeschwindigkeit auch noch
Hochverfügbarkeit ein
Thema für Sie ist, dann
wählen Sie den ICP
Cluster Controller.
Mit GDT8622RZ haben
Sie gleich zweimal den
Bogen raus!
ICP vortex Computersysteme GmbH
Konrad-Zuse-Str. 9, D-74172 Neckarsulm, Germany
Telefon: +49-7132-9620-0, Telefax: +49-7132-9620-200
E-mail: [email protected], http://www.icp-vortex.com
K
o
m
p
e
t
e
n
z
i
n
C
o
n
t
r
o
l
l
e
r

Documentos relacionados