NAS und SAN
Transcrição
NAS und SAN
Nr. 11, November 2001 Das Magazin für Netze, Daten- und Telekommunikation www.lanline.de NAS und SAN Switch-Meshing im Speichernetzwerk Network File System Version 4 Serial-ATA als Basis für RAID Network Data Management Protocol mit Marktübersicht NAS-Lösungen Im Test: Wininstall 2000 Intelligente Software-Verteilung Internet Protocol Version 6 Grundlagen, Chancen, Neuerungen, Migration Schwerpunkt xDSL-Techniken mit Marktübersicht k DSL-Router rdruc e nd für e1x1 o S rt o 4 398039 714002 V ICP WEITERENTWICKLUNG VON EIDE Die serielle Konkurrenz “Serialized AT Attachment” (kurz S-ATA) offeriert technische Vorzüge gegenüber der EIDE-Schnittstelle. Ein wesentlicher Punkt ist dabei die Ansteuerung bei diesem “seriellen Bus” über Gerätetreiber, die kompatibel zur parallelen EIDE-Schnittstelle sind. Damit lassen sich bestehende Programme und Betriebssysteme weiter verwenden. Die Kosten für die neue Schnittstelle sind ähnlich günstig wie bei EIDE. Sie erlauben es, S-ATA-Schnittstellen in Zukunft direkt in die Chipsätze und damit auf dem Mainboard zu integrieren. Der Siegeszug dieser Technik auch bei NAS- und RAID-Systemen scheint bevor zu stehen. ange Zeit kamen in fast allen Bereichen des PCs intern auf dem Mainboard wie auch extern hin zur Peripherie parallele Bussysteme zum Einsatz. Angefangen vom ISA-Bus für Einsteckkarten auf dem Mainboard über den Speicherbus zwischen Hauptspeicher und CPU bis hin zur SCSI-Schnittstelle für die Anbindung externer, leistungsfähiger Peripherie und zur “altehrwürdigen” Druckerschnittstelle folgten alle leistungsfähigen Schnittstellen dem “parallelen Prinzip”. Seit man technologisch in der Lage ist, L leistungsfähige, serielle Bussysteme zu realisieren, beginnt sich das Bild zu ändern. LAN- und WAN-Verbindungen wie auch die klassischen seriellen Verbindungen stoßen in neue Dimensionen vor, und auch in vielen anderen Bereichen beginnen serielle Busse sich durchzusetzen. Fibre Channel konkurriert im Highend-Bereich mit SCSI. USB-2 und “Firewire” (IEEE1394) steuern Scanner und Videokameras, und selbst auf dem Mainboard soll “IBA” (Infiniband) die PCI-Schnittstelle ersetzen. Bild 1. Die Entwicklung der Datentransferraten von EIDE-Festplatten mit 7200 Umdrehungen pro Minute seit 1995 L AN line 11/2001 Bei einem anderen parallelen Bussystem, das zur kostengünstigen Anbindung von Massenspeichern verwendet wird, der IDE-Schnittstelle, gab es bislang nur eine moderate Weiterentwicklung. IDE steht für “Integrated Drive Electronics” und bedeutet, dass der Controller mit in die Festplatte integriert ist. Die ersten PC-Festplatten hatte noch externe Controller, meistens nach dem ST506-Standard. ATA (AT Attachment) beschreibt die Schnittstelle genauer, denn es war ursprünglich ein AT-Controller, der dabei in die Festplatte integriert wurde. Aus IDE wurde EIDE (Enhanced IDE) – die Erweiterungen umfassten vor allem höhere Übertragungsraten durch DMAModi (ATA-33, ATA-66, ...) und ein erweitertes Protokoll ATAPI (AT Attachment Packet Interface) damit man auch andere Geräte als Festplatten wie CDROM-Laufwerke, CD-RW und so weiter anschließen konnte. Die Eingriffe beschränkten sich auf wenige Änderungen, um die Kompatibilität zur ursprünglichen AT-Technologie weitgehend aufrecht zu erhalten. Diese Kompatibilität erlaubt es zum Beispiel, auch ältere Betriebssysteme über Standard-IDE-Treiber auf modernen Computersystemen zu installieren. Genauso lassen sich auf älteren Rechnersystemen neue Betriebssysteme einsetzen. Neben der Kompatibilität sind vor allem die geringen Kosten ein entscheidendes Argument für die IDESchnittstelle. Sie lässt sich kostengünstig auf dem Mainboard integrieren und hält die Festplattenpreise niedrig. Nun gerät die EIDE-Schnittstelle an ihre technischen Grenzen, und auch hier schickt sich eine serielle Technologie, S-ATA (Serialized AT Attachment) an, die parallele Schnittstelle abzulösen. Im Folgenden wird für die parallele IDESchnittstelle die Bezeichnung EIDE (Enhanced Intregrated Drive Electronics) verwendet, um sie im Artikel einfacher von S-ATA, der neuen seriellen Technologie, unterscheiden zu können. Die parallele EIDE-Schnittstelle stößt derzeit bereits aus technischen Gesichtspunkten an ihre Leistungsgrenzen. Dies ist ein wesentlicher Grund für die Ent- www.lanline.de Bild 2. Die “Roadmap” für die Weiterentwicklung von S-ATA wicklung von S-ATA. Etwa alle drei Jahre verdoppeln sich die Transferraten von Festplatten und Bussystemen (Bild 1). Um dieser Entwicklung Rechnung zu tragen, muss sich auch die Geschwindigkeit der I/O-Schnittstelle anpassen. Das lässt sich mit der parallelen ATA-Technologie nicht mehr bewerkstelligen. Eine Alternative, ein neuer Standard mit Potenzial für die Zukunft, ist also erforderlich. S-ATA bietet dieses Potenzial – soll sie bereits heute eine Verdopplung der Geschwindigkeit für 2004 mit sich bringen. Dabei können die vorhandenen Komponenten wie Kabel weiter verwendet werden. Für 2007 ist eine weitere Verdoppelung auf 6 GBit/s vorgesehen. “Serial-ATA” verwendet ein zweiadriges Kabel zur Verbindung zwischen dem Controller (HBA = Hostbus-Adapter) und den Geräten. Dabei besteht jede Ader aus zwei miteinander verdrillten Leitungen und entsprechender Abschirmung/Masse. Zwei Leitungen sind notwendig, da es sich um einen “Differenziellen Bus” handelt (LVDS = Low Voltage Differential Signaling). Hierbei wird zur Auswertung des Signals die Differenz zwischen zwei Spannungen gemessen (eine Leitung führt eine positive, die andere eine negative Spannung). Mit diesen Verfahren erzielt man eine geringere Störanfälligkeit des Signals, im Gegensatz zum Verfahren die Spannung gegenüber Masse zu messen, da sich Störungen von außen dann auf beide Signale auswirken und somit die gemessene Differenz zwischen den Signalen erhalten bleibt. Die LVDS-Technolgie wird unter anderem auch bei der aktuellen SCSI-Technik (Ultra-160 und Ultra-320) verwendet. Alle Steckverbindungen bei SerialATA sind verpolungssicher aufgebaut (Bild 3) und für 3,5- sowie 2,5-Zoll-Fest- L AN line 11/2001 platten identisch. Dementsprechend dürfen für beide Festplattengrößen die gleichen Kabel zum Einsatz kommen. Dabei kann der Stromanschluss ein externer Stecker (wie bei der Abbildung für die größere 3,5-Zoll-Festplatte) sein oder mit in den S-ATA-Stecker integriert werden (wie bei dem kleineren 2,5-Zoll-Festplat- benötigt wird um auszuhandeln, welche Geräte am Bus miteinander kommunizieren. Der verringerte Verwaltungsaufwand vermeidet Verzögerungen und erhöht somit die Effizienz und Geschwindigkeit des Busses. Man spricht von einer geringen Latenz – die Zeit, die zwischen der Kontaktaufnahme zweier Geräte am Bus und dem Abschluss des Datentransfers vergeht, ist kurz. Als Overhead bezeichnet man dabei die Aktionen, die zusätzlich notwendig sind, bis der eigentliche Datenfluss beginnt. Eine weitere Vereinfachung resultiert aus der Charakteristik von S-ATA: Dieses Interface ist ganz auf “Massenspei- Schichtenmodell von S-ATA Die verschiedenen Schichten des S-ATA Standards: Schicht 1: Physikalische Schicht. Hier werden Kabel und Verbindungstechnik spezifiziert sowie Signale und Laufzeiten festgelegt. Schicht 2: Die Verbindungsschicht definiert den Aufbau und den Ablauf einer Befehlssequenz und des Datentransfers Schicht 3: Übersetzt die Kommandos der Treiber- und ApplikationsSoftware in Befehle für den seriellen digitalen Datentransfer. Hier findet die eigentliche Umsetzung von EIDE nach Serialized ATA statt. Schicht 4: Auf Treiberebene stellt sich Serial-ATA wie sein paralleles Pendant dar. Kommandos und Registersätze sind vollständig kompatibel zu parallelem ATA und ATAPI. tenmodell dargestellt). Die ersten Festplatten werden sicher häufig noch mit dem klassischen, separaten Stromstecker ausgeliefert werden. Serial-ATA verwendet für den Hinund Rücktransport von Daten und Befehlen zwei unterschiedliche Leitungen. Das vereinfacht die Kommunikation, und es entsteht ein robustes Protokoll (Bild 4). Da sich jeweils nur ein Gerät (Target/Device) und ein Controller (Initiator/Host) auf dem Bus befinden, fällt ein Großteil des Overheads weg, der normalerweise cher” hin ausgerichtet (zum Beispiel Festplatten, CD-ROM, CD-RW und so weiter). Geräte wie Scanner, Drucker oder Kameras werden nicht unterstützt. Auch das kommt der Stabilität und der Geschwindigkeit des Protokolls zugute. Will sich ein neuer Standard am Markt etablieren, so muss er gegenüber der bereits eingeführten Technologie eindeutige Vorteile bieten. S-ATA hat hier eine noch schwierigere Aufgabe zu lösen, da nicht nur eine lange eingeführte Technologie, nämlich EIDE, abgelöst werden www.lanline.de Bild 3. Stecker und Kabel von S-ATA soll, sondern bereits einige andere Schnittstellen am Markt existieren, die versuchen, EIDE den Rang abzulaufen. So gibt es bereits Lösungen, Festplatten über USB-2 oder Firewire (IEEE-1394) anzuschließen. Im höherpreisigen Segment wiederum haben sich Schnittstellen wie SCSI und Fibre Channel etabliert. S-ATA setzt sich durch eine ganze Reihe von Verbesserungen und Neuerungen von der klassischen, parallelen EIDESchnittstelle ab. Ein ganze Reihe von Vorteilen von S-ATA ergeben sich bereits durch den Einsatz einer seriellen Technologie. So arbeitet S-ATA mit sehr dünnen, flexiblen Kabeln die innerhalb eines Computergehäuses nicht nur wenig Platz ein- Bild 4. Der Aufbau des S-ATA Protokolls www.lanline.de nehmen, sondern auch keine Behinderungen für den Luftstrom und damit die Kühlung der Computerkomponenten darstellen (Bild 5). Damit hilft die neue Schnittstelle den typischen Kabelsalat im PC zu verringern. Die Kabel für S-ATA sind aber nicht nur dünn und flexibel, sondern mit einem Betrag von zirka einem Dollar auch preisgünstig. Sie können mit bis zu einem Meter Länge auch in größeren Computergehäusen problemlos alle Festplatteneinschübe erreichen. Zudem besitzen serielle Busse generell den Vorteil, durch die geringe Zahl von Steckverbindungen auch weniger Fehlerquellen aufzuweisen. Dies wirkt sich positiv auf die Betriebssicherheit der Schnittstelle aus. Sicherheit wird bei S-ATA generell groß geschrieben. So wird wie bereits erwähnt bei der Übertragung die LVDSTechnik verwendet (Low Voltage Differential Signaling), die auch bei Ultra160 SCSI und dem neuen Ultra320 SCSI zum Einsatz kommt. Dazu gibt es 32-BitCRC-Prüfsummen (Cyclic Redundancy Check) für alle Daten und im Gegensatz zu EIDE auch für Kommandos, um Übertragungsfehler zuverlässig zu erkennen und Datenkorruption zu vermeiden. Es sei an dieser Stelle angemerkt, dass unsinnige Kommandos dennoch fatale Fehler nach sich ziehen können. Mit ein Argument für den Einsatz einer neuen Technologie ist die verbesserte Performance. S-ATA startet mit 150 MByte/s und bietet damit genügend Reserven für die nächsten zwei bis drei Jahre bei der Festplattenentwicklung. Derzeit leisten modernste Festplatten unter günstigen Bedingungen etwa 50 MByte/s. Bei S-ATA muss sich ein Gerät diese Bandbreite des Busses nicht mit weiteren Gerät teilen. Der Verwaltungsaufwand für den Master-/Slave-Betrieb wie er bei EIDE eingesetzt wird, fällt also vollständig weg. Besonders wichtig ist, dass S-ATA als neue Technologie auch noch Reserven für die Zukunft bietet. Wo die derzeitige parallele EIDESchnittstelle technologisch an die Leistungsgrenze kommt, startet S-ATA erst so richtig durch. Bis zu einer Geschwindigkeit von 6,0 GBit/s (etwa 600 MByte/s) sind bei der Spezifikation bereits Vorkehrungen getroffen. Die Geschwindigkeit eines Bussystems wird aber nicht nur durch die maximalen Transferraten, sondern auch durch das Protokoll und den dadurch entstehenden Verwaltungsaufwand bestimmt. Bei S-ATA fällt die komplette Arbitrierung weg, die bei der Verwaltung von mehreren Geräten notwendig wird. Gegenüber der SCSI-Schnittstelle erzielt man damit eine geringere Latenz (Verzögerung) und damit sehr schnelle Reaktionszeiten, was letztlich zu einem verbesserten “Ansprechverhalten” führt. Ein einfaches Protokoll fördert nebenbei auch noch die Stabilität einer Schnittstelle und reduziert L AN line 11/2001 lerante Ansteckmöglichkeit. S-ATA ist somit auch für den Nachrüstmarkt gut geeignet und entspricht dem aktuellen Trend hin zur Benutzerfreundlichkeit durch “Plug and Play”. S-ATA UND RAID Zusätzliche Anforde- Bild 5. Typische S-ATA-Verkabelung innerhalb eines PC-Systems die Kosten der verwendeten Bauteile und Prozessoren. Durch die LVDS-Technik hält sich der Stromverbrauch von S-ATA in engen Grenzen. Das bietet Vorteile in “hochintegrierten” Systemen wie zum Beispiel bei Notebooks. Entsprechend ist S-ATA auch für solche Systeme bestens geeignet. S-ATA bietet für 2,5- und 3,5-ZollFestplatten die gleichen Anschlüsse und das gleiche Kabel und somit einen Preisvorteil vor allem für die kleineren Systeme, die mit den 2,5-Zoll-Festplatten arbeiten. Der geringe Stromverbrauch verringert auch die Wärmeentwicklung und verbessert das EMI-Verhalten (elektromagnetische Emission). Dies wiederum ist wichtig für den Erhalt der FCC- und CE-Prüfzeichen und dürfte vor allem die Integratoren und Systemhersteller freuen. Was den Endverbraucher freut, ist die einfache Installation von S-ATA. Das Entfallen des Master-/Slave-Betriebs hat zur Folge, dass keine Steckbrücken an den Geräten angebracht sind und somit keine Notwendigkeit besteht, an Festplatten oder CD-ROMs mit S-ATA-Interface irgendwelche Einstellungen vorzunehmen. Ein verpolungssicherer Stecker bietet des Weiteren eine einfache, fehlerto- rungen an eine I/O-Schnittstelle entstehen durch RAID (Redundant Array of Independent Disks). RAID-Systeme sind aus Servern heute kaum noch wegzudenken, stellen sie doch sicher, dass beim Ausfall einer Festplatte alle Daten noch im Zugriff sind (Erhöhung der Datenverfügbarkeit). Durch den Wunsch und die Notwendigkeit, RAID-Technologie auf breiter Basis einzusetzen, steigt auch der Druck auf die Hersteller, für kostengünstige Lösungen im Einstiegssegment zu sorgen. S-ATA folgt diesem Trend und bietet eine Technologie für den Massenmarkt mit einigen Features die für RAIDLösungen Voraussetzung sind. Schon jetzt versucht man, kostengünstige RAID-Lösungen auf paralleler EIDE- Technologie zu realisieren. Hintergrund sind die sehr viel günstigeren Kosten “pro MByte” bei EIDE-Festplatten durch die Massenproduktion. Dieser Ansatz hat aber nur sehr eingeschränkt Erfolg. Die EIDE-Technologie wirft einfach zu viele Probleme auf. Die Schnittstelle bietet nur eingeschränkte Sicherheit (CRC bei Daten aber nicht bei Kommandos), viel zu geringe Kabellängen (zirka 40 Zentimeter) und vor allem kei- ne “Hot-Plug”-Unterstützung. “HotPlug” bedeutet, dass eine ausgefallene Festplatte im Betrieb getauscht werden kann. Da RAID-Technologie eben gerade deshalb eingesetzt wird, um die Datenverfügbarkeit beim Ausfall einer Festplatte zu gewährleisten, ist diese Funktion von großer Wichtigkeit. Auch zum Tausch der Festplatte und damit zur Wiederherstellung der Ausfallsicherheit soll das Server-System nicht angehalten werden müssen. Genau dies wiederum ermöglicht die S-ATA-Technik, und das zu Kosten, die eher im Bereich von paralleler EIDETechnik anzusiedeln sind. Damit könnte der Festplattenmarkt bald günstige Laufwerke für den Massenmarkt mit Hot-PlugFähigkeit für RAID-Lösungen bieten. Bei S-ATA ist diese Hot-Plug-Fähigkeit bereits Teil der Spezifikation und wird auch bei der Mechanik, das heißt den Steckverbindungen, mit berücksichtigt. S-ATA bietet einen “SCA-Anschluss” (Single Connector Attachment), der für ein Hot-Plug-System die Voraussetzung darstellt. In diesem Stecker sind die Kontakte so aufgebaut, dass die Masse-(Ground-)Pins länger sind als die spannungsführenden Leitungen, sodass beim Aufstecken zuerst die Masseverbindung hergestellt wird. Damit lassen sich die Festplatten, geeignete Backplanes vorausgesetzt, im laufenden Betrieb tauschen (Hot-Plug). Diese SCA-Technologie mit den entsprechen- Bild 6. Der S-ATA-konforme SCA-Anschluss für “Festplatten-Hot-Plug” www.lanline.de den Backplanes verwenden übrigens auch SCSI- und Fibre-Channel-basierende RAID-Systeme. Dabei ist die Backplane einfach eine große Platine mit Steckern, auf die die Festplatten aufgesteckt werden. Sie stellt alle notwendigen Parameter (bei SCSI-Festplatten zum Beispiel die ID-Nummer) auf der Festplatte ein und versorgt diese auch mit Strom. Größere RAID-Systeme und Server werden sicher auch in nächster Zeit mit der leistungsstarken SCSI- oder FibreChannel-Schnittstelle ausgestattet werden. Gerade im Einsteiger- aber auch im Midrange-Bereich könnte sich die S-ATA-Technologie zu einer leistungsfähigen und doch kostengünstigen Alternative entwickeln. S-ATA besitzt gegenüber SCSI nämlich durchaus Vorteile. So verwendet der SCA-Anschluss bei S-ATA nur 22 Pins, während SCSIFestplatten einen 80-poligen SCA-Anschluss benötigen. Weniger Pins bedeuten weniger Steckverbindungen und weniger Fehlerquellen und somit eine verbesserte Zuverlässigkeit. Da bei S-ATA pro Schnittstelle nur ein Laufwerk angeschlossen wird, fällt die aufwändige Arbitrierung des Busses weg (bei SCSI bis zu 15 Geräte bei Fibre Channel sogar bis zu 126). Damit wird auch gegenüber der SCSI-Schnittstelle Zeitverlust vermieden. Außerdem vereinfacht sich das Handling erheblich, da am Gerät keine Einstellungen vorgenommen werden müssen. Bei SCSI ist eine ID zu vergeben, und am physikalischen Ende des Busses muss eine Terminierung vorgenommen werden. Kostengünstige Controller sind zumindest bei einer kleinen Zahl von Geräten (drei bis sechs Festplatten) ein weiterer Vorteil seitens S-ATA. Erst bei vielen Geräten, wie bei großen RAID-Lösungen gefordert, kann SCSI oder Fibre Channel auf Controller-Seite Kostenvorteile für sich verbuchen. Dies liegt daran, dass alle Geräte an eine Schnittstelle angeschlossen werden können (bis zu 15 beziehungsweise 126), während S-ATA pro Gerät eine Schnittstelle benötigt. Nimmt man bei der Kostenrechnung aber die www.lanline.de Preise der Festplatten mit hinzu und betrachtet die sehr viel günstigere Festplattenelektronik der einfachen S-ATASchnittstelle, und geht man weiterhin davon aus, dass die S-ATA-Festplatten für den Massenmarkt in große Stückzahlen produziert werden, so wandelt sich das Bild. S-ATA ist unter diesen Gesichtspunkten die weitaus günstigere Lösung wie man an den Preisen der derzeit verfügbaren EIDE-Lösungen ablesen kann. Die Preise pro MByte liegen hier zum Teil um ein Vielfaches unter denen vergleichbarer SCSI- oder Fibre-Channel-Geräte. Die gleichen Leistungsdaten wie von einer Highend-Festplatte darf man sich mentieren sicher nicht ganz zu unrecht damit, dass das Zusammenschalten mehrerer Festplatten zu einem RAIDVerband bereits skalierbare Performance bietet. So betrachtet kann man den Geschwindigkeitsnachteil einer einzelnen günstigen Standardfestplatte durch den Einsatz von entsprechend mehr Festplatten also wieder ausgleichen. Ein offener Punkt ist hier allerdings noch die Zuverlässigkeit von Standardfestplatten im Dauereinsatz eines Servers. Hier argumentiert die SCSI-Fraktion ebenso zurecht, dass der Einsatz weniger Festplatten die Zuverlässigkeit des RAID-Verbands ebenfalls erhöht. Wie so oft gibt es also Argumente für beide Seiten und damit die Berechtigung für beide Technologien. S-ATA UND DIE ZUKUNFT S-ATA besitzt das Potenzial, auch in Zukunft die Ansprüche an eine moderne und leistungsfähige I/OSchnittstelle für Massenspeicher zu befriedigen. Durch den gegenüber EIDE erweiterten Adressbereich von 48 Bit kann S-ATA pro Gerät 131.072 TByte (1024 GByte entsprechen 1 TByte) Speicherkapazität adressieren. S-ATA und ihr Platz innerhalb der relevanten Interface-Konzepte Hohe Geschwindigkeit (bis 6 GBit/s vorgesehen) und natürlich von einer solchen “Standard- skalierbare Leistung (pro Gerät eine festplatte” nicht erwarten. Das gilt aber Schnittstelle) ermöglichen es, auch in Zuauch schon für heutige EIDE-Festplatten, kunft mit der Entwicklung von Bussystedie durch geringere Drehzahlen wesent- men und Massenspeichern mitzuwachsen. lich höhere Zugriffszeiten aufweisen als Während SCSI pro Schnittstelle bis zu 15 entsprechende SCSI- oder Fibre-Chan- Geräte verwaltet und sich damit die Bandnel-Festplatten. breite des Busses zwischen den Geräten Befürworter für den Einsatz von EIDE- aufteilen muss (160 MByte/s geteilt durch Technologie im RAID-Segment argu- 15 Geräte ergibt noch etwa 10 MByte/s L AN line 11/2001 Vorzüge von S-ATA Bild 7. Ein Beispiel für eine hochverfügbare SCSI-Cluster-Lösung, basierend auf zwei Knoten pro Gerät), skaliert die Geschwindigkeit von S-ATA mit der Anzahl der Geräte. Werden zum Beispiel acht moderne SATA-Festplatten an einen RAID-Controller angeschlossen, so erzielt man bei einer Mediendatenrate pro Festplatte von 50 MByte/s eine Rate von 8 mal 50 MByte/s L AN line 11/2001 = 400 MByte/s. Dieser Wert wird von einer (teuren) SCSI-Schnittstelle zumindest derzeit nicht erreicht. S-ATA besitzt gegenüber SCSI aber auch Einschränkungen. So lassen sich damit keine hochverfügbaren Clustering-Systeme aufbauen, da nur Punktzu-Punkt-Verbindungen zwischen zwei Geräten möglich sind. Bei einem “High Availability Cluster” wie in Bild 7 gezeigt, werden zumindest drei Komponenten (zwei Controller und eine Festplatte) an einem “Shared-Storage Bus” benötigt, um im Fehlerfall von einem anderen Server auf den Massenspeicher zugreifen zu können. Betrachtet man aber ein SAN (Storage Area Network), so ist der Einsatz von S-ATA-Komponenten wieder möglich und durch die im Gegensatz zu SCSI geringen Kosten als I/O-Schnittstelle möglicherweise sogar vorzuziehen. So gesehen bietet S-ATA genügend Po- – dünnes günstiges Kabel, weniger Behinderungen für den Luftstrom im Gehäuse, – längere Kabel möglich (bis zu 1 m), – Performance (150 bis 600 MByte/s), – geringe Latenz, keine Arbitrierung, führt zu geringerem Overhead und somit zu höherer Geschwindigkeit, – hohe Sicherheit (LVD), 32 Bit CRC-Prüfsummen, weniger Steckverbindungen bedeuten weniger Fehlerquellen. tenzial, um selbst den etablierten I/OTechnologien die Stirn zu bieten. S-ATA kann also selbst bei HighendLösungen sinnvoll eingesetzt werden. Wo man S-ATA-Komponenten letztlich überall finden wird, wird der Markt entscheiden. Eines ist aber jetzt schon absehbar, die parallele IDE-Technolgie ist am Ende ihres Lebenszyklus angelangt, da sie in naher Zukunft die Anforderungen an Geschwindigkeit und Sicherheit nicht mehr befriedigen kann. S-ATA hat schon jetzt breite Unterstützung bei den Herstellern gefunden und es ist erkennbar, dass sie die Nachfolge dieser Technologie antreten wird. (Jürgen Frick/rhh) Jürgen Frick ist bei ICP Vortex, mittlerweile von Intel übernommen, für den Bereich “Technical Services” zuständig. www.lanline.de High Speed ... ... und doppelten Datentransfer erzielen Sie mit den neuen 64-Bit 66 MHz PCI Fibre Channel 2 (FC2) RAID Controllern von ICP. Setzen Sie auf die Zukunft, auf FC2, und profitieren Sie von Übertragungsraten von max. 200 MB/sec. pro FC2-AL. Doppelt hält besser, und so sind die ICP RAID Controller mit zwei Loops ausgestattet. Wenn neben Hochgeschwindigkeit auch noch Hochverfügbarkeit ein Thema für Sie ist, dann wählen Sie den ICP Cluster Controller. Mit GDT8622RZ haben Sie gleich zweimal den Bogen raus! ICP vortex Computersysteme GmbH Konrad-Zuse-Str. 9, D-74172 Neckarsulm, Germany Telefon: +49-7132-9620-0, Telefax: +49-7132-9620-200 E-mail: [email protected], http://www.icp-vortex.com K o m p e t e n z i n C o n t r o l l e r