Im großen Haifischbecken

Transcrição

Im großen Haifischbecken
ix.0807.x.01-16
09.07.2007
17:00 Uhr
Seite I
sponsored by:
Im großen
Haifischbecken
extra
Storage
Grundsätzliches zur Archivierung
Auch mangelnde Aufklärung ist eine Methode, um
Verkaufszahlen in die Höhe zu treiben. Beim Thema
Archivierung beschränkt sich die Unkenntnis nicht nur
auf die Frage, wer was warum aufbewahren muss.
Schwerpunkt:
Archivierung –
Hardware und mehr
aum waren die neuen
Gesetze zur Bereithaltung
von Geschäftsdaten in Kraft,
haben die Hersteller von Speichergeräten und -software die
dunklen und die hellen Seiten
der Archivierung entdeckt. In
schillernden Farben malen sie
die Gefahren an die Wand,
die jedem IT-Leiter oder Geschäftsführer drohen, der sich
nicht ausreichend um das
gesetzeskonforme und langfristige Speichern relevanter
Geschäftsdaten kümmert.
Unterstützt werden sie inzwischen von ganzen Heerscharen von Rechtsanwälten und
K
Grundsätzliches zur Archivierung
Im großen Haifischbecken
Seite I
Die Basis: Platten, Scheiben, Bänder
Ruheplatz
Seite IV
Haben Archive eine Zukunft?
Wider die Vergänglichkeit
Seite XIV
Vorschau
Netzwerke
Schwerpunkt:
Providerangebote – von
Managed Software bis
Virtual Server
Seite XV
Veranstaltungen
23. – 27. Juli, Portland, Oregon
8th Open Source Convention (OSCON)
conferences.oreillynet.com/os2007
5. – 9. August, San Diego, CA
Siggraph
www.siggraph.org/s2007
11. – 13. September, San Francisco, CA
VMWorld
www.vmware.com/vmworld
29. – 31. Oktober, Frankfurt
Storage Networking World Europe
www.snweurope.com
Beratern, die mit scheinbarer
Detailkenntnis und vielen einschlägigen Paragrafen des
Steuer- und Zivilrechts auffahren – und vor allem an ihren
eigenen Umsatz denken.
Falschinformationen bleiben nicht aus. Genau besehen
sind sie manchen Marketingstrategen sogar recht, denn
diese haben nur eins im Sinn:
mehr Produkte an den Mann
bringen. Archivierungsthemen
eignen sich dazu in besonderer Weise, da die entsprechenden Verfahren und Techniken
in den Unternehmen vielleicht
noch unbeliebter sind als das
HSM- und Archivierungssoftware-Markt mit Prognose 2002-2009
Millionen
Dollar
1400
Database Active Archiving
Distributed File HSM
1200
E-Mail Active Archiving
1000
Mainframe File HSM
800
Quelle: Gartner (April 2005)
Ein Verlagsbeihefter der Heise Zeitschriften Verlag GmbH & Co. KG
Storage
600
400
200
0
2002
2003
2004
2005
2006
2007
2008
2009
Vor allem das undurchdachte und ungefilterte Aufbewahren
von E-Mails lässt den Archivierungsmarkt wachsen (Abb. 1).
I
ix.0807.x.01-16
09.07.2007
17:00 Uhr
Seite II
Storage
lästige Backup und Recovery.
Mit der Folge, dass sich niemand so genau auskennt und
munter Datensicherung mit digitaler Archivierung verwechselt. Deshalb hier zunächst einige begriffliche Klarstellungen.
Backup oder:
Bloß nicht benutzen
Oft wird das Archivieren von
Daten gegenüber dem Backup
durch den Parameter Zeit abgegrenzt – dauerhaft versus
vorübergehend. Das mag in
manchen Fällen zutreffen, weil
die Backup-Bänder von Wochensicherungen vielleicht in
den Datenbunker wandern
und das Etikett „Archiv“ angeklebt bekommen. Dennoch ist
eine solche Unterscheidung –
und erst recht die sie begleitende Praxis – ungenügend,
da beide Fälle nicht konträrer
sein könnten. Beim Backup
geht es um den Schutz vor
Datenverlust durch Defekte
der Speicherhardware
oder durch Softwarefehler,
menschliches Versagen – zum
Beispiel durch die Einpflege
falscher Tabellen, die in Datenbanken Inkonsistenz der
Einträge oder falsche Berechnungen hervorrufen – oder
sonstige Imponderabilien. Im
Extremfall müssen Datenbanken sogar durch spezielle
Tools oder per Hand nachgebessert werden, da sie sich
sonst nicht wieder in den ursprünglichen oder beabsichtigten Zustand zurückversetzen lassen.
Die auf Backup-Medien gespielten Kopien der ursprünglichen Daten hebt man in der
Regel nur für einen kürzeren
Zeitraum auf und ersetzt sie
permanent durch aktuellere,
schreibnahe Kopien. Da sie eigentlich nicht gebraucht werden sollen, ergeben sich lediglich spezifische Anforderungen
wie Zeitnähe oder Vollständigkeit. In einem Katastrophenfall
sind gewöhnlich alle Informationen vor dem ältesten noch
existierenden und nach dem
letzten Backup unwiederbringlich verloren.
Deshalb haben sich ergänzende Methoden wie Snapshots oder Continuous Data
Protection (CDP) eingebürgert,
die ein ununterbrochenes
Backup garantieren sollen.
Doch selbst geringe Abstände
von wenigen Minuten oder Sekunden zum Zeitpunkt der Entstehung oder Veränderung der
Daten, wie sie bei CDP üblich
sind, genügen diesem Anspruch nicht. Echtes CDP müsste durch jede Veränderung der
Datenbasis – eventbasiert –
angestoßen werden, also in
der Praxis ohne jede Unterbrechung erfolgen. Lange muss
man diese Datensicherungen
aber ebenfalls nicht aufheben,
da man die Kopien ja nur im
Katastrophenfall braucht. Es
wird selten passieren, dass
man eine Datensicherung zurückspielen muss, die ein paar
Monate alt ist. Wenn doch, ist
etwas in der IT falsch gelaufen
– oder der Anwender hat erst
den Delete-Button betätigt und
dann lange geschlafen.
Zum Beispiel
„Revisionssicherheit“
–ˇOffiziell gibt es den Begriff Revisionssicherheit nicht, weder in
Gesetzestexten, noch in BMF-Schreiben1, weder in der GoBS2
noch in den FAIT-Dokumenten3 oder PS-Dokumenten4 des IDW5.
Archivierung oder:
Irgendwann einmal
–ˇEr stammt aus der DMS-Branche1 selbst und bezeichnet griffig
solche Systeme oder Verfahren, die überprüfbar den handelsund steuerrechtlichen Aufbewahrungsvorschriften entsprechen.
–ˇWenn sich eine Behauptung wie „Die Dateien sind sicher“
nicht verifizieren lässt, ist der Sachverhalt auch nicht prüfbar.
Auch dann wäre ein Verfahren – selbst wenn die Behauptung
stimmen würde – nicht „revisionssicher“.
–ˇEin nicht prüfbares Verfahren kann vom Wirtschaftsprüfer nicht
auf Einhaltung der regulatorischen Anforderungen testiert
werden.
[1]ˇ Bundesministerium der Finanzen
[2]ˇ Grundsätze ordnungsgemäßer Buchführungssysteme
[3]ˇ Fachausschuss für Informationstechnologie
[4]ˇ Institut der deutschen Wirtschaftsprüfer
[5]ˇ Prüfungsstandard
II
Quelle: Zöller & Partner, 2007
–ˇEine prüfbare Umgebung erfordert daher nicht nur die technisch/funktionale GoB/GoBS-konforme Umgebung, sondern auch
die zuverlässige Dokumentation, anhand derer eine Verfahrensprüfung primär vorgenommen wird.
Ganz anders verhält es sich
bei der Archivierung. Bei diesem Verfahren der Aufbewahrung geht es darum, Daten auf
einem eigenen Medium für eine spätere Benutzung aufzubereiten und zur Verfügung zu
stellen. Archivierungsmedien
legt man nicht wie BackupBänder zur Seite, weil man ihren Gebrauch nur im äußersten Fall in Erwägung zieht.
Wer archiviert, hat es auf Wiederbenutzung abgesehen –
zu irgendeinem späteren Zeitpunkt.
Archivierung kann aus freien Stücken geschehen – die
Bandbreite reicht von vorsorglicher Aufbewahrung für noch
nicht absehbare Zwecke bis
hin zur Sammelwut –, oder
weil Gesetzgeber, Banken
oder sonstige Institutionen
verpflichtende Vorschriften erlassen haben oder die Aufbewahrung zumindest anraten.
Schließt ein Zwanzigjähriger
zum Beispiel eine Lebensversicherung ab, müssen seine
Daten bis zu seinem Tod und
darüber hinaus abgelegt werden. Lebt der Versicherte
recht lang, kommen schnell
Zeiträume von an die 100
Jahre oder mehr zusammen.
Vor lauter Verwirrung darüber, was man eigentlich aufbewahren muss oder sollte,
weil Best Practices oder klare
Richtlinien oder Verfahren fehlen, wird häufig alles aufbewahrt, ohne Beachtung der
Inhalte des Archivmaterials.
Seriös geplante Archivierung
geht anders vor und setzt Akzente je nach Businessrelevanz. Hier kommen Systeme
für Enterprise Content Management (ECM) oder Dokumentenmanagement (DMS) ins
Spiel, mit denen sich gespeicherte Daten nach Policies
durchforsten, scannen, neu
anordnen, speichern und
schließlich durchsuchen oder
letztlich löschen lassen.
Lediglich für einzelne
Regierungsbehörden ist von
vornherein exakt definiert,
was mit bestimmten Dokumenten wie Strafzetteln
wegen Falschparkens zu
passieren hat. Infolgedessen
herrscht in der Regel ein wahrer Wildwuchs an Verfahren,
der mit ECM und DMS in eine
gewisse Ordnung gezwängt
wird. Das ändert nichts an der
menschlichen Bereitschaft,
ins Archivwesen einzugreifen
und bestimmte Materialien oder
Akten ganz unversehens verschwinden zu lassen. Davor
sind nicht einmal Institutionen
wie deutsche Geheimdienste
oder die Bundeswehr gefeit,
wie die deutsche Öffentlichkeit
Ende Juni erfahren durfte.
ECM- und DMS-Systeme
haben nur relativ geringen
iX extra 8/2007
ix.0807.x.01-16
09.07.2007
17:00 Uhr
Seite III
Storage
Erfolg am Markt erzielt. Was
unter anderem darauf hinweist, dass viele Unternehmen
Archivierung noch nicht ausreichend ernst nehmen. Die
Verbreitung scheiterte aber
auch an den hohen Preisen
dieser Werkzeuge sowie an
dem Aufwand, den ein Unternehmen treiben muss, um Prozesse und Arbeitsabläufe so zu
strukturieren, dass geschäftskritische Dokumente zur Langzeit-Aufbewahrung erfasst und
aufbereitet werden. Für kleinere und mittlere Unternehmen,
die sich so etwas nicht leisten
können, fehlt es an geeigneten
Programmen. Selbst wenn sie
sich eine entsprechende Hardwarebasis zulegen, wird die
Effektivität zu wünschen übrig
lassen. Randvolle optische
Medien oder Bänder sind nicht
gerade ergiebig, wenn man
nach zwei oder drei Jahren
bestimmte Dokumente sucht,
weil die Steuerprüfung sie
einsehen will – etwa so ergiebig wie Aktenschränke
voller Unterlagen, die einem
beim Öffnen der Tür entgegenstürzen.
Fazit
Bei der Frage, was aufhebenswert ist und was nicht, sind
Unternehmen auf sich selbst
angewiesen, vom Steuerrecht
und einigen weiteren geschäftsrelevanten Gesetzen
abgesehen. Der Aufwand ist
enorm – deswegen lassen es
viele gleich ganz bleiben.
Konsequenz ist ein Archivierungs-Paradox: Zu wenige
Unternehmen archivieren
aktiv. Aber wenn sie es tun,
dann meistens zu viel und das
zudem ungeordnet oder ungefiltert.
Dagegen hat das Backup
zum Ziel, Daten wiederherzustellen, die durch irgendwelche Ereignisse beschädigt
oder komplett zerstört worden
sind. Ein Backup fährt man in
der Hoffnung, niemals ein Restore durchführen zu müssen,
wenn doch, ist zuvor irgendetwas schiefgelaufen.
Man könnte auch sagen,
in den meisten Fällen soll ein
Backup nur dem guten Gewissen dienen. Dass folglich der
Schutz vor Katastrophen, die
Restore-Tauglichkeit der Bänder ebenso wie die Ausbildung
der daran Beteiligten in vielen
Unternehmen zu wünschen
übrig lassen, ergibt sich aus
dieser Prämisse.
Ein Archiv wird dagegen
aufgebaut, weil man die gespeicherten Daten in naher
oder ferner Zukunft wieder lesen will. Dieses Interesse steht
am Ausgangspunkt von Archivierung. Das ist in der Privatwelt auch nicht anders, in der
man schon immer persönliche
Dokumente oder Fotos aufgehoben hat, um sie irgendwann
den Enkeln vorzuführen.
Archivierung gilt als ein
Markt mit starken Wachstumszahlen. Viele Unternehmen
haben dieses Aufgabengebiet
bisher vernachlässigt. Nicht
zufällig tummeln sich viele
Scharlatane in diesem Haifischbecken, die den Kunden
alles Mögliche vorgaukeln –
von „revisionssicheren“ Lösungen bis zu „zertifizierten
WORM-Medien“. Dabei ist das
deutsche Handels- und Steuerrecht ausgesprochen liberal
und schreibt niemandem vor,
in welcher Form er seine Unterlagen aufbewahrt. Es kennt
nicht einmal Begriffe wie Archivierung oder revisionssicher.
Der einzige ernst zu nehmende
Imperativ besteht darin, bestimmte Dokumente für einen
möglichen späteren Zugriff bereitzuhalten. Und wer es in digitaler Form tut, muss ebenfalls
den späteren Zugriff sicherstellen und seine Methoden dokumentieren können. Das hat
Konsequenzen. Nicht mehr und
nicht weniger.
(sun)
Hartmut Wiehr
ist Fachjournalist in München
und Herausgeber des Storage
Compendium – Das Jahrbuch
2006/2007.
iX extra 8/2007
ix0807_x_000_eurostor.indd
x0807 x 000 eurostor indd 1
04.07.2007
04
07 2007 13:28:32 Uhr
ix.0807.x.01-16
09.07.2007
17:00 Uhr
Seite IV
Storage
Ruheplatz
Die Basis: Platten, Scheiben, Bänder
Hat man noch vor einigen Jahren beim Archivieren zu Offlinemedien
gegriffen, schieben sich nun die Disksysteme immer weiter in den
Vordergrund. Doch hier ist nicht jedes System als Datenarchiv geeignet.
rchive müssen so angelegt sein,
dass man die Daten auch wiederfinden kann. Während dies beim Backup
schon durch Zeitstempel oder Dateinamen
gewährleistet ist, sind bei der Archivierung
eigene Anstrengungen erforderlich. Hunderte oder Tausende von CDs, die in einem Archiv herumliegen, sind zwar da –
aber wo sind ganz bestimmte Dokumente
oder Inhalte? Archivierung impliziert deshalb bestimmte Retrieval-Mechanismen,
nicht unähnlich den Karteikarten und
Büchernummern in einer klassischen Bibliothek. Verschlagwortung, Indizes, Thesauri oder Volltext- und Stichwortsuche
sind notwendige Hilfsmittel, ohne die ein
Archiv nichts wert ist. Die Dokumente und
Inhalte eines Archivs sind demnach Objekte, die aus mehr als einem Filesystem und
einem Datum bestehen. Inhalte spiegeln
sich selten in einem Dateinamen wider,
die Zusammenhänge sind eher rudimentär
wiedergegeben.
Zu archivierende Daten werden allerdings auf der Grundlage von Backups gewonnen – insofern ist die begriffliche Trennung zwischen beiden nicht zu 100 Prozent
faktisch gegeben. Es gibt sogar Ansätze
wie den von Gingcom (siehe weiter unten),
die beide Verfahren im Sinne eines fließenden, letztlich automatisierten Prozesses
miteinander verbinden wollen.
A
Mit Kunstgriff
Wer Jahressicherungen aufhebt, vermischt
unwissentlich beide Verfahren: Das Backup
wäre hier identisch mit dem Archiv, wie
Horst-Wilhelm Stahl, Storage Consultant bei
Bull, zu bedenken gibt. Doch würde dies,
so Stahl, der Zweckbestimmung von Archivierung widersprechen. Dagegen könnte
man mit elektronischen Hilfsmitteln die
unstrukturierten Daten eines Backups zugleich nach bestimmten Kategorien oder
Begriffen scannen. Ferner ließen sich proprietäre oder auslaufende Dateiformate bereits hier für spätere Zugriffe ändern. Um
IV
den Backup-Zweck nicht zu gefährden,
müsste man jedoch eine Kopie für solche
Archivumwandlungen anlegen.
Grundlegende Neuigkeiten gibt es genau
besehen nur bei Archivierung auf Plattenbasis beziehungsweise bei eher hybriden Ansätzen. Tape ist zwar nicht tot, aber verliert
kontinuierlich an Boden. Gleiches gilt für die
optischen Medien und Libraries (vormals
Jukeboxen). CD und DVD konnten die in sie
gesetzten Erwartungen im professionellen
Bereich nicht erfüllen, und bei den Nachfolgern Bluray und HD-DVD wurde von vornherein auf eine Ausrichtung auf den Unternehmenseinsatz verzichtet. Lediglich der
Hersteller Plasmon konnte sich mit UDO eine
Nische in der Nische von Archivierung verschaffen. Angesichts der bestehenden Mühen, archivierte Daten wirklich langfristig
aufbewahren zu können, wäre es mehr als
leichtsinnig, ausgerechnet hier neue Techniken wie Holografie oder andere einzusetzen.
Der Begriff „revisionssicher“, vom Gesetzgeber so gar nicht vorgegeben (siehe Artikel
„Im großen Haifischbecken“, S. I), wird häufig interpretiert als „nicht überschreibbar“.
Revision, vom lateinischen revidere abgeleitet, bedeutet eigentlich „wieder anschauen“.
Es kommt, auch im Sinne von „Compliance“, sprich der Gesamtheit gegebener Regelwerke zur Aufbewahrung von Dokumenten, also darauf an, die Daten innerhalb
einer gewissen Zeitspanne wieder zugänglich zu machen. Etwas wieder lesbar machen zu können, das geht sehr wohl auch
auf der Basis von Festplatten, wenn bestimmte Bedingungen gegeben sind. Es ist
vom Gesetzgeber nicht vorgeschrieben, dass
das Medium von der Physik her nicht überschreibbar sein darf. Festplatten als PrimärStorage sind nun einmal prinzipiell für
wiederholte Schreibvorgänge – sei es in Datenbanken oder Businessapplikationen – angelegt. Jede Adressänderung evoziert einen
neuen, notwendigen Überschreibvorgang.
Allerdings reicht es dem Gesetzgeber
bei der Archivierung, wenn die gesamte Lösung, zum Beispiel für Buchhaltungsdaten,
nicht überschreibbar ist. Dies lässt sich per
Software, per Firmware oder sonstige Vorkehrungen gewährleisten.
Angewendet auf Festplatten als Archivierungsmedien bedeutet das, einzelne
Bereiche oder die Disk generell WORMfähig zu machen. Geeignete Verfahren
hierzu sind das Setzen von Read-OnlyFlags, die nach dem Schreiben bestimmter Segmente die Daten vor Weiterbearbeitung schützen. Nur ein Administrator
mit entsprechender Berechtigung darf diesen Flag wieder zurücknehmen, was vor
versehentlichem Überschreiben schützt.
Aber nicht vorm Überschreiben überhaupt
– sicher ein Nachteil gegenüber klassischen WORM-Lösungen.
Unter den plattenbasierten Lösungen hat
sich besonders die Centera einen Namen
gemacht. Sie wird laut Hersteller EMC fast
ausschließlich zu Archivzwecken eingesetzt. Seitdem EMC dieses Produkt vor einigen Jahren zusammen mit einer kleinen
belgischen Firma übernommen hatte, gilt
es nach anfänglichen Startschwierigkeiten
– zum Teil begründet durch hohe Einstiegspreise – als ausgesprochener Verkaufsschlager und hat nach Meinung von
Beobachtern ein neues Paradigma von
Archivsubsystemen eingeläutet.
Die Centera war ursprünglich gar nicht
direkt beschreibbar – nur über ein API
konnte der Benutzer auf sie zugreifen. Von
einem normalen Platten-Array unterscheidet sich dieser Systemansatz dadurch,
dass man bei gewünschter WORM-Fähigkeit eine andere Adresse angeben muss:
EMC hat dafür nicht zufällig den Begriff
Content Addressed Storage (CAS) geprägt.
Der Anwender greift nicht auf Files, Blocks
oder Volumes zu, sondern auf Objekte, denen eine Adresse zugeteilt ist (siehe
Abbildung 1).
Schule machen
Damit wird ein eindeutiger digitaler Fingerabdruck für den jeweiligen Content erzeugt.
Benötigt man später archivierte Daten wieder, übergibt man die CA-Bezeichnung an
das Centera-Repository, wobei der physikalische Speicherplatz der Daten selbst nicht
transparent ist. Intern verwendet die Centera sogenannte RAINs – Redundant Arrays
of Independent Nodes. Diese Nodes-Architektur ist skalierbar durch das Hinzufügen
weiterer Nodes, was eine Kapazität von
40 und mehr Terabytes ermöglicht.
EMC räumt selbst ein, dass die Centera-Systeme im Vergleich zu anderen
iX extra 8/2007
Aktive Langzeitaufbewahrung mit
der Hitachi Content Archive Platform 2.0
Ein solides Fundament,
auf dem
Applikationen einfach
und effizient
integriert werden können.
Weitere Informationen erhalten Sie unter
www.hds.com/solutions
7507 - Anzeige HCAP.indd 1
07.07.2007 19:24:35 Uhr
ix.0807.x.01-16
09.07.2007
17:00 Uhr
Seite VI
Storage
Disk-Lösungen wegen der verwendeten
komplexen Berechnungen eine geringere
Performance aufweisen, doch habe man
dies wegen der besonderen Archivzielsetzung bewusst in Kauf genommen. Was die
Wirtschaftlichkeit angeht, dürfte die Centera wegen der verwendeten reinen Plattenlösung eine teure Archivierung sein,
selbst wenn man die fallenden Plattenpreise berücksichtigt.
Der ursprüngliche Centera-Ansatz ist
inzwischen etwas aufgeweicht, da sich
mit Centera Universal Address (CUA) auch
Filesysteme speichern lassen. Den offenbar nicht geschützten Begriff CAS benutzen inzwischen auch andere Hersteller.
Intellistor von Storagetek, nach der Übernahme durch Sun wieder vom Markt verschwunden, war ein Ansatz, der ebenfalls
1.
mit CAS operierte, aber mehr eine Virtual
Tape Library darstellte.
IBM bietet mit der DR550, die es auch
in einer preisgünstigeren Express-Variante
gibt, einen vergleichbaren Ansatz an. Laut
Hartmut Grund, Consultant Storage Solutions bei IBM, ist die DR550 wegen ihrer
Architektur bei der Archivierung von Multiobjekt-Transaktionen deutlich schneller
als Konkurrenzprodukte. Ihr Alleinstellungsmerkmal liege in der flexiblen Lösung durch integriertes Hierarchisches
Storage Management (HSM): Nach dem
jeweiligen Wert der Informationen ließen
sich diese auf weitere Stufen der Speicherhierarchie verschieben. Die Migration
von Archivdaten auf zukünftige Speichersysteme sei durch die TSM-Migrationsfunktion ebenfalls realisierbar.
C-Descriptor File
1. Erstellt
12.04.2005
CAS 0000123
2.
1. Geändert
14.04.2005
CAS 0000124
3.
1. Geändert
15.04.2005
CAS 0000125
Zukunft gesichert
Beim Content Addressed Storage (CAS) greift der Benutzer auf Objekte statt auf
Dateien zu (Abb. 1).
Datensecurity und Datenschutz
Datenklassifizierung
und Migration
– selektive Verschlüsselung
spezifischer Volumes,
Klassen und LUNs mit
Lifetime Key Management
– Appliance als Basis
– selektiv anwendbar auf
spezifische Volumes und LUNs
Netapp FAS oder
Nearstore® Systeme
Datenpermanenz
– selektiv anwendbar auf
spezifische Volumes und LUNs
Datensuche
– Suche in kompletten Arrays
oder selektiv in spezifischen
Volumes, Klassen und LUNs
Netapp möchte ein System mehrere Aufgaben erledigen lassen. Funktionen wie
Verschlüsselung, die die Filer nicht selbst beherrschen, übernehmen vorgeschaltete
Appliances (Abb. 2).
VI
Für Archivzwecke ist die DR550 laut
Grund besonders geeignet durch ihre KPMGZertifizierung und durch ihre Hochverfügbarkeit. Zuordnung von Speicher werde analog
der Geschäftsprozesse, der Dateiinhalte und
der rechtlichen Anforderungen im Rahmen
von Information Lifecycle Management (ILM)
gewährleistet. Als Kriterien für diese Prozesse gibt Grund die Aufbewahrungsdauer, die
zu erwartende Zugriffshäufigkeit sowie die
Geschwindigkeit an, mit der die archivierten
Daten verfügbar sein sollen.
Für IBM erlauben elektronische Archive
den Zugriff auf unveränderlich archivierte
elektronische Informationen, die man nicht
mehr für die tagesaktuellen Geschäftsprozesse braucht. Die Zugriffe erfolgen in der
Regel durch datenbankgestützte Anwendungen. Wichtig erscheint es Grund zu betonen,
dass elektronische Archive keine Datensicherungs- oder Backup-Systeme seien. Es geht
nicht um die Sicherung von Online- oder
Nearstorage, sondern um klassische Archivfunktionen, wie sie in einer Bibliothek anzutreffen sind. Die Verfahren der Datenspeicherung für Archive müssen sicherstellen, dass
niemand die Daten löscht oder verändert und
sie entsprechend einer definierten Zeitspanne aufbewahrt werden. Außerdem müssen
sie in der ursprünglichen Form wieder lesund auswertbar sein. Gegebenenfalls muss
eine Kopie für den besonderen Schutz der
Informationen sorgen.
Die DR550 ist für Archive mit kurzen Zugriffszeiten konzipiert. Die WORM-Funktionen, also die Unveränderbarkeit der gesicherten Daten, übernimmt eine Software
(Soft-WORM). Der Tivoli Storage Manager
for Data Retention – betrieben auf einem
geclusterten Unix-System – verwaltet die
Daten, die sich ihrerseits auf einem Array
mit RAID-5- oder RAID-10-Volume befinden. Optional können auch Magnetbandeinheiten integriert sein. Für die Anbindung an
ein Dokumentenmanagement-System sorgt
ein Application Programming Interface
(API), sodass solche Programme ihre Objekte auf der DR550 speichern können.
Die Migrationsfunktion von TSM erlaubt
es, archivierte Daten je nach Füllstand des
Systems, definiertem Speicherplatz oder
nach Ablauf einer bestimmten Periode
automatisch auf eine Tape Library zu verschieben. Mit dem gleichen Prozess kann
man – wenn der Lebenszyklus der DR550
abgelaufen ist – auf ein moderneres System migrieren.
iX extra 8/2007
SUPERBLADETM
GET THE EDGE
■
■
Performance mit bis zu 160 Cores in 7 HE
Einsatz von Intel® Xeon® oder AMD Opteron®
Dual- oder QuadCore Prozessoren
■ Netzteile mit 90%+ Wirkungsgrad
Der SuperBlade™ sind optimiert für folgende
Anwendungen: Enterprise, Finanzdienste,
Datenbanken, Datenbank Center, wissenschaftliche
Anwendungen, HPC, Personal Super Computer.
Weniger Verkabelung
■ Ethernet- und Infiniband-Switches
■
© www.artraction.de, 06/07
■
Sehr gutes Preis-/Leistungsverhältnis
ServerBlade mit 3.5"
oder 2.5" Festplatten
Infiniband Switch mit
10 externen Anschlüssen
Weitere Informationen über unsere Produkte unter:
www.cpigmbh.de und Hotline 0800-100 82 69
Alle Marken- und Produktbezeichnungen sind Warenzeichen oder eingetragene
Warenzeichen des entsprechenden Unternehmens. Druckfehler, Irrtümer und
Änderungen vorbehalten.
ix0707_x_000_CPI.indd 1
Gigabit Ethernet Switch mit
10 externen Anschlüssen
Management Modul
zur Überwachung
CPI Computer Partner Handels GmbH
Kapellenstr. 11
D-85622 Feldkirchen
Telefon: (+49)-0 89/96 24 41- 0
Telefax: (+49)-0 89/96 24 41- 33
08.06.2007 12:24:25 Uhr
ix.0807.x.01-16
09.07.2007
17:00 Uhr
Seite VIII
Storage
Hitachi Data Systems (HDS) hat mit der
Hitachi Content Archive Platform (HCAP) erst
relativ spät auf die Erfolge der Konkurrenz
reagiert. Offenbar befürchtete man, dass
einige der langjährigen Bestandskunden
wegen mangelnder Archivierungslösungen
zu einer Dual-Vendor-Strategie übergehen
könnten. Um das zu verhindern, hat HDS mit
dem Kauf von Archivas eine der bisher noch
seltenen Übernahmen getätigt. Archivas ist
aus einer Archivlösung der New York Times
hervorgegangen, die ein vormaliger IT-Leiter
dort entwickelt und später dann in ein eigenes Startup überführt hatte.
Archivas ist in HCAP eingegangen. Wie
die Enterprise Strategy Group (ESG) ausführt, ist es HDS gelungen, vor allem zu
der Konkurrenz von EMC und Netapp aufzuschließen, die als Marktführer bei sogenannten CAS-Lösungen (Content Adressable
Solution) betrachtet werden. HCAP ist eine
plattenbasierte Archivlösung, die sich insbesondere für Compliance-relevante Daten oder als Langzeitarchiv einsetzen
lässt. Die objektorientierte Plattform beruht auf Standardprotokollen. Dadurch
lassen sich Content-Lösungen ohne aufwendig zu programmierende APIs direkt
integrieren. Anwender können mit Einsteiger-Arrays beginnen und später zu größeren Systemen migrieren.
Wie Georgios Rimikis, Manager Solution
Strategy bei HDS, ausführt, ist HCAP als eine
intelligente Plattform zu verstehen, die zwischen die Archivsoftware und die Plattensysteme im Storage Area Network (SAN)
geschoben wird, um die Archivierung auf
File-Ebene zu vereinfachen. Sie enthält unter
anderem spezielle Such- und Deduplikationsfunktionen, aber sie tritt nicht an die
Stelle von Applikationen, die sich dediziert
mit dem Content des Archivmaterials befassen. HDS demonstriert mit dieser Lösung die Nähe klassischer SAN-Funktionen
wie Backup und Tiered Storage zur Archivierung an sich.
Alles offen
In anderer Weise zeigt der Archivansatz von
Netapp, wie sich die getrennten Welten von
Backup und Archivierung verbinden lassen.
Über CIFS oder NFS können Programme direkt auf die Systeme zugreifen und ihre Daten dort ablegen. Es müssen keine speziellen
APIs entwickelt und auf die jeweilige Software abgestimmt werden. Alle Formate
lassen sich auf Standard-Fileservern von
Netapp in gewohnter Weise ablegen und
befinden sich im Schreib-/Lesezugriff.
Für Archivierungsprozesse kann man
diese Architektur mit relativ wenigen zu-
Kosten
Gesamtkosten (Anschaffung und Betrieb)
$ 4 000 000
$ 3 500 000
$ 3 000 000
$ 2 500 000
$ 2 000 000
$ 1500 000
$ 1 000 000
$ 500 000
$0
nur Tape
Jahr 1
Jahr 2
75% Tape, 25% Disk
Jahr 3
Jahr 4
nur Disk
Jahr 5
Jahr 6
Jahr 7
Durchschnittliche Elektrizitätsbetriebskosten 40 TB innerhalb von 10 Jahren
$ 1 400 000
Primärarchiv
Kosten
$ 1200 000
Primär- & DR-Sites
$ 1 000 000
$ 800 000
$ 600 000
$ 400 000
$ 200 000
$0
Plasmon UDO
Archive Appliance
Netapp
Nearstore R200
EMC Centera
(Parity)
EMC Centera
(Mirrored)
Noch immer sind Offline-Medien wie UDOs und Tapes wesentlich genügsamer im
Unterhalt; oben die Gesamtkosten von Tape-, kombinierten und Disk-Systemen
im Vergleich (Abb. 3), unten Elektrizitätsbetriebskosten eines UDO-Archiv-Systems
im Vergleich mit drei diskbasierten Systemen (Abb. 4).
VIII
sätzlichen Maßnahmen direkt benutzen.
Wer aus Compliance- oder sonstigen Gründen Daten langfristig vor Zugriffen gesichert
aufbewahren will, setzt für Ablage und Sperrung eine spezielle Content-Software (DMS,
ECM oder andere) ein, die für die Ablage und
die nötige Sperrung nach WORM-Kriterien
sorgt. Unter CIFS und NFS kann man aber
auch eine einfache Fileablage plus anschließender Blockierung für Überschreibprozesse
einrichten: Ist in den Fileattributen der jeweiligen Datei ein Flag gesetzt, ist die Datei auf
Systemebene blockiert.
Das bedeutet, dass man bei Filern von
Netapp jederzeit auch ohne die Archivierungs- oder Content-Software an die jeweilige Datei herankommen kann. Das System
ist so selbst in der Lage, zum Beispiel die
eingestellte Retention-Time zu verwalten.
Unter herkömmlichen Bedingungen wäre
man hier auf zentrale APIs angewiesen.
Auch spätere Migrationsmaßnahmen lassen
sich ohne Zuhilfenahme der Archivierungssoftware durchführen.
Robert Hasenstab, Product Marketing
Manager bei Network Appliance, sieht die
Filer-Architektur sogar in Analogie zum Centera-Ansatz von EMC: Man könne diesen Ansatz 1:1 abbilden, da man eine ähnliche
Container-Ablage ermögliche wie das Content Addressable System (CAS) von EMC. Die
Unified Storage Architecture von Netapp
habe darüber hinaus den Vorteil, mehrere
Funktionen in einem System darzustellen:
NAS, SAN, Compliance- oder Archivierungsaufgaben. Innerhalb des gleichen Storage
Arrays ließen sich billigere SATA-Platten für
das Archiv zuweisen, während für zeitnahe
und businesskritische Prozesse teurere
Fibre-Channel-Platten zum Einsatz kämen.
Archivierung wäre damit Teil des normalen
Datenschutzes, da sie zum Beispiel integriert
ist in Replikations- oder Deduplikationsmaßnahmen. Handelt es sich um besonders schützenswerte Daten, wie sie bei
Banken und Versicherungen anfallen, kann
man außerdem auf die Decru-Appliances
von Netapp zurückgreifen, die geeignete
Verschlüsselungsverfahren zur Verfügung
stellen (siehe Abbildung 2).
Pyramid Computer aus Freiburg bietet
eine Archiv-Appliance mit dem Namen iTernity Diskless CAS Controller Appliance an,
die der Anbieter selbstbewusst als direkte
Alternative zur Centera und zu CAS präsentiert. Mit einer Containertechnik unter Windows, mit der Datenobjekte zentral abgelegt werden, kann sich der Anwender an
bestehende Storage Arrays anschließen
oder ein RAID-System mit einer Kapazität
iX extra 8/2007
S TO R AG E - LÖ S U N G E N
konsolidiert
virtualisiert
hochverfügbar
Sprechen Sie mit uns:
American Megatrends International GmbH
Telefon +49 89 969995-10
www.ami.de
ix0407_x_000_AMI 1
21.02.2007 17:00:22 Uhr
ix.0807.x.01-16
09.07.2007
17:00 Uhr
DELTA
Seite X
Storage
Computer Products GmbH
von 750 bis 4500 GByte von Pyramid erwerben. Über APIs lassen sich Dokumente
aus verschiedenen Applikationen einbinden. Ende April waren Konnektoren für Microsoft Sharepoint 2003/2007, Microsoft
Office und Exchange, Xerox Docushare,
Optimal Systems, Easy und SAP Business
One vorhanden.
Ordnung ohne System
Nicht überall, wo Archivierung draufsteht,
ist auch Archivierung drin. So werden
heute Speicher Arrays gerne als eine Art
Schweizer Messer angeboten, das sämtliche anfallenden Aufgaben abdecken
kann. Insbesondere die Fähigkeit, Flags
im Dateisystem zu setzen, gilt dann als
ausreichende Bedingung, eine WORModer gar „revisionssichere“ Datenaufbewahrung garantieren zu können. Unter
den Tisch fällt dabei, welche zusätzlichen
softwarebasierten Anforderungen eine
ordentliche Archivierungslösung erfüllen
sollte. Die beschriebenen plattengestützten Lösungen weisen die Gemeinsamkeit
auf, dass sie alle mit ausführlichen Softwarefunktionen für Datenklassifizierung,
Archivaufbereitung oder Wiederfinden
ausgestattet sind.
Ähnliches gilt für das RISS-System von
Hewlett-Packard. HP sieht RISS (Reference
Information Storage System) als Schlüsselkomponente von Information Lifecycle
Management (ILM), da es Referenzinformationen wie E-Mail-, Datei- und Datenbankobjekte auf einer gemeinsamen
Plattform speichern kann. Das System ist
für große Datenmengen im Terabyte-Bereich ausgelegt und laut HP entsprechend skalierbar.
Eine Grid-Struktur aus sogenannten
Smart Cells verteilt die gespeicherten oder
längerfristig archivierten Daten auf mehrere Knoten. Im Falle einer Datensuche
kommt es zu schnelleren Resultaten, da
die Software mehrere Knoten parallel
durchforstet – im Unterschied zu einer
Suche in einem einzigen großen und komplexen System. Seitdem HP RISS vor einigen Jahren vorstellte, hat das Unternehmen die Architektur im Detail, aber
nicht mehr grundlegend verändert. Neben
Kapazitätserweiterungen sind vor allem
neue Softwarefunktionen wie Single Instancing auf Blockebene oder erweiterte
ANBIETER VON ARCHIVIERUNGSHARDWARE
Die Übersicht erhebt keinen Anspruch auf Vollständigkeit.
Hersteller
American Megatrends
Array Data
CPI
Delta Computer
Disc
DSM
EMC
EqualLogic
Eurostor
Fujitsu Siemens Computers
Gingcom
Grau Data Storage
Hewlett-Packard
Hitachi Data Systems
IBM
Iomega
JVC
Network Appliance
One Point Storage Systems
Overland Storage
Plasmon
Pyramid Computer
Quantum
Raidsonic
Sony
Lösung
Storetrends
DISC Jukeboxen
Storagekonfigurator
Open-ENAS
Jukeboxen
Jukeboxen, Bandkassetten
CAS, Centera
Appliance mit Zantaz
ES-SATA-Systeme
FibreCAT, Centricstor
Appliance gingcom T2.2/T4.4
Infinistor ArchiveFiler
RISS
HCAP
DR550, DR550 Express
REV
CD-Jukeboxen
Unified-Storage-Plattform
DVD-Dupliziersysteme
NEO, Arcvault
UDO, Archive Appliance
CAS, Iternity
Scalar, LTO-2, LTO-3
NAS-Systeme
S-AIT Peta Site
Website
www.ami.com
www.array.at
www.cpigmbh.de
http://deltacomputer.de
www.disc-storage.com
www.terastore.de
www.emc.com
www.equallogic.com
www.eurostor.com
www.fujitsu-siemens.de
www.gingcom.de
www.graudatastorage.de
www.hp.com
www.hds.com
www.ibm.com/de
www.iomega-europe.com
www.kintronics.com
www-de.netapp.com
www.onepoint.de
www.overlandstorage.com
www.plasmon.com
www.pyramid.de
www.quantum.com
http://raidsonic.de
www.sony.ca/storage
iX extra 8/2007
ix0807_x_000_delta_li.indd
x0807 x 000 delta li indd 1
04.07.2007
04
07 2007 12:58:19 Uhr
Content Addressed Storage Server
Revisionssichere Archivierung auf WORM-RAID
kleine und
Compliance für
ehmen !
mittlere Untern
iTernity ist ein WORM-RAID basierendes Content Addressed Storage System
zur gesetzeskonformen Speicherung von beliebigen digitalen Daten.
Rechtskonforme Archivierung Ihrer Daten
„ Patentiertes Content Storage Container System
„ Gesetzeskonforme Speicherung und Aufbewahrung von digitalen Daten
„ Automatische Datenspeicherung im Hintergrund
„ Voll skalierbares System
„ Spielend einfache Integration in ECM-/DMS-Systeme
„ Sicher und schnell durch Konzentration auf die Kernaufgabe („One-Trick-Pony“)
Ihr Vorteil:
iTernity ist schneller, sicherer und preiswerter als alle vergleichbaren Systeme auf dem Markt !
Jetzt NEU!
iTernity Head Controller diskless mit iSCSI / Fibre Channel für die
Speicherung der Datencontainer auf vorhandenem SAN-Volume
Pyramid Computer GmbH „ Bötzinger Straße 60 „ 79111 Freiburg „ phone: +49 (0)761-45 14 719 „ fax: +49 (0)761-45 14 70 „ [email protected] „ www.iternity.com
ix0807_x_000_iternity.indd 1
06.07.2007 10:37:00 Uhr
ix.0807.x.01-16
09.07.2007
17:00 Uhr
Seite XII
Storage
WORM-Fähigkeiten auf den Festplatten hinzugekommen.
Der Distributor SNE bietet eine Appliance
an, die ein iSCSI-Array von EqualLogic und
die vor allem in den USA erfolgreiche Archivsoftware Zantaz vereint. Als Einsatzbereich
gibt der Anbieter Archivierung im Primärstorage-Bereich an, zur Langzeitarchivierung
lassen sich Tape Libraries von Overland
Storage oder Tandberg anschließen.
Gingcom, eine zur Cebit 2007 groß herausgebrachte Tochterfirma des OEM-Produzenten BDT, bringt mit der Appliance
Gingcom T2.2/T4.4, die sich hauptsächlich
in der verfügbaren Kapazität von 2,2 oder
4,4 Terabyte unterscheidet, eine Kombination von Backup- und Archivierungslösung
heraus. In einer gemeinsamen Box sind ein
Speicher Array sowie eine Tape Library mit
LTO-Laufwerken untergebracht. Mithilfe
von Policies kann der Anwender Aufbewahrungszeiten für die gespeicherten Daten
festlegen. Diese werden nur einmal gespeichert und zu einem späteren Zeitpunkt von
Platte auf Band migriert. Die von Gingcom
mitgelieferten Deduplication- und Searchfunktionen sollen ein eigenes Archivierungstool ersetzen. Der Hersteller verspricht damit einen fließenden Übergang
von Backup zu Archivierung – etwas, was
aufgrund der unterschiedlichen Zielsetzung
beider Disziplinen bisher ein Ausnahmefall
in der Speicherbranche sein dürfte.
Gute alte Scheibenwelt
Fünf bis zehn Jahre geben Fachleute übereinstimmend als glaubhafte Überlebensgrenze digitalisierter Archive an. Hersteller
bringen andere Werte in Umlauf, so für die
CD-ROM 15 bis 50 Jahre, für Magnetbänder sind Angaben bis zu 100 Jahren im
Umlauf. Wer sich darauf verlässt, handelt
allerdings fahrlässig.
Andererseits verdanken die Menschheit
und ihre Untergruppe der Unternehmen den
optischen Medien das WORM – Write Once,
Read Many. Eine CD-R oder eine DVD-R
sind physisch vor dem Überschreiben geschützt: Mehr als einmal geht nicht. Damit
waren diese Scheiben zumindest in einem
Punkt ihren Konkurrenten überlegen: Letztere lassen sich nur mit Softwarebefehlen
dazu bringen, einmal beschriebene Sektoren oder ganze Medien vor einem neuen
Schreibvorgang zu schützen – ein prinzipiell unsicheres Verfahren. Äußere SperrRiegel oder umlegbare Schalter kommen
ebenfalls nicht an eine CD-R heran.
CD-R und DVD-R entsprechen zu 100
Prozent der WORM-Vorgabe. In der Tat eine
wahre Kulturleistung: Denn digital archivierte Daten zu überschreiben, kommt ihrer
mutwilligen oder unbeabsichtigten Zerstörung, also ihrem materiellen Verlust, gleich.
Für CDs als Archivtechnik sprach ferner
ihre Eigenschaft, relativ wenig Platz wegzunehmen. Wie Magnetbänder sind sie überdies gut transportierbar und lassen sich
getrennt vom Rechenzentrum aufheben,
und mit der DVD-R nahm sogar die Kapazität deutlich zu.
Optische Medien – Neue Runde zwischen
UDO, Blu-ray Disc und HD-DVD
Um die Nachfolge der DVD streiten sich
momentan drei Medientypen: UDO (Ultra
Density Optical), BD (Blu-ray Disc) und HDDVD (High Density DVD) – doch mit unterschiedlicher Zielsetzung. Während Blu-ray
und HD-DVD um die Gunst der Besitzer heimischer Multimedia-Anlagen ringen, zielt
UDO ausschließlich auf den Profimarkt ab.
Die Laufwerke aller Typen schreiben die
Daten rein optisch, das heißt ausschließlich
mit Laser auf die Medien und lesen sie
berührungs- und verschleißfrei. UDO, BD
und HD-DVD verwenden einen blau-violetten Laser mit einer Wellenlänge von
405 nm. Die Techniken arbeiten jedoch
mit unterschiedlichen Linsen, die den Laser
fokussieren. Zudem hat das UDO-Medium
einen Durchmesser von 130 mm, während
Blu-ray sowie HD-DVD 120 mm-Scheiben
verwenden. Durch den größeren Durchmesser der UDO finden im Vergleich zur BD
10 GByte mehr auf dem Medium Platz.
Das von Plasmon entwickelte UDO weist
die gleichen Abmessungen auf wie die
vorhergehenden MO-Medien. Auf der
Roadmap stehen bislang vier Entwicklungsschritte mit Kapazitäten von 30, 60
und 120 und 240 GByte für die zweiseitigen
XII
UDOs. Gegenwärtig verfügbar ist die zweite
Mediengeneration mit 60 GByte Kapazität
(unkomprimiert).
Blu-ray- und HD-DVD-Scheiben werden hüllenlos, das heißt ohne Cartridges, wie CD
und DVD, angeboten und unterscheiden sich
durch die Lage der Aufzeichnungsschicht
im Medium. HD-DVD schreibt in 0,6 mm
Tiefe und damit in der gleichen Schicht
wie der Vorgänger DVD. Blu-ray schreibt –
wie UDO – in 0,1 mm Tiefe und ist damit in
der Zahl möglicher Layer pro Medienseite
erweiterbar. Damit haben die Blu-ray-Disc
und UDO das größere Potenzial für höhere
Kapazitäten pro Medium.
Auch für die Blu-ray-Medien sind vier Entwicklungsschritte vorgesehen: 25, 50,
100 und 200 GByte, untergebracht auf
einer Medienseite mit 1, 2, 4 und 8 Layers.
Verfügbar ist die zweite Generation von
Medien und Laufwerken mit einer Kapazität
von 50 GByte.
In professionellen Speichersystemen sind
zurzeit nur Blu-ray- sowie UDO-Laufwerke
und Medien zu finden. HD-DVD hat aufgrund des eingeschränkten Entwicklungspotenzials hier noch keinen Einzug gefun-
den. Dadurch wird es wohl auch langfristig
ein reines Consumer-Produkt für HD-Filme
bleiben, obwohl bereits erste BD-Laufwerke auf dem Markt sind, die sowohl HDDVDs als auch DVDs und CDs lesen und
beschreiben können.
UDO- und Blu-ray-Medien sind in einer einmal beschreibbaren (TrueWorm) und einer
wiederbeschreibbaren Version für die unterschiedlichen Anforderungen verfügbar. UDOMedien gibt es zusätzlich in einer „Compliance“-Variante, auf der man gespeicherte
Daten nach Ablauf einer definierten Aufbewahrungsfrist automatisch und unwiederbringlich löschen lassen kann.
Plasmon gibt für die durch eine Hülle
geschützte UDO eine Lebensdauer von über
50 Jahren an. Der aktuelle Listenpreis für
die 60-GB-Version beträgt 56 E netto. Neu
entwickelte Hard-Coat-Beschichtungen
machen die Blu-ray extrem kratzfest.
Bei entsprechender Lagerung sollen Bluray-Discs ebenfalls bis zu 50 Jahre lang
überleben. Ein 50-GByte-Medium kostet
momentan etwa 32 e netto. Derzeit
scheint es, dass im professionellen Einsatz
optischer Medien aber nur UDO eine Überlebenschance hat.
(hw/sun) Peter Gryzb
iX extra 8/2007
ix.0807.x.01-16
09.07.2007
17:00 Uhr
Seite XIII
Storage
Jukeboxen, Schreib- und Leseroboter
für diese Scheibenvariante sind dennoch
etwas aus der Mode geraten. Viele Produkte sind vom Markt verschwunden, einige
Hersteller haben sich komplett zurückgezogen. Der Grund ist ein klassischer
Marktmechanismus: Die Hersteller werden
weniger, weil die Nachfrage nach diesen
Maschinen geringer geworden ist.
Seitdem Plasmon 2003 auf den optischen Datenträger UDO (Ultra Density
Optical) umgestellt hat, gibt es in den
Unternehmen ein akzeptiertes optisches
Speichermedium, das in der neuesten Generation eine Kapazität von 60 GByte aufweist und das über zahlreiche Partnerschaften verkauft wird. Das frühere Flaggschiff
von Plasmon, MO (für magneto-optisch), war
mit den neuen Laufwerken jedoch nicht
mehr kompatibel und verschwindet allmählich aus den Unternehmen.
Ähnlich wie die CD-R und die DVD-R verfügt die UDO-WORM über eine physikalische Einmalbeschreib-Technik, die auf die
fehlerträchtige Softwaresteuerung, wie sie
bei Festplatten üblich ist, verzichten kann.
UDO steht trotz geringerer Kapazität pro
Medium im Vergleich zu Festplatte und
Tape immer noch recht gut da und muss
derzeit keine Konkurrenz mehr aus dem optischen Lager fürchten. Aber es handelt sich
um eine proprietäre Technik, von einem
einzigen Hersteller gebaut. Es hängt also
sehr viel von der Bereitschaft der Partner
ab, UDO weiter mitzuvertreiben. Erste große
Serverhersteller sollen sich bereits zurückgezogen haben.
Robin Burke, Analyst bei Gartner, sieht
dennoch keinen Grund, die Zukunft von
Plasmon und der UDO-Technologie in Zweifel zu ziehen. Er verweist zur Begründung
auf die bestehende Kundenbasis und die
angekündigte Roadmap, die deutliche
Kapazitäts- und Performancesteigerungen
verspricht. Außerdem sei die vom Hersteller
versprochene Lebensfähigkeit der UDOMedien von 50 Jahren zu bedenken.
Der Deutschland-Chef von Plasmon,
Dieter Finke, verweist ebenfalls auf die
Roadmap und die angekündigten Neuerungen. Eine Untersuchung habe darüber
hinaus ergeben, dass UDO in Sachen
Energieverbrauch deutlich vor den konkurrierenden Medien liege.
Bänder
in grünem Gewand
Bei den Bandlösungen kam ursprünglich
Storagetek mit „Wolf Safe“ beziehungsweise
iX extra 8/2007
mit Cartridges heraus, die für Archivzwecke
gelocht waren. Im Unterschied zu normalen
Tapes oder Cartridges verfügten sie über ein
äußeres Merkmal, das einem Bandlaufwerk
mit geeigneter Firmware signalisierte, dieses
Medium nicht zu überschreiben. Mittlerweile
beginnt diese Technik, sich zu verbreiten, inzwischen gibt es sie auch bei LTO-Laufwerken. LTO ist inzwischen generell zum Standard für Tape-Speicher in den Unternehmen
geworden.
Je nach Philosophie beziehungsweise
Herstellerstandpunkt bekommt der potenzielle Kunde äußerst unterschiedliche Aussagen über die maximale Lebensdauer der
jeweiligen Tape-Medien zu hören. Man hat
sich auf Zahlen zwischen 10 und 50 Jahren eingependelt, während bei Festplatten
ein Wert von 5 bis 7 Jahren als gesichert
gilt. Die Plattenhersteller versuchen mit Kapazität, Sicherheit und sinkenden Preisen zu
punkten. Die Bandhersteller kontern damit,
dass Tapes bei der Relation Gigabyte/Preis
nach wie vor recht gut abschneiden und
viele mechanische Fehlerquellen inzwischen behoben seien.
Plattenlaufwerke drehen sich ständig und
verbrauchen Energie, während Bänder und
Scheiben irgendwo in einem Roboter, in einem Schrank oder in einem tiefen Keller still
auf ihre Wiederverwendung warten – in Zeiten der „grünen IT“ kein unwichtiges Kriterium (siehe Abbildungen 3 und 4). Ein Band
erscheint plötzlich grüner als eine Platte. Vorerst wartet man noch auf eine Platte, die sich
gar nicht oder nur bei Bedarf dreht. Allerdings: Die disruptive Technik der Flash-Speicher oder Solid Disk steht kurz davor, die
Server und Rechenzentren zu erobern und
die Gewichte neu zu verteilen, nicht nur in
der Energiefrage.
Der Disput zwischen Tape- und Disk-Anhängern hat oft etwas Weltanschauliches an
sich und lässt sich wohl vorläufig nicht ausdiskutieren. Die Tape-Kritiker verweisen unbeirrt auf die mechanischen Teile, die bei
Bandspeicherung nach wie vor in Bewegung
sind und ausfallen können. Die Apologeten
führen aus, dass Bandbibliotheken gleich
nach dem Schreibprozess festhalten, ob die
Daten wirklich auf dem Band gelandet sind
– ein Verfahren, das es so bei Festplatten
nicht gibt.
Wo der Markt wirklich hingeht bei der
Archivierung, scheint nach übereinstimmender Auskunft von Experten recht eindeutig zu sein: Sogar Verfechter von optischen Lösungen konzedieren, dass Disks
hier wohl inzwischen einen Marktanteil von
mindestens 25 Prozent haben. Allerdings
gibt es für die reine Archivierungshardware
derzeit keine Zahlen. Rückschlüsse sind
nur über einen kleinen Umweg möglich: Archivierungssoftware belegte 2006 laut IDC
etwa acht Prozent bei Storage-Software
insgesamt, mit einem Wachstum gegenüber dem Vorjahr von fast 30 Prozent. Diese Entwicklung wird auch für die nächsten
Jahre prognostiziert. Und das bedeutet,
auch die Basis an speziellen SpeicherArrays, Tape Libraries et cetera wird hiervon profitieren. Schon jetzt trauen sich
Startups, die sich ausschließlich auf Archivierung spezialisiert haben, an den Markt,
und die Großen der Speicherbranche greifen immer wieder tief in die Tasche und erweitern ihr Portfolio durch Zukäufe.
Nearline-Plattenspeicher steht eigentlich
im Gegensatz zur Aufgabenbestimmung von
langfristiger Archivierung. Dennoch rühren
die Hersteller fleißig die Werbetrommel für
alle möglichen Formen von Disk-to-Diskoder Virtual-Tape-Lösungen. Für eine mehr
als kurzfristige Archivverlagerung, die im
direkten Zugriff von Primärstorage bleibt,
werden solche Verfahren aber nur in bestimmten Branchen taugen, die angesichts
der Menge an anfallenden Informationen zu
ILM-Verschiebeschritten gezwungen sind.
Wer sich für eines der kaum noch zu überblickenden Angebote in dieser Richtung
interessiert, sollte vorher einen firmeninternen Klärungsprozess inklusive Kostenvergleich durchführen.
Und dann?
Auguren sprechen von bald am Horizont auftauchenden, ganz neuen Speichermedien.
Die Firma Bayer forsche sehr intensiv an
Kunststoffen als Datenspeicher, IBM spricht
immer mal wieder von Millipede, ebenfalls
einem Kunststoffspeicher, und Holografieprodukte sollen sogar schon für Archivierung
marktreif sein. Hohe Speicherdichten, kein
Stromverbrauch und Langlebigkeit sind in
diesem Zusammenhang verwendete Schlagworte. Dem steht entgegen: Schon aus
Tesafilm und anderen alternativen Datenspeichern wie Sugar Cube oder der 1-TByteScheckkarte ist nichts geworden.
Unternehmen, die sich ernsthaft mit
Archivierung befassen, sind gut beraten,
erst einmal bei den bestehenden Techniken zu bleiben und sich nicht als TestUser zu betätigen. Für diesen Entschluss
braucht es kein BWL-Studium und keine
Ratgeberlektüre für Manager, etwas
gesunder Menschenverstand reicht vollkommen aus.
(sun) Hartmut Wiehr
XIII
ix.0807.x.01-16
09.07.2007
17:00 Uhr
Seite XIV
Storage
Wider die
Vergänglichkeit
Haben Archive eine Zukunft?
Mit zunehmender Digitalisierung der Informationen
steigt einerseits die Notwendigkeit digitaler Archive,
andererseits verflüchtigen sich die Informationen.
apier, Aktenordner, Karteikästen, Notizzettel und
-bücher wie die schicken von
Moleskine oder selbst Mikrofilm – das sind unverändert
verbreitete Hilfsmittel und
Techniken, um Informationen
für später (manchmal sogar für
spätere Generationen) vorrätig
zu halten und auf sie im Bedarfsfall zurückzugreifen. Das
menschliche Gedächtnis ist
begrenzt, und vieles ist es
nicht wert, sich mühsam einzuprägen. Und trotz IT-Equipment in allen möglichen Varianten ist das papierlose Büro
auch deshalb ein Wunschtraum geblieben, weil man
sich „zur Sicherheit“ mal
schnell etwas ausdruckt und
abheftet, spätestens dann,
P
wenn man Festplatten-Crashs
persönlich miterlebt hat.
Digitale Daten sind per Natur
sehr vergänglich. Das hat dazu
geführt, dass selbst der tot geglaubte Mikrofilm zurückzukehren scheint. So war es zumindest auf der Cebit 2007 zu
hören. Dort hat Ilford Imaging einen Langzeitarchivierungsfilm
auf Grundlage des vom Fraunhofer Institut Physikalische
Messtechnik (IPM) entwickelten
sogenannten Archive Lasers vorgestellt, der eine Haltbarkeit von
500 Jahren besitzen soll. Digitalisierte Daten könnten, so der
Plan, auf solche Medien zurückgespielt werden – einschließlich
eines garantierten Leseverfahrens – und müssten nicht
spätestens alle fünf bis zehn
ICY BOX NAS2000
NAS mit Multimedia-Server
(UPnP-AV, 30-Tage-Testversion);
mit regelbarem Lüfter
Jahre auf einen anderen digitalen Datenträger migriert werden.
Das Paradox der „entdinglichten Daten“ ist offensichtlich:
Auf der einen Seite geben Google und andere ganzen Bibliotheken eine zweite Existenz – das
bringt Vorteile für den Nutzer,
der zu Hause oder im Büro einen
fast unendlichen Lesestoff am
Bildschirm konsumieren oder
runterladen und womöglich ausdrucken kann. Auf der anderen
Seite verschwinden ständig digitale Daten, weil der Arbeitsspeicher nur unter Strom funktioniert, weil die Hardware
unerwartet ihren Geist aufgibt,
weil auf Softwareebene Fehler
zu Dateninkonsistenz oder -verlust führen und weil schließlich
Backup- und Recoverysysteme
versagen. Ganz zu schweigen
von Security-Attacken auf die ITInfrastruktur oder Datendiebstahl
durch verärgerte oder kriminelle
Mitarbeiter. 2,3 Millionen Kundendaten zu stehlen, wie gerade
wieder aus den USA bekannt
wurde, das geht auf elektronischer Basis sogar wesentlich
flotter, als man ganze Aktenschränke leerräumen oder ihren
Inhalt per Hand kopieren kann.
Ohne ausgetüftelte Sicherheits- und Sicherungsmechanismen ist die ganze schöne IT
ziemlich wertlos, und selbst
mit ihnen passiert genug. Auf
die Archivierung – den Ort
langfristiger Aufbewahrung
von elektronischem Material –
übertragen, braucht es unbedingt eine permanente Neuschöpfung, sprich Umkopieren
der digitalen Daten auf jüngere
Medien oder Techniken. Mit
anderen Worten: Digitale Dinge
sind keine richtigen Dinge;
ohne Strom, Redundanzen und
Kopien – die wiederum nur eine
virtuelle Existenz aufweisen –
ist alles nur Schall und Rauch.
Diesen Gedanken zu Ende gedacht, liegt es nahe, das so
hochgelobte digitale Zeitalter
als eine Schimäre zu betrachten. Die angeblich durch IT herbeigeführte Wissensgesellschaft führt sich angesichts der
immanenten digitalen Vergänglichkeit selbst ad absurdum.
Ob spätere Generationen einmal mehr über das Hier und
Heute wissen als es früher möglich war, ist keineswegs sicher.
Ausnahmslos alle Archivmedien, von den Laufwerken
und Libraries ganz zu schweigen, geben nach ziemlich kurzer Zeit ihren Geist auf. Festplatten nach drei bis sieben
Jahren im Durchschnitt (!),
Tapes nach 15 bis 30 Jahren,
ICY BOX NAS900
NAS und externes USB HDD
Laufwerk in einem;
ohne Lüfter
www.icybox.de
ix.0807.x.01-16
09.07.2007
17:00 Uhr
Seite XV
Storage
CDs und DVDs nach maximal
15 Jahren, UDOs nach offiziell
etwa 50 Jahren. Verlässliche
Zahlen gibt es nicht, erst recht
nicht von den Herstellern,
ebenso wenig wie internationale Gremien, die hier aktiv sind.
Digitale Imperative
Um sich die erforderliche Migrationsproblematik für einen längeren Bestand digitaler Daten
klarzumachen, muss man nur
an Programme wie Word 5.0
oder an die Disketten von einst
denken: Wer mit diesen Mitteln
wichtige Texte abgespeichert
haben sollte, wird kaum noch
die benutzte Software, geschweige denn einen PC mit
Diskettenlaufwerk finden. Das
vielleicht allzu einfach erscheinende Beispiel trifft haargenau
die Überlebenschance von angesammelten Informationen in
der digitalen Welt. Hier hat erst
einmal nichts Bestand, da können die Hersteller von Archivierungshardware und -software
versprechen, was sie wollen.
Bleiben nur zwei logische
Schlussfolgerungen übrig. Erstens: Wer nicht spätestens
nach fünf Jahren seinen digitalen Archivbestand in die Obhut frischer Techniken und
Medien übergibt, ist selbst
schuld am allemal drohenden
Datenverlust. Zweitens: Archivierung ohne Zweit- und Drittkopien oder eigene BackupMechanismen ist sinnlos.
Auch die Frage des Dateiformats für digitale Archive ist noch
längst nicht beantwortet. Proprietäre Files allerorten, kaum
jemand, der neben harter Ware
die Lesbarkeit 20 Jahre alter
Dokumente garantieren möchte.
De facto haben sich PDF und
TIFF als Formate durchgesetzt,
die ein längeres Überleben der
archivierten Dokumente versprechen. PDF-A, die PDF-Variante für Archive, gilt als langlebiges Format und ist sogar als
ISO-Norm 19005-1:2005 verabschiedet worden. Doch wie lange wird die Firma Adobe, Eigner
dieses Fileformats, noch am
Markt sein? Wer einen solchen
Gedanken für übertrieben hält,
sollte vielleicht einmal einen
Blick in das Buch „The Innovator’s Dilemma“ von Clayton M.
Christensen werfen. Dort findet
man unter anderem eine detaillierte Geschichte des Untergangs von ehemals führenden
Anbietern von Festplatten, die
dem Druck von neuen und billigeren „disruptive technologies“
nicht standhalten konnten.
Besitzer von digitalen Archiven könnten sich vorläufig
einen kleinen Vorrat auslaufender Platten, Scheiben und
Bänder samt entsprechender
Gerätschaften zulegen. Alternativ zu so einem Privatmuseum ließen sich spezialisierte Firmen oder Sammelstellen
von Medien und Hardware
vorstellen, die den Unternehmen Migrationsdienste anbieten. Recovery-Dienstleister wie
Kroll-Ontrack oder seit Kurzem
Seagate haben inzwischen
solche Services in ihrem Programm, mit denen Unternehmen ihre Daten auf neue Mediengenerationen oder -typen
überspielen lassen können.
Vorbilder gibt es natürlich
auch. Öffentliche Bibliotheken,
in der Regel in Staatsbesitz,
haben es sich schon längst angewöhnt, ihren digitalen Datenbestand mindestens einmal pro
Jahr umzukopieren. Zudem
haben sie das Kompetenznetzwerk Nestor gegründet, das
sich um Archivierungsfragen
kümmert (www.langzeitarchivie
rung.de). Von dieser Dienstleistung für den Fortbestand des
angesammelten Wissens sollten
sich Unternehmen eine Scheibe
abschneiden. Haben Archive eine Zukunft? Digitale nur sehr
begrenzt. Der Handlungsdruck
könnte nicht größer sein. (sun)
Hartmut Wiehr
In iX extra 09/2007:
Netzwerke – Providerangebote: Von Managed Software
bis Virtual Server
Service Provider sind in der
Lage, immer mehr Leistungen
günstiger und einfacher anzubieten, als es dem Privatanwender oder sogar der IT-Abteilung
eines Unternehmens möglich ist.
Sei es das Online-Backup priva-
ter Daten oder das Managen
ganzer IT- und TK-Infrastrukturen einer Firma. Das nächste iX
extra gibt einen Überblick über
die zahlreichen, auch neuen Angebotsformen wie Software as
a Service. Schwerpunkt ist das
Webhosting in seinen zahlreichen Varianten. Sie lesen, wie
sie sich unterscheiden, an wen
sie sich richten und worauf bei
den Angeboten zu achten ist.
Erscheinungstermin:
16. August 2007
DIE WEITEREN IX EXTRAS:
Ausgabe
10/07 Mobility
11/07 IT-Security
12/07 Storage
iX extra 8/2007
Thema
Notebook-Sicherheit
Tools zur Website-Absicherung
Disk-Systeme – Technik und Produkte
Erscheinungstermin
13.09.07
11.10.07
15.11.07
CDshop1-1_jg.qxp
10.07.2007
12:05 Uhr
Seite 1
CD-Shop
iX komplett – alle Jahrgänge auf 2 DVDs
eMedia
c’t komplett –
alle Jahrgänge auf 2 DVDs
19,00 €
c’t Archiv DVD 1983–1989
Diese DVD-9 enthält den vollständigen Inhalt der c’t Ausgaben 12/83 bis 12/89 im
Original-Layout (bis auf wenige
Beiträge, die fremden Copyright
unterliegen).Die insgesamt über
14.000 Seiten liegen im PDFFormat vor und sind im Volltext
durchsuchbar.
Systemvoraussetzungen:
DVD-Laufwerk, Acrobat Reader
(ab Version 5).
24,50 €*
c’trom und iXPRESSed
69,00 €
15,00 €
c’t und iX-Archiv (DVD)
iX Archiv DVD 1988–1993
Diese DVD-9 enthält den vollständigen Inhalt der iX-Ausgaben 01/88 bis 12/93 im
Original-Layout (bis auf wenige
Beiträge, die fremden Copyright
unterliegen).
Die insgesamt 49 Ausgaben
liegen im PDF-Format vor und
sind im Volltext durchsuchbar.
Systemvoraussetzungen:
DVD-Laufwerk, Acrobat Reader
(ab Version 5).
Diese DVD-ROMs enthalten • den redaktionellen
89,00 €
Teil der Jahrgänge 1990–2006 auf DVD-9 bzw.
1994–2006 auf DVD-5 mit Texten und Bildern
(ausgenommen wenige Beiträge, die fremdem
Copyright unterliegen) • eMedia Navigator für Windows zur schnellen, fehlertoleranten
Schlagwort und Volltext Recherche • eMediaSearch für Linux und Macintosh zur fehlertoleranten Volltextsuche mit einem beliebigen Browser. Alle Artikel liegen als HTML-Dokumente vor.
Auf PCs unter Windows können sie mit dem mitgelieferten Recherche-Programm eMedia
Navigator betrachtet werden.
Systemvoraussetzungen: Pentium oder neuer, 32 MByte Arbeitsspeicher, DVD-ROM-Laufwerk.
Auf Computern mit anderen Betriebssystemen ist zur Anzeige der Artikel ein HTML-3-fähiger
WWW-Browser erforderlich (aus lizenzrechtlichen Gründen nicht auf der DVD enthalten).
Wussten Sie schon, dass es einen DVD-Update-Preis für Ihre Jahres-CDs gibt?
Nähere Informationen unter www.emedia.de/dvdinfo/
10,00 €
iXThema01 »Security«
24,50 €*
Die kompletten Jahrgänge der c’t- und iX-Ausgaben im HTML-Format. Auf jedem System
mit WWW-Browser lesbar (wird nicht mitgeliefert). Erschienen sind bei c’t die Jahrgänge
90/91, 92/93, 1994–2006, bei iX die Jahrgänge 1994–2006.
* Jede weitere Jahrgangs-CD kostet nur 15 €
Das ELRAD-Archiv auf DVD
Technology Review – Jahres-CD 2006
Diese CD enthält den vollständigen Inhalt der Technology
Review Ausgaben 01/06 bis 12/06 im PDF-Format (ausgenommen wenige Beiträge, die fremdem Copyright unterliegen). Der Inhalt ist im Volltext durchsuchbar. Erschienen sind
bei Technology Review die Jahrgänge 2004–2005.
24,50 €
Systemvoraussetzungen: Acrobat Reader (ab Version 5).
* Jede weitere Jahrgangs-CD kostet nur 15 €
c’thema 07 Netzwerke
• Eine umfassende Sammlung von Know-how- und PraxisArtikeln aus der c't. Die Artikel wurden überarbeitet • Alle
Request for Comments bis zum November 2006, wie sie von
der Internet Engineering Task Force bzw. dem RFC-Editor zur
Festlegung von Standards für TCP/IP und das Internet herausgegeben werden. • die Serien BCP, FYI und STD der Internet
Engineering Task Force bis zum November 2006. • weitere
Dokumentationen, Standards und Glossare zu allen Bereichen
der Netzwerktechnik • Webbrowser und Tools zum Auspacken
von Archiven mit zusätzlichen Texten
www.emedia.de
19,00 €
10,00 €
Die DVD enthält die Inhalte der
ELRAD-Ausgaben 11/1977 bis
6/1997 im Original-Layout sowie
die ELRAD-Extra und Sonder-ausgaben (bis auf wenige Beiträge,
die fremdem Copyright unterliegen). Über 21.000 Seiten liegen
als durchsuchbare PDF-Dateien
vor. Die »historische Authentizität«
steigern nicht nur die als Grafiken
eingescannten Anzeigen, sondern
auch die eine oder andere handschriftliche Notiz der ELRADRedakteure.
Systemvoraussetzungen:
DVD-Laufwerk, Acrobat Reader
(ab Version 5)
Diese CD-ROM enthält • eine
umfassende Zusammenstellung
von Artikeln zum Thema
»Sicherheit« aus den iX-Ausgaben 1/1994 bis 10/2005 •
das deutsche Standardwerk zur
Kryptologie als PDF-Dokument:
Reinhard Wobst, Abenteuer
Kryptologie, Addison Wesley
Verlag • alle Requests for
Comments (RFC), durchsuchbar
als indizierte PDF-Dateien, bis
einschließlich September 2005
• ausgewählte Security-Tools
und den Adobe Acrobat Reader
7.0 • eMedia Navigator für
Windows zur fehlertoleranten
Volltextrecherche und KontextNavigation • eMedia Search für
Linux, Solaris und Windows
Bestellung
eMedia GmbH
Bissendorfer Straße 8
D-30625 Hannover
Telefon: +49 [0]511 537295
Fax: +49 [0]511 5352-147
[email protected]
Preisänderung/Irrtum/Ausverkauf vorbehalten.
Porto und Verpackung: 3,00 €. Alle Preise inkl. MwSt.

Documentos relacionados