U - ITwelzel.biz

Transcrição

U - ITwelzel.biz
OPEN
NIX
U
4 398040 609007
Mai
B 30674 E
05
5/2000
UNIX
Im Test: Snap-Server, Alpha-Doppelprozessorsystem • Übersicht: Software-Entwicklungs-Tools • Unix-News
5/2000
ISSN 0943-8416
DM 9.00;
Ös 68,–;
Sfr 9,00
OPEN
Die Zeitschrift für Unix- und Linux-Profis
Systemmanagement
im Intranet
Doppelprozessorsystem
mit Alpha-CPUs im Test:
Zwei für Linux
Optimierende Compiler
garantieren Bestmarken
Internet-/IntranetTechnologien
• Hardware gegen Hacker
• Embedded Web-Server
• Portale: Technik plus
Administration
Das Chaos fest im Griff
Arcserve-IT erweitert die
• Shellscripts für effektives Suchen
Plattformunabhängigkeit
Migration auf Linux
Management
aller Backup-Aufgaben
Software-RAID
für Linux
Redundanz inklusive
Boot-fähige
RAID-Arrays aufbauen
http://www.linux-open.de
Kapazität
erweitern
• “On the fly”
• Snap-Server im Test
Marktübersicht
SoftwareEntwicklungs-Tools
UNIX
OPEN
http://www.unix-open.de
Besuchen Sie uns:
Halle 9 Stand C1/B2
EDITORIAL
Bewegung
bei Beamten
Vor kurzem hat die “Koordinierungs- und
Beratungsstelle der Bundesregierung für
Informationstechnik in der Bundesverwaltung (KBSt)” eine Studie veröffentlicht,
die sich für den Einsatz freier Software in
öffentlichen Händen ausspricht. Diese
Studie argumentiert unter anderem damit,
dass Open-Source-Software in Behörden
im Server-Umfeld schon des längeren
eingesetzt wird und sich dort als äußerst
zuverlässige Lösung erwiesen hat. Die
KBSt geht aber noch einen Schritt weiter,
denn sie stellt darüber hinaus fest, dass schon heute die Möglichkeit
besteht, Büroanforderungen komplett mit Open-Source-Lösungen
abzudecken. Eines der Hauptargumente für Behörden ist der Preis, denn
die Informationstechnik steht nach Aussage der KBSt vor erheblichen
Herausforderungen und hohen Ansprüchen aus dem politischen
Bereich, wobei gleichzeitig nicht mit einer spürbaren Erhöhung der
Haushaltsansätze gerechnet werden kann. Aber auch die Funktionen
haben die Beratungsstelle überzeugt: “Windows NT-File- und PrintServer können durch eine Linux- (oder FreeBSD) und Samba-Lösung
vollständig ersetzt werden”, ist eine der wichtigsten Aussagen des
Papiers. Als Strategie schlägt die KBSt schließlich vor, sich aus der
Abhängigkeit eines Herstellers zu lösen, und zwar durch den Aufbau
einer heterogenen Landschaft mit Linux, FreeBSD und anderer OpenSource-Software sowie kommerziellen Produkten. Diese Kombination
bietet ein “stabiles, preiswertes, ressourcenschonendes, sicheres und
von ausreichend vielen Beratungsfirmen unterstütztes Rechnersystem”,
sowohl für den Client- als auch für den Server-Bereich. Auch der
Investitionsschutz ist nach Ansicht der Beratungsstelle gewährleistet.
Ein interessantes Papier, das vor allem deshalb für Wirbel sorgte, weil
die Behörde es nach kurzer Zeit als “intern” deklarierte und wieder vom
Netz nahm. Der Grund lag darin, dass es vertrauliche Preisangaben
enthielt. Die Open-Source-Community reagierte darauf sehr erbost,
Linux-Tag startete sogar sofort eine Unterschriftenkampagne im
Internet. Diese und ähnliche Proteste gegen die “Zensur” der Bundesverwaltung hatten Erfolg: Die Studie ist jetzt (ohne Preise) wieder
offiziell unter http://www.kbst.bund.de/papers/briefe/02-2000/brief22000.html einsehbar. Sicher eine positive Entwicklung!
Götz Güttich
([email protected])
5/2000
3
INHALT
MARKT
Ab Seite 6
KNOW-HOW
Ab Seite 28
Internet-/Intranet
Technologien
Ab Seite 40
Die wesentlichen Themen auf der
Apache-Konferenz in Orlando lauteten:
XML, mod_perl, Comanche, LDAP, PHP
und SSL
Die Plug-and-Play-Fileserver aus der
Snap-Server-Familie eignen sich für die
Erweiterung der Speicherkapazität in
kleineren Netzwerken
Web-Switches bieten neben der Lastverteilung auch noch Schutz gegen HackerAngriffe wie etwa die Form des so genannten Denial-of-Service
6
Web-Server-Konferenz
Apache-Con 2000 in Orlando
28
Alltägliches Chaos
Suche nach vergessenen Dateien
12
Ticker
33
18
Produkt-News
Speicherkapazität
für kleine Netze
Im Test: Quantum-Snap-Server
35
SCSI im neuen Gewand
Bewährte Technik mit mehr
Leistung
40
Hacker-Angriffe
entschärfen
Web-Switches gegen Denial-ofServices-Angriffe
43
Voller Durchblick
Systemmanagement im Intranet
47
“Embedded”
im Vormarsch
Steuern und Regeln über
das Internet
50
Tür zur Info
Technologie für
Unternehmensportale
52
Sicherheit pflegen
Sicherheitsmanagement
in Computernetzen
Darstellung der Signalverläufe bei Ultra2-SCSI
4
5/2000
OPEN
OPEN
05
U NIX
B 30674 E
5/2000
4 3 9 8 04 0 6 0 9 00 7
Mai
UNIX
Im Test: Snap-Server, Alpha-Doppelprozessorsystem • Übersicht: Software-Entwicklungs-Tools • Unix-News
5/2000
ISSN 0943-8416
5/2000
DM 9.00;
Ös 68,–;
Sfr 9,00
LinuxOpen
Die Zeitschrift für Unix- und Linux-Profis
Know-how für Linux-Profis
Zwei
für Linux
Systemmanagement
im Intranet
Doppelprozessorsystem
mit Alpha-CPUs im Test:
Zwei für Linux
Internet-/IntranetTechnologien
61
• Hardware gegen Hacker
• Embedded Web-Server
• Portale: Technik plus
Optimierende Compiler
garantieren Bestmarken
Administration
Das Chaos fest im Griff
• Shellscripts für effektives Suchen
Arcserve-IT erweitert die
Plattformunabhängigkeit
Migration auf Linux
Management
aller Backup-Aufgaben
Software-RAID
für Linux
Redundanz inklusive
Boot-fähige
RAID-Arrays aufbauen
Kapazität
erweitern
66
• “On the fly”
• Snap-Server im Test
Marktübersicht
SoftwareEntwicklungs-Tools
http://www.linux-open.de
http://www.unix-open.de
Zwei für Linux
Alpha-Doppelprozessorsystem
im Test
online
http://www.linux-open.de
Doopelprozessorsystem mit
◆ Doppelprozessorsystem
Alpha-Prozessoren getestet
◆ Optimierte Compiler garantieren
Bestmarken
Backup-Management
für Linux
In dieser Ausgabe
◆ Arcserve-IT für heterogene
Umgebungen
Storage-Management
Wachsendes Software-Angebot
Redundanz inklusive
◆ Software-RAID für Linux
◆ Boot-fähige RAID-Arrays einrichten
http://www.linux-open.de
UNIX
70
Redundanz
ohne Zusatz-Hardware
RAID unter Linux
73
Kernel-News
XFree 4.0, Apache und FreeBSD
Version 4.0
75
Linux-Ticker
OPEN
RUBRIKEN
Editorial
3
Inhaltsverzeichnis
4
Seminarführer
19
Marktführer
31
Unix-Navigator
38
Inserentenverzeichnis
80
Kennziffernliste
80
Info-Fax
81
Impressum
82
Vorschau
82
Links: Alle wichtigen
Linux-Adressen im Netz
+++ Marktübersicht:
Kommerziell unterstützte Software für Linux
+++ Stellenmarkt:
Job-Angebote für LinuxProfis +++ Tests:
Linux-Distributionen,
Office-Software
◆ Alpha-Doppelprozessorsystem im Test
◆ Arcserve-IT für Linux
◆ Redundanz ohne
Zusatz-Hardware
◆ Kernel-News
Unterstützung ausgebaut … Antiviren-Software … Komplettlösung …
Konferenz-Server … Entwicklung unter Linux … Embedded Datenbank
… Bezahlen im Internet … Backup und Recovery … Unkompliziert
Alpha Slot-B Modul (2)
L2 Cache
2/4/8 MByte
128 Bit Bus
D-Chips (4)
Main Memory
8 DIMMs, 2 GByte max.
256 Bit, 83 MHz
PC 100, optional ECC
SPD-config
21264 Alpha
CPU-Core
2”64 KByte
L1 Cache
55
Einkaufsführer:
Software-Entwicklungs-Tools
C-Chip
Flash-ROM
2 MByte
P-Chip (2)
South Bridge
Cypress
CY82C693UB
PCI-Bus 1
Config
IRQ
3 PCI-Slots, 33 MHz
1” 32 Bit, 2” 64 Bit
Das Blockschaltbild des UP2000 zeigt den modularen Aufbau des Doppelprozessorsystems auf Basis der Alpha-Prozessoren
5/2000
5
MARKT
Apache-Con 2000 in Orlando
Web-ServerKonferenz
Auf der Apache-Con 2000, die während des Zeitraums
von 8. bis 10. März 2000 in Orlando Florida stattfand,
hielten mehr als 40 internationale Experten vor einem
Publikum von mehr als 1000 Fachleuten aus aller Welt
Vorträge über den am meisten verbreiteten Web-Server
“Apache” und damit zusammenhängende technische
Randbereiche. Es gab unter anderem Sessions zu den
Themen mod_perl, XML, Comanche, LDAP, PHP und SSL.
Im Rahmen der Veranstaltung wurde auch die Verfügbarkeit der Apache-Version 2.0 angekündigt.
D
er Name Apache
wurde ursprünglich
davon abgeleitet,
dass es anfangs für diesen
Web-Server sehr viele Patches gab: “A patchi Web
Server”. Die Tatsache, dass
Apache fester Bestandteil in
kommerziellen Produkten,
so unter anderem auch im
IBM-Produkt “Websphere”
ist, verdeutlicht den Stellenwert, den der Server inzwischen auch bei größten Firmen erlangt hat.
Der Präsident der Apache
Software Foundation (ASF)
Brian Behlendorf erklärte in
seiner Rede die derzeitigen
Ziele der Organisation. Um
den Namen Apache zu
schützen, musste man letztendlich den Markennamen
registrieren und hat aus diesem Grund eine Incorporation gegründet. Behlendorf
erklärte, er wüsste noch
nicht genau, welche Nachteile das mit sich brächte –
6
aber man werde das schon
noch herausfinden. Wörtlich
meinte er, man wollte primär
verhindern, dass sich andere
Unternehmen das Branding
zunutze machen und plötzlich einen “Apache++” auf
den Markt bringen. Er selbst
sei derzeit hauptsächlich damit beschäftigt, die zukünftige Entwicklung des WebServers zu organisieren. Dazu gehört es unter anderem,
die laufenden Projekte zu
betreuen, eine Infrastruktur
für die reibungslose Abwicklung
bereitzustellen
oder Mailing-Listen zu organisieren. Kurz gesagt kümmert er sich um die Nebensächlichkeiten, die eben
erledigt werden müssen. Es
soll sich bei Apache weiterhin alles um Open Source
drehen und auch der NonProfit-Status aufrechterhalten bleiben. Dies ist aber bei
weitem nicht mehr so einfach wie früher: Zum Bei-
spiel wurde es in der letzten
Zeit erforderlich, nun auch
Leute für die Büroarbeit fest
anzustellen. Deshalb sind
die Mitglieder des ApacheProjekts derzeit in der Diskussion, wie sich die freie
Verfügbarkeit und der nun
entstehende kommerzielle
Gedanke vereinbaren lassen.
Ein weiterer heiß diskutierter Punkt ist SSL. Soll/
kann dieser zukünftig in den
Kern des Web-Servers einfließen? Da unlängst die
Kryptographiegesetze in den
USA gelockert wurden, stehen die Zeichen für eine Einbindung prinzpiell ganz gut.
Insgesamt hat sich die
Blockadepolitik der amerikanischen Regierung zum
Schaden der amerikanischen
Entwicklung
ausgewirkt.
Behlendorf erinnerte an den
Bernstein-Fall, wo das NCSA (National Center for Supercomputing Applications)
offenbar der NSA (National
Security Agency) mitgeteilt
hatte, dass sich im Web-Server kryptographische Algorithmen befinden, die nicht
exportiert werden dürfen.
Das gerichtliche Verfahren
ließ sich aber kurzfristig abbiegen, indem die relevanten
Code-Stellen entfernt wurden. Inzwischen, so Behlendorf, hat sich die Situation
ergeben, dass nun kryptographischer Code in die USA
importiert werden muss. Daher überlegen die ApacheEntwickler zur Zeit, ob es
nicht besser wäre, eine
Kryptographieschnittstelle à
la “mod_ backend” zur Verfügung zu stellen.
Behlendorf zeigte gleichzeitig auch Probleme der Organisation auf. Die bestehende Codebasis muss beispielweise dringend dokumentiert werden. Auch die
Website
bedarf
einer
grundsätzlichen Reorganisation. Und schließlich ist
auch der, so wörtlich, “merocratic process” in irgendeiner Art und Weise zu entschärfen. Damit meinte Behlendorf, dass nur die Mitglieder der ASF (Apache
Software Foundation) bestimmen können, wer als
neues Mitglied in ihren
Kreis aufgenommen wird,
was damit in gewissem Sinne die Inzucht fördert. Davon geht nach Ansicht Behlendorfs über kurz oder lang
die Gefahr aus, dass ein
“Club alter Jungs” entsteht.
Ein weiterer wichtiger
Punkt war das Projekt
“www.tigris.org” das eine
Web-basierte Infrastruktur
zur Koordination von Projekten zur Verfügung stellen
wird. Auch die Tigris-Entwicklung wird unter der
Open-Source-Doktrin erfolgen. Dieses Projekt wurde
zwar von der ASF initiiert,
5/2000
MARKT
doch läuft es unter eigenem
Namen, weil man eine echte
Trennung zu Apache erreichen will. Es soll, so Behlendorf, verhindert werden,
dass mit der Verwendung
des Namens Apache automatisch eine Assoziation mit
anderen Projekten stattfindet.
Weitere Projekte sind in
Planung. Dazu gehört etwa
die Entwicklung eines Installations- sowie Konfigurationsassistenten, der das
Handhaben der Distribution
des Web-Servers – beziehungsweise anderer Komponenten – deutlich vereinfachen soll. Ebenfalls in Planung ist eine Three-Tier-Architektur von mod_backend
sowie eine ASP-artige Funktionalität für den Web-Server.
Dabei steht ASP jedoch
nicht für Active Server Pages, sondern für “A ServiceProvider”. Behlendorf rief
die Anwesenden dazu auf,
bei Projekten mitzumachen
und damit die Weiterentwicklung des Apache zu sichern.
Parallel zu den Vorträgen
fand eine Ausstellung statt.
Die beiden Großunternehmen IBM und Sun waren
dort ebenso vertreten wie
Apple, Suse sowie weitere
kleinere in diesem Bereich
agierende Unternehmen.
Eine SoftwareAgenda
In der Keynote vom 9.
März erläuterte Dr. Alfred
Spector den zukünftigen
Weg der IBM. Der Senior
Technology Strategist von
IBM Software, gleichzeitig
Professor an der Columbia
University Computer Science, erklärte, dass sich
IBM ganz offen zu der
Open-Source-Bewegung, ein-
8
schließlich Linux bekennt.
In Bezug auf Linux vertritt
er die Meinung, dass es in
Zukunft nicht nur ein Betriebssystem geben werde,
sondern vielmehr eine Mischung aus vielen. Er verglich die Betriebssystemlandschaft mit einer Metropole in der es U-Bahn, Bus,
Zug, Autos und andere Fortbewegungsmittel als Beförderungsplattform gibt. Jedes
davon hat seine Existenzberechtigung, und niemand
kann festlegen, dass es nur
ger Motor erwiesen, der verdeutlicht, dass nichtkommerzielle Produkte leistungsfähige Software hervorbringen. Der beschleunigende Effekt, den keine
kommerzielle Entwicklung
erreichen kann, wird dadurch erreicht, dass die Entwickler Dinge, die sie gerade selbst benötigen, gleich in
die Quellen einbauen. Die
brauchbarsten Neuerungen
fließen dann wiederum in
die nächste Inkarnation des
Basisprodukts ein.
Auf der Apache-Con 2000 in Orlando
ein Transportmittel gibt oder
nur eine Art und Weise, etwas richtig zu machen. Vielmehr ist es gerade die Vielfalt, die eine gut funktionierende Ganzheit bildet. IBM
wird nach wie vor seine eigenen Betriebssysteme unterstützen, weiterentwickeln
und pflegen. Aber auch Windows NT darf Big Blue nicht
vernachlässigen, so Spector,
da es sich derzeit nach wie
vor um einen Multimilliardenmarkt handelt für den
Lösungen angeboten werden
müssen.
Obwohl IBM offen zur
Open-Source-Bewegung steht,
betrachtet Big Blue die Entwicklung insgesamt eher mit
gemischten Gefühlen. Open
Source hat sich als ein kräfti-
Die Medaille hat aber nach
Spector auch eine Kehrseite. Die Vorgehensweise
der Open-Source-Entwickler sorgt für ein mehr oder
minder
unkontrolliertes
Wachstum der Codebasis.
Die Anzahl von wiederverwendbaren, standardisierten
Komponenten steigt nicht
analog zur Menge des frei
verfügbaren
Quelltextes.
Die Tatsache, dass die erarbeiteten Lösungen vollständig in Quelltext zur Verfügung stehen, ändert nichts an
dem Umstand, dass es große
Mängel im Hinblick auf Modularität gibt. Die eingebrachte Wissensbasis in den
Quelltexten ist einfach zu
umfangreich, um sie vollständig als Funktionsblock
zu erschließen. Die universelle Wiederverwendbarkeit
des Codes wird damit hinfällig. Das Ziel, das er und auch
IBM mit zunehmender
Dringlichkeit verfolge, liegt
nach Spector darin, den
Wildwuchs durch wiederverwendbare Komponenten
kontrollierbar zu halten und
Normungen gemeinsam mit
den freien Entwicklern in
den Projektgruppen zu erarbeiten.
Als warnendes Beispiel
nannte er die vorhandene
Cobol-Codebasis, welche
von unseren Vätern programmiert wurde. Kaum jemand will geschweige denn
kann diesen Code heute
noch warten. Unsere Kinder
werden, so Spector, den heute produzierten Code mit
größter Wahrscheinlichkeit
zu großen Teilen genauso
wegwerfen wie wir es heute
mit den alten Code-Fragmenten tun.
Die Warnung stützt sich
auf den Umstand, dass für
die Implementierung von
Lösungen generell zu wenig
Geld beziehungsweise Ressourcen zur Verfügung stehen. Studien zufolge werden
sich in naher Zukunft eine
Milliarde
Web-gestützte
Geräte wie PCs, TV-SettopBoxen oder auch WAP-Lösungen in Händen von Endanwendern befinden. Der
Bedarf an Applikationen
steigt in diesem Markt auf
nicht absehbare Zeit überproportional an. In den USA
herrscht genau wie hierzulande ein massiver Mangel
an geeignetem Fachpersonal.
Derzeit bekommen in den
Vereinigten Staaten 150.000
Ausländer jährlich die H1Sonderzulassung.
Dabei
handelt es sich um eine auf
fünf Jahre beschränkte Ar-
5/2000
MARKT
beitserlaubnis der amerikanischen
Einwanderungsbehörde. Nach Spectors
Meinung müsste die Zahl
dieser Genehmigungen in
der derzeitigen Lage auf
500.000 angehoben werden.
Die Werbung in den Medien
im Großraum von San Francisco/Silicon Valley reflektiert den Aufschrei der dort
ansässigen Industrie. Aggressive Werbesprüche auf
riesigen Transparenten am
Rand der Highways, im Radio sowie im Fernsehen zeigen nur zu deutlich, welcher
Mangel an hochqualifizierten Kräften dort vorherrscht.
Die Tatsache, dass das Internet explosionsartig weiterwächst, verspricht auch für
die Zukunft keine Verbesserung, sondern eher noch eine
Zuspitzung der Situation.
Qualität sichern
Nicht nur der Bedarf an
Web-Applikationen wird in
Zukunft weiter ansteigen,
sondern auch die Notwendigkeit, für einen hohen
Qualitätsstandard dieser Applikationen zu sorgen. Denkt
man etwa an Anwendungen
im medizinischen Bereich,
so dürfte es kaum im Sinne
der Patienten sein, wenn
sensitive Informationen entweder verloren gehen oder
in falsche Hände geraten.
Spector sprach in diesem
Zusammenhang von Brücken, die gebaut werden, um
Lösungen bereitzustellen. Er
sprach bewusst nicht von
Brückenbaumeistern. Es ist
klar, was er damit zum Ausdruck bringen wollte. Die
derzeit entwickelten Codekomponenten sind in aller
Regel unmodular und nicht
wiederverwendbar. Ein Brükkenbauingenieur geht nach
bestimmten Regeln vor, zum
10
Beispiel der Belastbarkeit.
Solche Vorgaben haben sich
beim Bauingenieurswesen
im Laufe der Zeit entwickelt
und sind mit der Zeit als
Standards in die geltenden
Vorschriften eingeflossen.
Derartige Bauvorschriften
gibt es in der Software-Welt
noch kaum. Zaghafte Bemühungen finden sich hierzulande in Form der europäischen ISO-Zertifizierung.
Dennoch: Es wird wohl bei
dem Versuch bleiben, denn
die Gremien hecheln genau
wie die hierzulande allerorts
zu findenden Berufsverbände, allen voran die Industrie
und Handelskammer, der rapiden fortschreitenden Technologieentwicklung hinterdrein. Im Grunde genommen
haben diese Einrichtungen
dieselben Probleme wie
IBM, die in der mangelhaften Kontrolle der sich entwickelnden
Pseudostandards begründet liegen.
Der Professor richtete daher den nachhaltigen Appell
an die anwesenden Entwickler: Code für Generationen
zu bauen, nicht für den Moment.
In diesem Zusammenhang
wies er auch auf die Fähigkeiten sowie die Führungsrolle von IBM hin. Er stellte
klar heraus, dass IBM nicht
an den ganz kleinen Entwicklungen interessiert sei.
Der Industriegigant möchte
die Software-(Web-)Welt
zukünftig maßgeblich gestalten und ihr die Richtung
weisen. Man hat laut Spector
bei IBM die Zeichen der Zeit
erkannt und reagiert nun auf
die neue Situation. Er brachte einige Beispiele für Software-Komponenten, etwa
im Bereich XML (Extended
Markup Language). IBM
liefert jetzt seit geraumer
Zeit im Sinne der GPL funk-
tionierende Codekomponenten und ebnet damit ganz automatisch den Weg für die
eigenen Standards. Auf den
Punkt gebracht stellte der
Vordenker von IBM drei
Forderungen für die zukünftige Software-Entwicklung,
die er sich und IBM auf die
Fahnen geschrieben hat: Eine bessere Integration von
Programmiersprachen, fertig verwendbare standardisierte Codebausteine und
einfachere Wege zum Erarbeiten der dazu notwendigen
Technik sowie zum Entwickeln von Lösungen.
Lippenbekenntnis
Auch Sun fehlte nicht bei
den aktiven Teilnehmern.
Der
Enterprise-Spezialist
und Java-Pionier entsandte
Patrizia Suelz als KeynoteSpeakerin. Auch Sun verhält
sich wie IBM offen zur
Open-Source-Bewegung. Man
hört der Entwicklergemeinde verstärkt zu, so erklärte
Suelz. Im Gegensatz zu
IBM, die Lösungen plakativ
zur Verfügung stellt, versucht Sun einen anderen Ansatz, um sich mit der nicht
greifbaren Macht der OSF
und vor allem der OpenSource-Entwickler zu arrangieren. Sun sucht den offenen Dialog und denkt verstärkt über eine andere Art
der Software-Entwicklung
nach: Zum Teil soll sie verteilt erfolgen, aber dennoch
im festen Griff von Sun bleiben. Wie dies konkret aussehen könnte, steht derzeit
aber noch nicht fest. Damit
befindet sich die in Bewegung geratene Änderung
des Source-Licensing-Modells von Sun-Produkten in
direktem Zusammenhang.
Sun möchte auch hier einen
Dialog mit den Entwicklern
beginnen, um ein gemeinsames Modell zu entwickeln,
das einer möglichst breiten
Masse entgegenkommt. Im
Rahmen der Keynote kündigte Frau Suelz die Verfügbarkeit der Java-Entwicklungsumgebung “Forte” in
Binärform an. Innerhalb der
nächsten Tage soll auch
der vollständige Quellcode
dafür zur Verfügung stehen.
Abwesend
Auffallend war, wie wenig
über den Erzrivalen Microsoft gesprochen wurde.
Wenn, dann wurde lediglich
breit über diverse BlueScreens gegrinst. Man lebt
nun einfach damit. Die mentale Trendwende hat ganz
klar eingesetzt. Die Entwickler haben es durch ungeheuren Einsatz von wenigen Vordenkern geschafft,
die eigenen Entwicklungen
zum Momentum werden zu
lassen. Zum voranstrebenden Koloss, der auch nicht
durch die einflussreichste
Industrie zu bremsen ist. Sowohl IBM als auch Sun suchen nun mit anderen Taktiken um die Gunst der Masse
zu kämpfen. Anders ist diesem Phänomen offensichtlich nicht beizukommen.
Das Ziel der beiden Unternehmen liegt darin, die Kontrolle über die Standards
wiederzuerlangen.
Dazu
scheint den beiden fast jedes
Mittel recht zu sein.
Am Rande der Konferenz
war zu erfahren, dass in Kalifornien die Arbeitslosenquote bereits unter zwei Prozent liegt. Das bedeutet, jeder der nur irgendwelche
Fähigkeiten nachzuweisen
hat, wird derzeit in ein Beschäftigungsverhältnis übernommen.
(Robert Schott/gg)
5/2000
MARKT
$
-TICKER-TICKER-TICKER-TICKER
Umsatz
verdoppelt
Der IT-Vermarkter Computer Links hat nach dem vorläufigen Jahresabschluss 1999
seinen Umsatz von 44,1 auf
90,9 Millionen Mark gesteigert. Dies entspricht einem
Zuwachs von 106 Prozent.
Das Ergebnis vor Steuern stieg
um 157 Prozent auf 7,2 Millionen Mark. Das Ergebnis pro
Aktie liegt bei 0,77 Mark nach
0,33 Mark im Vorjahr. Stephan Link, Gründer und Vor-
Programm
für Händler
Ab sofort bietet Adiva SGIHändlern die Möglichkeit, mit
dem “time to change”-Programm den Produktvertrieb
von Compaq und HP zu übernehmen. Dabei können SGIHändler auf das gesamte Enterprise-Produktportfolio
Die Zukunft aufs
Spiel gesetzt?
Etwa 258.000 kleine Unternehmen in Deutschland,
England und Frankreich stehen vor dem finanziellen Ruin, wenn sie ihre Computerdaten verlieren. Zu diesem
Ergebnis kommt eine Studie,
die von Mori, einem unabhängigen Marktforschungsinstitut in Großbritannien,
12
standsvorsitzender des NeuenMarkt-Unternehmens vertritt
die Ansicht, dass der starke
Anstieg des Dollars im letzten
Quartal 1999 ein noch besseres Ergebnis verhindert habe.
Der von 45,1 Millionen Mark
auf 99 Millionen Mark gestiegene Auftragseingang lasse
für das laufende Geschäftsjahr
auf weiteres Wachstum hoffen. Derzeit vermarktet Computer Links Produkte aus
sechs wachstumsstarken ITBereichen: Internet/Intranet,
Datensicherheit, Thin-Client-/
Server-Computing, Remote
Access, kabellose Netzwerke
sowie Clustering. Dabei bietet
der Distributor seinen Kunden
ein komplettes Vermarktungspaket an, das Beratung, Schulung, Logistik und Vertrieb,
Marketingunterstützung sowie After-Sales-Support umfasst. (rb)
(Unix-/NT-Server und Workstations) zurückgreifen. Registrierten Händlern steht eine
dedizierte Support-Hotline in
Konfigurationsfragen sowie
eine spezielle Betreuung
durch den Adiva-Außendienst
zur Verfügung. Vervollständigt wird das Programm durch
Schulungs-, Upgrade- und
Demoangebote.
(rb)
durchgeführt wurde. Die
Kosten, die auf diese Unternehmen zukommen, wenn
sie ihre gesamten Datenbestände durch fehlendes
Backup verlieren, entsprechen in den drei Ländern einem Wert von 700 Milliarden Euro. Rechnet man diese
Zahl auf alle Länder in der
Europäischen Union hoch, so
würde der Verlust 1200 Milliarden Euro betragen. (rb)
Vereinbarung
Unisys und Compaq wollen einen Partnerschaftsvertrag schließen. Der Vertrag
soll Compaq ermöglichen,
32-Prozessor-Server
von
Unisys unter dem Compaqeigenen Label “Proliant” zu
vermarkten. Hierbei wird die
skalierbare CMP-Prozessor-
Erfolgreiches
Geschäftsjahr
RSA Security schloss das
Geschäftsjahr 1999 weltweit
mit 218,1 Millionen Dollar
ab; das entspricht einer Umsatzsteigerung von 27 Prozent im Vergleich zum Vorjahr. Der Reingewinn belief
sich auf 183,8 Millionen
Dollar, verglichen mit 29,4
NCs als
OEM-Produkt
Network Computing Devices (NCD) gab bekannt, dass
man mit Hitachi eine Vereinbarung getroffen hat, NCD
Thin-Client-Terminals unter
dem Hitachi-Markennamen
zu entwickeln, zu fertigen
und zu vermarkten. Hitachi
hat laut Aussagen von NCD
Übernahme
Onyx Software, Spezialist
für Web-basierte CRM-Systeme, übernimmt CSN
Computer Consulting einschließlich Mitarbeiter. Mit
dieser Akquisition baut
Onyx nicht nur seine Marktpräsenz in Deutschland aus,
sondern deckt in dieser Region auch den Bereich
architektur (Cellular MultiProcessing) von Unisys mit
der Erfahrung von Compaq
im Server-Geschäft gekoppelt. Die Server nutzen Windows 2000 Datacenter Server. Aus der OEM-Vereinbarung erwartet Unisys einen
Umsatz von zirka 400 Millionen Dollar in den nächsten
zwei Jahren.
(rb)
Millionen aus dem Jahr 1998.
Der Gewinn pro Aktie stieg
von 0,7 Dollar (gewichteter
Wert) im Jahr 1998 auf 4,38
Dollar pro Aktie (gewichteter
Wert) im Jahr 1999. Diese
betriebswirtschaftlichen
Kennzahlen des Unternehmens verdeutlichen, dass Sicherheitslösungen
gefragt
sind wie nie zuvor.
(rb)
die NCs (Netzcomputer) wegen des einfachen Einsatzes,
der geringen Stellfläche und
der Funktionalität in Verbindung mit Hitachis-ServerUmgebung gewählt. Das
OEM-Produkt wird unter
dem Namen Floranet 130
vermarktet und basiert auf
dem
NCD-Thinstar-400Windows-based-Terminal
(WBT).
(rb)
Professional-Services für
CRM-Anwender ab. Seit
1989 ist CSN auf die Einführung und Entwicklung
von CRM-Projekten für
Vertriebsorganisationen
spezialisiert und betreibt in
München ein eigenes Schulungs- und Servicezentrum.
Die Übernahme ergänzt die
Lösungen und Produkte von
Onyx.
(rb)
5/2000
MARKT
$
-TICKER-TICKER-TICKER-TICKER
Kauf von
E-Procurement
ICL hat sich für den weltweiten Einsatz von “Get.Resources!”, der Lösung für das
Deal von vier
Milliarden Dollar
Computer Accociates (CA)
und Sterling Software schlossen im Februar auf Basis eines
Aktienübernahmeangebots in
Höhe von vier Milliarden
Dollar ein Abkommen, das die
Akquisition von Sterling Software durch CA vorsieht. Diese
Übernahme ergänzt das Software- und DienstleistungsPortfolio von CA in den Bereichen Entwicklung, Integrati-
Standardisierung
beschleunigen
3Com beteiligt sich an der
Ausarbeitung des künftigen
Standards für Ethernet mit 10
Gigabit pro Sekunde. Das
Unternehmen trat der “10 Gigabit Ethernet Alliance” bei,
Vertriebskooperation
Der Siemens-Bereich “Information and Communication Networks” und Sun arbeiten beim Vertrieb des Siemens
“DirX Meta Directory Server”
eng zusammen. Der Verzeichnisdienst dient der Konsolidie-
14
E-Procurement von Peregrine
Systems, entschieden. Zugleich wurde der Anbieter in
den Kreis der strategischen
Partner aufgenommen und die
Produktsuite für das Infrastrukturmanagement zum Unternehmensstandard erklärt.
Get.Resources! ist Teil von
“Get.It!”, einer Familie von
Self-Service-Applikationen
aus dem Hause Peregrine Systems. Get.Resources! soll den
Beschaffungsprozess in Unternehmen vereinfachen und
beschleunigen.
(rb)
on, Management und Sicherung von E-Business-Lösungen. Sterling Software ist Anbieter von Speicher- und Netzwerkmanagement-Lösungen,
Electronic Application Integration (EAI), Portalen und
Werkzeugen für die Anwendungsentwicklung. Durch die
Fusion entsteht nach Aussagen von CA der größte Anbieter von SpeichermanagementTechnologie. Die Transaktion
bedarf noch der kartellrechtlichen Genehmigung
(rb)
der außerdem Cisco, Extreme
Networks, Intel, Nortel Networks, Sun und Worldwide
Packets angehören. In Zusammenarbeit mit den beteiligten Unternehmen soll der
neue IEEE-Standard 802.3ae
bis zum Frühjahr 2002 ratifiziert werden.
(rb)
rung und Synchronisation von
zahlreichen Verzeichnisdaten
wie Telefonnummern oder EMails. Die Software unterstützt die Standards InternetLDAPv3 (Lightweight Directory Access Protocol) sowie
X.500 und bietet unter anderem spezielle Konnektoren für
Solaris.
(rb)
WRQ kauft ein
WRQ hat den EnterpriseApplication-Integration-Spezialisten (EAI) Supernova
übernommen. Mit den Produkten des niederländischen
Unternehmens erweitert der
Hersteller von Lösungen für
den Web-basierenden Zugriff
und für das Management von
E-Business-Lösungen sein
Restrukturierung
Nachdem das amerikanische Department of Justice
(DoJ) die geplante Übernahme von Viasoft durch
Compuware abgelehnt hat,
richtet Viasoft nun seine
Geschäftsaktivitäten an einer neuen Unternehmens-
10. Geburtstag
Vor mehr als zehn Jahren
stellte IBM die Hardware-Generation RISC System/6000,
später einfach RS/6000, als
Angebot für den Unix-Markt
vor. Mit angekündigt wurde
zeitgleich ein Betriebssystem
Distributionsvertrag
HP ernannte GE Access,
ein Unternehmen der General Electric Gruppe, zum
Distribuitor von Grafik-
Namensänderung
Die Sun|Netscape Alliance
hat einen neuen Namen. Um
das Engagement und die
Marktposition im B2B-ECommerce-Bereich hervorzuheben, heißt der virtuelle
Zusammenschluss von AOL,
Netscape und Sun ab sofort
Portfolio um Lösungen für die
Integration bestehender HostSysteme und unternehmensweiter Applikationen in EBusiness-Infrastrukturen.
Dies unterstreicht die neue
strategische
Ausrichtung
von WRQ, Lösungen anzubieten, die Unternehmen den
schnellen Einstieg ins EBusiness ermöglichen sollen.
(rb)
struktur aus. Danach organisiert sich das Unternehmen in zwei unabhängige
Geschäftsbereiche um, wovon einer auf die Metadaten-Repository-Umgebung
Rochade, der andere auf
Existing Systems Workbench-Lösungen (ESW) fokussiert ist.
(rb)
namens AIX (Advanced Interactive eXecutive) Version
3. Mit diesen zwei Produkten
wurde IBM zu einem der
Hauptanbieter im Unix- und
Workstation-Markt. Bis heute
sind mehr als eine Million dieser Rechnerkategorie installiert.
(rb)
Workstations und technischen Servern unter HP-UX.
Die deutsche HP erhofft sich
von der Zusammenarbeit
Zugang zu neuen Anwendergruppen und Marktsegmenten.
(rb)
“iPlanet”- a Sun|Netscape
Alliance. Der Name und das
neue Motto “iPlanet for iPeople” wird durch eine integrierte Branding-Kampagne
– zunächst im Web und anderen digitalen Medien, später
in Anzeigen und Broschüren
etc. – kommuniziert.
(rb)
5/2000
MARKT
$
-TICKER-TICKER-TICKER-TICKER
SAP steigert
Umsatz
Die SAP AG hat ihren Umsatz im Geschäftsjahr 1999
um 18 Prozent auf 5,11 Milli-
arden Euro (1998: 4,32 Milliarden) erhöht. Der Gewinn
vor Steuern (ohne Rückstellungen für das Mitarbeiterbonus-Programm STAR) wuchs
um 18 Prozent auf 1,12 Milliarden Euro (1998: 948 Millionen); einschließlich der Rückstellungen für STAR legte der
Vorsteuergewinn 1999 um
fünf Prozent auf 981 Millionen Euro (1998: 932 Millionen) zu. Der Jahresüberschuss
stieg um 14 Prozent auf 602
Millionen Euro (1998: 527
Millionen).
(rb)
Kooperation
SGI und Sysload Software,
Spezialist für Performancemanagement in heterogenen
Client-/Server-Umgebungen,
arbeiten ab sofort bei Kundenprojekten zusammen. Um
neben reiner Hardware auch
umfangreiche Software-Lösungen anbieten zu können,
hat SGI in den Bereich Professional-Services zahlreiche
Partnerprodukte aufgenom-
Akquisition
Strategische
Allianz
Quadratec, Hersteller von
Software für das Datenmanagement in heterogenen Netzen, und Network Appliance,
Anbieter von Data AccessSystemen, haben eine strategische Kooperation vereinbart. Im Rahmen des Abkommens bietet Quadratec mit
dem “Time Navigator for
Sicherheit mit
neuem Namen
Data Fellows, finnischer
Anbieter von zentralgesteuerter Sicherheits-Software,
wird seinen Namen offiziell
in F-Secure Corporation ändern. Die Aktionäre haben
dem Namenswechsel bereits
zugestimmt. Obwohl Data
Fellows in Finnland ein sehr
Serviceleistungen
Dell hat mit der GeneralElectric-Tochter GE Compunet eine Allianz für ServiceDienstleistungen in Deutschland geschlossen. Im Rahmen der Zusammenarbeit
16
NDMP” ab sofort ein Schnittstellenmodul
für
seine
Backup-Software Time Navigator zur Sicherung der als
“Filer” bezeichneten File Server von Network Appliance
an. Anwendern steht damit eine Lösung zur Verfügung,
die plattformübergreifend das
Backup und Restore von Network-Appliance-Fileservern
unter NT und diversen UnixPlattformen ermöglicht. (rb)
bekanntes Unternehmen ist,
steht international der F-Secure Markenname im Vordergrund. Dieser Tatsache
trägt das Unternehmen jetzt
mit der Namensänderung
Rechnung. So soll der Fokus
des Unternehmens stärker
betont werden, der auf integrierten Lösungen für unternehmensweite
Sicherheit
liegt.
(rb)
konzentriert sich GE Compunet auf Service und Support rund um die Hardware.
Dell und GE Compunet können nun gemeinsam umfangreiche Systemlösungen konzipieren, anbieten und unterstützen.
(rb)
Mit der Akqusition von
Valto Systems, einem Pionier auf dem Gebiet der
EJB-Server (Enterprise Javabeans), beabsichtigt Allaire, seine Position im Bereich dieser Schlüsseltechnlogie auszubauen. Im Rahmen der zwischen Allaire
und Valto getroffenen Vereinbarung erfolgt die sofortige Integration der Mitarbeiter von Valto Systems in
das Team von Allaire. Das
Schlüsselprodukt von Valto, Ejipt 1.2, wird von Allaire weiter vertrieben. Eine
Betaversion der nächsten
Wachstum in
jeder Beziehung
Die Gauss Interprise AG,
Spezialist für Web Content
Management, hat 1999 ein
außergewöhnliches Wachstum realisiert. Der Konzernumsatz konnte auf Basis des
vorläufigen Jahresabschlusses gegenüber dem Vorjahr
um 236 Prozent von 8,8 auf
20,8 Millionen Mark gesteigert werden. Im gleichen
Zeitraum wurde die Mitarbeiterzahl von 76 auf 210
erhöht. Mit der Gründung
der US-Tochtergesellschaft
men, wobei sich das Unternehmen auf dem Gebiet des
Leistungsmanagements für
das Tool Sysload entschieden
hat. Das Werkzeug eignet
sich für die Überwachung
von SGI-Servern, die in heterogenen Systemlandschaften
sowohl unter Irix als auch unter NT arbeiten. Darüber hinaus bietet Sysload auch die
Anbindung an Tivoli TME,
HP Open View oder Unicenter TNG.
(rb)
Generation von Ejipt steht
bereits jetzt zur Verfügung.
Durch die Integration der
Valto-Technologie unterstützen in Zukunft alle Allaire-Produkte E-BusinessTransaktionen. Großunternehmen investieren derzeit
in Multitier-Architekturen,
die Message-Queuing und
verteilte Transaktionen auf
der Basis von Java beherrschen. Allaire wird für diese
Infrastruktur eine neue Java2 Enterprise Edition Suite
(J2EE) bereitstellen, die allgemeine Standards unterstützt.
(rb)
Gauss Interprise, wurde die
Internationalisierung
bereits im abgelaufenen Geschäftsjahr begonnen. Im
Geschäftsbereich Software
Solutions entwickelte sich
der Umsatz von 0,9 im Jahr
1998 auf 5,3 Millionen
Mark 1999. Dies entspricht
einer Steigerung von mehr
als 480 Prozent. Auch der
Geschäftsbereich Consulting entwickelte sich positiv
und erwirtschaftete eine
Umsatzsteigerung von fast
100 Prozent auf 15,5 Millionen Mark (1998: 7,9 Millionen Mark).
(rb)
5/2000
MARKT
ProduktNews
Minikassette
mit 100 GByte
Die französische Firma Alditech präsentierte eine Minikassette mit einer Speicherka-
gegenwärtig für etwa sechs
Dollar erhältlich ist. Durch die
Alditech-Entwicklung wird es
möglich, die Daten-Bits mit einer Spurbreite von weniger als
5 µ abzuspeichern. Dabei
kommt eine Gruppentechnologie unter Verwendung von Silizium zum Einsatz. Mit dieser
Technik gelingt es, beide Teile
des Lesekopfs mit der geforderten präzisen Ausrichtung
und integriertem Azimutwinkel herzustellen. Dabei wird
der Lesekopf mittels Ätzung
und Auftragen von mehreren
Kombinierte
Lösung
Das PDM-System “Rapport” von Optimum ist eine
Kombilösung für Systemadministratoren und Anwender,
die ein unternehmens- oder
konzernweit strukturiertes Dokumentenmanagement
zur
Verfügung stellt. So werden
Informationen über Internet
oder Intranet verteilt. Integrierte Verschlüsselungsmöglichkeiten sorgen dafür, dass brisante Informationen nur einem
Integrierte
Lösungen
pazität von mehr als 100
GByte. Die digitalen Leseköpfe bieten die Möglichkeit, unkomprimiert mehr als 100
GByte (bei Datenkompression
mit Faktor 2 bis zu 200 GByte)
auf einer handelsüblichen Digitalkassette zu speichern, die
Portierung
auf Solaris
Den “Tango-2000-Application-Server” und den “Pervasive.SQL-Server” gibt es jetzt
auch für Solaris. Web-, Javaund
Datenbankentwickler
können damit ihre Tango2000- und Pervasive. SQL2000-basierenden Anwendungen auf Solaris 7, dem 64-BitBetriebssystem und der 32Bit-Version Solaris 2.6 bereitstellen. Der Tango-2000-Application-Server für Solaris ist
18
Metallschichten gefertigt, wobei wie bei einem Chip das Silizium als Trägermaterial und
das Siliziumdioxid als Isoliermittel verwendet werden. (rb)
Nähere Informationen:
Alditech
Tel. +33(0) 4 76 88 57 14
www.alditech.com
mit allen anderen Tango-2000Lösungen kompatibel. Das
Gleiche gilt für den Pervasive.SQL-2000 Server in Bezug
auf alle weiteren Pervasive.SQL-Lösungen sowie bestehende Btrieve-Anwendungen,
die auf unterstützten Plattformen laufen. Unter www.per
vasive. com/products/psql/ps
qlser vengine/solaris sind weitere Informationen erhältlich.
(rb)
Nähere Informationen:
Pervasive Software
Tel. (0 61 03) 96 22
Die “HP Visualize P600C,
P650C und P700C Personal
Workstations” werden künftig mit WRQ-Reflection-Lösungen konfiguriert. Damit werden NT-basierende
Workstations mit Unix-HostSystemen integriert. Die neuen Visualize-Workstations
werden zusammen mit der
vorinstallierten “WRQ Reflection X”-Software ausgeliefert. Damit können von
diesen Workstations aus
Unix-basierende Grafikanwendungen wiedergegeben
und integriert werden. Auch
werden die Rechner mit
Solaris-8Unterstützung
Ab sofort unterstützt Informix Solaris 8, wobei die Unterstützung sowohl die WebPlattform “Informix Internet
Foundation.2000” als auch
das
E-Commerce-Paket
“i.Sell” umfasst. Die Internet
Foundation.2000 vereint die
Funktionen einer Datenbank
mit denen eines Anwen-
bestimmten Nutzerkreis zugänglich sind. Dateien werden
schon beim Abspeichern komprimiert. Daten aus den verschiedensten Anwendungen
können zusammengeführt, gefiltert, sortiert und arbeitsplatzspezifisch bereitgestellt werden. Rapport steht systemübergreifend für Unix (HP, IBM,
SNI, Sun, Linux) und NT/
Windows 95/98 zur Verfügung.
(rb)
Nähere Informationen:
Optimum
Tel. (0 71 46) 87 10 60
www.optimum.com
WRQ
Reflection
NFS
Connection ausgestattet. Dieses Tool macht geschäftskritische Datei- und Druckdienste zwischen Windows-basierenden PCs und Unix-HostSystemen möglich. Darüber
hinaus verfügen die Workstations über eine Testversion
der WRQ Reflection Suite for
X, die 60 Tage gültig ist. Die
Suite ist eine voll funktionsfähige Version von Reflection X und ermöglicht es, XClients, VT-, TN3270- und
TN5250-Emulationen ablaufen zu lassen.
(rb)
Nähere Informationen:
WRQ Software
Tel. (0 21 02) 4 96 50
www.wrq.com
dungs-Servers. Auf der Datablade-Technologie
baut
auch i.Sell auf. Die Software
ermöglicht in Verbindung mit
Solaris 8 die Entwicklung
von E-Commerce-Lösungen,
mit denen Unternehmen im
Web ihren elektronischen
Handel starten und durchführen können.
(rb)
Nähere Informationen:
Informix
Tel. (089) 99 61 30
www.informix.com
5/2000
MARKT
ProduktNews
Sicherheitsmerkmale erweitert
Die Firewall- und VPN-Lösung von Genua “Genugate
3.0 Enterprise” bietet Mehrfach-Cluster-Fähigkeit, Dualprozessoroption, neue Proxies
für POP und NNTP, Transparenz aller Proxies, heuristischen Spam-Filter, ContentWeeder für aktive Inhalte und
mehr. Dank Cluster-Fähigkeit
kann eine Lösung stufenweise
erweitert und die Last auf die
vorhandene Hardware optimal
verteilt werden. Damit ist
Hochverfügbarkeit erreicht.
Für den High-End-Bereich
gerüstet ist das Betriebssystem
der Enterprise-Systeme durch
Unterstützung von Dualpro-
NetzwerkServer-Backup
Das “ADR50” DigitalBandlaufwerk bietet 50 GByte
Kapazität, Übertragungsgeschwindigkeiten von bis zu 4
MBit pro Sekunde, sowie Multiplattform-Unterstützung für
Server-Backups über externe
und interne SCSI-Schnittstellen. Außerdem ist das Laufwerk kompatibel zu den bestehenden 30- und 50-GByteADR-Cartridges. Das Laufwerk von OnStream, das als
interne oder externe Version
erhältlich ist, unterstützt eine
Reihe von Betriebssystemen
wie Netware, Unixware,
Openserver, Linux, Windows
95, 98 und NT, MacOS und
20
zessor-Boards. Der GenugateWeeder findet und filtert auf
Wunsch alle aktiven Inhalte in
Web- und Mail-Daten. Übergriffe in Unternehmensnetze
durch Java, JavaScript oder
Active-X werden damit abgewehrt. Die Software erweitert
im aktuellen Release die Liste
der unterstützten Proxies um
POP und NNTP. Inhalte können jetzt durch den GenugateWeeder von sicherheitskritischen, aktiven Inhalten bereinigt werden. Der integrierte
Spam-Index bildet nach heuristischem Verfahren Indizes
aus Reizwörtern, Ausrufezeichen etc. Der gesamte Datenverkehr kann jetzt transparent
auf Viren geprüft werden. Zugrunde liegt dabei der Virenscanner von NAI. Die bestehende Möglichkeit, EinmalPasswörter mit Kryptokarten
zur Authentisierung zu verwenden, wird jetzt durch das
Software-basierte S/Key-Verfahren ergänzt.
(rb)
Nähere Informationen:
Genua
Tel. (089) 9 91 95 00
www.genua.de
andere. Das ADR50 hat die offizielle SCO-Zertifizierung für
Unixware 7 und SCO Openserver Version 5. Das Gerät
nutzt neben der “Advanced Digital Recording”-Technologie
(ADR) die neu eingeführte
Hardware-Kompression ALDC
(adaptive lossless data compression. Es ist mit einer WideUltra2-kompatiblen SCSI-3Schnittstelle mit automatischer
Erkennung und LVD-Technologie (Low Voltage Differential) zur Gewährleistung einer
größeren Signalintegrität ausgestattet.
(rb)
Nähere Informationen:
OnStream Europe
Tel.
+44 (16 28) 40 17 05
www.onstream.com
SingleBoard-Rechner
Mit “Robo-658” präsentierte der Industrie-PC-Hersteller
Portwell
eine
PICMG-CPU-Karte, die auf
einen Socket-370 mit Celeron- oder Pentium III-Prozessoren bis 1 GHz Taktfrequenz bestückt werden kann.
Der Rechner basiert auf Intels 810e-Chipsatz und lässt
mit RJ45-Anschluss sowie
ein Grafik-Interface mit 4
MByte Video-Memory. An
weiteren Schnittstellen stehen ein EIDE- und FloppyController, zwei serielle, ein
paralleler und ein USB-Port
sowie Anschlüsse für Maus
und Tastatur zur Verfügung.
Das ebenfalls zum Lieferumfang gehörende OnboardSystem-Management überwacht unter anderem die
sich mit bis zu 133 MHz
Bustakt betreiben. Auf dem
Board finden bis zu 512
MByte SDRAM Platz sowie
weitere 144 MByte “Disk On
Chip”. Neben einem Ultra-3SCSI-Controller mit Transferraten bis 160 MBit pro Sekunde bietet die Karte einen
10/100BaseT-Ethernet-Port
Prozessortemperatur,
die
Funktion der Lüfter sowie
die Betriebsspannung. Der
Single-Board-Computer ist
mit allen gängigen Betriebssystemen kompatibel. (rb)
Speicher
aufrüsten
und Zuverlässigkeitsfunktionen. Das Hardware-Kit,
das insgesamt aus zwei 1GByte-Speicher-Modulen besteht, unterstützt die HPServer L1000 und L2000 für
Unix-Entry-Level Systeme,
den HP-4000-Server für
Midrange-Systeme sowie
diverse Workstations wie
beispielsweise die Modelle
HP B1000, C3000, J5000
und J7000.
(rb)
Kingston bringt ein 2GByte
Memory-Upgrade
für “N- und L-Class” Enterprise-Server und VisualizeWorkstations von HP auf
den Markt. Mit diesem Modul kann die zur Zeit maximale Speicherkapazität verdoppelt werden. Grundlage
für das Memory-Kit bildet
die 256-MB-133-MHz-ECCSDRAM-Technologie.
Gleichzeitig integriert das
Upgrade erweiterte Schutz-
Nähere Informationen:
PI Industrial Computers
Tel. (0 81 42)
5 98 10 60
www.portwell.de
Nähere Informationen:
Kingston
Tel. (08 00) 80 12 80 12
www.kingston.de
5/2000
CPU-Board
verkraftet Hitze
Auf Basis des Pentium-IIIMobile-Prozessors präsentierte Radisys die PCI/ ISACPU-Karte “PB3000 BXSVE”. Der All-in-One Single-Board-Rechner, ausgestat-
tet mit SCSI-, Ethernet- und
Grafik-Interface on board, ist
für einen erweiterten Betriebstemperaturbereich bis über
70 Grad Celsius ausgelegt.
Die Spezifikation reicht bei
einer kontinuierlichen Belüftung des Prozessors von 600
LFM (Linear Feet per Minute) sogar bis 85 Grad Celsius.
Neben einem Dual-Ultra-2-
Backup
und Recovery
Legato, Anbieter von Enterprise Storage Management
Software, bietet ab sofort das
“Legato-Networker-Modul”
3.0 für Oracle an. Es nutzt
die 64-Bit-Funktionen von
Oracle auf Solaris, AIX sowie HP-UX und unterstützt
darüber hinaus den OracleParallel-Server (OPS). Das
Networker-Modul läuft nicht
nur auf Unix- und NT-Plattformen, sondern auch auf
Irix-, Dynix/ptx- und Tru64Plattformen. Anwender können so mit einer einzigen
Backup-Lösung arbeiten, die
alle kritischen Daten unter-
5/2000
SCSI-Controller bietet die
Platine einen 10/100BaseTEthernet-Port mit RJ45-Anschluss sowie ein AGP-Grafik-Interface. An weiteren
Schnittstellen stehen ein
Dual-EIDE- und FloppyController, zwei serielle, ein
paralleler und zwei USB-
Ports sowie Anschlüsse für
Maus und Tastatur zur Verfügung. Der Rechner ist mit allen gängigen Betriebssystemen getestet; der Hersteller
gewährt auf die Karte zwei
Jahre Garantie.
(rb)
Nähere Informationen:
Radisys
Tel. (0 61 02) 7 30 50
www.radisys.com
nehmensweit erfasst – unabhängig davon, unter welchem
System die Daten genutzt
werden. Zu den Leistungsmerkmalen des Moduls
gehören unter anderem TapeMedia-Überprüfung, End-toEnd-Tests, um die RestoreFähigkeiten sicherzustellen,
komplettes oder inkrementelles Backup, lokale und externe Datensicherung, Onlineoder Offline-Backup sowie
die Unterstützung von bis zu
64 parallelen Datenströmen
und bis zu 32 gleichzeitig betriebenen Bandgeräten.
(rb)
Nähere Informationen:
Legato Systems
Tel. (089) 8 99 69 20
www.legato.com
21
MARKT
ProduktNews
4GL-Erweiterung
Creaso, ein Systemhaus für
wissenschaftlich-technische
Software, hat Version 5.3 von
“IDL” angekündigt. Die 4GLProgrammiersprache IDL (Interactive Data Language) bietet Wissenschaftlern und Ingenieuren eine Umgebung zur
Datenanalyse, Visualisierung
und plattformübergreifenden
Anwendungsentwicklung.
Das aktuelle Release erweitert
und optimiert zahlreiche Eigenschaften der bisherigen
Version in den Bereichen
Sprache, Analyse und Visualisierung, bem Daten-I/O,
dem IDL-GUIBuilder und der
SecurityFramework
Version 7.1 des Transaktionsmonitors “Tuxedo” von
Bea Systems bietet jetzt zusätzliche Funktionen für sicheren B2B-E-Commerce.
Zu den Erweiterungen gehören integrierte Sicherheits-Features,
QueuingPerformance, Threads-basierte Programmierung sowie
XML-Unterstützung.
Das Security Framework ergänzt die bisherigen Sicherheitsfunktionen um Schnittstellen für die Integration
von
Sicherheitslösungen
und unterstützt PKI-Verschlüsselung. Damit können
Unternehmen zum Beispiel
digitale Signaturen, digitale
Briefe und Zertifikate in ihre
22
IDL-ActiveX-Schnittstelle.
Die Analysefähigkeiten für
Bilder von medizinischen
Scannern, Satelliten, Mikroskopen, Mustererkennungssystemen oder Teleskopen
werden durch eine Reihe weiterer Hilfsmittel erhöht. Mehr
als 30 neue und verbesserte
Routinen optimieren die Verarbeitungszeiten für dreidimensionale GitterpolygonAlgorithmen. IDL 5.3 unterstützt jetzt das GZIP-Komprimierungs-/Dekomprimierungsformat. Für Anwender,
die mit IDL eigene Applikationen schreiben, enthält Version 5.3 so genannte “IDL
Projects”. Damit kann man
IDL-Quellcodes, GUIBuilder-Dateien, Bitmaps, Daten
oder Dateien organisieren und
in Projekten zusammenfassen. IDL unterstützt in Version 5.3 Windows, MacOS,
VMS und Unix.
(rb)
Nähere Informationen:
Creaso
Tel. (0 81 05) 2 50 55
www.creaso.com
Anwendungen integrieren.
Entwickler können jetzt
auch Tuxedo-Dienste für die
Übermittlung von XML-Daten verwenden. So ist es
möglich, Tuxedos datenabhängiges Routing zu nutzen;
dabei richtet sich der Pfad
einer Transaktion und ihrer
nachfolgenden
Weiterleitung nach dem Inhalt der
XML-Daten. Darüber hinaus umfasst der Transaktionsmonitor nun auch In-Memory-Queuing. Damit ist es
für Entwickler möglich, die
Echtzeit-Transaktionsübermittlung mit zeitlich versetzter Datenweiterleitung
zu kombinieren.
(rb)
Nähere Informationen:
Bea Systems
Tel. (089) 94 51 80
www.beasys.com
Für verteilte
Anwendungen
Die Version 2.0 des Internet-ORB (Object Request
Broker) “Nouveau” unterstützt nun auch Windows
DNA 2000 und die SOAPTechnologie (Simple Object
Access Protocol). Damit ermöglicht die Middleware die
Entwicklung von verteilten
Applikationen unter Verwendung von Corba, COM, Java,
RPC und XML. Darüber hinaus können Corba-Services
über das Internet genutzt und
verteilt werden. Nouveau
wurde in der aktuellen Version in die Produktpalette von
Rogue Wave integriert. So
werden die letzten Versionen
von Threads.h++, Tools.h++
All-in-One
CPU-Karte
Unter dem Namen “Eagleray” bietet der Industrie-PCHersteller I-Bus einen in
Deutschland entwickelten und
produzierten PICMG-SingleBoard-Rechner mit Socket370 an. Die CPU-Karte lässt
sich mit dem Celeron-Prozessor bis 500 MHz bestücken
und bietet onboard – je nach
Ausführung – neben diversen
Standardanschlüssen einen Ultra-Wide-SCSI-, AGP-Grafikund 10/100BaseT-EthernetController. Die Platine basiert
auf Intels 443BX-Chipsatz.
Auf zwei DIMM-Sockeln finden auf der Karte höchstens
Professional und die Standard-C++-Bibliothek unterstützt. Durch die Einbindung
eines skalierbaren CorbaEvent-Service steht darüber
hinaus ein standardbasierender Mechanismus für die
asynchrone Kommunkation
zwischen verschiedenen Lokationen zur Verfügung. Erweitert wird diese Funktionalität
durch die “Objects-by-Value”Technologie, die die Verteilung
komplexer
Datenstrukturen
über das Internet ermöglicht. Als
Plattformen unterstützt Nouveau Windows NT, Solaris, HPUX sowie den Sun-WorkshopC++-Compiler.
(rb)
Nähere Informationen:
Rogue Wave
Tel. (0 61 03) 5 93 40
www.roguewave.de
512 MByte SDRAM Platz.
Neben einem Ultra-Wide-SCSI-Controller bietet das Board
auch eine 10/100BaseT-Ethernet-Schnittstelle mit RJ45-Anschluss. Das AGP-Grafikinterface mit 2 oder 4 MByte Videospeicher ermöglicht den
Anschluss sowohl von Analogmonitoren als auch von
TFT-Flachbildschirmen, die
sich auch simultan betreiben
lassen. Das Board wurde unter
den gängigen Betriebssystemen getestet.
(rb)
Nähere Informationen:
I-Bus Deutschland
Tel. (0 81 42) 4 67 90
www.ibus-deutschland.
de
5/2000
Hochverfügbarkeit für AIX
Check Point hat in Kooperation mit IBM die Integration
von Firewall-1 und der Clustering-Software HACMP realisiert. Die IBM-Software entdeckt selbständig Fehlfunktionen von Hard- oder Software
und schaltet automatisch auf
alternative Gateways um. Das
Umschalten erfolgt mit IBMs
Lösung für den Anwender
transparent. Bestehende Verbindungen (HTTP, FTP, Telnet) bleiben dabei erhalten.
Client-unabhängiger Zugriff
Citrix will das Produkt
“Metaframe” künftig auch für
Unix-Plattformen anbieten.
Damit wird Unternehmen
und Application-Service-Providern (ASPs) der Zugriff auf
Windows-, Unix- und Javabasierte Applikationen über
ein einziges Application-Portal ermöglicht. Anwender
können dank ICA (Indepen-
Zur Effizienzsteigerung
Embarcadero stellte mit
“XPlan” ein Software-Werkzeug vor, das die Effizienz
und Qualität der Arbeit von
Oracle-Datenbankadministratoren erhöhen soll. XPlan
kann kostenlos von der Embarcadero-Web-Seite heruntergeladen werden. Die Software ermöglicht den Zugriff
auf die Informationen, die
Administratoren benötigen,
um die Qualität und Performance ihrer Oracle-8-Datenbank zu verbessern. Die Installation beeinträchtigt den Datenbank-Server nicht. XPlan ist ei-
5/2000
Durch die Verbindung mit
Check Points Firewall-1 steht
damit jetzt für AIX eine Internet-Sicherheits- und Hochverfügbarkeitslösung bereit. Die
Zertifizierung des Produkts im
Rahmen der “Open Platform
for Security”-Allianz (OPSec)
garantiert zudem die Kompatibilität mit den Produkten von
Unternehmen aus allen Bereichen der Sicherheitstechnologie.
(rb)
Nähere Informationen:
Check Point
Tel. (08 11) 60 05 20
www.checkpoint.com
dent Computing Architecure)
mit den unterschiedlichsten
Clients auf Unix-Applikationen zugreifen – von Terminals über Desktop-PCs,
Handhelds bis hin zu PDAs
über WAN und Dial-up-Verbindungen. “MetaFrame 1.0
for Solaris” wird demnächst
im Markt eingeführt.
(rb)
Nähere Informationen:
Citrix Systems
Tel. (08 11) 83 00 00
www.citrix.com
ne grafische Oberfläche, die
potenzielle und existierende
Probleme zum Beispiel mit
Festplattenplatz, Tablespaces
und Hauptspeicherverbrauch
kenntlich macht. Das Werkzeug kann zudem den
zukünftigen Verbrauch von
Festplattenkapazität auf Basis aktueller Trends vorhersagen. Der Benutzer von XPlan
kann sich die “Explain
Plans”, also den Ausführungsplan für SQL-Anweisungen ansehen und problematische SQL-Anweisungen lokalisieren.
(rb)
Nähere Informationen:
Embarcadero
Tel. (+44 16 28) 41 81 22
www.embarcadero.de
Kosten einsparen
Der IP-Billing-Hersteller
uni-X Software bringt eine Lösung “Next Generation Billing, Accounting & Customer
Care” unter dem Namen
“Openinformer” auf den
Markt. Die Software erlaubt
dienstespezifisch das Billing
und Accounting pauschaler,
zeit- oder volumenabhängiger,
Content- oder Applikationsund Quality-of-Service basierter Tarifmodelle. Zusätzlich
werden Dienstleistungen oder
andere nicht wiederkehrende
Leistungen abgerechnet. Neben der Erfassung und Bewertung der auftretenden Kosten
gehört die aufgrund der Visualisierung der Ressourcen-Kosten mögliche Reduzierung der
Betriebskosten zu den Eckpfeilern von OpenInformer.
Über ein Web-Interface werden die Kosten als Einzelverbindungen aufgelistet. Dies er-
Switches für
Gigabit-Ethernet
Die zwei neuen Switches
von Planet entsprechen dem
IIEEE802.3-, 802.3z-, 10/100
Base-TX- und 1000-BaseSX/LX-Standard. Das Board
“FGSW-1602” ist ein 16-Port
10/100Base-TX Auto-SenseSwitch und verfügt über 16
RJ45-Anschlüsse. Es bietet
Store- and Forward-Switching, mit 4 MByte Dynamic
Shared Data Buffer. Außerdem sind Dip-Switches für
ProduktNews
höht die Kundenakzeptanz.
Insbesondere die frei konfigurierbare Customer-Self-Service- und Customer-Self-Subscription-Funktion
ermöglicht Kosteneinsparungen. Die
Client-/Server-Anwendung
baut auf offenen Schnittstellen
wie Corba oder XML auf. Unterstützt werden Solaris, PCSolaris, Linux und NT. Für
ISPs wird eine auf Linux basierte Open Informer-Version
45 Tage kostenfrei angeboten.
(rb)
Nähere Informationen:
uni-X Software
Tel. (05 41) 71 00 80
www.uni-X.com
100-Base-FX und zwei Erweiterungs-Slots (auch für Gigabit
Uplink) auf dem Board. Der
“FGSW-2401” ist ein 24-Port
10/100-Base-TX-Auto-SenseSwitch und verfügt über 24
RJ45-Anschlüsse. Es bietet
ebenfalls Store- and ForwardSwitching, allerdings mit 6
MByte Dynamic Shared Data
Buffer. Der Halb- oder Vollduplex-Betrieb ist bei beiden
Karten frei wählbar.
(rb)
Nähere Informationen:
ICO Innovative Computer
Tel. (0 64 32) 9 13 90
www.ico.de
23
MARKT
ProduktNews
Datenintegration
Sun unterstützt “Datadirect Sequelink” von Merant
zur Implementierung der Java-Database-Connectivity2.0 (JDBC), dem Kernstück
der Spezifikation für die
Java-2-Plattform Enterprise
Edition (J2EE). J2EE dient
als Plattform für Entwicklung, Verwaltung und Einsatz von unternehmensweit
genutzter Software in heterogenen Umgebungen und
SAN-ready
Tape-Library
Exabyte hat mit der Library X80 ein Mammoth-Tape-System vorgestellt, von
dem zwei in einem 19-ZollRack Platz finden. Das Gerät
lässt sich standardmäßig in
SAN- (Storage Area Networks) und Fibre-ChannelArchitekturen integrieren.
Die Tape-Library ist mit
Mammoth-Laufwerken verfügbar mit einer Kapazität
von 1,6 TByte bei einer
Transferrate von 86,4 GByte
pro Stunde; oder mit M2Laufwerken mit einer Kapazität von 4,8 TByte und einer
Transferrate von 345,6
GByte pro Stunde. Das
Mammoth-2-Laufwerk (M2)
bietet
Übertragungsraten
von 12 MByte pro Sekunde
und sichert einen Datenumfang von 43 GByte in weniger als einer Stunde. Alle
24
definiert den Standard für
Multi-Tier-Unternehmensapplikationen. Sequelink unterstützt im JDBC 2.0 Optional-Package-Leistungsmerkmale wie die Java-Naming- und Directory-Interface-Technology
(JNDI),
den Java Transaction Service (JTS) und Connection
Spooling. Mit diesen Features ist der Einsatz zuverlässiger, skalierbarer und
dezentraler Anwendungen
möglich, die auf allen gängigen Datenbanken aufsetzen.
Die Middleware-Plattform
stellt direkte Punkt-zuPunkt-Verbindungen zwischen unterschiedlichen Interfaces, Plattformen und
Datenspeichern her.
(rb)
Nähere Informationen:
Merant
Tel. (089) 96 27 10
www.merant.com
hier genannten Werte beziehen sich auf Übertragungen
ohne
Datenkompression.
Die X80 kann remote über
einen Java-basierten WebBrowser betrieben werden.
Das Gerät kann zwei bis acht
Mammoth-Tape-Laufwerke
mit 40 bis 80 AME-SmartClean-Medien aufnehmen,
die eine separate Reinigungskassette oder einen
Operatoreingriff überflüssig
machen. Laut Angaben des
Herstellers reduziert diese
Technologie die Abnutzung
der Laufwerksköpfe, weil
unnötige Reinigungsläufe
vermieden werden. Die X80
unterstützt
unbeobachtetes
Backup/Restore im Netz und
hierarchisches Storage-Management. Der Hersteller gewährt drei Jahre Garantie.
(rb)
Nähere Informationen:
Exabyte
Tel. (08 00) 3 92 29 83
www.exabyte.com
Unix auf
AS/400-Servern
Eine neue AS/400-Technologie gestattet Anwendungsentwicklern, Unix-Applikationen auf AS/400-Server zu portieren. Die Technologie “AS/
400 PASE” (Portable Application Solutions Environment)
verbessert die Integration von
unternehmenskritischen Anwendungen wie ERP, E-Commerce, Business Intelligence,
Supply Chain- und CRM auf
einem einzigen Server. AS/400
PASE ist eine in das Betriebssystem OS/400 (Version 4 Re-
InternetGateway
Die Schnittstelle zwischen
Netzwerk und Internet “IG2000” unterstützt alle gängigen Betriebssysteme. Um mit
der Außenwelt in Kontakt zu
treten, stehen dem Planet-Gateway 1-Port-LAN mit 10Base-T, 100Base-TX und AutoNegotiation und 2-Port-WAN
(Async. Port) zur Verfügung.
Das Gerät ist kompatibel zu allen gängigen Modems, inklusive 56K und ISDN und kann
mit Windows und in TCP/IPNetzwerken eingesetzt werden. Es lässt sich mit einer IP-
lease 4) integrierte Komponente, die ein Subset von AIXRuntime-Funktionalitäten bietet. Sie arbeitet mit der Fähigkeit des AS/400-Prozessors,
zwischen dem AS/400- und
dem Unix-Runtime-Modus zu
wechseln. Das heißt: Anwendungen, die PASE nutzen, laufen “nativ” auf der AS/400 und
verwenden dabei das Filesystem, die Sicherheitsmechanismen und die DB2 Universal
Database für AS/400.
(rb)
Nähere Informationen:
IBM Systems
Tel. (07 11) 78 50
www.as400.ibm.com
Adresse für alle User im
TCP/IP-Netz arbeiten. Weitere
Implementierungen stellen die
DHCP-Unterstützung für bis
zu 50 User und ein lokales
Passwort nach PAP/CHAP
(RFC 1334) dar. Vier LEDs
für eine Netzwerkdiagnose
bieten dem Benutzer die Übersicht über die wesentlichen
Status-informationen (LANStatus, WAN-Error, Geschwindigkeit -10/100). Weitere On-Board-Features sind
Firewall-Protection, Dial-onDemand und Access-Control.
Das “IG-2000” unterstützt auch
Bandwidth-on-Demand. (rb)
Nähere Informationen:
ICO Innovative Computer
Tel. (0 64 32) 9 13 90
5/2000
Synchrones
Surfen
“Webcall” von der Ton
Beller AG ermöglicht eine
geführte Präsentation von
HTML-Seiten im Internet/
Intranet für mehrere gleichzeitig zugreifende Benutzer.
Hierbei sehen alle Teilnehmer gleichzeitig mit dem
Vorführer diejenige Abfolge
der Seiten, die dieser aktuell
auswählt.
Ausgangspunkt
für die Webcall-Entwicklung
ist die Kombination von Internet und Telefon zur Vertriebsunterstützung. Im Telefonkontakt vermittelt der
Verkäufer Produktinformationen und erfragt die Bedürfnisse des Kunden. Über
das Internet vermittelt er
gleichzeitig begleitende visuelle Produktinformationen. Webcall lässt sich auch
zur Außendienstunterstützung oder in einer Hotline
sowie bei Schulungen einsetzen. Auch für Adhoc-Präsentationen eignet sich das Tool,
weil es die gleichzeitige Dar-
UltraSPARC III
Leistung steigern
Der 64-Bit-Mikroprozessor UltraSPARC III wird in
600- und 750-MHz-Versionen verfügbar sein. Aufgrund
seiner Binärkompatibilität zu
bisherigen 32- und 64-BitSPARC-Chips ermöglicht
der Mikroprozessor den Einsatz von bereits vorhandener
Applikations-Software. Speziell die Bereiche massives
Multiprocessing, Non-Uniform Memory Access (NUMA), High-Bandwidth Memory I/O und Scalable Shared Memory (SSM) wurden
verbessert. Die Design-Features von Solaris 8.0 erlauben dem Betriebssystem,
5/2000
stellung von Firmendaten,
beispielsweise aus einem
Data Warehouse gestattet
und gefundene Zusammenhänge mehreren Personen
vorführt. Die zu präsentierenden Daten müssen Internet-fähig in Form von
HTML-Seiten
vorliegen.
Auf Kundenseite wird lediglich ein Browser benötigt.
Webcall läuft als Servlet unter einem Web-Server. Es ist
in Java implementiert. Die
Definition von Nutzerprofilen mit der Festlegung der
zur Verfügung stehenden
Präsentationen ist in XMLNotation abgelegt. Dank der
Implementierung in Java ist
Webcall nicht an bestimmte
Hardware-Plattformen oder
Betriebssysteme gebunden.
Webcall kann in “wwwEIS”,
dem Web-basierten DataWarehouse-Visualisierungsund Navigationssystem von
Ton Beller, integriert werden.
(rb)
Alles auf
einen Blick
Über ein Modell zur
Unternehmensplanung und
-analyse verfügt Version 3.2
des Planungs- und Controllingtools »Control-It!« von
Intellicube. Das Modul ermöglicht die integrierte Planung und Analyse von Bilanz, GuV (Gewinn und Verlust) sowie Liquidität. Darauf aufbauend bietet die
Software eine Kennzahlenanalyse (ROI-Baum) und ein
ProduktNews
dem Control-It!-Server sind
mehrere Anwender im Netz
in der Lage, unter TCP/IP
gemeinsam an einem Control-It!-Modell zu arbeiten.
Eine Überführung der Mo-
Nähere Informationen:
Ton Beller AG
Tel. (0 62 51) 7 00 00
www.tonbeller.com
hunderte von Prozessen, die
auf mehreren UltraSPARCIII-Mikroprozessoren laufen, als Abbildung eines einzigen Systems zu erkennen
und zu verstehen. Die CPU
unterstützt auf dem NUMAKonzept basierende Systeme
und nutzt bei der Verarbeitung von NUMA-Zugriffen
die Multi-Processing- und
Multi-Threading-Features
des Prozessors aus. Die CPU
des UltraSPARC III enthält
einen Memory-Controller.
Dies erlaubt Speicherzugriffe mit bis zu 2,4 GBit/s, was
die Systemleistung verbessern soll.
(rb)
Nähere Informationen:
Sun Microsystems
Tel. (089) 46 00 80
www.sun.com/sparc
Modul zur Unternehmensbewertung. Mit dem Unternehmenscockpit ist auf einen
Blick eine qualitative Analyse der wesentlichen Unternehmens-Benchmarks möglich. Die für kleine und mittelständische Unternehmen
ausgelegte und auf OLAPTechnologie basierende Software-Lösung bietet nun
auch die Möglichkeit zum
Client-/Server-Betrieb. Mit
delle aus der Einzelplatzlösung in die Server-Umgebung ist möglich. Control-It
3.2 verfügt neben den KHKund ODBC-Schnittstellen
nun auch über eine DatevAnbindung zum Import von
Einzelbuchungssätzen aus
den Datev-Systemen.
(rb)
Nähere Informationen:
Intellicube Software
Tel. (02 21) 33 63 70
www.intellicube.com
So erreichen Sie
den Anzeigenverkauf:
Wolfgang Zielke
Tel.: (089) 45616-270
Fax (089) 45616-250
25
MARKT
ProduktNews
Systemadministration
Science + Computing hat
das
SystemmanagementTool Venus in Version 1.7
freigegeben. Venus ermöglicht die transparente Verwaltung von heterogenen
Unix- und NT-Workstation/
Server-Clustern. Das SoftwareWerkzeug wird zum Konfigurations-, Benutzer- und
Dateisystemmanagement sowie zur Software-Verwaltung eingesetzt. Mit den im
Lieferumfang enthaltenen
Venus-Methoden kann für
Anwender eine Single-System-Image-Umgebung
(SSI) realisiert werden. Dies
garantiert die Integration
AntivirenSoftware
F-Secure (ehemals Data
Fellows), finnischer Anbieter von zentralgesteuerter Sicherheits-Software, stellte
Version 3.0 von “F-Secure
Antivirus for Firewalls” vor.
Das Release bietet einen
schnelleren Scan-Durchlauf
für Unternehmensnetze mit
großen Datenmengen. Bevor
Malicious Code in das Unternehmensnetzwerk gelangen kann, stoppt die AVSoftware sie an der Firewall.
Das Programm baut auf der
Framework-Sicherheitsarchitektur von F-Secure auf.
Der Administrator legt Sicherheitsrichtlinien fest, er-
26
verschiedener Betriebssysteme in einem Cluster. Im aktuellen Release 1.7 ist die
Unterstützung von NT neu
hinzugekommen. Benutzerund Filesysteme sind in gemischten Unix-/NT-Umgebungen direkt verfügbar. Venus 1.7 ermöglicht die transparente Installation von NTSoftware: Aus einem 3rdParty-Produkt wie zum Beispiel Nastran, Ideas etc. wird
ein Venus-Paket erzeugt und
in ein Software-Depot eingecheckt. Ab diesem Moment
ist es für eine automatisierte
Cluster-weite Software-Installation verfügbar, unter
gleichzeitiger Berücksichtigung unterschiedlicher Betriebssysteme. Jetzt wird
auch Perl unterstützt, das
heißt, alle Venus-Funktionen
stehen für Perl zur Verfügung und können sowohl auf
Unix- als auch auf NTClients genutzt werden. (rb)
Nähere Informationen:
Science + Computing
Tel. (0 70 71) 9 45 70
www.science-computing.
de
hält aus dem gesamten Netz
die Virenmeldungen und
verteilt die Software-Updates auf die angeschlossen Maschinen. Die Firewall
schützt Webbrowsing, FTP
und E-Mail-Verkehr. Das
Zusammenspiel der Antiviren-Software und der Firewall basiert auf dem Content
Vectoring Protocol (CVP).
Die meisten Firewalls, auch
Check Point FireWall-1,
sind CVP-kompatibel. Über
das protokollbasierte CVP
hinaus unterstützt die Antiviren-Software auch Check
Points Opsec SDK-basiertes
extended CVP.
(rb)
Nähere Informationen:
F-Secure
Tel. (089) 24 21 80
www.f-secure.com
Sicherheit
erhöhen
“Check Point 2000”, eine
integrierte Software für Internet-Sicherheit, basiert auf
der Secure-Virtual-NetworkArchitektur (SVN) und wurde in den Bereichen VPN-Sicherheit, Hochverfügbarkeit
und Plattformunterstützung
erweitert. “Malicious Activity Detection” ist Check
Points neuentwickelte Technologie zur zentralen Analyse des Traffic auf Firewalloder VPN-Gateways (Virtual Private Network). Verdächtige und gefährliche Aktivitäten wie zum Beispiel
Port-Scanning, wiederholt
falsche Logins oder SYNAngriffe werden erkannt und
automatisch dem Systemadministrator gemeldet. Check
Point 2000 unterstützt darüber hinaus Authentifizierung
im “Hybrid”-Modus und ermöglicht damit den Einsatz
standardbasierter VPNs mit
Systemen zur Authentifizie-
Serielle Glasfaser-Interfaces
Wiesemann & Theis (W&T)
bietet mit seriellen GlasfaserInterfaces eine Anschlussmöglichkeit beliebiger serieller Schnittstellen an Multimode-Glasfaserleitungen an.
Es stehen wahlweise Interfa-
rung, darunter beispielsweise SecurID Token und Radius oder Tacacs+-Server. Mit
dem “Secure Authentication
API” (SAA) wird die Integration von Check Point
2000 und einer ganzen Reihe
von Lösungen anderer Hersteller zur Authentifizierung
sichergestellt. Dazu gehören
biometrische Systeme für
das Erkennen von Stimmen
oder Fingerabdrücken ebenso wie verschiedene Hardware-Token. Um Hochverfügbarkeit zu erreichen,
schaltet das optionale Modul
den VPN-Verkehr bei Beeinträchtigung des primären
Gateways automatisch und
transparent auf sekundäre
Gateways um. Zu den unterstützten Plattformen sind
nun Windows 2000 und
Redhat Linux hinzugekommen, um heterogene Umgebungen besser zu unterstützen.
(rb)
Nähere Informationen:
Check Point
Tel. (08 11) 60 05 20
www.checkpoint.com
ces zum Anschluss von Endgeräten mit RS232-, RS422/
RS485-, TTY- und ProfibusSchnittstelle zur Verfügung.
Die Glasfaser-Verbindung
der Interfaces ist in Form von
ST-Steckverbindern ausgeführt. Die überbrückbare Entfernung beträgt – abhängig
vom verwendeten Glasfaserkabel – maximal 4000 Meter
bei einer Übertragungsrate
von bis zu 5 MBaud. Die
Schnittstellen sind zur Hutschienenmontage geeignet
und können mit einer beliebigen Gleich- oder Wechselspannung zwischen 12 und 24
Volt versorgt werden. (rb)
Nähere Informationen:
Wiesemann & Theis
(W&T)
Tel. (02 02) 2 68 00
www.WuT.de
5/2000
KNOW-HOW
Suche nach vergessenen Dateien
Alltägliches Chaos
Der Standard-Werkzeugkasten unter Unix bietet
Möglichkeiten, weitere Werkzeuge zu konstruieren. Eines davon, das vergesslichen Nutzern
unter die Arme greifen kann und nicht ganz so
einfach ist wie es scheinen mag, stellt der folgende
Artikel vor. Die vorgeschlagenen Lösungen arbeiten unter kommerziellen Unixen wie unter Linux.
E
s gibt Studien, die behaupten,
Manager würden 20 Prozent ihrer Arbeitszeit mit der Suche in
Papierstapeln verbringen. Es erscheint
fraglich, ob diese Zahl nur für Manager gilt, doch eines trifft ohne Zweifel
zu: Derartige Suchaktionen beschränken sich nicht nur auf Papier – sie
wurden mittlerweile auf die Tiefen der
Verzeichnisbäume erweitert.
Der unschätzbare Geschwindigkeitsvorteil, den eine rechnergestützte
Suche bietet, wird durch den Umfang
der Aufgabe leider wieder zunichte
gemacht. So zählte der Autor über
30.000 Files in seinem Home-Directory, während er gewiss weniger
Schriftstücke in seinem Büro hat. Und
weil es beim kreativen Arbeiten kaum
möglich ist, eine perfekte Ordnung
einzuhalten, ertappt man sich regelmäßig bei der Suche nach Dateien auf
seinem Computer. Ohne dessen Hilfe
wäre der Erfolg übrigens oft illusorisch.
Wie also findet man eine Datei? Die
Antwort darauf erscheint trivial:
Schließlich gibt es den Befehl “find”
mit der Option “-name”, der die Suche
nach einer Datei mit bekanntem Namen ermöglicht. Auch wenn nur ein
Teil des Namens bekannt ist, leistet
“find” gute Dienste.
Der Autor schrieb sich eine primitive Shell-Funktion “where”, deren Definition man zum Beispiel in .profile
unterbringen kann:
28
where()
{
find . -name “*$1*” -print | more
}
Der Befehl “where angebot” listet
dann alle Dateien im aktuellen und seinen Subdirectories, deren Namen die
Zeichenkette “angebot” enthalten.
Übrigens dient die Definition einer
Shell-Funktion nur der Bequemlichkeit, damit man nicht jedesmal die Befehlszeile eintippen muss. Ebenso
kann man diese Zeile auch in ein File
“where” schreiben und dieses als
Shell-Prozedur aufrufen.
Nach McMurphy hat man aber im
Normalfall den Namen der Datei vergessen. Bekannt ist lediglich, was “ungefähr der Inhalt gewesen sein müsste.” Üblicherweise schaut man dann in
“verdächtigen Directories nach verdächtigen Dateinamen” und prüft einzeln, ob es die gesuchte Datei ist. Das
entspricht dem klassischen Vorgehen
auf dem “Papiersektor”: Öffne den
wahrscheinlichsten Schrank und blättere alle Ordner durch, in denen sich
das gesuchte Papier befinden könnte.
Während eine solche Strategie bei Papierunterlagen noch relativ oft zum Erfolg führt – vermutlich wegen sehr negativer Erfahrungen bei ungenügender
Ordnung – herrscht auf Computern
vergleichsweise Chaos. Nichts ist
leichter als eine Datei versehentlich
per Mausklick in den unergründlichen
Tiefen des Dateibaums verschwinden
zu lassen. Wie zeitaufwendig die spä-
tere Suche wird, weiß wohl jeder
selbst.
Bevor sich der Anwender jedoch aus
# tree text search in possibly compressed files
# (C) R.Wobst, @(#) 4.Mar 15:28
# CONFIGURE HERE ————————————
bon=”$(tput smso)”
boff=”$(tput rmso)”
#bon=”$(tput mr)”
#boff=”$(tput me)”
N=/dev/null
#PG=”less -r”
PG=more
# END CONFIGURE ————————————
if [ “$1” = “-l” ]; then ast=; shift; else ast=”****** “; fi
exclude=
[ -n “$ZFIND_EXCL” ] &&
{
for i in $ZFIND_EXCL
do
exclude=”$exclude | egrep -v \”$i\””
done
}
eval “find . -print $exclude” |
while read i
do
{
[ -f $i ] || continue
echo “$ast$i $ast”
case “$i” in
(*.gz) gunzip <$i 2>$N;;
(*) cat $i 2>$N;;
esac | egrep “$1”
}|
{
read name
read line &&
{
echo “$name”
[ -n “$ast” ] &&
{
{ echo “$line”; cat -; } | sed -e “s
/\($1\)/$bon\1$boff/g”
}
}
}
done | $PG
Die Kornshell-/bash-Prozedur zfind
5/2000
Verzweiflung an seinem Dateibaum erhängt, sollte er per Shellskript nach einem Muster – möglichst noch einem regulären Ausdruck – in allen Dateien suchen. Irgendeine für das Dokument typische Zeichenkette ist immer bekannt.
Auch hier gibt es scheinbar schnelle Abhilfe: Der find-Befehl kennt schließlich
eine Option “-exec”, auf die ein Befehl
folgt, der für jede gefundene Datei ausgeführt wird. Lautet dieser Befehl nun
grep _muster_ {}
,
ist man scheinbar am Ziel (hier bedeutet
{} den jeweils aktuellen Dateinamen).
Doch so einfach ist es nicht. Zunächst
muss die Suche auf gewöhnliche Files
beschränkt werden, denn Geräte-Files,
Fifos oder symbolische Links würden zu
erstaunlichen Effekten führen (bei Fifos
zum Beispiel wartet grep auf einen Prozess, der diese Fifo speist, das heisst die
Prozedur bleibt einfach stehen). Hier ist
die Option “-type” nützlich. Die Prozedur “grepfind” könnte so aussehen:
find . -type f -exec grep “$1” {} \; | more
Der Aufruf
grepfind “SVR[34]”
sucht das Vorkommen von SVR3 oder
SVR4 in allen Files. Doch die Suche
zeigt nur die Zeileninhalte und nicht die
Dateinamen. Das ist eine “Unart” von
grep – bei mehreren Dateinamen in der
Befehlszeile werden diese mit angegeben, bei nur einem jedoch nicht. Es gibt
standardmäßig leider keinen Schalter,
der dies erzwingen könnte. Ein einfacher Trick schafft hier Abhilfe:
find . -type f -exec grep “$1” /dev/null {} \; | more
Nun sieht grep zwei Dateinamen
beim Aufruf, und in /dev/null wird es
gewiss kein Muster finden.
Dennoch wird der Anwender an diesem Skript keinen rechten Gefallen
finden. Die find-Option “-type f” selektiert unterschiedslos Daten-Files,
Word-Dokumente, komprimierte Dateien und ausführbare Programme. Die
Ausgabe wird dadurch sehr schnell
zum unlesbaren Durcheinander.
Der Autor schrieb sich zu diesem
Zweck schon vor langer Zeit eine Prozedur namens tfind, die nur in Textda-
5/2000
29
KNOW-HOW
teien suchen soll und nicht mehr so
simpel ist. Dabei wird der Befehl
“file” ausgenutzt, der heuristisch herauszufinden versucht, welcher Art eine Datei ist – ein C-Programm, ein
Kornshell-Skript, ein ausführbares File, ein Fifo, etc. Außer unter manchen
Varianten von BSD-Unix bedeutet das
Vorkommen des Worts “text” in der
Ausgabe von “file”, dass die Datei ein
“lesbarer” Text ist, in dem eine Mustersuche sinnvoll ist. Die einfache
Shell-Prozedur “istxt” gibt 0 (also
“wahr”) zurück, wenn das Argument
ein lesbarer Text ist, sonst 1 (“falsch”):
#!/bin/ksh
[[ “$(file $1)” = *text* ]]
Diese Prozedur arbeitet auch unter
Linux, zumindest unter Suse-Linux.
Soll die bash verwendet werden, müsste es heißen:
#!/bin/bash
case “$(file $1)” in
(*text*) exit 0;;
(*) exit 1;;
esac
Die Prozedur “tfind” sieht nun wie
folgt aus:
#!/bin/ksh
(($#)) ||
{
print “usage: $0 pattern [filename_pattern]”
exit 1
}
find . -name “${2:-*}” -exec istxt {} \; -print |
xargs grep $1 | less
Nur wenn istxt ein “wahr” zurückgibt,
wird “-print” ausgeführt. Der find-Befehl liefert also eine Liste “echter” Textdateien. Könnte man istxt als ShellFunktion implementieren, würde tfind
schneller arbeiten, doch leider verweigert find dann den Dienst. Die Verwendung von xargs verhindert, dass grep bei
jeder Datei einzeln aufgerufen wird und
soll obendrein die Syntax einigermaßen
einfach halten. Der abschließende Befehl less erlaubt ein Zurückblättern und
kann auch durch more ersetzt werden
(less ist ein PD-Tool und nicht auf allen
Systemen vorhanden).
Trotz aller Tricks ist tfind ziemlich
30
langsam. Der Befehl file arbeitet auch
nicht immer zuverlässig und unterscheidet sich auf verschiedenen UnixSystemen nicht unerheblich. Unter
Umständen muss die Miniprozedur
istxt verändert werden.
Schließlich kann tfind wichtige Anwendungsfälle nicht abdecken: So
werden weder komprimierte Dateien
noch Dokumente von Textverarbeitungen gesondert behandelt.
Nach McMurphy verstecken sich jedoch gerade dort die gesuchten Informationen. Wünschenswert wäre auch
eine Hervorhebung der gesuchten
Muster, um bei vielen Hits die gesuchte Datei bequemer herauspicken zu
können.
Das leistet die im Listing auf Seite
28 vorgestellte Prozedur zfind, die sowohl unter der Kornshell als auch unter der bash läuft. Im Wesentlichen hat
sie folgende Struktur:
find . -print | while read i; do ... done | more
Das ist eine häufig verwendete Konstruktion: Der find-Befehl erzeugt eine Liste aller Files, die mittels der
while-Schleife verarbeitet wird. Kann
“read” keine Zeile aus der Pipeline
mehr auslesen, liefert es den Returncode 1 (“falsch”), und “while” bricht
ab. Innerhalb der while-Schleife wird
per [ -f $i ] zunächst getestet, ob es
sich um eine ordinäre Datei handelt –
genau wie die Option “-type f” bei
find. Anstelle der umständlichen Konstruktion
erweiterbar. So könnten noch Zeilen
(*.bz2) bunzip2 <$i;;
(*.Z) uncompress <$i;;
eingefügt werden. Wer ein Filter besitzt, das Dokumente seines Textverarbeitungsprogramms in Textdateien
konvertiert, sollte auch dieses verwenden. Er kann dann zum Beispiel in dieser Reihenfolge testen:
*.doc.gz
*.doc.bz2
*.doc
*.gz
*.bz2
...
*
In jedem Fall muss ein Datenstrom
erzeugt werden, aus dem der folgende
egrep-Befehl Muster herausgreifen
kann.
Im letzten Glied der Pipeline wird
zunächst der Dateiname mittels “read
name” gelesen. Nur wenn die folgende
Anweisung “read line” erfolgreich ist,
hat egrep etwas gefunden, und nur dann
wird der folgende Block ausgeführt. In
ihm wird der Name wiederum ausgeben
(um letztendlich auf dem Bildschirm zu
erscheinen) und normalerweise per
{ echo “$line”; cat -; }
if [[ $i = *.gz ]]; then gunzip <$i; else cat $i; fi
der auf den Namen folgende Datenstrom. Der Stream-Editor sed fügt in der
folgenden – zugegebenermaßen schwer
lesbaren – Anweisung Steuerzeichen
vor und nach jedem gefundenen Muster
ein, wodurch die Matches zum Beispiel
invers erscheinen. Schließlich wird das
Ganze noch durch einen Seitenbetrachter gefiltert, üblicherweise more.
Bei Verwendung von “less” sollte
dieses Tool mit dem Schalter -r gerufen werden, damit Steuerzeichen zur
inversen Hervorhebung nicht konvertiert werden (more arbeitet in dieser
Hinsicht sauberer).
Der optionale Schalter -l bewirkt,
dass nur die Dateinamen selbst ausgegeben werden und nicht die interessierenden Zeilen danach. Ein Aufruf von
zfind ohne und mit Schalter -l könnte
so aussehen:
doch die case-Anweisung ist beliebig
home/wobst> zfind “SVR[34]”
if [ ! -f $i ]; then continue; fi
schreibt man kürzer und effektiver
[ -f $i ] || continue
Die folgende echo-Zeile gibt den
Namen der Datei aus zur eventuellen
Verwendung im nächsten Glied der Pipeline. Interessanter ist die folgende
case-Anweisung. Zwar könnte man
unter der Kornshell (nicht jedoch der
bash) eleganter schreiben
5/2000
KNOW-HOW
****** ./lock ******
/etc/passwd
****** ./sc ******
SVR4
****** ./cx.gz ******
c $* -DESIX -DSYSVR4 -DSV386 -lX11 -lsocket -lnsl
home/wobst> zfind -l “SVR[34]”
./lock
./sc
./cx.gz
home/wobst>_
Die erfolgreiche Suche bei “lock”
verwundert zunächst. Eine Analyse
zeigt, dass es sich um eine ausführbare
Datei handelt, die sehr wohl auch
“SVR4” enthält, allerdings auch mit
Nullbytes davor. Grep kommt hier mit
seiner Interpretation, was eine Zeile
ist, durcheinander; echo gibt diese
“Zeile” nur bis zum ersten Nullbyte
aus. Man kann diesen Effekt durch
weitere Tests etwa mittels des file-Befehls unterdrücken, was aber die Performance deutlich drückt. Auch analysiert “file” keinen Datenstrom, sondern nur echte Dateien. Man müsste also jedes Mal komprimierte Dateien
zwecks Untersuchung dekomprimieren, womit die Geschwindigkeit im
Keller angekommen sein dürfte. Es ist
wohl besser, mit Nebeneffekten zu leben, als Dateien nicht zu finden oder
ein halbe Stunde auf das Ergebnis zu
warten. Bei binären Dateien kann es
auch vorkommen, dass überlange Zeilen angezeigt werden. More kommt
hiermit besser zurecht als less. Die
Markierung der Muster ist in solch einem Fall besonders nützlich.
Auch Wordperfect-Dateien lassen
sich noch gut durchsuchen, da sie einen einigermaßen “vernünftigen” Aufbau haben. Schwierig wird es bei
Word-Dateien, in denen oft korrigiert
wurde. Da Löschoperationen dort üblicherweise durch das Setzen von Pointern geschehen, also aller verschwundener Text in Wirklichkeit noch enthalten ist und die ursprüngliche Reihenfolge der Textelemente verloren
geht, wird der Erfolg der Suche fraglich. Hier ist wohl ein Filter notwendig, das in der oben genannten CaseAnweisung Verwendung finden muss.
In jedem Fall sollte man Umlaute bei
der Suche in Textverarbeitungsdateien
mittels regulärer Ausdrücke “über-
32
springen” (egrep erlaubt, die Länge
variabler Teile zu begrenzen!).
Zfind erlaubt auch, einzelne Dateitypen oder Verzeichnisse auszuschließen:
home/wobst> ZFIND_EXCL=”/tel/ *.wp” zfind
UHU.Kleber
****** bastel.txt.gz ******
unter Verwendung von etwas UHU-Kleber oder ähnlichem
ist das Ganhome/wobst>_
Dabei werden alle Files mit Namen
*.wp, *.wp5 usw. sowie alle Unterverzeichnisse mit Namen “tel” übergangen.
Die Konstruktion zur Verwendung von
ZFIND_EXCL in zfind ist etwas
trickreich, aber ebenso lehrreich: Sukzessive wird ein Teil einer Befehlszeile
konstruiert und in der Variablen exclude
gespeichert. Das “eval” in der find-Zeile muss dann genau an der richtigen
Stelle erscheinen, ebenso ist peinlich
auf saubere Quotierung zu achten.
Zfind läuft unter der bash (Linux,
FreeBSD) ebenso wie unter der Kornshell. Die Verwendung von echo statt des
unter der Kornshell üblichen print ist
nicht nur der bash geschuldet. Wenn eine Zeile mit “-” beginnt, führt
print “$line”
in vielen Fällen zu Fehlermeldungen,
während echo robuster arbeitet. Sauber
wäre die Lösung
print — “$line”,
die jedoch unter der bash nicht so einfach zu implementieren ist.
Die Befehle zur Belegung der Steuerzeichenfolgen “bon” beziehungsweise “boff” sind nicht ganz portabel; zwei
gängige Möglichkeiten sind im Skript
angegeben. Wird eine Markierung der
Muster nicht gewünscht, weist man
diesen Variablen einfach leere Strings
zu:
bon=
boff=
Ein weiteres Problem verdient Beachtung. Enthält das Suchmuster einen
Schrägstrich /, so kommt es zu unerfreu-
lichen Fehlermeldungen:
home/wobst> zfind /bin
UX:sed: ERROR: Command garbled: s/\(/bin\)/...\1.../g
...
Der Grund ist, dass / nicht als Begrenzer für das Substitute-Kommando des
sed herhalten darf, wenn dieses Zeichen
in den Mustern vorkommt. Richtig wäre
in diesem konkreten Fall z.B. die Ersetzung durch ‘x’:
sx\(/bin\)x...\1...xg
Viel einfacher als ein variables Ersetzungszeichen ist jedoch die folgende
Syntax beim Aufruf:
zfind \\/bin
Unter Linux gibt es zwar eine ShellProzedur zgrep, die das Durchsuchen
auch mittels gzip komprimierter Dateien erlaubt. Damit ließe sich die
oben beschriebene Prozedur grepfind
verallgemeinern. Allerdings erlaubt
diese Herangehensweise weder Hervorhebungen noch Verallgemeinerungen. So ist zfind als akzeptabler Kompromiss zu sehen.
Das Skript wird niemals alle interessierenden Dateiformate richtig verarbeiten können und auch manchmal irritierende Ausgaben erzeugen. Trotzdem arbeitet es deutlich schneller als
die o.g. Textsuche tfind (obwohl es
mehr Dateien als diese durchsucht)
und vor allem viel gründlicher. Es
sind nicht nur unordentliche Nutzer,
denen zfind eine große Hilfe sein
kann.
(Reinhard Wobst/rhh)
Ein Download der Prozedur ist über
die Homepage der UNIXopen möglich:
www.unix-open.de
Literatur:
[1] Bolsky, M.I., Korn, D.G.: The
Kornshell, Prentice Hall 1989 u.f.
[2] Newham, C., Rosenblatt, B.:
Learning the bash Shell, O’Reilly
1995
[3] Hernold, H., Unix-Shells, AddisonWesley 1996
[4] Wobst, R., Ein Skript für alle,
Unixopen 3/99, S.30-34
[5] Unix-Manualseiten von find(1),
grep(1) und file(1)
5/2000
Im Test: Quantum-Snap-Server
Speicherkapazität
für kleine Netze
Quantum bietet mit seiner Snap-Server-Produktfamilie eine Möglichkeit, die Fileserver-Kapazität in
kleineren Netzen oder Netzwerksegmenten zu erweitern. Die Produkte erheben den Anspruch, sich
via “Plug-and-Play” einrichten zu lassen. Sie arbeiten mit Windows-, Unix-, Novell- und Apple-Netzwerkprotokollen. Im Test stellte sich allerdings
heraus, dass die Snap-Server in Unix-Umgebungen
mit Vorsicht zu genießen sind.
Z
ur Installation des Snap-Servers genügt es, das Gerät ans
Stromnetz sowie via Twisted
Pair ans LAN anzuschließen und die
Taste auf der Rückseite des Geräts
kurz zu drücken. Daraufhin fährt der
Server hoch und steht zirka 90 Sekunden später zur Verfügung. Um ihn produktiv nutzen zu können, ist es jedoch
erforderlich, ihm eine IP-Adresse zuzuweisen. Im Gegensatz zu anderen
Lösungen dieser Art verfügt der SnapServer über kein Panel, an dem sich eine solche Adresse eingeben lässt. Statt
dessen wurde der Server so vorkonfiguriert, dass er versucht, sich die IPAdresse bei einem DHCP-, BOOTPoder RARP-Server abzuholen. Steht
im Netz kein solcher Server zur Verfügung, was gerade in kleineren Netzwerkumgebungen die Regel ist, muss
der Anwender die IP-Adresse remote
zuweisen. Dafür liegt eine Installations-Software bei, die den Snap-Server
via RPC erkennt und das Ändern der
IP-Adresse ermöglicht. Da es manchmal ein paar Minuten dauert, bis der
Server gefunden wird, gibt diese Software den beruhigenden Hinweis aus,
dass man es doch etwas später noch
mal versuchen soll. Diese Vorgehens-
5/2000
weise ist zwar prinzipiell richtig,
stimmt aber wirklich etwas mit der
Netzwerkverbindung nicht, kann sie
einen unerfahrenen Anwender leicht in
die Irre führen. Das Bild wird noch
weiter dadurch getrübt, dass die Konfi-
ben, lässt sich der Snap-Server sehr
gut über einen Browser konfigurieren.
Eine “Quick-Configure”-Option ermöglicht das Ändern von Server-Name und Zeitzone sowie das Starten
oder Stoppen von Server-Diensten wie
SMB oder NFS.
Konfiguration via HTTP
Unter “Server-Settings” und “Network-Settings” kann der Anwender
weitere Details konfigurieren. Zum
Beispiel kann der Snap-Server im Fehlerfall eine E-Mail an einen vordefinierten Account schicken. Diese Funktion bringt in größeren Unternehmen,
die Snap-Server als Fileserver in einzelnen Abteilungen einsetzen, einen
Das HTML-basierte Konfigurations-Tool hilft bei der Security-Konfiguration
gurations-Software nur für Windowsund Macintosh-Rechner zur Verfügung steht.
Ist die IP-Adresse erst einmal verge-
großen Vorteil für die IT-Abteilung.
Außerdem: Da auf dem Snap-Server sowieso ein HTTP-Dienst läuft, lässt er
sich auch ganz gut zum Betreiben klei-
33
KNOW-HOW
nerer Intranets verwenden.
Bei größeren Konfigurationsänderungen wie dem Start eines neuen
Dienstes, zum Beispiel Novell-Networking, muss der Snap-Server neu
gestartet werden. Auch dieser Schritt
wird über das HTTP-Interface durchgeführt und dauert zirka 90 Sekunden.
Nach Abschluss der Konfiguration erschien der Snap-Server mit seinem
freigegebenen Share in der Netzwerkumgebung von Windows und ließ sich
auch von Linux aus via mount ansprechen. Das Verwalten der Festplatte
des Snap-Servers funktioniert genau
wie die Konfiguration über das Browser-Interface. Hier hat der Anwender
die Möglichkeit, den Disk-Status zu
überwachen, die Festplatte zu formatieren und beschädigte Dateisysteme
zu reparieren.
Sichere Daten
In der Regel macht es keinen Sinn,
dass alle Anwender im Netz gleichermaßen auf die Daten zugreifen können. Meist genügt es, Verzeichnisse
zum Austausch von Dateien zu definieren, auf die alle User Zugriff haben
Der Quantum-Snap-Server 1000
und ihnen ansonsten Home-Verzeichnisse zuzuweisen, auf die nur die jeweiligen Anwender zugreifen können.
Deshalb arbeitet der Snap-Server auch
mit einem Sicherheitskonzept, das allerdings in der Default-Konfiguration
komplett deaktiviert ist. Dieses Konzept unterscheidet zwischen Usern und
User-Gruppen. Das bedeutet, ähnlich
wie bei einem Windows-NT-File-Server unterstützt die Quantum-Lösung
User-Level-Security. Die Zugriffs-
34
rechte werden auf Share-Ebene zugewiesen. Alle Dateien und Ordner innerhalb einer Share haben die gleichen
Zugriffsrechte wie die Share selbst. Im
praktischen Einsatz macht es Sinn, die
Zugriffsrechte auf Festplattenebene
stark einzuschränken und dann Shares
für einzelne Ordner zu definieren, die
den Anwendern dann zur Verfügung
gestellt werden. Diese Vorgehensweise wird vom Konfigurations-Tool des
Snap-Servers ausführlich und übersichtlich erklärt, die Utility prüft sogar
nach, ob Zugriffsrechte für ein Share
bestehen, die zum Umgehen der Rechte eines anderen Shares eingesetzt
werden könnten.
Mit diesen Funktionen fügt sich der
Snap-Server ohne großen Aufwand
nahtlos in ein Windows-Netzwerk ein
und erfüllt alle Anforderungen, die in
einem SOHO-Netz gestellt werden:
Die Zugriffsrechte lassen sich vernünftig verwalten, die Konfiguration
ist relativ unproblematisch, und der
Gesamtaufwand hält sich deutlich in
Grenzen. Anders sieht das Ganze aber
in einem Netz mit Linux-Clients aus.
NFS-Connectivity
und die Grenzen
Um die unterschiedlichen Unix-Zugriffsrechte auf den Snap-Server zu
mappen, gibt es die Möglichkeit,
Snap-Server-Usern bestimmte NFSAccounts zuzuweisen. Das heißt,
wenn sich ein NFS-User einloggt, erhält er lokal die gleichen Rechte wie
der definierte Snap-User, in dessen
Account er mit eingetragen wurde.
Diese Eintragung erfolgt über User-ID
des Unix-Accounts, verbunden mit
der IP-Adresse der Unix-Maschine.
Dadurch ist es erforderlich, für einen
Anwender, der sich via NFS von mehreren Maschinen anmelden soll, auch
mehrere Accounts einzurichten, was
spätestens im Fall eines Netzwerks
mit dynamischer IP-Adressvergabe zu
einem unverhältnismäßigen Verwaltungsaufwand führt, auch wenn man
mit IP-Adress-Masks arbeitet.
Damit nicht genug: Der Snap-Server
ist nicht in der Lage, die Dateizugriffsrechte wie ein Unix-Filesystem abzu-
speichern. Statt dessen werden Daten,
die ein Unix-User auf den Snap-Server
kopiert, mit den Rechten versehen, die
für das gerade verwendete Snap-Share
definiert wurden. Die Share-Rechte
überschreiben dabei die Zugriffsbeschränkungen auf Dateiebene. Daraus
folgt: Hat ein Anwender auf dem
Unix-System nur Leserechte für eine
Datei und kopiert er sie in ein SnapShare, auf das er Schreibrechte besitzt,
so erhält er auch ein Schreibrecht auf
die kopierte Datei. Damit öffnet ein
Snap-Server ein gewaltiges Sicherheitsloch, das noch dadurch verstärkt
wird, dass die Quantum-Lösung nicht
in der Lage ist, die Owner und Group
ID-Attribute mit abzuspeichern. Der
Snap-Server setzt bei neuen Dateien
immer die User-ID entsprechend der
User-ID des aktuellen Anwenders und
die Gruppenrechte auf root. NFS-Anwender können zwar User- und GroupID per Befehl ändern, aber diese Befehle haben keine Auswirkungen auf
die Dateien. Da der Snap-Server
außerdem keine Links unterstützt, reIm Test wurde ein Quantum-SnapServer 1000 in ein Netzwerk mit
Windows 98-, Windows NT 4.0 (Service Pack 6) sowie Linux-Computern
auf Basis von Kernel 2.2.14 integriert.
duziert sich sein Einsatzbereich in
Unix-Umgebungen wohl auf das Lagern vor Tarnarchiven. Auf jeden Fall
macht es keinen Sinn, Unix-Software
auf einem Snap-Share zu installieren.
Fazit
Die Quantum Snap-Server stellen
sicher eine gute Alternative zum Erweitern des Speicherplatzes in Windows-Umgebungen dar. Dort fügen
sie sich nahtlos ein, sind einfach zu
warten und bieten mit dem integrierten HTTP-Server sogar noch einen
Zusatznutzen. In Unix-Umgebungen
sollte man im Gegensatz dazu wegen
der unausgereiften Rechteverwaltung
besser die Finger davon lassen.
(Götz Güttich)
5/2000
Bewährte Technik mit mehr Leistung
SCSI im neuen Gewand
SCSI ist seit langem ein etabliertes “Produkt” mit
einer großen Benutzerzahl. Die jüngste “Wiedergeburt” des Standards mit neuer Technologie hilft
dabei, künftigen Herausforderungen im Markt zu
begegnen.
W
ährend der SCSI-Standard über Jahre hinweg
durch immer breitere und
schnellere Versionen verbessert wurde,
bringt die U2W-Variante einen großen
Sprung vorwärts mit sich. Durch Erweiterung der Ultra2-SCSI-Version um die
Niedrigspannung-Differential-Technologie (LVD = Low Voltage Differential)
können VARs (Value Added Reseller)
und Systemintegratoren die Datenzuverlässigkeit und Leistung ihrer derzeitigen und zukünftigen SCSI-Produkte
verbessern. Diese Technik verdoppelt
die synchrone Datentransferrate des 8Bit-Ultra-SCSI auf 40 MByte/s und des
16-Bit-Ultra-SCSI auf 80 MByte/s.
Außerdem vergrößert der Differential-SCSI-Transceiver die maximale
Buslänge und die Zahl der Geräte, die
durch den Host unterstützt werden. Bei
herkömmlichen
Single-Ended-(SE-)
Transceivern ist die Kabellänge auf drei
Meter begrenzt, wenn vier Geräte angeschlossen sind, und auf 1,5 Meter bei einer Last von acht Geräten. Das Differentialsystem erlaubt eine Kabellänge
von zwölf Metern für beide Busversionen (8 und 16 Bit Breite). Außerdem
lassen sich dank der LVD-Technologie
nun acht Geräte bei der 8 Bit breiten
Busversion und 16 Geräte bei 16 Bit
Busbreite an das Kabel anschließen.
Das bringt einen deutlichen Vorteil
gegenüber den früheren Versionen mit
sich.
Der bisherige Ansatz einer Differentialspezifikation für SCSI sah ein HochSpannungsschema, nun “HVD” genannt, vor. Obwohl dieser Ansatz
5/2000
gegenüber den vorigen Versionen eine
hervorragende Leistung brachte, krankte er daran, dass zusätzliche externe
Treiber und Receiver notwendig waren,
die einen erheblich höheren Aufwand
erforderten. Deshalb kam es dazu, dass
weniger als zehn Prozent der SCSI-Systeme mit der HVD-Technik arbeiteten,
obwohl längere Kabel und mehr Lasten
als beim SE-Ultra-SCSI-Bus möglich
sind.
Im Gegensatz dazu macht die LVDTechnik externe HDV-Transceiver
überflüssig. Zwar kann die LVD-Tech-
Ein Niedrigspannungs-Signalhub von
400 mV bei einer Gleichtaktvorspannung von 1,25 V bietet Vorteile im Hinblick auf die Signalqualität von Differentialsystemen, weil damit das
Gleichtaktrauschen reduziert wird. Dieser geringere Signalhub ermöglicht
dem Transceiver, schneller den gewünschten Betriebszustand zu erreichen als SE- oder HVD-Systeme. Das
verringert den Signalversatz, der durch
die Verkabelung und die weiteren Einheiten auf dem Bus entsteht. Der Signalversatz war einer der Schlüsselfaktoren, der die Leistung älterer SCSISysteme begrenzt hat.
Bild 1 ist ein gutes Beispiel, was von
der LVD-Signalübertragung zu erwarten ist. Es zeigt die SCSI ACK(Acknowledge-)Plus- und Minussignale
an der ersten von 15 Ultra2-SCSI-Festplatten bei einem zwölf Meter langen
LVD-Signalverläufe bei Ultra2 SCSI
nik für die niedrigeren Transferraten des
Fast- und Ultra-SCSI-Busses Verwendung finden, doch zielt LVD derzeit auf
die nächste Generation von Parallelprodukten, das heißt auf Ultra2 und Ultra3.
Kabel. Eine größere Last und Kabellänge erlaubt das neue Protokoll SPI-2
(SCSI Parallel-Interface-2) nicht. Die
resultierende Differenz des Plus- und
Minussignals wird in der unteren Hälfte
35
KNOW-HOW
des Fensters dargestellt.
Der kleinere LVD-Signalhub verringert außerdem die Versorgungsleistung
der Transceiver, sodass diese Funktion
auf einfachere Weise in einem SCSISystemchip integriert werden kann.
Dies verschafft Ultra2 SCSI einen wichtigen Vorteil gegenüber vorherigen Versionen, weil nun eine Integration zusammen mit anderen Funktionen in ein
System-on-a-Chip möglich ist und da-
te Teil der Leistung am Terminator umgesetzt wird, werden höhere Geschwindigkeiten möglich, ohne dass die Systemleistung eine höhere Versorgungsleistung erfordert.
Für bisherige SCSI-Anwender besteht
ein wichtiger Punkt darin, dass die
LVD-Technik kompatibel zur derzeitigen SE-Infrastruktur ist. Das heißt,
Multimode-Treiber können sowohl mit
LVD- als auch mit herkömmlichen SE-
Maximale Kabellänge (m)1)
SCSITechnologie
Transfer-Rate
(MByte/s)
Single-ended
HVD
LVD2)
maximale
Lasteinheiten
SCSI-1
Fast
Fast Wide
Ultra
Ultra
Wide Ultra
Wide Ultra
Wide Ultra
Ultra2
Wide Ultra2
5
10
20
20
20
40
40
40
40
80
6
3
3
1,5
3
1,5
3
-3)
-3)
25
25
25
25
25
-3)
-3)
12
12
12
12
12
12
12
8
8
16
8
4
16
8
4
8
16
Bemerkungen:
1. Dieser Parameter kann in Punkt-zu-Punkt-Applikationen überschritten werden.
2. LVD kann auch bei niedrigen Geschwindigkeiten als Ultra2 genutzt werden.
3. SE- und HVD-Modus sind bei Ultra2-Geschwindigkeiten nicht definiert.
Tabellarischer Vergleich der SCSI-Spezifikationen
mit die Gesamtsystemkosten sinken.
Ein zusätzlicher Vorteil des neuen
Verfahrens besteht darin, dass die LVDTechnik nicht von einer bestimmten
Versorgungsspannung abhängt wie es
bei früheren SCSI-Chips der Fall war,
die mit 5 V Spannung arbeiteten. Deshalb können Chips nun einfach mit
niedrigeren Versorgungsspannungen
wie 3,3 Volt, 2,5 Volt oder 2,0 Volt bei
gleichen Signalpegeln und mit derselben Leistung arbeiten. Dies verringert
die Leistungsaufnahme des SCSI-Controllers und des gesamten Systems und
ist wiederum wichtig, wenn die SCSIFunktionen in einen Systemchip integriert werden.
Bei der LVD-Signalisierung sind die
Konstantstrommodus-Treiber in den
Transceivern frequenzunabhängig. Das
bedeutet, dass die Treiberversorgungsleistung im Betriebsfrequenzbereich
weitgehend konstant ist. Weil der größ-
36
Geräten arbeiten. Weil die Steckerbelegung für LVD-Transceiver und SETransceiver gleich ist, lassen sich beide
gleichermaßen einsetzen. Bei der Umschaltung vom LVD-Modus auf den SEModus wird das positive Signal des
LVD-Treibers zum virtuellen Massetreiber und das negative Signal zum SESCSI-Treiber, sodass das Treiberpaar
kompatibel zu herkömmlichen SCSIBussen ist. Bei der HVD-Technik besteht diese Möglichkeit nicht, weil es
hier eine andere Kontaktbelegung gibt.
Die Restriktionen der SE-Spezifikation bedeuten, dass der Entwickler
tatsächlich den Einsatz von zwei Bussen
erwägen sollte. Ein Bus arbeitet dabei
im SE-Modus für herkömmliche Geräte
und der andere im LVD-Modus für neue
Geräte. Um diese Möglichkeit einfacher
zu gestalten, wurden Zweikanal-HostAdapter entwickelt. Obwohl dies im
Widerspruch zu den vorab genannten
Vorteilen der Übereinstimmungen zwischen LVD und SE SCSI steht, gibt es
erhebliche Kostenvorteile durch Einsatz
derselben Komponenten. Außerdem
kommt nur der LVD-Controller auf dem
Zweikanal-Board hinzu.
Eine weitere Möglichkeit besteht in
der Nutzung eines Expanders, auch
Translator genannt, der LVD- mit SEGeräten verbindet, sodass die neuen
Geräte mit Ultra2-SCSI-Geschwindigkeit arbeiten, aber weiterhin mit alten
Geräten kommunizieren können. Dies
ergibt sich daraus, dass die DIFFSENSLeitung des SCSI-Busses den anderen
Geräten anzeigt, wenn ein SE-Gerät auf
einen SCSI-Bus mit LVD geschaltet
wird. Alle fallen dann zurück in den SEModus.
In so einem Fall sind allerdings die
Transceiver auf die maximale Kabellänge, Transferraten und Belastungsgrenzen von Ultra-SCSI- beziehungsweise
langsamerer Einheiten begrenzt, und die
Vorteile des Ultra2-SCSI-Busses bestehen nicht mehr. Um bei hohen Übertragungsraten zu arbeiten, müssen alle Einheiten am Bus LVD-fähig sein, oder es
müssen Expander eingesetzt werden,
um die SE-Geräte zu isolieren.
Ein Expander arbeitet, indem er ein
LVD- oder SE-SCSI-Signal empfängt,
dieses Signal aufbereitet und es an ein
weiteres SCSI-Bus-Segment sendet. Einige Expanderchips konvertieren SCSISignale zwischen LVD- und SE-Pegel,
je nachdem, wie der Chip konfiguriert
ist.
Eine Möglichkeit zum Expandereinsatz besteht darin, LVD-Geräte auf dem
Hauptbus zu betreiben und über einen
LVD-zu-SE-Expander die Verbindung
zu einem zweiten Bussegment herzustellen, an das die SE-Geräte angeschlossen sind. Diese Konfiguration ermöglicht Datentransfers mit der hohen
Ultra2-SCSI-Übertragungsrate zu den
LVD-Geräten auf dem Hauptbus, während die Ultra-SCSI-Transfers niedriger
Geschwindigkeit zu den SE-Geräten auf
dem zweiten Bussegment verbleiben.
Die neue Technik verlangt, verschiedene Punkte bei der Systementwicklung
zu berücksichtigen. Dies betrifft insbesondere das Layout der Leiterplatte.
Aufgrund des geringen Signalhubs
5/2000
müssen die Differentialpaarleitungen
gleich lang sein und in gleicher Weise
auf der Leiterplatte geführt werden, um
jeden Versatz (skew) zwischen den Signalen zu minimieren.
Gleichermaßen müssen die Längen
der Abzweige (stub) so kurz wie möglich sein und definitiv zehn Zentimeter
nicht überschreiten, um die Signalreflektionen auf ein Minimum zu halten.
Aus demselben Grunde sollten die Leiterbahnimpedanzen genauso groß sein,
wie diejenigen des Mediums und des
Abschlusses. Ultra2-SCSI-Konfigurationen erfordern eine Anpassung an die
Leiterbahn- und Kabelimpedanz von
110 bis 135 Ohm bei LVD-Systemen
und 90 Ohm bei SE-Systemen.
Neben diesen Punkten sind noch die
Terminatoren und Stecker zu berücksichtigen. Einige Terminatoren sind
sowohl für LVD- als auch für SE-Signale geeignet und ermöglichen potenziell das Hin- und Herschalten zwischen diesen beiden Betriebsarten beziehungsweise das Abschalten. Dies
kann erforderlich sein, wo der HostAdapter sich in der Mitte des Busses
befindet und die On-Board-Terminatoren automatisch unterbrochen werden
müssen. Die Größe des Steckers ist
ebenso von Bedeutung, weil VHDCI(Very High Density Cabled InterDer Begriff Ultra 2 SCSI ist ein Marketing-Terminus der SCSI Trade Association (www.scsita.org). Der gültige ANSI-Standard heißt SCSI-Parallel-Interface – 2 (SPI-2), X3.302:
1999. Exemplare des Entwurfs des
T10 Technical Committees zu SPI-2
stehen unter der Internet-Adresse ftp://ftp.symbios.com/pub/stan
dards/io/t10/drafts/spi2/spi2r20b.
pdf zur Verfügung.
connect-)Stecker bis zu vier SCSIKanäle auf einer PCI-Card ermöglichen, was mit den größeren, weiter verbreiteten HD68-(High Density 68-Pin-)
Steckern nicht möglich ist.
Die ständig wachsende Datenrate verlangt von Systemintegratoren, der Qualität von Verkabelungen und dem Abstand zwischen den Einheiten mehr
Aufmerksamkeit zu widmen, als früher.
LVD ermöglicht jedoch Systemkonfi-
5/2000
gurationen, die bislang mit der SETechnik nicht realisierbar waren: 16
Geräte auf zwölf Meter Kabel im Gegensatz zu acht Geräten auf 1,5 Meter
Kabel!
Obwohl es möglich ist, Backplanes zu
entwickeln, die sich sowohl für den SEwie auch den LVD-Modus eignen, muss
dem Layout besondere Aufmerksamkeit
geschenkt werden, um für beide Betriebsarten die richtige Leiterbahnimpedanz sicherzustellen. Weil LVD-Signale schwächer sind und das Timing kritischer ist, sollten Unterschiede in der
Signalkapazität auf jeden Fall so gering
wie möglich sein.
Es gehört zur Upgrade-Strategie, für
SCSI die erforderlichen Änderungen bei
den Software-Treibern so gering wie
möglich zu halten, sodass die SoftwareInvestitionen geschützt bleiben. Ein
Hochrüsten auf Ultra2 SCSI bedeutet,
den Treiber auf Ultra2-SCSI-Übertragungsraten sowie die Taktgenerierung
auf Ultra2 SCSI einzustellen.
Um potenzielle Änderungen des Busmodus zwischen LVD- und SE-Modus
bewerkstelligen zu können, muss auch
der Software-Treiber dies unterstützen.
Wenn eine Änderung des Modus auftritt, so geht ein Interrupt-Signal an den
Treiber, der die Änderung signalisiert.
Nun kann der Treiber sich auf die neue
Transferrate in Abhängigkeit vom Signalisierungstyp des neuen Geräts einstellen.
Die Zukunft
Zum SPI-2-Protokoll wurde eine
Übereinkunft erzielt, und das T10
Technical Committee arbeitet bereits
am Ultra3 genannten SPI-3-Protokoll.
Hier wird die SCSI-Datentransferrate
gegenüber Fast-80 wiederum verdoppelt (Ultra 160 liefert zum Beispiel 160
MBytes/s auf einem breiten SCSI-Bus),
indem Daten sowohl bei der ansteigenden wie auch bei der abfallenden Flanke
des Bustaktsignals übertragen werden.
Das heißt, beide Flanken des REQ- und
des ACK-Signals kommen zum Einsatz
und verdoppeln die Datentransferrate,
ohne dass die anliegenden Frequenzen
sich verdoppeln. Um ein Aus- und Einstecken der Baugruppen (hot plug-in)
des Systems im Betrieb zu ermöglichen,
umfasst das SPI-3-Protokoll auch ein
CRC-Error-Checking der Daten, sodass
sich die Baugruppen ohne verborgene
Fehler auswechseln lassen.
Ein weiteres Merkmal von SPI-3 ist
die Domain-Validation. Ähnlich wie bei
Modemprotokollen erfolgt hierbei eine
automatische Reduzierung der Übertragungsrate, wenn die Verbindungsqualität nicht ausreicht. Im Rahmen der Validierung wird geprüft, ob die Kabel,
Anschlüsse und Expander in der Lage
sind, die vereinbarte Datenrate und Busbreite zu unterstützen. Derzeit führt der
Anschluss von Wide-SCSI-Einheiten
mit einem Narrow-Kabel zu stetigen
Parity-Fehlern. Ultra3-SCSI würde in
diesem Fall die Übertragung dank der
Domain-Validation
auf
“Narrow
SCSI” umstellen.
Zu guter Letzt wird SPI-3 Optionen
für paketorientierte Protokolle enthalten, die in Umgebungen mit einer Vielzahl von I/Os mit kleiner Blockgröße
Verwendung finden. Dies gewinnt immer mehr an Bedeutung, wenn die
SCSI-Datenraten steigen.
Schlussfolgerungen
Die LVD-Signalisierung für Ultra2
SCSI verbessert die System-I/O-Performance und löst zahlreiche kabelund signalbezogene Probleme heutiger
Ultra-SCSI-Systeme. Sie bringt VARs
und Systemintegratoren die Vorteile
einer besseren Device-Connectivity,
Bill Schmitz und John Lohmeyer sind
Systemingenieur beziehungsweise
Senior Consulting Engineer bei der
LSI Logic Corporation.
Datenzuverlässigkeit und Performance
in der neuen Generation von SCSIProdukten und ermöglicht die Integration neuer Transceiver in vorhandene
SCSI-Geräte. Die Zuverlässigkeit der
LVD-SCSI-Technologie sichert Investitionen in vorhandene SCSI-Produkte
und bietet gleichzeitig einen Hochleistungs-Migrationspfad in das neue Jahrtausend.
(John Lohmeyer, Bill Schmitz/gg)
37
A n z e i g e
✃
Bestellung: Unix-Navigator
Ich möchte unter folgender Rubrik aufgenommen werden:
❏ Internet/Intranet-Provider
❏ Lösungen für Linux
❏ Java-Software
❏ Unix-Dienstleistungen
❏ Datenbanken
❏ Objektorientierte Technologien
❏ Datensicherheitssysteme
❏ weitere Unix-Software
Ich buche den Eintrag meiner Firma zum Jahres-Festpreis von DM 600,- pro Rubrik (zzgl. MwSt.) für
12 Ausgaben.
Firmenname (mit Rechtsform):
Ansprechpartner:
Position:
Straße/Hausnummer:
PLZ/Ort:
Tel.:
Fax:
Email:
Service: (max. 144 Anschläge)
Homepage:
Verbindliche Unterschrift für den Auftrag:
AWi Verlag, Anzeigenabteilung Unixopen, Bretonischer Ring 13, 85630 Grasbrunn, Fax: 089/45616-250
ONLINE
verlag münchen
wir informieren
spezialisten.
http://www.unix-open.de/info
Internet/Intranet
Web-Switches gegen Denial-of-Service
Hacker-Angriffe
entschärfen
Denial-of-Service-(DoS-)Angriffe sind in Mode gekommen. Sie haben im Gegensatz zu “traditionellen” Hacker-Angriffen nicht das Ziel, Daten zu
klauen oder in das Intranet eines Unternehmens einzubrechen. Web-Switches können solche Angriffe
wirkungsvoll abwehren. Die Geräte bieten neben
Funktionalitäten für Traffic-Management und Lastverteilung auch ein Stück Sicherheit, da sie DoSAngriffe durch vorkonfigurierte ICMP-Filter (Internet
Control Message Protocol) abfangen.
D
er Stein kam Anfang Februar
ins Rollen: In den ersten Tagen des Monats waren die
Websites von Yahoo, Amazon und EBay jeweils für mehrere Stunden nicht
erreichbar. Wären nicht diese namhaften Unternehmen betroffen gewesen,
hätte vielleicht niemand Notiz von diesem Ereignis genommen. So aber
rückten die Hacker und ihre diversen
Angriffsarten ins Rampenlicht der Medien. Die Reaktionen aus Politik und
Wirtschaft sind sehr unterschiedlich:
Während in den USA umgehend ein
Treffen zwischen Bill Clinton und
führenden Vertretern der Wirtschaft
einberufen wurde, ist die Haltung in
Deutschland eher abwartend. Das
Motto “Hat ja keine deutsche Firma
getroffen” sollte jedoch besser nicht
angewendet werden. Denn eine DoSAttacke kann schnell zu Verlusten in
Millionenhöhe führen. Ganz zu
schweigen von den Kunden, die so eine Panne sehr verärgert. Schutzmaßnahmen sind folglich unumgänglich.
Neben effektivem Traffic-Management und Mechanismen zur Lastver-
40
teilung spielen Sicherheitsaspekte eine
immer zentralere Rolle im Netzwerk.
Administratoren müssen in Zukunft eine durchgängige Sicherheitsstrategie
implementieren. Die Installation von
Web-Switches für Firewall Load Balancing und die Konfiguration von bestimmten Filtern ist dafür ein erster
Ansatz.
Um eine DoS-Attacke zu verursachen,
ermittelt ein Hacker zunächst per DNSLookup eine IP-Adresse, die irgendwo
im Netz existiert. Hat er ein Computersystem gefunden, das gezielt angesteuert werden soll, benötigt er noch Daten
über die Segmentierung des Netzwerks.
Denial-of-ServiceAttacken durchführen
Dies geschieht mittels TracerouteAbfrage: Sie verfolgt ein Datenpaket
vom Computer hin zum Internet-Host
und ermittelt Anzahl und Dauer der
Hops bis hin zum Host. Dabei wird das
Datenpaket zunächst mit einem niedrigen “Auszeitfeld” (time-to-live oder
TTL) verschickt. Der TTL-Wert bestimmt, wie viele Hops ein Datenpaket
vor dem Zurückschicken durchlaufen
darf: Kann das Paket den Zielort nicht
erreichen, weil der TTL-Wert sehr
niedrig angelegt ist, schickt es der letzte erreichte Host zurück. Bei der
Rückübertragung des Datenpakets
identifiziert sich dieser Host gleichzeitig. Über eine Reihe solcher Tests mit
stetig höheren TTL-Werten können potentielle Hacker die Segmentierung des
Netzwerks ausspionieren. Traceroutes
kommen ursprünglich aus der UnixWelt. Aber auch Windows 95 unterstützt mit “Tracert” solche Abfragen.
Zu den derzeit bekanntesten Attacken
zählen “Smurf Attacks”. Um den eigentlichen Angriff auszulösen, muss der Angreifer einen Trojaner an viele Computer
Die Produkte von Alteon Web-Systems basieren auf einer Multiprozessorarchitektur. Pro Port verarbeiten zwei Risc-Prozessoren die einkommenden Daten.
5/2000
im Netzwerk schicken. Ein solcher Trojaner lässt sich beispielsweise an ausführbare Programme oder Makros anhängen.
Durch Öffnen des Anhangs installiert sich
der Trojaner auf dem fremden Computersystem und wird aktiviert. Bei einer Smurf
attack führt der Trojaner im einfachsten
Fall langanhaltende Ströme von Ping-Anfragen durch. Eine solche Ping-Anfrage
stellt eigentlich fest, ob eine bestimmte IPAdresse im Internet erreichbar ist. Bei
Smurf attacks schicken die Trojaner sehr
viele Anfragen dieser Art an unterschiedliche Rechner im Internet. Als vermeintlichen Absender geben Hacker dabei eine
existierende IP-Adresse an, auf die sämtliche Rückmeldungen der Server innerhalb
kürzester Zeit geschickt werden. Das führt
über kurz oder lang zur Überlastung der
WAN-Bandbreite der attackierten Website und unterbindet somit legitime Anfragen an die Site. Dies ist oft relativ einfach
möglich, weil die meisten Router erlauben, Pings als Broadcast Request weiterzuleiten. Die Netzwerkkomponenten fungieren auf diese Weise als eine Art Ver-
5/2000
stärker und lösen innerhalb kürzester Zeit
eine Vielzahl von Rückmeldungen auf nur
einen Server aus. Das Fatale für das betroffene Unternehmen: Strömt die Flutwelle von Anfragen erst einmal auf das
System zu, kann sie nicht mehr ad hoc abgewehrt werden.
Schutzmaßnahmen
durch Filtermechanismen
Solche Attacken lassen sich jedoch
über Filtermechanismen wie ICMP-Filter
abwehren. Diese Filter können individuell konfiguriert werden. Administratoren
sind damit im Vorfeld in der Lage, bestimmte Grenzwerte und Verfahrensweisen zu definieren, die Auskunft über Verfügbarkeit, Status der Datenleitungen, Erreichbarkeit der Hosts und mehr geben.
ICMP-Filter lassen sich grundsätzlich auf
allen aktiven Netzwerkkomponenten
oder Servern konfigurieren.
Eine zusätzliche Schutzmaßnahme
stellen Firewalls dar. Sie sind gerade
in Firmennetzen schon weitverbreitet.
Firewalls dienen ursprünglich dazu,
unberechtigte Zugriffe auf Unternehmensdaten zu verhindern. Sollen diese
Produkte auch Filterfunktionen zum
Beispiel zur Abwehr von HackerAttacken übernehmen, bedeutet dies
jedoch häufig Leistungsverluste sowie
mangelnde Skalierbarkeit des Systems, da Firewalls direkt im Datenfluss “Sitzen”. Darüber hinaus ist die
Architektur der Software in der Regel
nicht dafür ausgelegt, große Datenaufkommen schnell abzuarbeiten, da sie
meist mit einem zentralen Prozessor
arbeiten. Leistungssteigerung bedeutet
deshalb Austausch von Hardware. Um
per Software Hochverfügbarkeit sicher zustellen, gibt es bei Firewalls die
Möglichkeit einer Standby-Konfiguration oder Features, mit denen die Firewall im Cluster arbeitet. In beiden Fällen verwenden die Firewalls jedoch einen nicht unbedeutenden Teil der Rechenleistung dafür, die Daten untereinander zu synchronisieren. Eine
neue Generation von Switches, so
41
Internet/Intranet
genannte Web-Switches, setzt an diesem Punkt an. Die Geräte eignen sich
für Switching von Layer 4 bis 7 und
bieten unter anderem Funktionalitäten
wie Traffic Control, Load Balancing
und ICMP-Filtering.
Firewall Load Balancing
bietet zusätzlichen Schutz
Ein Beispiel dafür sind die Produkte
von Alteon Web-Systems. Sie lassen sich
vor die Firewall im Unternehmen schalten. An dieser Stelle fungieren sie als Puffer für alle dahinter installierten Netzwerkkomponenten und können so auch
Hacker-Angriffe erschweren. Der Vorteil
daran: Außenstehende erkennen nicht,
welche IP-Adresse die Geräte hinter den
Switches haben. Solche Produkte bilden
im Netz sozusagen eine virtuelle IPAdresse ab. Das besondere an den Alteon-Switches ist es, dass sie auf einer Multiprozessorarchitektur basieren. Im Kern
versteckt sich ein ASIC, den zwei Dual
Risc-Prozessoren unterstützen. Der ASIC
und die beiden Risc-Prozessoren sind eine Eigenentwicklung des Unternehmens.
Damit bietet der Hersteller eine robuste
Grundarchitektur in Silizium. Erweiterungen und neue Features wie Health-
Der Alteon 180e kann bis zu 200.000 Web-Sessions pro Sekunde verarbeiten
Checks oder zusätzliche Load-Balancing-Funktionen lassen sich über die
Dual-Risc-Prozessoren per Software installieren. Der ASIC muss dabei nicht extra ausgetauscht werden. Die Geräte sind
dafür ausgelegt, eine Vielzahl von Anfragen innerhalb kürzester Zeit abzuarbeiten. Dieser Prozess findet direkt am Port
statt. Das macht die Geräte schneller, da
die Switching-Entscheidung sozusagen
direkt am Port getroffen wird. Der Hin-
und Rückweg zu einer zentralen CPU, die
entscheidet, wohin das Pakt gehen soll,
entfällt. So erschwert die Architektur des
Systems Angriffe von außen.
Sehr wichtig für die Netzleistung sind
Load-Balancing-Funktionen, die die eingehende Last auf mehrere Firewalls verteilen können. Dafür braucht man mindestens zwei Web-Switches, die dann in einer Sandwich-Konfiguration vor und hinRoland Hamann ist Sales
Mögliche Konfiguration bei Firewall Load Balancing
1. Hot-Standby
Eines der beiden Geräte ist aktiv, das andere arbeitet im Standby-Modus. Beide Switches sind über einen Failover-Link miteinander verbunden und tauschen
regelmäßig so genannte “Keep-Alive”-Signale aus. Fällt ein Port des aktiven
Switches aus, wird der Datenverkehr auf das Standby-Gerät umgeleitet. Um zu
prüfen, ob der aktive Switch ausgefallen ist oder lediglich ein einzelner Port,
führen die Produkte über den Data-Link-Layer eine spezielle Kombination physikalischer Health-Checks durch. Weitere standardbasierte Failover-Mechanismen sind ebenfalls verfügbar. Hierzu zählen Spanning Tree Protocol oder Virtual Router Redundancy Protocol nach RFC 2338. Die Switches synchronisieren
in dieser Standby-Konfiguration keine Daten. Sie prüfen lediglich die gegenseitige Erreichbarkeit. Steht ein Switch, springt der andere ein.
2. Active-Standby
In dieser Konfiguration teilen sich beide Switches die Arbeit. Sollen zum Beispiel
drei virtuelle Server (VIP) verwaltet werden, so ist ein Gerät aktiv für zwei VIPs
zuständig und standby für die dritte. Entsprechend regelt das zweite Gerät den
Datenverkehr für einen VIP und arbeitet im Standby-Modus für die beiden anderen. Beide Switches sind also gleichzeitig am Load-Balancing-Prozess beteiligt, und es gibt keine ungenutzte Hardware.
3. Active-Active
Diese Konfiguration eignet sich besonders für Unternehmen und Banken, die
auf hohe Ausfallsicherheit und Verfügbarkeit angewiesen sind. Hier arbeiten
beide Geräte parallel.
42
Manager Deutschland bei Alteon
Web Systems
ter die Firewall geschaltet werden. Viele
Firewalls arbeiten nach dem Prinzip der
“Stateful Inspection”. Deshalb sind alle
Datenpakete einer einzelnen TCP/IPVerbindung auch durch dieselbe Firewall
zu routen. Gute Web-Switches erkennen
den Zustand der einzelnen Verbindungen.
Und das auch bei Durchsatzraten für Fast
Ethernet und Gigabit Ethernet. Regelmäßige automatische “Health Checks”
stellen gleichzeitig die Verfügbarkeit sicher. Über die Load-Balancing-Funktionalitäten können Firewalls auch beim Filtern von Daten beispielsweise von FTPoder Web-Servern entlastet werden. Verschiedene Failover-Mechanismen regeln
die gewünschten Ansprüche an die Verfügbarkeit der Systeme.
(Roland Hamann/gg)
5/2000
Systemmanagement im Intranet
Voller
Durchblick
Mit der Expansion eines Unternehmens wachsen
auch die IT-Strukturen. Für die Administratoren
wird es immer schwieriger, die steigende Zahl von
Benutzern, Anwendungen und Datenmengen im
Netz im Griff zu behalten. Unterstützung erhalten
sie dabei durch selbstlernende Managementfunktionen, so genannte neuronale Agenten. Dieser
Artikel geht näher auf die Funktionsweise solcher
Systeme ein.
N
ach Jahren des Booms der
Client-/Server-Systeme wird
der Nutzen dezentraler Netzwerklösungen mittlerweile in vielen ITChefetagen nüchterner betrachtet als zuvor. Zwar konnten die flexiblen, leistungsstarken Architekturen der 90er
Jahre mit der Dynamik expansiver Unternehmen gut mithalten. Ohne die Ab-
hängigkeit von einem aufwendigen Rechenzentrum war der Einstieg in die
Netzwerktechnologie und ihre Anpassung an einen wachsenden Bedarf vergleichsweise kostengünstig zu realisieren.
Dagegen sind den eilig gesponnenen
Intranets in vielen Anwenderbetrieben
viele Qualitätsmerkmale klassischer
Rechenzentren verloren gegangen. Da-
Netzwerkagenten neuester Generation erstellen eine vollständig mehrdimensionale Topographie der Netzwerkarchitektur
5/2000
43
Internet/Intranet
zu gehören Sicherheit, garantierte Datenverfügbarkeit, Stabilität und Zuverlässigkeit der Systeme. Nachdem das
Controlling immer dringlicher die Frage
nach der “Total Cost of Ownership”
um die Frage, wie sich das Beste aus
beiden Welten für das Informationsmanagement der Zukunft verwenden
lässt. Die Abwägung, wieviel Autonomie im Intranet realisierbar und wie
Das Systemmanagement der Zukunft integriert sämtliche Sichten des Unternehmens – vom User bis zu den Non-IT-Devices
aufgeworfen hat, wird deutlich, dass die
Administration von Client-/Server-Systemen einen hohen personellen Aufwand mit sich bringt und insgesamt
weitaus mehr Kosten verursacht als
früher angenommen wurde. Verteilte
Anwendungen, heterogene Systemplattformen und eine ständige Zunahme der
Knoten im Intranet treiben die Kosten
des Netzwerkmanagements in die Höhe.
Die Möglichkeiten der Automatisierung, die das Budget entlasten könnten,
stoßen bisher an ihre Grenzen. Zu groß
ist die Dynamik im Netz, zu schnell ändern sich die Strukturen.
Kein Wunder also, dass die Tugenden
des zentralen Datenmanagements immer häufiger beschworen werden, wo
doch kleine, autonome und bewegliche
Einheiten im Netzwerk bislang das Credo der Unternehmensstrategen waren.
Ein Umdenken hat eingesetzt, die massiven Mainframes der Vergangenheit
werden nicht mehr nur als hinderlicher
Ballast gesehen, sondern wieder als “sichere Bank” geschätzt.
Bei der aktuellen Entwicklung geht
es allerdings nicht um die simple Wahl
zwischen den Paradigmen “zentralisierte oder dezentrale” IT, eher schon
44
viel Zentralisierung nötig ist, muss
letztlich jedes Unternehmen anhand
seiner individuellen Anforderungen
selbst treffen.
Für das Management seiner Informations- und Kommunikationsstrukturen
braucht ein zukunftsorientiertes Unternehmen daher Instrumente, die nicht einer einseitig definierten Strategie unterliegen. Vielmehr muss es seine Netzwerkprozesse so flexibel anpassen können wie es die dynamischen Rahmenbedingungen von Markt und Wettbewerb
erfordern. Der Systemadministration
steht für die Herausforderung “Netzwerkmanagement” ein vielfältiges Angebot an Tools und Gesamtlösungen zur
Verfügung.
Lösungen für das Netzwerkmanagement sind keine integrativen Bestandteile von Netzen, sondern setzen auf ihnen
auf. Ihre Arbeit im Intranet beginnt mit
einer umfassenden Bestandsaufnahme:
Sie scannen das Netz und erfassen dabei
die Gesamtheit seiner Struktur. Dieser
Vorgang – auch als Autodiscovery-Prozess bezeichnet – nimmt je nach Komplexität des Systems wenige Minuten
oder auch viele Stunden in Anspruch.
Die Qualität dieser Inventur kann durchaus unterschiedlich ausfallen. Ein präziseres Bild entsteht, wenn neben der rein
räumlichen Verteilung von Hardware
auch die hierarchische Zuordnung der
Client-/Server-Knoten, der Router,
Hubs oder Switches zueinander ersichtlich wird.
Die so entstandene Darstellung des
Firmennetzwerks landet dann in einer
Datenbank. Objektorientierte Management- und Database-Lösungen bieten
erfahrungsgemäß die besten Voraussetzungen, um aus unstrukturierten Daten
sinnvolle Informationen zu gewinnen.
Für den Administrator kann es zum Beispiel hilfreich sein, die Topographie des
Netzwerks noch durch eine andere Sicht
zu ergänzen. Das könnte eine organisatorische Sicht sein, welche die Zugehörigkeit der Netzkomponenten zu
einzelnen Abteilungen oder Filialbetrieben aufzeigt oder auch eine geographi-
Die typische Warnmeldung eines neuronalen Agenten könnte
so aussehen:
Um 11 Uhr prognostiziert der Agent, dass mit 95-prozentiger Wahrscheinlichkeit der Server AB232 in etwa 45 Minuten zu wenig Speicherkapazität hat.
Folgende Werte verdeutlichen das Problem:
• Die Anzahl der eingegangenen Meldungen (Network Maintenance Message
Input; ICMP: empfangene Meldungen pro Sekunde) ist höher als erwartet. Sie
liegt bei 1,75 und war bisher nie höher als 1,324.
• WWW Input (HTTP Service: empfangene Bytes pro Sekunde) ist höher als erwartet. Sie liegt bei 1482 und war bisher nie höher als 1268.
• Virtuelle Speicherkapazität auf der Festplatte ist geringer als erwartet. Sie
liegt bei 26,8 und sollte über 43,1 liegen.
• Verfügbares RAM: innerhalb der Grenzwerte,
• Auslagerung des virtuellen Speichers: innerhalb der Grenzwerte,
• Lesevorgänge für den virtuellen Speicher: innerhalb der Grenzwerte,
• Schreibvorgänge für den virtuellen Speicher: innerhalb der Grenzwerte.
5/2000
sche Darstellung ihrer Verteilung.
In einem zweiten Schritt besetzt das
Managementsystem das Intranet mit so
genannten Netzwerkagenten. Ihre Aufgabe ist es, sich über einen begrenzten
Zeitraum hinweg in das System “einzulernen”, um ein repräsentatives Bild von
Normverhalten und -zustand all seiner
aktivitäten durch die Agenten werden
Erfahrungswerte gewonnen, die sich in
Regeln und Grenzwerte für den künftigen Netzbetrieb ummünzen lassen. Diese Policies helfen der Automatisierung
im Netzwerkmanagement bereits ein
gutes Stück weiter. Sie können Parameter wie Verfügbarkeit oder Performance
bereits selbsttätig
regeln und sogar
ganze Teilsysteme
wie ERP-Anwendungen, Groupware- oder Middleware-Systeme automatisiert überwachen. Allerdings
müssen diese Policies allen Änderungen in der Konfiguration, den Workloads oder im UserVerhalten immer
neu angepasst werden. Statische Regelwerke tun sich
generell schwer in
einer
dynamisch
sich entwickelnden
IT-Struktur.
An diesem Punkt
setzt die Technologie der neuronalen
Netze an. Die FunkNeuronale Agenten in der Logistikplanung: Sie prognostizie- tion dieser Software
ist dem menschliren beispielsweise die Zeit, wann das Fahrzeug eintreffen
wird, wie lange der Entladevorgang dauert und welche Res- chen Gehirn nachsourcen bereit zu halten sind, um das nächste geplante Fahr- empfunden: Sie ist
ziel rechtzeitig zu erreichen. Übersichtskarte Flottenmanage- fähig, Wissen anzusammeln und die
ment und Palm-Emulators – Neugent Analysis
daraus gewonnenen
Bestandteile zu erhalten. Dies betrifft Erfahrungswerte auf künftige Situatiodie Performance und Auslastung ebenso nen anzuwenden. Neuronale Netze lerwie den Sicherheitsstatus oder die Hard- nen assoziativ durch eine Kombination
ware-Konfiguration. Sämtliche Infor- von Beobachtung und Vergleichen mit
mationen über diese “Managed Ob- adaptierten Mustern und ziehen eigenjects” – das sind sowohl Geräte als auch ständig Schlussfolgerungen daraus.
Auf dieser Basis intelligenten LerApplikationen, Datenbanken oder Geschäftsprozesse – gehen ebenfalls in die nens ermöglichen neuronale Agenten
Datenbank des Managementsystems ein dem Administrator eine genauere Anaund ergänzen die Bestandsaufnahme lyse seines Netzwerks. Als sich selbstdes Netzwerks um eine zeit- und situati- optimierende Software-Tools können
onsbezogene Charakteristik. So entsteht sie geänderte Verhältnisse ohne zusätzeine plastische mehrdimensionale Wie- liche manuelle Eingriffe nachvollziehen
und in Prognosen für künftiges Systemdergabe der Netzwerkarchitektur.
Aus der Beobachtung der Netzwerk- verhalten umsetzen. Zusätzlich sind sie
5/2000
45
Internet/Intranet
in der Lage, Vorschläge für Korrekturen
in den Richtlinien zu unterbreiten. Dadurch steht dem Netzwerkleitstand ein
effizientes Frühwarnsystem zur Verfügung. Es alarmiert den Administrator
nur dann, wenn mit hoher Wahrscheinlichkeit ein aus der Historie des Systems
bekannter Fehler oder aber eine völlig
unbekannte Situation eintritt, etwa der
Verdacht auf eine Sicherheitsverletzung. Neuronale Agenten verhelfen der
Unternehmens-IT daher langfristig zu
erhöhter Performance. Ausfallzeiten
werden reduziert, der Grad der Automatisierung erhöht und damit insgesamt
die Produktivität gesteigert. Der Erfahrung nach sind damit Einsparpotenziale
von 18 bis 25 Prozent im Systemmanagement zu erzielen.
Insgesamt stellt eine intelligente System-Management-Software die Verfügbarkeit eines Intranet sicher, indem es die
Leistungsfähigkeit der einzelnen Elemente gewährleistet. Sind Clients und
Netzkomponenten fehlerfrei, läuft auch
der Datenbankprozess. Kann der Systemadministrator alle Einzelfunktionen
überwachen, hat er auch die Gesamtkontrolle über die Netzwerkprozesse.
Je mehr die Informationstechnologie
eine Rolle als Herzstück des Unternehmens übernimmt, das alle betrieblichen
Prozesse antreibt, desto stärker rückt
auch die Bedeutung von Performance
und Zuverlässigkeit der Systeme in den
Mittelpunkt. Viele DV-Chefs kennen
das Phänomen, dass Investitionen in
diesen Bereichen der Informationstechnik in ganz anderen Managementbereichen Wirkung zeigen, etwa in der Effizienz des Vertriebs. Der Zusammenhang
zwischen beiden Faktoren wird allerdings nur bei ganzheitlicher Sicht des
Unternehmens deutlich.
Eine IT-Infrastruktur sollte analog zur
Herzfunktion im biologischen Organismus die Taktrate erhöhen können, wenn
die beschleunigte Tätigkeit des Unternehmens das erfordert. Mehr noch, das
“Zentralorgan” muss gleichzeitig in der
Lage sein, das Durchsatzvolumen zu
steigern, wenn die Gesamtaktivität des
Enterprise zunimmt. Die Folgen von
Fehlfunktionen oder nur vorübergehenden Ausfällen sind in der Unternehmens-IT heute ähnlich gravierend wie in
46
einem biologischen System: Jede Ausfallstunde unternehmenskritischer Anwendungen oder Server fügt dem Gesamtbetrieb empfindlichen Schaden zu.
Schon bei Betrieben mittlerer Größe treten oftmals Einbußen in der Größenordnung von 150.000 Mark täglich auf, abhängig von Parametern wie dem Umfang der ausgefallenen Systeme und der
Zahl der betroffenen Anwender.
Die Analogie Organismus – Unternehmen zeigt auch, wie entscheidend die
Steuerungsfunktionen des zentralen Nervensystems sprich: des Systemmanagements für das Funktionieren der Unternehmensnetzwerke sind. Das Management eines Systems ist grundsätzlich eine
zentral wahrzunehmende Aufgabe, die
sich nicht beliebig delegieren lässt.
Die zunehmende Komplexität der Intranets, Systemarchitekturen und darauf
laufenden Applikationen verlangt nach
einem zentralen Leitstand, an dem die
technischen, personellen und organisatorischen Voraussetzungen bestehen,
um das Zusammenspiel dieser Komponenten auch verantwortlich steuern zu
können. Idealerweise sind hier die Features eines Rechenzentrums gegeben,
an dem die Fäden einer weiterhin dezentralen Client-/Server-Netzwerktopologie zusammenlaufen.
Für das darauf aufbauende Netzwerkmanagement ist es entscheidend, ein
vollständiges und unverzerrtes Bild der
IT-Infrastruktur zu erhalten. Eine große
Erleichterung für Administratoren liegt
darin, dass sie den Wildwuchs heterogener Netzkomponenten auf einer grafischen Bedieneroberfläche einheitlich
darstellen und mit geeigneten Werkzeugen – “Object Repositories” – von einer
einzigen Konsole aus gebündelt steuern
können. Neueste Management-Tools
gehen noch einen Schritt weiter: Sie erlauben es der Netzbetreuung, eine ITKommandobrücke von jedem beliebigen Ort mit Web-Zugang aus zu aktivieren. Ein Java-Interface mit geeignetem
Browser macht die Administration unabhängig vom Standort des Rechenzentrums aus möglich.
Solche Innovationen bieten wichtige
Voraussetzungen, um absehbaren Entwicklungen im Networking auch weiterhin begegnen zu können: Das expo-
nentielle Wachstum von Datenvolumen
und Usern im Netz sowie die Herausforderungen, die neue Anwendungen wie
E-Commerce oder neue technologische
Plattformen wie Windows 2000 mit sich
bringen. Dem Framework eines zukunftsweisenden
Netzwerkmanagements wird demnach einiges abverlangt:
Es muss in hohem Maße skalierbar sein
und sich vollständig in die Systemlandschaft des Unternehmens integrieren. Proprietäre Rechnersysteme wie
AS/400 sollten sich genauso einbinden
lassen wie künftige Standards des Electronic Business.
Das Ziel ist letztlich ein End-to-EndManagement aller Anwendungssysteme
von einem Punkt aus. Davon sind auch
die Non-IT-Devices des Unternehmens
nicht ausgenommen. Das können die
Schaltkreise und Bauteile eines Gebäude-Sicherheitssystems sein, genauso gut
aber auch die im Außendienst eingesetzten WAP-Handys oder andere internetfähige Geräte.
Ein besonders spektakuläres Beispiel
für effizientes Netzwerkmanagement ist
Horst Leber ist Technical Marketing
Manager bei Computer Associates
die Überwachung von High-tech-Funktionen eines Formel-1-Wagens. So nutzt
beispielsweise der Rennstall McLarenMercedes die Intelligenz neuronaler
Netze zur Kontrolle von Fahrzeug und
Fahrer. Das Kontrollsystem checkt
nicht nur technische Parameter wie
Kraftstoffmischung, Temperatur oder
Reifendruck während der Fahrt, sondern auch deren Auswirkungen auf den
Piloten. Sie bezieht selbst individuelle
örtliche Gegebenheiten ein wie die Beschaffenheit eines bestimmten Parcours
oder die Wetterverhältnisse. Die Daten
werden dazu aus dem Rennwagen per
Funk an die Box übermittelt und dort
mit der Administrations-Software Unicenter TNG aufbereitet und an Bildschirmen mit kritischen Werten angezeigt.
(Horst Leber/gg)
5/2000
Steuern und Regeln über das Internet
“Embedded”
im Vormarsch
Embedded-Web-Server dienen zum Warten von
Industrieanlagen oder zum Überwachen von weit
entfernt laufenden Applikationen über das weltumfassende Internet. Damit reduzieren sie die Kosten
für Remote Access, da auf Seiten des Clients lediglich
ein Internet-Zugang erforderlich ist.
A
uf der diesjährigen CeBIT
bahnte sich bei der WebTechnologie
ein
neuer
Trend an. Denn zukünftig geht es zunehmend darum, bestehende Steuerungen aus dem Bereich der Industrie oder
der Facilitys dahingehend zu erweitern, dass das Messen, Steuern, Regeln
und Überwachen über das Internet
möglich wird. Ein solcher Fernzugriff
über das Internet lässt sich am einfachsten durch den Einsatz von so genannten Embedded-Web-Servern realisieren. Funktionelle Bestandteile eines
Embedded-Web-Servers sind ein
HTTP-Server, ein parallel dazu arbeitender Kommunikations-Server, ein
Regel-Server und eine vollständige
TCP/IP-Protokoll-Suite. Diese vier
Bestandteile ermöglichen das Erweitern von Haushaltsgeräten, Industriesteuerungen sowie von Anlagen zur
Messdatenerfassung um die Fähigkeit
des Verbreitens von Steuer- und Messdaten über das Internet. Für die Übermittlung beziehungsweise das Aufbereiten der Daten können die lokalen
Daten einer Steuerung entweder in einer dynamischen HTML-Seite eingebunden werden, um einen direkten Zugriff über einen Web-Browser zu ermöglichen, oder die Lösung schreibt
die Daten einfach in eine Datei, um sie
später zu einem definierten Zeitpunkt
via FTP zu einem zentralen Punkt zu
5/2000
übertragen. Grundsätzlich eröffnen
sich den Anwendern durch den Einsatz
eines Embedded-Web-Servers eine
Unmenge an Möglichkeiten des Remote Access für lokal erfasste Daten.
Dabei spielt es keine Rolle, ob es um
die Überwachung eines Gebäudes geht
oder einfach darum, die Wasserstände
an verschiedenen Stellen entlang der
Elbe zu abzufragen.
Klein aber fein
Im Prinzip stellt ein EmbeddedWeb-Server ein Benutzer-Interface
zur Verfügung, das durch die Implementierung der Web-Technologie mit
praktisch jedem Web-Browser dargestellt werden kann. Das Web-basierte
Management führt letztendlich zu einer Verlagerung des Ressourcenbedarfs, denn die eigentliche Rechenleistung wird auf Client-Seite benötigt,
wodurch für den Embedded-Web-Server nur minimale Prozessor- und Speicherressourcen anfallen. Durch die minimale Anforderung an die Systemleistung lassen sich Lösungen mit geringem Stromverbrauch und geringer
Wärmeentwicklung aufbauen. Diese
positiven Faktoren sind eine Voraussetzung, um kleine autonome Systeme
für die Fernüberwachung aufbauen zu
können. Das Kernstück der HardwarePlattform besteht aus einem vollwertigen PC mit Harddisk auf Basis einer
47
INTERNET/INTRANET
Flashdisk. So setzt beispielsweise die
Compu-Shack Production in ihren
Embedded-Web-Server eine ChipDIMM-CPU auf der Basis einer 386CPU ein, die ausreichende Rechenleistung für die Funktionalität eines Embedded-Web-Servers zur Verfügung
stellt.
Die gesamte Hardware-Plattform ist
in der Regel so kompakt aufgebaut,
dass der eigentliche “PC” nur wenig
Platz benötigt: Er hat in etwa die
Größe einer Scheckkarte. Erweitert
wird die Hardware durch eine Basisplatine, auf der die notwendigen Peripheriekomponenten in Abhängigkeit
der jeweiligen Anforderung integriert
sind. Dabei handelt es sich beispielsweise um serielle Interfaces, MultiI/O-Ports, Multimedia-Interfaces, einen Kamerachip oder einen EthernetAnschluss. Als OS kommt ein Echtzeitbetriebssystem zum Einsatz, dass
auf die vorhandenen Bedürfnisse eines
Embedded-Web-Servers zugeschnitten ist. Geht es darum, den EmbeddedWeb-Server direkt in Hardware zu implementieren, so kann dies durch die
Migration der Chip-DIMM-CPU erfolgen. Auf der 144-poligen Kontaktreihe dieser Lösung liegen zum Beispiel ein ISA und ein I2C-Bus. Diese
lassen sich über einen entsprechenden
Sockel kontaktieren.
Der Kommunikations-Server stellt
letztendlich den Gateway zu den Peripheriekomponenten dar und macht
funktionell den wesentlichen Unterschied des Embedded zu einem herkömmlichen Web-Server aus. An den
Embedded-Web-Server lassen sich
entweder direkt über analoge oder digitale Ein- und Ausgänge Sensoren
und Aktoren anschließen oder über eine serielle Schnittstelle Steuerungen
aus dem Industriebereich oder des Facility. Die Kommunikation zwischen
dem Embedded-Web-Server und der
über eine serielle Schnittstelle angeschlossenen Peripherie wird durch ein
einfaches Kommunikationsprotokoll
realisiert. Über das Protokoll meldet
sich die Peripherie während der Initialisierungsphase bei dem EmbeddedWeb-Server an und teilt mit, welche
Daten beziehungsweise Variablen die
48
Peripherie hat, von welchem Typ diese
Variablen sind und, wenn es sich um
lesbare Variablen handelt, in welchen
Abständen diese Variablen abgefragt
werden sollen. Die weitere Kommunikation zwischen dem Embedded-WebServer und der Peripherie basiert dann
auf den während der Initialisierungsphase ausgehandelten Variablen und
Attributen. Das Kommunikationsprotokoll ist sehr einfach gehalten und
lässt sich mit wenigen Zeilen Pro-
umgesetzt, der für die Überwachung eines Server-Schranks gedacht ist. Über
den 19-Zoll-Einschub lassen sich bis zu
acht Stromkreise/Server überwachen sowie verschiedene Parameter des 19Zoll-Schranks wie Temperatur, Lüfterfunktion und Türverriegelung. Treten
kritische Situationen in einem ServerUmfeld auf, so kann die Lösung den Administrator via SMS oder E-Mail darüber informieren. Der 19-Zoll-Einschub
stellt einen klassischen Anwendungsfall
dar, indem die Funktionalität des Embedded-Web-Server mit der Überwachung von Peripherieeinheiten, in diesem Fall mit dem Umfeld eines 19Zoll-Schranks samt Servern, betraut
wird.
Maßgeschneiderte Lösungen
Die Web Engine CAM enthält einen vollständigen Web-Server mit integrierter
Kamera
grammcode auf der Peripherie implementieren.
Neben der Möglichkeit, HMTL-Seiten zu generieren, in die aktuelle Werte
der zu überwachenden oder zu steuernden Peripherie eingebunden sind, bietet
sich auch die Möglichkeit, ereignisund/oder zeitgesteuerte Aktionen zu definieren. Ermöglicht wird dies durch den
internen Regelprozessor. So reagiert der
Embedded-Web-Server beispielsweise
auf kritische Situationen, wenn ein über
die Peripherie erfasster Messwert einen
Schwellwert unterschreitet. Durch eine
Verknüpfung von Ereignissen und Aktionen, kann der Embedded-Web-Server
zum Beispiel veranlasst werden, sich in
das Internet einzuwählen und über den
SMS-Service einer verantwortlichen
Person eine Nachricht zu schicken, damit sie über die kritische Situation informiert ist. Die Compu-Shack-Produktion
hat diese Funktionalität des EmbeddedWeb-Servers in einen 19-Zoll-Einschub
Die komplette TCP/IP-ProtokollSuite verwendet die klassischen Protokolle der dritten und vierten Schicht
wie IP, TCP und UDP, die für die Kommunikation über das Internet oder Intranet notwendig sind. Dazu kommen
noch Protokolle der höheren Schichten
wie FTP, HTTP, SMTP, ARP und Telnet. Außerdem wurden PPP und RAS
implementiert, damit sich eine direkte
Kommunikationsverbindung zum Embedded-Web-Server über eine Telefonleitung und ein Modem realisieren
lässt. Durch die Möglichkeit, die Dienste des Internets über die Funktion eines
Embedded-Web-Servers für Steuer
und Regelaufgaben zu nutzen, ergibt
sich ein nicht zu unterschätzender Vorteil, denn die Kosten für die Kommunikation reduzieren sich drastisch und
beschränken sich in der Regel auf lokale Telefongebühren und Online-Kosten
zum Internet-Provider.
Geht es darum, eine Steuerung für
den Zugriff über das Internet zu erweitern, so kann man dies dank des Embedded-Web-Servers nach dem Baukastenprinzip verwirklichen. Der
große Vorteil für den Anwender liegt
darin, dass er sich um die gesamte
Web-Technologie in keiner Weise Gedanken machen muss, sondern die
komplexen Funktionen durch den Einsatz des Embedded-Web-Servers erhält. In allen Anwendungsfällen, bei
5/2000
Flash Eprom
Command-LIne
I/F
Flash File Treiber
Telnet
LPT-Port
ComPort
LPT-Port
EPP-Treiber
LPT-Treiber
ComTreiber
Videograbber
& Kompressor
MIB
File-System
E-Mail Client
SNMP
BootP
WEB-Server
ftp-Server
Communication
Gateway
UDP
ftp
http
tcp/ip
MakroProzessor
PPP
Ethernet-Treiber
RegelProzessor
10 MBit/s
ComPort
RTK
Realtime
Kernel
Blockschaltbild eines Embedded-Web-Servers
denen man ein Mensch-Maschinen-Interface benötigt, muss man sich lediglich die grafischen Oberflächen über
HTML zusammenstellen. Der Zugriff
wird wie bei einem herkömmlichen
Web-Server über einen Web-Browser
5/2000
realisiert, der Bestandteil aller gängigen Betriebssystemplattformen ist.
Dies vereinfacht den Remote Access,
denn aufwendige Implementierungen
von Anwendungen entfallen gänzlich.
Auf der Basis von HTML-Seiten las-
sen sich eigene Bedieneroberflächen
zusammenstellen, die jeweils auf die
vorhandenen Bedürfnisse angepasst
sind.
Dabei stehen eine Vielzahl grafischer Objekte in der Form von Java
Applets zur Verfügung, die es dem
Anwender ermöglichen, ergonomische
und ansprechende Benutzeroberflächen aufzubauen, die ein Abbild der zu
überwachenden Anlage oder des Objekts darstellen. Möchte man sich ständige aktualisierte Daten anzeigen lassen, so kommen Makros zum Einsatz,
die dynamisch Daten der angeschlossenen Peripherie in die HTML-Seiten
einbinden. Die Daten der Peripherie
werden dabei über das Communication-Gateway des Embedded-WebServers in regelmäßigen Abständen
gesammelt und in der Form von Variablen ständig in einer Datenstruktur abgelegt beziehungsweise aktualisiert.
Beim Aufrufen der HTML-Seite referenzieren die Makros der HTML-Seite
auf die gewünschte Variablen der Datenstruktur. Bevor die HTML-Seite an
den Web-Browser übertragen wird,
werden die Makros dann durch die aktuellen Werte der Variable ersetzt.
(Jörg Rech/gg)
Weitere Informationen: web-techno
[email protected]
49
Internet/Intranet
Technologie für Unternehmensportale
Tür zur Info
Das derzeit aktuelle Schlagwort “Portal” bezeichnet
personalisierte Internet- oder Intranet-Zugänge zu
Unternehmensinformationsbeständen. Es werden
durchaus unterschiedliche Anwendungen mit diesem
Schlagwort bedacht, die von “Eingangspforten für
Massenpublikum” über “Errichtung von Informationskanälen für Spezialisten” bis hin zu “Business-to-Business-(B2B-)Vertriebswegezugängen” reichen. Dazu
sind jeweils ganz unterschiedliche technische Ansätze
nötig, die eine leistungsfähige Portal-Lösung abdecken muss.
V
iele Unternehmen stellen sich
gerade der Herausforderung,
Leistungsmerkmale und Konzepte aus den “Masseneingangspforten”
– zum Beispiel AOL, MSN, Yahoo oder
auch T-Online – in “ihre” spezialisierten
B2B-Anwendungen zu übertragen. Die
Gartner Group prognostiziert, dass in drei
Jahren zwei von drei Fortune-500-Unternehmen Firmenportale als zentrale Benutzerschnittstelle zu Internet und Intranet einsetzen werden. Auch kleinere Unternehmen müssen voraussichtlich beim
“Next Generation Desktop” nachziehen.
Betrachtet man die unterschiedlichen
Anwendungsbereiche der Portale, so zeigen sich für die eingesetzte Software
verschiedenartige Anforderungen. Die
Meta-Group unterscheidet vier Typen:
– für Decision Support (Entscheidungsunterstützung): Voraussetzung sind
entsprechende DCSS-(Vor-)Kenntnisse der Anbieter;
– zur Informationspublikation, hier sind
Spezialkenntnisse im Bereich der Dokumenten- und Wissensverwaltung
von Nutzen;
– Business-to-Business (Firmenkooperation), wichtige Portal-Bausteine sind
zum Beispiel Mail-Dienste, Datenkonferenz-Software, Kalenderverwaltung
50
und Ähnliches,
– zur Unterstützung des operationalen
Geschäfts, eine entscheidende Anforderung ist die umfassende Integration bestehender Informationsressourcen von
Unternehmen auf Basis ihrer existierenden, oft sehr heterogenen IT-Infrastrukturen.
Neben diesen anwendungspezifischen
Merkmalen sind noch eine ganze Reihe
allgemein gehaltener Leistungsmerkmale
te Unternehmensinformationen aufbaut.
Hinzu kommen die technischen Herausforderungen. Bestehende IT-Systeme
setzen meist eine Vielzahl unterschiedlicher Technologien ein. Dazu gehören Protokolle wie HTTP, IIOP, WAP, XML,
Komponententechnologien wie Corba,
COM, EJB, JSP sowie verschiedenste Betriebssysteme und Programmiersprachen.
Ergänzt wird dies schließlich um die
üblichen Qualitätsmerkmale wie sehr
leichte Änderbarkeit von Anwendungen,
Geschwindigkeit, Skalierbarkeit bezüglich Nutzeranzahl, Durchsatz oder Wartbarkeit. Insbesondere der Punkt der Skalierbarkeit von Portal-Software kann ein
wettbewerbskritischer Faktor sein. Dies
ist eine zentrale Bedingung, um tatsächlich zehntausende von Benutzerzugriffen
in Web-basierten Unternehmensanwendungen mit praktikablen Antwortzeiten
zu bewältigen. Nur wenige Technologien
wie beispielsweise Corba, haben bereits
bewiesen, dass sie dazu in der Lage sind.
Etwas plakativ zusammengefasst lässt
sich sagen:
Enterprise Portal = heutige PC-Desktop Werkzeuge
+ standardbasierte Integration mit bestehenden Unternehmensinformationsquellen (Daten und Anwendungen)
+ Fähigkeiten und Vorteile von Internet-Umgebungen und -Technologien.
iPortal
Server
Orbix 2000
iPortal
Application
Server
iPortal
Integration
Server
Bild 1. Der Aufbau von Iona’s I-Portal Suite
für Portale zu beachten. Eine bedeutsame
Anforderung, um individuellen Mehrwert
bieten zu können, ist die “Personalisierbarkeit” eines Portals. Den Nutzern müssen für ihre Arbeit die jeweils für sie relevanten Informationen angeboten werden.
Voraussetzung ist eine durchdachte Verwaltung der angebotenen Inhalte, die auf
der Möglichkeit des Zugriffs auf integrier-
Dies alles sollte hochskalierbar und flexibel sowie “in internet time” dynamisch
änderbar sein.
Eine Lösung wie Iona’s I-Portal Suite
schafft beispielsweise eine Software-Umgebung, mit deren Hilfe Portale entwickelt
werden können, die diesen Anforderungen entsprechen. Sie besteht aus vier wesentlichen Elementen (siehe Bild 1).
5/2000
in Form von Corba-Objekten. So können
bewährte Applikationen in gekapselter
Form mit definierten Schnittstellen neuen
Anwendungen zur Verfügung gestellt
werden.
Die weiteren Elemente der I-PortalSuite bauen auf dem Orbix2000-Kern
auf. Der I-Portal-Application-Server
dient zum Entwickeln komponentenbasierter Anwendungen auf Basis von En-
Scalability
Ralliability
Security
Management
Commerce
Catalog Mgmt
Application
Server
IIOP
RMI
• Business Logic
Deployment
• Session and Process
Management
Integration
Server
Profiling
Etc.
C++
EJB
COM+
OS/390
DCOM
Collaboration
Search
ART
iPortal Server
•
•
•
•
JSP/Servlet-Engine
HOP
ART
terprise Java Beans (EJB). Dieser EJB
Server/Container ist eine Sun-Soft-EJB
1.1 konforme Implementierung – unter
anderem mit Bean und Container Managed Persistence sowie Bean Security.
Darüber hinaus bietet er die Leistungsmerkmale von Sun-Softs Java 2 Enterprise Edition (J2EE). Zur Entwicklerunterstützung arbeitet das Produkt zudem mit
einer grafischen Oberfläche, die ein einfaches “Zusammenbauen” von EJBs verschiedener Anbieter zu eigenen Applikationen erlaubt. Dadurch, dass dieser Application-Server auf Basis von Orbix
2000 implementiert wurde, stellen EJBs
de facto Corba-Objekte dar, das heisst, sie
sind interoperabel zu anderen Corba-Objekten, über die wiederum der Zugang zu
den bestehenden Unternehmensanwen-
Security Mgmt
HTTP/SOAP
EJB Server
EJB Server
JSP/Servlet-Engine
EJB Server
JSP/Servlet-Engine
Bild 2. Skalierbarkeit der I-Portal-Suite-Architektur
Content Mgmt
Personalization
Apache/
IIS/
Netscape
http
dungen realisiert wird.
Außerdem “erben” EJBs durch ihre
Implementierung als Corba-Objekte alle Eigenschaften hinsichtlich Skalierbarkeit und Administrierbarkeit. So ist
es möglich, EJBs nicht nur über beliebig viele EJB-Container-Prozesse auf
einem Rechner, sondern zudem über
beliebig viele solcher Prozesse im Unternehmensnetzwerk zu verteilen. So-
ART
Many server processes,
many beans per server
ART
Das erste Element ist der I-Portal-Server. Er sorgt für den benutzerseitigen Portal-Zugang. Sein besonderes Merkmal
liegt im Aufbau aus vorgefertigten “Portal-Bauelementen”, die im Wesentlichen
nur noch konfiguriert werden müssen, um
ein Portal wie “Ihr.de” zur Verfügung zu
stellen. Zu nennen sind in diesem Zusammenhang inhaltsspezifische Nutzerantworten (User session content router),
Suchmechanismen, Profiling, E-Mail-Integration, Kalenderfunktionen und auch
die wichtigen Web-Protokolle (XML,
HTML, IIOP, HTTP). Der Server stellt
damit die wesentlichen Merkmale der
oben genannten Anforderungen an die
Endbenutzerseite von Portalen bereit.
Das zweite Element bildet den Kern der
I-Portal-Suite. Es handelt sich dabei um
den Object Request Broker (ORB) Orbix
2000. Orbix 2000 ist eine HochleistungsORB-Implementierung auf der Basis der
letzten verabschiedeten Corba-Spezifikation Corba 2.3. Zu seinen wichtigsten
Leistungsmerkmalen gehören beispielsweise der Portable-Object-Adapter (POA)
und Objects by Value. Zudem enthält Orbix 2000 bereits eine Reihe von Elementen der kurz vor Abschluss befindlichen
Corba-3-Spezifikation, wie asynchrone
Methodenaufrufe. Eine weitere wichtige
Eigenschaft des Produkts liegt in seiner
Skalierbarkeit, die technisch auf der Ausnutzung des POAs basiert. Gerade zur Integration bestehender Unternehmensinformationsquellen ist die Verfügbarkeit
für viele Systemplattformen wichtig.
Deshalb reicht der Rahmen unterstützter
Betriebssysteme von NT bis Unix (unter
anderem HP-UX, Linux und Sun Solaris).
Hinzu
kommen
Programmiersprachenanbindungen an unter anderem Java
und C++. Orbix 2000 sorgt damit für die
Integration von Unternehmensressourcen
SAP
MVS
• Data transformation
• Rules Engine
• Connectors
Notes
gar im laufenden Betrieb können neue
EJB-Prozesse in weiteren ContainerProzessen lokal und im Netz gestartet
werden, ohne EJB-Client-Anwendungen zu beeinflussen. Client-Referenzen
auf EJB-Server bleiben unverändert
gültig, bei Kapazitätsengpässen lassen
sich weitere Rechner problemlos hinzunehmen.
Noch einen Schritt weiter geht die Skalierbarkeit hinsichtlich des Zusammenspiels mit dem I-Portal-Server auf der Basis von Java-Server-Pages beziehungsweise Servlets, also Server-seitigen JavaProgrammen, die wiederum EJBs oder
Corba-Objekte aufrufen können. Diesen
Programmen lassen sich ebenfalls eigene
Server-Prozesse zuordnen, sodass auch
auf dieser Ebene Skalierbarkeit gegeben
ist (vgl. Bild 2).
Zu guter Letzt bietet der I-Portal-Integration-Server eine Vielzahl von Konnektoren, um zum Beispiel StandardSoftware-Pakete anzubinden. Diese umfassen unter anderem Integration von
SAP-Systemen, Host-Anbindungen oder
auch Messaging-Produkten.
(Dr. Arne Koschel/gg)
AS/400
Bild 3. Zusammenspiel der I-Portal-Suite-Komponenten
5/2000
51
Internet/Intranet
Sicherheitsmanagement in Computernetzen
Sicherheit pflegen
Die Aufgabe von IT-Sicherheit liegt nicht nur im Datenschutz, sondern auch im Fördern der Zuverlässigkeit
der IT-Infrastruktur. Besonders in großen Unternehmen
mit einer komplexen IT-Landschaft ist dies jedoch ein
schwieriges Unterfangen. Administratoren brauchen
dafür geschicktes Management und leistungsfähige
wie auch passende Werkzeuge.
I
n vielen Unternehmen ist die elektronische Informationsverarbeitung ein
wichtiger “Motor” im Geschäftsbetrieb. Von Motoren erwartet man, dass sie
vor sich hin schnurren und ihre Arbeit
tun. Dafür wählt man ein gut gebautes
Modell und investiert in Pflege und Wartung. Das sollte man auch für die IT-Sicherheit tun, damit diese wie ein gut gebauter, sauber geölter und sorgfältig gepflegter Motor den reibungslosen Betrieb
unterstützt.
Zugriffe auf IT-Ressourcen sind generell nur im Berechtigungsfalle zu gewähren – alle nicht gewünschten Zugriffsversuche sollten erfolglos bleiben.
Das ist keine leichte Aufgabe in den oft
sehr komplexen Umgebungen moderner
Unternehmensnetze. Unterschiedlichste
Plattformen, von Großrechnern über unterschiedliche Unix-Derivate bis hin zu
Windows- und NT-Front-ends, erwarten
eine auf sie zugeschnittene Behandlung.
Zahlreiche Anwendungen vergeben eigene Zugriffsrechte, die verwaltet werden
müssen. Dies gilt für intern entwickelte
Applikationen ebenso wie für SAP-Anwendungen sowie Lotus Notes und
E-Commerce-Angebote. Hier den Überblick zu bewahren, ist in großen Umgebungen ein Kunststück.
Erfassen etwa die Administratoren Anträge zum Einrichten und Löschen von
Benutzern nur auf Papier oder erlauben,
dass An- und Abmeldeinformationen auf
unterschiedlichen Rechnern und womöglich ohne Versionskontrolle gespeichert
52
Notes, für alle Unix-Rechner und auch für
SAP-HR. Die Bedeutung dieser Zuordnung kennt jeder, der Unix-Rechner per
NFS verbunden hat und mit dem Problem
zu kämpfen hatte, dass die jeweils gleichen UIDs auf den einzelnen Rechnern
unterschiedlichen Mitarbeitern gehörten.
Die gemeinsame Nutzung von Accounts
lässt sich per Organisationsanweisung
unterbinden. Doch spätestens bei Accounts wie dem Superuser “root”, der nun
mal für viele administrative Aktivitäten
benötigt wird, reicht eine solche organisatorische Regel nicht mehr aus. Die Unterstützung, die “native” Unix hier bietet, ist
leider nur spärlich. Die Frage “Wer
war’s?” führt eher zu einem Puzzlespiel
als zu einer brauchbaren Antwort.
Ein weiteres Problem liegt im noch immer am weitesten verbreiteten Verfahren
zur Identifizierung und Authentisierung
(I&A): User-ID plus Passwort. Sicher
kann man dieses Verfahren meistens nicht
nennen: Die Qualität der Passwörter ist
meist so schlecht, dass ein Programm wie
und automatisch wieder überschrieben
werden, lassen sich auch verhältnismäßig
schlichte Fragen nur mit relativ hohem
Aufwand beantworten. Etwa, wenn die
Revision die Frage stellt, wann welche
Benutzer auf welchen Rechnern wie lange angemeldet waren. Komplexere Fragen müssen in solchen Fällen meist unbeantwortet bleiben. Dazu gehören Fragen
wie etwa “Welche Zugriffsrechte hat ein
Benutzer in allen Systemen und Anwendungen der gesamten IT-Landschaft?”
oder “Wann und von wem wurden diese
Rechte beantragt und eingerichtet?” oder
“Wurden einem ausgeschiedenen Mitarbeiter wirklich auf
allen Systemen und
in allen Anwendungen seine Zugriffsrechte entzogen?”
Als
Grundvoraussetzung für eine
sinnvolle Antwort
auf solche Fragen
muss der einem System bekannte Account genau einer
realen Person zugeordnet sein. Diese
Zuordnung sollte in
allen Systemen und
Anwendungen der
heterogenen
ITLandschaft immer
dieselbe
bleiben.
Das gilt für die NT- Die drei Phasen des IT-Sicherheitsmanagements
Domänen, für Lotus
(Quelle: BSI IT-Grundschutzhandbuch 2000)
5/2000
crack oft innerhalb von Minuten mehr als
die Hälfte der Passwörter “geknackt” hat.
Darüber hinaus braucht ein im Netzwerk
lauschendes Sniffer-Programm nur auf
unverschlüsselte Passwörter zu warten,
die etwa per ftp, telnet oder rexec übertragen werden. Mit ein wenig Glück reichen
sogar schon zwei gesunde Ohren, um ein
über den Gang gebrülltes Passwort zu ergattern. Auch per Telefon oder E-Mail
mitgeteilte Passwörter können leicht unbemerkte Lauscher finden. Kurzum: Ge-
B sD n
l- o
a ti
n a
o is
rs n
e a
P rg
O
thentisierungsverfahren.
Neben den Grundanforderungen, wie
ordnungsgemäße Rechnerverwaltung,
Systemadministration, Backup/Recovery
oder Virenschutz sind auch diese kritischen Bereiche zu “managen”.
Um beim Bild des Motors zu bleiben:
Was nutzt der beste Motor, wenn die Zündung nicht funktioniert oder der Tank undicht ist? Ziel muss also sein, die IT-Sicherheit als Ganzes auf das gewünschte
Niveau zu bringen. Und zwar über alle unterschiedlichen
Plattformen
und
Anwendungen hinweg, ungeachtet ihA
m uf
rer Heterogenität.
t
e r
n a
ts g
ys sm
Beispielsweise ist
te a
m na
g
es
für Anwender
e
ausgesprochen lästig, wenn sie auf unterschiedlichen Plattformen und Anwendungen in verschiedenen Abständen zu
einem
Passwortwechsel gezwungen
werden – und dann
womöglich noch unterschiedliche Wünsche der Systeme
bezüglich der Passwortqualität berücksichtigen müssen.
Eine typische Architektur zum plattformübergreifenden BeHier zwei Ziffern
rechtigungsmanagement
und sechs Buchstagen unerwünschten Systemzugriff ist die ben, dort zwei Ziffern, ein Sonderzeichen
User-ID/Passwort-Kombination
zwar und sieben Buchstaben. Solch inkonsisbesser als gar nichts. Die Administratoren tente Regeln sind allenfalls dafür geeigmüssen bei ihrem Einsatz aber auf jeden net, entnervte Benutzer zu Zettel und Stift
Fall geeignete technische und organisato- greifen zu lassen, um die Passwörter unter
rische Maßnahmen ergreifen, um aus die- die Tastatur zu kleben.
Ziel und Aufgabe des IT-Sicherheitssem potentiellen Scheunentor zu den ITRessourcen zumindest eine Tür normaler managements ist also das Aufstellen und
Umsetzen einheitlicher Regeln.
Größe zu machen.
D
B
S
- e i
g in e
l
a
n m l
a Ad te
m
ts
s it it
it m n
e l h
rh o c
e o s
h -T ns
ic nt io
e t
m tra
s
A
g
e
n
t
1
S
g
ic
A
h
n
e
e
rh
t
e
2
s
ff
ri zg t
u u m
Z ch te
s ys
s
it
s
-D
A
e
B
g
n
t
3
M m
B te
D ys
s
ty
ri
u m
c
e te
S ys
s
Kritische Bereiche
IT-Sicherheitsmanagement
In heterogenen IT-Landschaften gibt es
mehrere kritische Bereiche:
– unterschiedliche Stellen mit Autorisierungsinformationen,
– unzureichende Revisionssicherheit,
– geringe Kontrolle über die Superuser,
– unterschiedliche und oft unsichere
Benutzer-Identifizierungs- und Au-
Das BSI-Grundschutzhandbuch [GSH
2000] des Bundesamts für Sicherheit in
der Informationstechnik bezeichnet die
Planung, Realisierung und Verwaltung
von IT-Sicherheit als IT-Sicherheitsmanagement.
Im ersten Schritt wird hierzu eine auf
das jeweilige Unternehmen passgenau
5/2000
zugeschnittene IT-Sicherheitspolitik festgelegt. Das benötigte Sicherheitsniveau,
die globalen Sicherheitsziele und die verantwortlichen Personen werden in einer
allgemeinen Sicherheitsrichtlinie benannt. Ein Plan zur praktischen Umsetzung zielt auf eine schnelle Realisierung.
Um die jetzt noch recht abstrakte Sicherheitsrichtlinie zu konkretisieren, werden auf Basis von Schutzbedarfsfeststellung, Bedrohungs- und Schwachstellenanalyse sowie Risikoanalyse konkrete
Maßnahmen zusammengestellt, das so
genannte IT-Sicherheitskonzept. Es besteht aus organisatorischen und technischen Komponenten. Absolute Sicherheit
wird es trotzdem niemals geben. Vielmehr gilt es, die Kosten einer Sicherheitsmaßnahme gegen ihren Nutzen abzuwägen. Eine Restrisikoanalyse ermittelt, welche Risiken auch nach Umsetzung aller Maßnahmen noch verbleiben.
Dann können die Verantwortlichen entscheiden, wie mit diesen Risiken zu verfahren ist. Entweder stufen sie sie als tragbar ein, oder sie ergreifen weitere technische, versicherungstechnische oder organisatorische Sicherheitsmaßnahmen.
Die konkrete Umsetzung der im Sicherheitskonzept entwickelten Maßnahmen stellt einen weiteren wichtigen
Schritt dar. Parallel dazu ist die Sensibilisierung aller Mitarbeiter und ihre Unterstützung beim Umsetzen der Maßnahmen
von entscheidender Bedeutung.
Kontinuierliche Pflege, der
Schlüssel für IT-Sicherheit
Neben einer periodischen Überprüfung
der Einhaltung der Maßnahmen sowie der
Kontrolle und Revision von IT-Sicherheitspolitik und IT-Sicherheitskonzept
muss die Sicherheitspolitik für den Regelbetrieb ständig verfeinert beziehungsweise ergänzt werden. Zum Beispiel ist für
eine neue Firewall ein Betriebskonzept zu
entwickeln. Oder für die stark veränderte
Version des Virenscanners wird ein
Überarbeiten der vorhandenen Maßnahmen nötig.
Bisher wurden hauptsächlich konzeptionelle und organisatorische Aspekte des
IT-Sicherheitsmanagements betrachtet.
Gerade in großen Umgebungen ist aber
bereits die schiere Menge der zu überwa-
53
Internet/Intranet
chenden und zu verwaltenden Komponenten eine Herausforderung für sich.
Mehrere 1000 Benutzer auf mehreren 100
Rechnern mit mehreren Dutzend unterschiedlicher Betriebssysteme und Anwendungen sind keine Seltenheit. Und
gerade in so großen Umgebungen ändern
sich die Strukturen des Datennetzes und
die Zugriffsrechte der Mitarbeiter fortlaufend. Dies erfordert eine ständige Überprüfung des Sicherheitsstatus und gegebenenfalls seine Anpassung an neue
Strukturen und technische Entwicklungen. Hier kommt ein durchdachtes, ganzheitliches und zentral gesteuertes Sicherheitsmanagement ins Spiel. Nur dann
bleibt ein komplexes Sicherheitssystem
stets auf dem neuesten Stand und kann
aktuelle Bedrohungen abwehren.
Ein Beispiel für effizientes Sicherheitsmanagement ist das plattformübergreifende Berechtigungsmanagement.
Seine Aufgabe liegt darin, mit der Dynamik der sich kontinuierlich ändernden
Zugriffsrechte Schritt zuhalten und sie
fortwährend zu aktualisieren. Und dies
über alle DV-Plattformen des Unternehmens. Denn einzelne, unkoordinierte
Sicherheitslösungen können Missbrauch,
etwa durch Datenzugriffe von nicht mehr
autorisierten (Ex-)Mitarbeitern, nicht
wirksam verhindern. Am so genannten
“Single Point of Access Control and Security Administration” (SPSA) wird die
komplette Berechtigungsverwaltung eines Unternehmens auf einer zentralen
Plattform vereint. Basieren sollte eine
derartige Berechtigungsverwaltung auf
einem Rollenkonzept, in dem plattformübergreifende Benutzerrollen passend zu
den Funktionen der einzelnen Mitarbeiter
im Unternehmen definiert sind. Ausgehend vom Rollenkonzept lassen sich Zugriffsschutz-Policies erstellen, die die
Grundlage zur Einführung eines SPSA
bilden.
Alle Zugriffsberechtigungen auf die
unterschiedlichen DV-Plattformen werden dann von einer einzigen Administration flexibel und transparent gesteuert.
Und auch die Beantwortung von Revisionsfragen wird wesentlich erleichtert.
Einsparungen bei den Personalkosten,
Beschleunigung von Arbeitsprozessen
und nicht zuletzt wirksamer Informationsschutz sind die Folgen.
54
SPSA-Software-Produkte wie ControlSA von BMC, der Security-Administration-Manager (SAM) von Schumann und
En-Role von Enable-Solutions, um nur
einige zu nennen, können bei dieser Aufgabe wirkungsvolle Unterstützung leisten.
Das beste Berechtigungsmanagement
bringt jedoch nur wenig, wenn die darunter liegenden Betriebssysteme unsicher
sind. Für viele Unix-Derivate gibt es spezielle Betriebssystem-Erweiterungen, die
zum “Härten” des OS dienen. Wenn in einem Unternehmen jedoch unterschiedliche Derivate nebeneinander zum Einsatz
kommen, möchte man auch dort eine zentrale Stelle haben, mit der sich die IT-Sicherheitspolitik auf Betriebssystemebene
umsetzen und kontrollieren lässt. Ein oft
genannter Kritikpunkt an Unix-Betriebssystemen ist beispielsweise die unzureichende Kontrolle über den Superuser
“root”. Obschon hier noch ein anerkannter Standard für plattformübergreifende
OS level security fehlt, bietet der Markt
Produkte, die diese Lücke füllen. Wie etwa E-Trust Access Control von CA
(früher Se-OS von Memco), mit dem sich
der Zugriff auf viele Ressourcen wie etwa
Dateien, Prozesse und Programme dediziert schützen und kontrollieren lässt –
auch vor Zugriff durch den Superuser.
Unter anderem können Aktivitäten des
root-Accounts den persönlichen Accounts der Mitarbeiter zugeordnet werden. Access Control Security ist damit für
Solaris, HP-UX, AIX und laut Hersteller
auch für Windows NT Server möglich.
Besonders für Rechner mit sensiblen Daten wie beispielsweise SAP-HR bringt
das interessante Aspekte mit sich. Das
Gleiche gilt für Computer, auf die über
das Internet zugegriffen wird.
Gegen das Dilemma unterschiedlicher
Passwortpolitik und dadurch oft unnötig
schwacher Passwörter, bieten SPSA-Produkte erste Abhilfe, indem sie eine einheitliche Passwortqualität forcieren. Eine
Single-Sign-On-Lösung bietet für die Benutzer das wohl angenehmste Umfeld.
Einmal anmelden, und dann haben sie
Zugriff auf alle Anwendungen, mit denen
sie arbeiten, egal auf welchen Plattformen
sie liegen. Doch schon eine Passwortsynchronisation wie sie etwa E-Trust Access Control ermöglicht, schafft bereits
eine deutliche Entlastung der Anwender.
Und vermindert damit die Anzahl von am
Bildschirm klebenden Passwortlisten.
Public-Key- oder Kerberos-basierte –
Authentisierungsverfahren
können
schwache Passwortverfahren ersetzen.
Weitere Produkte wie etwa Trust-Broker
von Cyber-Safe, um nur ein Beispiel zu
nennen, sollen laut Hersteller ein Framework für den parallelen Einsatz beider
Authentisierungsverfahren bieten. Auch
Einmalpasswörter
reduzieren
die
Schwächen “klassischer” Passwortauthentisierung. Wie etwa das Token-basierte Verfahren der Secure-ID-Card von
RSA Security, das frei erhältliche Software-basierte ‘One-time Passwords in
Everything’ (OPIE, früher S/Key)
[GSH2000] oder das Challenge-Response-Verfahren der Vasco Data Security –
um nur drei Beispiele zu nennen.
Beim Einsatz von Smartcards müssen
die Anwender neben einer PIN auch ein
Token besitzen. Ohne diese Komponenten wird kein Zugang gewährt. Das reduziert die Menge der möglichen Angriffspunkte massiv. Zudem lässt sich die Qualität der Authentisierungsinformation
stark erhöhen: Smartcards sind dazu in
der Lage, extrem komplizierte “Passwörter” sicher zu speichern.
Fazit
IT-Sicherheitsmanagement ist ein kontinuierlicher Prozess, der von allen Mitarbeitern mitgetragen und “gelebt” sein
will. Der Markt bietet zahlreiche Werkzeuge, die die technische Umsetzung der
anspruchsvollen Aufgabe unterstützen.
Eine Analyse der unternehmensspezifischen Anforderungen und geschickte
Produktauswahl kann zu Lösungen
führen, die das IT-Sicherheitsniveau heben und Kosten sparen.
(Roland Holtkämper, Thomas Schoch,
Susanne Gehlen/gg)
Literatur
S. Garfinkel, G. Spafford, Practical
UNIX & Internet Security, O’Reilly
[GSH2000] Bundesamt für Sicherheit
in
der
Informationstechnik,
ITGrundschutzhandbuch 2000, ISBN
3-88784-915-9
http://www.bsi.de/gshb/deutsch/
menue.htm
5/2000
EINKAUFSFÜHRER
SoftwareEntwicklungs-Tools
a) CAS
b) 06104/9808-0
c) 06104/9808-30
a) Check Point
b) 0811/60052-0
c) 0811/60052-99
a) Computer Links
b) 089/93099-0
c) 089/93099-200
a) Collogia
b) 0221/33608-0
c) 0221/33608-36
a) Compuware
b) 06103/9488-0
c) 06103/9488-88
a) Coverflex
b) 06172/952120
c) 06172/74801
a) Creaso
b) 08105/25055
c) 08105/25623
a) EAS
b) 02723/979309
c) 02723/979311
a) Forté Software
b) 0228/91499-0
c) 0228/91499-90
a) GFT Technologies
b) 07724/9411-0
c) 07724/9411-94
a) Halstenbach
b) 02261/9902-0
c) 02261/9902-99
5/2000
a) CA
b) CCC-Harvost
a) CA
b) OpenRoad
a) CA
b) Jasmine ii Builder
a) Intland
b) Source Explorer
a) Redhat Cygnus
b) Source Navigator
a) Check Point
b) OPSEC SDK
LynxOS
●
●
● ● ● ● ● ● ●
● ● ●
● Win 95/98, NT/2000
●
Ada83
● ● ●
● ● ●
● ●
● ● ● ●
Sequent DGiUX
4GL
●
● ●
● ●
● ●
●
● ●
●
NT
● ●
●
NT
●
●
●
● ●
HTML
● ●
● ●
● ● ●
● ● ● ● ● ● ● ● ● True 64, NT
a) SCO
b) UnixWare and Open
Server Development VDK
a) Collogia
b) Collinor
● ● ●
●
●
●
Ada95
True 64 Unix
● ● ● ● ● ●
●
Interpreter
Compiler
Debugger
Editor
Ablaufverfolgung
Konfigurationsverwaltung
Projekt-/Prozessverwaltung
● ● ● ●
●
● ● ● ● ●
Sonstige
●
● ● ● ●
a) Aonix
b) ObjectAda
a) Aonix
b) AdaWorld
a) Allant
b) Aspex
a) Basis Intern. Ltd.
b) BBj
Sonstige
● ● ● ● ● ● ● ● ●
Tool-Art
Ada
●
●
● ●
●
● ●
●
● ● ● ●
●
NT
a) Compuware
b) Uniface
● ● ● ● ● ● ● ● ● diverse andere
a) Powerflex Corp.
b) PFXplus 4.5x
● ● ● ● ●
a) RSI
b) IDL
b) VIP
b) ION
a) CA
b) AION
●
● ● ●
●
● ● ● ●
●
● ●
●
●
●
● ● ●
● ● ●
● ● ●
●
●
● ● ● ●
● ● ● ●
●
●
● ●
●
● ●
● ●
●
●
a) Forté
b) Forté for Java
b) Forté UGL
a) GFT
b) GRIT Application
Developer
a) Halstenbach
b) Rosi-SQL
b) iSS-Base
● ● ● ● ● ●
● ●
● NT
● ● ●
● ● ●
●
PFXplus
●
● OS/390
● ●
● ● ● ● ● ● ● ● ●
●
● ● ● ● ● ● ● fast alle 3GL
ActiveX, Corba,
Encina, Tuxedo
●
●
●
● ●
● ● ●
● ● ● ● ● ● ●
Forté 4GL
eigene 4GL
● ● ● ● ● ● ●
●
● ●
● ● ●
● ●
▼
a) ARS Software
b) 089/893413-0
c) 089/893413-10
a) Basis Int. Software
b) 0611/7146682
c) 0611/7146683
a) Bläske Consulting
b) 089/78581633
a) CA Comp. Associates
b) 089/62724-100
c) 089/62724-140
a) Hersteller
b) Produktname
a) Acucorp Inc.
b) Acucobol-GT
unterstützte Programmiersprachen
C/C++
Fortran
Basic
Java
Cobol
Pascal
Assembler
a) Anbieter
b) Telefon
c) Telefax
a) Acucorp Deutschland
b) 06175/03310
c) 06175/1429
a) Aonix
b) 0721/98653-0
c) 0721/98653-98
Linux
SCO Open Server
SCO Unixware
HP UX
AIX
Sun Solaris
SunOS
Irix
Sinix
Unix-Derivat
55
EINKAUFSFÜHRER
a) HWF Software
b) 02214/845966
c) 02234/78684
a) IAR Systems
b) 089/90069080
c) 089/90069081
a) IBM
b) 0180/3313233
c) 0711/7853511
a) InfoCom
b) 06652/910910
c) 06652/910999
a) Information Builders
b) 089/354890
c) 089/35489190
a) Inter Media
b) 02203/182374
c) 02203/182375
a) Intersystems
b) 06151/1747-0
c) 06151/1747-11
a) Imcor
b) 0711/7089-003
c) 0711/7089-004
a) Industrial Application
b) 0721/96416-0
c) 0721/96416-40
a) ISA Tools
b) 0711/227692-0
c) 0711/2276929
a) ixsoft
b) 033363/46100
c) 033363/46109
a) Dr. Rudolf Keil
b) 06221/862091
c) 06221/861954
a) Langner
b) 040/609011-0
c) 040/609011-11
a) LinuxLand International
b) 089/993414-0
c) 089/993414-99
a) IBM
b) Visual Age
●
a) InfoCom
b) Snowbound RasterMaster 8.0
a) Information Builders
b) WebFocus
●
a) Supernova
b) Prozess Integrator/
Developer
a) Intersystems
b) Caché Studio
●
●
●
●
● ● ● ● ● ●
● ● ●
True 64 Unix
●
Sonstige
●
●
●
● ●
Visual C++, SQL
●
● ●
● ●
●
● ● ● ● ● ● ● ● ● VMS auf VAX
●
● ●
eigene 4GL
● ● ● ● ● ● ● ● ●
●
● ●
Caché Object Script
a) KRFTech
b) WinDriver
●
●
●
Delphi
a) IAS
b) IAS Troia
●
● ● ● ● ●
a) ISA Tools
b) ISA Dialog Manager
●
● ● ● ●
a) Cygnus Solutions
b) Source Navigator
Enterprise
b) Code Fusion
b) CygWin
a) ObjectLife Soft
b) SoftWorks
●
●
●
a) Langner
b) Luca
●
●
●
●
● ●
●
●
Win
●
●
● ● ● ● ● ●
● ● ● ●
●
● ●
● ● ● ● ● ●
Smalltalk, RPG
●
●
●
● ● ● ●
UML, HDBF
●
●
● ● ●
●
● ● ● ●
● ● ● ● ● ● ●
●
●
● ●
●
● ●
● ●
●
●
●
● ●
● TCL
●
● ● ● ● ●
Win
a) TakeFive Software
●
b) SNIFF+ Java/Web-Ed.
b) SNIFF+ Small Business ●
Edition
a) McCabe & Asssociates a) McCabe Associates
●
b) 0202/2581-201
b) McCabe QA
c) 0202/2581-204
a) MDlink
a) MDlink
●
●
b) 0391/25568-0
b) Skyrix
c) 0391/25568-99
a) Merant
a) Merant
● ● ● ●
●
b) 089/96271-0
b) Object COBOL
c) 089/96271-111
Developer Suite
b) Server Express
●
●
a) Metrowerks
a) Metrowerks
●
●
b) 0611/97774-235
b) CodeWarrior
c) 0611/97774-162
a) National Instruments a) National Instruments ●
●
●
b) 089/7413130
b) LabVIEW
c) 089/7416035
b) LabWindows/CVI
●
56
●
Tool-Art
Interpreter
Compiler
Debugger
Editor
Ablaufverfolgung
Konfigurationsverwaltung
Projekt-/Prozessverwaltung
a) Hersteller
Sonstige
b) Produktname
a) highTech
●
●
b) GNU Development System
b) TGDB
●
●
a) CA
● ● ● ● ● ● ● ● ●
b) SQL Station
b) Erwin BPwin Modul Mart
● ● ●
a) IAR Systems
●
● ●
b) ICCxxxx
unterstützte Programmiersprachen
C/C++
Fortran
Basic
Java
Cobol
Pascal
Assembler
a) Anbieter
b) Telefon
c) Telefax
a) HighTech
b) 0681/92613-0
c) 0681/92613-26
Linux
SCO Open Server
SCO Unixware
HP UX
AIX
Sun Solaris
SunOS
Irix
Sinix
Unix-Derivat
● ●
●
● ●
●
Corba, Ada
● ● ● ● ● ● ● Ada 83, Ada 95
●
●
●
●
●
● ●
● ●
● ●
● ●
● ●
Python, Objective-C
●
● ● ● ● ●
●
● ● ● ● ●
● ● ●
● ●
●
●
●
5/2000
5/2000
●
a) Otris
b) Janus/Enterprise
●
a) Prahm
b) Control 98
●
a) Patzschke & Rasp
b) GIPSY
b) VisualGIPSY
●
a) DataViews Corp.
b) DataViews
a) QA Systems
b) QA-C, QA-C++,
Q-Studio Java
a) Magic Software
b) Magic
a) Lynx USA
b) Lynx OS
●
● ● ● ● ●
●
● ● ● ●
●
● ●
●
●
●
● ● ● ● ●
●
Sonstige
eigene 4GL, SQL
Interpreter
Compiler
Debugger
Editor
Ablaufverfolgung
Konfigurationsverwaltung
Projekt-/Prozessverwaltung
Sonstige
Win, MacOS
Tool-Art
●
● ●
●
●
●
QNX
●
FB/5, Kof, AWL/L,
DIM19239, IEC1191
● ● ● ● ● ● ●
Tru64 Unix, NT
●
Tcl/Tk
●
jede, wenn Tcl/Tk 8.0
oder höher installiert ist
Tru 64 Unix, OpenVMS, ●
NT, 95
●
●
●
●
Tcl/Tk 8.0 oder höher
● ●
●
●
E-Commerce
●
●
Echtzeit add-on
●
●
●
HTML, XML
●
● ●
● ● ●
▼
a) QA Systems
b) 0711/138183-0
c) 0711/138183-10
a) Qering Global
b) 089/7470050
c) 089/7470047
a) Hersteller
b) Produktname
a) Omnis Software
b) Omnis Studio
unterstützte Programmiersprachen
C/C++
Fortran
Basic
Java
Cobol
Pascal
Assembler
a) Anbieter
b) Telefon
c) Telefax
a) Omnis Software
b) 040/53287211
c) 040/5313818
a) Otris
b) 0231/1061540
c) 0231/1061544
a) Prahm
b) 0721/558995
c) 0721/9554348
a) prs Patzschke & Rasp
b) 0611/1731-0
c) 0611/1731-31
Linux
SCO Open Server
SCO Unixware
HP UX
AIX
Sun Solaris
SunOS
Irix
Sinix
Unix-Derivat
57
EINKAUFSFÜHRER
a) Rogue Wave
b) 06103/5934-0
c) 06103/36955
a) Software AG
b) 06151/92-3100
c) 06151/92-4405
a) SCO
b) 06172/48670
c) 06172/486712
a) Secude
b) 06151/880060
c) 06151/8800626
a) Segue
b) 040/33313-310
c) 040/33313-445
a) Silverstream
b) 089/99216-124
c) 089/99216-284
a) Softlab
b) 089/9936-1103
c) 089/9936-1768
a) Software AG
b) 06151/92-3151
c) 06151/92-3151
a) SQL
b) 03518/76190
c) 03518/718731
a) Stockmayer
b) 0911/505241
c) 0911/5009584
a) Tasking
b) 07152/97991-0
c) 07152/97991-20
a) tiscon Infosystems
b) 0731/95448-150
c) 0731/95448-901
a) Tritec
b) 06131/92220
c) 06131/922229
a) UniCon Software
b) 0721/96451-0
c) 0721/96451-43
a) Vectorsoft
b) 06104/660-100
c) 06104/660-190
a) Willert
b) 06722/24081
c) 05722/24083
58
Sonstige
●
●
●
●
●
● ● ●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
XMC/COM CORBA
●
●
●
a) Segue
●
b) Silk Test
b) Silk Performer
b) Silk Pilot
b) Silk Observer
b) Silk Meter
a) Silverstream
b) Application Server 3.0
● ● ● ●
●
a) Softlab
b) Enabler blue + aqua
● ● ●
a) Software AG
b) Bolero
b) Natural
a) CA
b) QL Station
●
●
Tru64 Unix, OS/390,
NT
● ● ● ● ● ●
a) Secude
b) Secude SOK
●
●
●
●
● ●
●
● ● ●
●
●
●
●
●
● ● ●
●
● ● ●
●
Forté Powerbuilder
● ● ● ● ● ● ●
●
●
OS/390, NT
● ● ● ● ●
● ●
Bolero
●
● ● ● ● ●
● BS2000, OS/390
● ● ● ● ● ● ● ● ●
a) SCO
b) C++ 3.0
a) Tasking
b) C/C++ Cross
Development Tools
a) Togethersoft
b) Together
●
●
●
● ● ●
● ● ●
● ● ●
●
●
● ● ●
● ●
● ●
●
● ●
a) SCO
b) UODK
Sonstige
Tool-Art
Interpreter
Compiler
Debugger
Editor
Ablaufverfolgung
Konfigurationsverwaltung
Projekt-/Prozessverwaltung
a) Hersteller
b) Produktname
a) Absoft
b) Pro Fortran
a) Fujitsu
b) F90
a) Rogue Wave
b) TOOLS.n++
b) THREADS.n++
b) Nouveau
b) Studlog
b) Standard C++ Library
a) Software AG
b) Bolero
unterstützte Programmiersprachen
C/C++
Fortran
Basic
Java
Cobol
Pascal
Assembler
a) Anbieter
b) Telefon
c) Telefax
a) QT software
b) 089/332970
c) 089/332974
Linux
SCO Open Server
SCO Unixware
HP UX
AIX
Sun Solaris
SunOS
Irix
Sinix
Unix-Derivat
● ●
XML
● ● ● ● ● ●
Natural
● ● ● ●
Visual C++, SQL, Visual ● ● ● ●
J++
● ●
●
●
● Embedded Internet
Technologie
● ●
Mac OS 8.x, Win
●
●
●
a) Sun
●
b) Workshop C++
b) Visual Workshop
●
C/C++
b) Workshop Fortran
●
b) Performance Work●
shop Fortran
a) UniCon
● ● ● ● ● ● ● ● ● BS2000, VMS, NT
b) FELICS
b) FELICS Lizenzmanag. ● ● ● ● ● ● ● ● ● BS2000, VMS, NT
a) Vectorsoft
● ● ● ● ● ● ●
b) CENZEPT 16
●
●
●
● ● ●
● ●
●
● ● ●
● ●
a) Tasking
●
b) Tasking C16K-Compiler
a) Hitec
●
b) GNU C166-Compiler
●
●
●
● ● ●
●
●
●
●
● ● ●
●
●
●
● ● ● ● ● ● ● Delphi
● ● ● ● ● ● ● Delphi
Conzept 16
● ● ●
● ● ●
● ● ● ● ● ● ●
5/2000
5/2000
Know-how für Linux-Profis
Zwei
für Linux
Doopelprozessorsystem mit
◆ Doppelprozessorsystem
Alpha-Prozessoren getestet
◆ Optimierte Compiler garantieren
Bestmarken
Backup-Management
für Linux
◆ Arcserve-IT für heterogene
Umgebungen
Redundanz inklusive
◆ Software-RAID für Linux
◆ Boot-fähige RAID-Arrays einrichten
online
http://www.linux-open.de
Links: Alle wichtigen
Linux-Adressen im Netz
+++ Marktübersicht:
Kommerziell unterstützte Software für Linux
+++ Stellenmarkt:
Job-Angebote für LinuxProfis +++ Tests:
Linux-Distributionen,
Office-Software
In dieser Ausgabe
◆ Alpha-Doppelprozessorsystem im Test
◆ Arcserve-IT für Linux
◆ Redundanz ohne
Zusatz-Hardware
◆ Kernel-News
Unterstützung ausgebaut … Antiviren-Software … Komplettlösung …
Konferenz-Server … Entwicklung unter Linux … Embedded Datenbank
… Bezahlen im Internet … Backup und Recovery … Unkompliziert
sich anhand des Blockschaltbilds einen
Überblick über das Mainboard verschaffen. Der Tsunami-Chipsatz (er
trägt die offizielle Bezeichnung:
21272), besteht aus drei Funktionsblöcken – den D, C und P-Chips. Mit
den D-Chips wird der Speicherbus aufgebaut, der mit der Anzahl der eingesetzten D-Chips in seiner Breite skaliert
werden kann.
Beim UP2000 werden vier D-Chips
eingesetzt, was einer Speicherbusbreite
von 256 Bit entspricht. Diktiert wurde
diese Entscheidung wohl von der verfügbaren Platinenfläche des FullsizeATX-Mainboards. Bei dem ersten System, welches auf dem Tsunami-Chipsatz basierte, der Compaq DS20, wurden acht D-Chips mit einer resultierenden Speicherbusbreite von 512 Bit eingesetzt, was allerdings zu einem erheblich größeren Mainboard führte. Damit
bietet das UP2000 einen maximalen
Speicherausbau von 2 GByte, die in acht
Alpha-Doppelprozessorsystem im Test
Zwei für Linux
Die 64-Bit-Architektur der Alpha-Prozessoren kann
unter Linux mit enormen Testergebnissen aufwarten.
Vor allem beim Einsatz der frei verfügbaren, optimierenden “Compaq-Compiler” zeigt sich das Doppelprozessorsystem auf Basis des UP2000-Mainboards von seiner besten Seite.
N
achdem Compaq die Firma Digital Equipment übernahm,
erbte der PC-Hersteller deren
technologisches “Filetstück”, den Alpha-Prozessor. Allzu eifrige Auguren
sagten daraufhin dieser Architektur das
baldige Ende voraus. Heute, ungefähr
ein Jahr nach der Ankündigung der neuesten Alpha-Generation, dem 21264,
scheint Compaqs Bekenntnis zu Alpha
ungebrochen.
Unlängst wurde mit dem Fertigungspartner Samsung sowie dessen Tochter
Alpha-Processor Inc. (API), ein 500
Millionen Dollar starkes Entwicklungsprogramm für die Alpha-Architektur
angekündigt. Die Gründe für das Engagement Compaqs in Sachen Alpha sind
vielfältig. Zum einen gilt der Alpha seit
Jahren hinsichtlich der Leistung als
führend und ist als 64-Bit-Architektur
für die Zukunft bestens gerüstet. Im Gegensatz zu den noch kommenden IA64Prozessoren ist er am Markt seit Jahren
eingeführt und wird von Software-Herstellern umfangreich unterstützt. Entsprechend liefert Compaq stetig neue
Systeme auf Basis dieses Chips aus.
Um den OEM Markt – einst von DEC
selbst bearbeitet – beliefern zu können,
bedienen sich die Alpha-Partner Compaq und Samsung der Firma API. Folgerichtig liefert API auch die Mainboards
und Prozessoren auf Alpha-Basis an die
interessierte Klientel. Nach der “Abkündigung” der vorherigen Alpha-Generation 21164 besteht deren Angebotspalette mit dem Boards DS20, UP1000
und UP2000 ausschließlich aus aktuel-
5/2000
len Alpha-21264-Systemen. Beim
UP1000 handelt es sich um ein SingleProzessor-Board, basierend auf dem
Irongate-Chipsatz von AMD, der ursprünglich für den Athlon entwickelt
wurde. Da sich AMDs Athlon und der
aktuelle Alpha-21264 das Busprotokoll
EV6 teilen, lag eine Adaption des in entAlpha Slot-B Modul (2)
L2 Cache
2/4/8 MByte
128 Bit Bus
D-Chips (4)
Main Memory
8 DIMMs, 2 GByte max.
256 Bit, 83 MHz
PC 100, optional ECC
SPD-config
21264 Alpha
CPU-Core
2”64 KByte
L1 Cache
C-Chip
Flash-ROM
2 MByte
P-Chip (2)
South Bridge
Cypress
CY82C693UB
PCI-Bus 1
Config
IRQ
3 PCI-Slots, 33 MHz
1” 32 Bit, 2” 64 Bit
Bild 1. Das Blockschaltbild des UP2000
sprechenden Mengen hergestellten AMDChipsatzes für Alpha-Systeme nahe.
Beim UP2000 wird der TsunamiChipsatz von Compaq verwendet, der
den Aufbau von Doppelprozessorsystemen erlaubt. Im Folgenden soll dieses
Board einer eingehenden Betrachtung
unterzogen werden. In Bild 1 kann man
SDRAM DIMMS nach marktüblicher
PC100-Spezifikation aufgebaut werden.
Dabei wird ECC zur Fehlererkennung
und -korrektur genauso unterstützt wie
die automatische Konfiguration des
Speicher-Timings mittels SPD-ROM
auf den DIMM-Riegeln. Der Speicher
wird mit – im Vergleich zu modernen
61
Linux
PCs – moderaten 83 MHz getaktet.
Führt man sich die Anzahl der Signalleitungen eines 256-Bit-Busses im Vergleich zu den typischen 64 Bit im PCBereich vor Augen, wird leicht klar,
dass sich hohe Taktfrequenzen aus Layoutgründen verbieten. Immerhin erlaubt
das Speicher-Interface des UP2000
theoretisch einen Durchsatz von über
2,6 GByte/s. Über den C-Chip wird die
Systemsteuerung abgewickelt und die
verschiedenen Bussysteme angekoppelt. Im Fall des UP2000 werden über
zwei P-Chips entsprechend zwei PCIBusse realisiert. Der erste PCI-Bus bietet neben einem 32-Bit-Slot zwei 64Bit-Steckplätze sowie einen SCSI-Bus
auf Basis des 7891/3860-Chipsatzes
von Adaptec, der Ultra-2/LVD sowie
“Singleended Ultra-Wide” bietet – also
das, was eine normale 2940U2W-PCIKarte auch kann.
Ebenfalls an den ersten PCI-Bus wird
die “Southbridge” angebunden, die üblicherweise IDE- und ISA-Bus sowie
zwei USB-Ports bereitstellt. Der ISASlot ist “shared” ausgelegt, was bedeutet, dass man sich aus mechanischen
Gründen für den ISA-Slot oder den benachbarten PCI-Slot entscheiden muss.
Bild 2. Prozessoren plus Kühler dominieren das Bild
Außerdem ist an ihr auch ein SMCKombicontroller angeschlossen, der übliche Schnittstellen wie Floppy, seriell/parallel, Keyboard und Maus (PS/2)
bietet – quasi alles alte Bekannte aus
dem PC-Bereich. Unabhängig von diesem ersten PCI-Bus wird über den zweiten P-Chip noch ein PCI-Bus geboten,
der seinerseits drei 32-Bit-Slots bietet.
Allerdings hätte es an dieser Stelle auch
Der PAL-Code
Die Alpha-Architektur beinhaltet eine Besonderheit – den PAL-Code. Dabei handelt es sich um Routinen, die in normalem Alpha-Assembler geschrieben werden,
aber in einem besonderen, privilegierten Modus ausgeführt werden – dem PALMode. PAL-Code-Routinen dienen vor allem dazu, fehlende Funktionen der Alpha-Architektur, wie sie von Betriebssystementwicklern benötigt werden, zu implementieren. Dazu gehören beispielsweise Funktionen zur Speicherverwaltung
oder Behandlung von bestimmten Exceptions.
PAL-Code erlaubt damit die optimale Anpassung einer Architektur an ein Betriebssystem, ohne die nötigen Funktionen in Hardware zu verankern. Typischerweise lädt die Firmware entsprechenden PAL-Code, bevor das eigentliche Betriebssystem geladen wird. Als man noch unter der Regie von Digital Equipment
die ARC-Firmware für den Betrieb von Windows NT entwickelte, wurde der von
Windows NT benötigte PAL-Code gleich mit implementiert.
Bei Windows NT auf Alpha handelt es sich allerdings um eine 32-Bit-Umgebung,
die unter Linux in dieser Form nicht zu gebrauchen war. Diese Tatsache, zusammen mit einer ganzen Reihe von anderen Problemen, auch lizenzrechtlicher Natur, verboten den Einsatz des NT-PAL-Codes unter Linux. Dieses und einige andere Probleme wurden durch einen separaten, von einem DOS-FAT-Filesystem zu
startenden Bootlader names “Milo” gelöst, dessen Aufgaben unter anderem darin bestand, einen PAL-Code zu laden, der den Betrieb von Linux erlaubte.
PAL-Code zu entwickeln ist keine triviale Aufgabe, und so basiert der von Milo
verwendete PAL-Code auf einer Referenzimplementierung eines EntwicklungsKits aus dem Hause DEC. Der verwendete PAL-Code weist unangenehmerweise
eine Reihe von Instabilitäten auf und ist zudem nicht notwendigerweise auf allen
Alpha-Plattformen, die auf ARC-Firmware basieren, problemlos einzusetzen. Der
von der SRM geladene PAL-Code arbeitet jedoch problemlos mit Linux zusammen,
sodass man SRM dann vorziehen sollte, wenn man die Wahl hat.
62
ein 64-Bit-PCI-Slot auf dem zweiten
Bus sein dürfen, da Hochleistungsnetzwerke wie Myrinet oder Gigabit Ethernet genügend Bandbreite offerieren, um
einen eigenen PCI-Bus zu rechtfertigen,
allerdings häufig in Form von 64-BitKarten angeboten werden.
Will man also 64-Bit-Karten verwenden, muss man diese im ersten PCI-Bus
betreiben, wo sie die Bandbreite mit
dem SCSI-Bus zu teilen haben, der ja
auch nicht gerade “lastarm” mit maximal 80 MByte/s (bei Ultra-2/LVD) arbeitet – vom IDE ganz zu schweigen.
Insgesamt ist die Ausstattung des
Boards mit Schnittstellen reichhaltig.
Für den Server-Markt konzipiert, liefert
das UP2000 mit zwei PCI Bussen, SCSI
und IDE nahezu alles, was man sich
wünschen kann. Da “verschmerzt” man
es leicht, dass kein Ethernet auf dem
Mainboard vorhanden ist.
Leider muss man allerdings auch auf
eine AGP-Schnittstelle verzichten, was
die Tauglichkeit in Sachen Grafik-Workstation wohl einschränken dürfte. Die
Leistungsexplosion im 3-D-Bereich bei
den PC-Grafikkarten beschränkt sich vornehmlich auf den AGP-Bus. Eine moderne Grafikkarte mit Nvidias-Geforce-Chip
wäre nicht zuletzt preislich interessant
und könnte in Verbindung mit den Alpha-Prozessoren der etablierten Konkurrenz, etwa aus dem Hause Intergraph oder
SGI, potentiell das Fürchten lehren.
Das UP2000 unterstützt zwei Prozesso-
5/2000
ren, die im aktuellen Slot-B-Format vorliegen. Dabei handelt es sich um eine aus
dem PC-Bereich seit dem Pentium-II bekannte “Kassette”, die neben der CPU
auch den L2-Cache enthält. Im Vergleich
zum Pentium-II/III oder dem Athlon fällt
jedoch die enorme Größe des Alpha-Moduls auf, das mit einem riesigen Kühlkörper ausgestattet ist. Insgesamt wiegt ein
Alpha-Modul damit 1,2 Kilogramm. Der
große Kühlkörper ist auch bitter nötig,
verbraucht doch der Alpha schon bei 667
MHz immerhin knapp 100 Watt – die resultierende Wärme will abgeführt werden. Daher sind pro Prozessorsteckplatz
auf dem Mainboard zwei kleine Lüfter
eingebaut, die einen entsprechenden
Luftstrom sicherstellen sollen. Allerdings
sorgen diese Lüfter beim Einbau des
Mainboards in ein Gehäuse für Probleme.
API reklamiert für das UP2000 den standardisierten Fullsize-ATX-Formfaktor,
der vom Mainboard auch vollständig ausgereizt wird.
Leider stehen die Lüfter der CPU-Halterung über den unteren Rand der Platine
hinaus, sodass das Board den angesprochenen Formfaktor damit praktisch überschreitet. Im vorliegenden Fall wurde das
Board in ein 19-Zoll-Einschubgehäuse
verbaut, das über eine “Schublade” für
die Platine verfügt. Diese Schublade war
ein Fall für den Schlosser, da dank der
überstehenden Lüfter erst eine entsprechende Aussparung geschnitten werden
musste. Bild 2 zeigt das Mainboard.
Bei der mechanischen Nacharbeit
wurden gleich noch acht zusätzliche
Löcher gebohrt, die der Befestigung des
Mainboards unterhalb der CPU-Halterungen dienen. Durch das bloße Gewicht der CPU-Module ist die Platine
Die Testumgebung
Mainboard: UP2000 von Alpha-Processor Inc. (API)
CPUs: zweimal 667 MHz Alpha 21264, 2 MByte L2-Cache, Slot-B Module
Speicher: 512 MByte in viermal 128 MByte PC100 SDRAM Modulen, mit ECC
I/O-Karten: ASUS SC-200 Fast-SCSI-II-Controller, NCR 53c810a Chip
Symbios-Logic SYM8951U Ultra-II LVD Wide SCSI, 53c875E Chip
No-Name Ethernet 10/100 MBit/s TP, Intel (DEC) 21143 Chip
Harddisk: IBM DNES 309170 (9 GByte Fast-SCSI-II),
zwei IBM DNES 309170W (9 GByte Ultra-Wide-SCSI)
Bandlaufwerk: Wangtek 5525ES
Console: Terminal Digital VT-520
zusätzlich mit jeweils vier Distanzstücken unterhalb der CPUs abzustützen, da sich sonst die Platine zu sehr
durchbiegt. Darüber hinaus hat man
durch eine entsprechende Bestückung
mit Lüftern für eine ausreichende Kühlung im Gehäuseinneren zu sorgen.
Besondere Anforderungen stellt das
UP2000 auch an die Stromversorgung.
Die Alphas selbst schlagen mit knapp
100 Watt pro CPU zu Buche. Dazu
kommt eine entsprechende Leistung für
den Speicher. Auch scheint sich die Logik der Platine seinerseits ebenfalls
reichlich Strom zu genehmigen, sodass
API als Minimum eine 600-Watt-Netzteilkonfiguration empfiehlt. Diese Leistung ist über einen normalen ATXStecker nicht mehr zu liefern, sodass
API zwingend die Versorgung über
zwei zusätzliche sechs- und zehnpolige
Steckverbindungen vorschreibt. Ein typisches PC-Netzteil kommt also nicht in
Frage, nicht einmal die, die für den
“Server-Betrieb” empfohlen werden.
Wer also mit dem “Selbstbau” eines
UP2000-basierenden Alpha-Systems
liebäugelt, sollte sich nach entsprechenden Quellen der benötigten Komponenten umsehen. Für den Unerfahrenen in
Weitere Informationen
www.alphalinux.org, die Alpha-Linux-Homepage, umfangreiche Infos zu Alpha und Linux allgemein.
www.alpha-processor.com, die Homepage von Alpha Processor Inc, dem Hersteller der UP1000/UP2000-Mainboards und der Alpha-Prozessoren.
www.support.compaq.com/alpha-tools/index.html, Seite mit nützlicher Software für Alpha-Systeme, wie die im Text angesprochenen Compiler und einer
Netscape-Version für Alpha-Linux.
ftp.digital.com/pub/Digital/info/semiconductor/literature/dsc-library.html,
umfangreiche Dokumentation zu verschiedenen Alpha-Systemen, Chipsätzen
und Prozessoren.
ftp.digital.com/pub/DEC/alpha/firmware, Firmware-Upgrades für verschiedene Alpha-Systeme, (auch älteren Datums).
5/2000
Sachen Selbstmontage sei an dieser
Stelle dringend ein Komplettsystem
oder zumindest ein “Barebone”, bestehend aus Mainboard, Netzteil und
Gehäuse empfohlen. API hat mit dem
Powerrack 3U ein entsprechendes Angebot im Programm.
Die Dokumentation des Mainboards
hinterlässt allerdings einen zwiespältigen Eindruck. Geliefert wird ein farbiges Faltblatt, das mit Hilfe von reichlich
Bildern das Mainboard, dessen Montage und die Jumper erklärt. Das eigentliche Handbuch liegt in Form einer Diskette bei, die eine entsprechende PDFDatei enthält.
Um das Handbuch lesen zu können,
muss man also Zugang zu einem System
haben, das über einen Acrobat-Reader
verfügt. Bei einem nicht gerade kleinlichen Preisschild für Mainboard und
CPUs ein unschönes Detail. Wie üblich,
liegt die Dokumentation nur in englischer Sprache vor. Insgesamt ist die Information im “Handbuch” als gut zu bewerten, sieht man von einigen kleinen
“Schwächen” ab. So ist nirgendwo die
Pinbelegung der Stromversorgung zu
finden. Auch vermeidet das Handbuch
elegant, auf einige Schwächen des
UP2000 hinzuweisen.
Ausgesprochen erfreulich ist der qualitative Eindruck der Platine. Layout
und Verarbeitung machen einen ausgezeichneten Eindruck, der durch sinnvolle Details noch verstärkt wird. So informiert eine Leiste mit acht LEDs über
den Zustand des Systems während des
Boot-Vorgangs.
Als Firmware läuft auf dem UP2000
das aktuelle Alpha-BIOS. Es vereinigt
die zu DEC-Zeiten entstandenen SRMund ARC-Versionen. Da die ARCFirmware ursprünglich für Windows
63
Linux
NT entwickelt wurde, ist sie insofern
überflüssig, da NT auf Alpha bekanntermaßen eingestellt wurde, allerdings
läuft die mittlerweile alte NT-Version
auf dem Mainboard noch – zumindest
gemäß der Dokumentation. Getestet
wurde NT jedenfalls nicht. Entsprechend lässt sich das System auf die Verwendung der SRM-Firmware konfigurieren, die auch von den aktuellen OpenVMS- und True64-Betriebssystemen
verwendet wird. Um eine Alpha mit
ARC unter Linux zu betreiben, ist ein
spezieller Boot-Loader namens “Milo”
nötig. Dieser existiert für das UP2000
nicht, sodass die Linux-Installation und
der Boot-Vorgang über die SRM abgewickelt wird. Prinzipiell ist das von
Vorteil, da durch die SRM-Firmware
auf dem UP2000 auch NetBSD eingesetzt werden kann, was in einem getrennten Artikel demnächst behandelt
werden soll – vorab lediglich der Hinweis: Es läuft. Darüber hinaus ist die
Verwendung von “Milo” generell recht
problematisch wie in Kasten auf Seite
62 dargestellt. Als Linux-Distribution
wurde die aktuelle Redhat 6.1 verwendet.
Die Konfiguration des Testsystems ist
in Kasten auf Seite 63 oben wiedergegeben.
Zunächst bildete die SRM-Firmware des
UP2000 die erste Hürde bei der Installation. Die ursprünglich ausgelieferte Version erlaubt es nicht, von dem AdaptecController auf dem Mainboard zu booten, womit sich eine SCSI-CD-ROM basierte Installation ohne Umwege nicht
durchführen ließ. Diese Tatsache blieb
auch im Handbuch unerwähnt – dort
wird davon ausgegangen, dass man via
Floppy den Boot-Vorgang startet – doch
dies sollte im Jahr 2000 inakzeptabel
sein. Zur Ehrenrettung sei gesagt, dass
mittlerweile ein Firmware-Update auf
der API-Homepage existiert, das sich
bequem via Floppy einspielen lässt und
das dann das Booten vom Adaptec-Controller aus erlaubt. Alternativ kann
man einen Symbios-Logic-basierenden
SCSI-Controller einsetzen, der von der
SRM-Firmware in der Regel erkannt
wird und damit Zugriff auf die angeschlossene SCSI-Peripherie von der
Konsole-Firmware aus erlaubt.
Das Alpha-BIOS versucht grundsätz-
64
lich sowohl bei ARC als auch SRM über
eigene Hardware-Erkennungsroutinen
und einem kleinen x86-Emulator I/OKarten und deren BIOS zu finden und
zu initialisieren. Im Fall der SymbiosLogic-Controllerfamilie
funktioniert
das so zuverlässig, dass auch No-NameKarten mit diesen Chips erkannt werden. Ähnliches gilt auch für Netzwerkkarten mit Chips aus der (ehemals DECeigenen) 2114x-”Tulip”-Familie. Damit
wird dann auch ein “Diskless-Boot” via
Die Ergebnisse des SSBA für das UP2000
DHRYSTONE
GCC
(without reg,without optimization):
Dhrystones per Second: 713785,9
MP_Dhrystones
1399656 (196 %)
Compaq-C
2152034,4
3938223 (183 %)
(with reg,without optimization):
Dhrystones per Second: 817307,7
MP_Dhrystones
1643835 (201 %)
2318181,8
4184615 (180 %)
(without reg,with optimization):
Dhrystones per Second: 1888888,9
MP_Dhrystones
3526361 (186 %)
2281879,2
4241164 (185 %)
(with reg,with optimization):
Dhrystones per Second: 1895910,8
MP_Dhrystones
3469387 (182 %)
2341889,4
4396551 (187 %)
TOOLS
total time for tools:
real: 1,37
user: 0,29
syst: 0,41
real
0,09
0,07
0,12
0,23
0,45
0,90
1,81
3,63
user
0,01
0,02
0,04
0,09
0,17
0,34
0,65
1,29
syst
0,02
0,04
0,07
0,13
0,27
0,55
1,15
2,32
BYTE
time in seconds:
1 user:
2 user:
4 user:
8 user:
16 user:
32 user:
64 user:
128 user:
BONNIE
10 MByte Datei:
Sequential Output
Per Char
Block
K/s
K/s
18141
147686
Rewrite
K/s
13090
Sequential
Per Char
K/se
16565
Input
Block
K/s
275941
Random
Seek/s
/sec
25441
1024 MByte
Sequential
Per Char
K/s
7241
Rewrite
K/s
3482
Sequential
Per Char
K/s
6319
Input
Block
K/s
7155
Random
Seeks
/sec
113,6
Datei:
Output
Block
K/s
10091
TEST C
time in seconds:
BSD
time
time
time
time
time
in seconds:
for memory:
for calls:
for pipes:
for fork/exec:
real
3,36
user
0,01
syst
0,00
GCC
real
5,8
0,5
0,93
28,59
user
0
0,02
0
10,12
syst
0
0,13
0,3
11,27
real
3,76
user
0,00
syst
0,01
Compaq-C
real
user
4,8
0
0,48
0,02
0,96
0
31,17 13,55
syst
0
0,16
0,35
13,28
5/2000
bootp/tftp möglich.
Da das Testsystem mit entsprechenden Symbios-Logic-Controllern nachgerüstet wurde, lief die Installation der
Redhat-Distribution aus Sicht der Hard-
Terminal als Konsole. Die grafische Benutzeroberfläche wird via Netz auf einem Linux-PC abgewickelt. Eine kurze
Testsitzung mit einer Matrox-Millenium zeigte aber keine gröberen Unver-
Performance-Beispiele
Das (De-)Komprimieren einer Datei mittels GNU-gzip lieferte folgende
Ergebnisse:
Kompression
Dekompression
Athlon:
25,52
6,95
Alpha, GCC Binary:
24,80
6,95
Alpha, Compaq-C Binary: 19,36
3,73
Alle Zeiten in Sekunden. Die Datei ist ein Tar-Archiv der Linux-Kernel 2.2.14
Quellen, etwa 16 MByte groß.
Kompression: time gzip kernel-2.2.14.tar
Dekompression: time gzip d kernel-2.2.14.tar.gz
Die angegebenen Zeiten sind die “real” Werte des time(1) Kommandos.
Der Whetstone Floating-Point Benchmark lieferte die folgenden Resultate:
Athlon, GNU g77 -O2
Genauigkeit:
single
double
35587
2335570
Alpha, Compaq-Fortran fort -fast
Genauigkeit:
single
double
1932076
1729730
Resultate sind in 1000 Whetstones/sec.
ware problemlos. Einzig die Alpha-spezifische Redhat-Dokumentation legt
dem Alpha-Neuling Stolpersteine in den
Weg. Alle zur Installation notwendigen
Informationen sind zwar in einem gesonderten Alpha-Addendum vorhanden, jedoch unübersichtlich verstreut.
Ein vollständiges und aufmerksames
Durchlesen der Dokumentation vor der
Installation sei an dieser Stelle dringend
empfohlen.
Hat man diese Hürden überwunden,
läuft die Installation selbst unspektakulär und problemlos. Der Umfang der
mitgelieferten Software reicht nicht
ganz an den der entsprechenden x86Distribution heran, aber dem kann man
durch gezielte Suche im Netz abhelfen.
Zunächst existiert keine Portierung des
Netscape-Browsers. Um dem abzuhelfen, hat Compaq ein Paket, basierend
auf der True64-Version, bereitgestellt,
wie schon in [1] erwähnt. Ebenfalls
wurde der mitgelieferte Kernel 2.2.13
durch den aktuellen 2.2.14 ersetzt, der
einige Fixes für die Alpha-Familie bereithält.
Redhat bietet als grafische Benutzeroberfläche sowohl Gnome als auch
KDE an, im Test-Setup läuft die Alpha
ohne Grafikkarte mit einem seriellen
5/2000
träglichkeiten sowohl bei Gnome als
auch KDE auf. Schon bei der Installation der Pakete fällt die enorme Arbeitsgeschwindigkeit ins Auge. Die komplette Installation der gewählten Pakete
– so ziemlich alles außer Games, Emacs
und Tex – war nach ungefähr 15 Minuten erledigt. Die ebenfalls auf Alphas
laufende Suse-Distribution unterstützt
nach eigenen Angaben ebenfalls das
UP2000. Für diesen Test war allerdings
eine aktuelle Suse 6.3 nicht mehr rechtzeitig zu bekommen, sodass wir einen
Erfahrungsbericht an dieser Stelle
schuldig bleiben müssen.
Ein erster Benchmark-Lauf mit der
bekannten SSBA-Suite lieferte nur enttäuschende Ergebnisse. Als verantwortlich für die schwachen Resultate ließ
sich der GCC ausmachen. Der bekannte
GNU-Compiler erzeugt nur sehr
schlecht optimierten Code auf AlphaSystemen – offenbar gilt das erst recht
für die aktuellen 21264er Prozessoren.
Dramatische Abhilfe schaffen hier die
von Compaq frei zur Verfügung gestellten Compiler, auf die schon in [2] hingewiesen wurde. Im Kasten auf Seite 63
unten sind nochmals viele relevante
Quellen für Software und Infos rund um
Alpha zusammengefasst – ein Besuch
der Seiten empfiehlt sich nicht nur für
UP2000-Anwender, auch die in [3] getestete Alpha wird beispielsweise von
den Compaq-Compilern unterstützt.
Im Kasten auf Seite 64 sind die Ergebnisse der SSBA aufgeführt. Die Tests,
bei denen C-Programme übersetzt werden, sind mit sowohl mit dem GCC als
auch dem Compaq-C-Compiler durchgeführt worden. Anhand der DhrystoneWerte kann man den Unterschied der
Codequalität zwischen den beiden
Compilern erkennen.
Absolut stellt ein Wert von über zwei
Millionen Dhrystones einen Rekord dar.
Selbst der in [4] getestete Athlon-Rechner bleibt bei diesen Tests unter einer
Million. Vergleicht man die beiden Systeme in der Praxis, ergibt sich ein eher
uneinheitliches Bild. Mal liegen Athlon
und Alpha nahe beieinander, so zum
Beispiel bei der Übersetzung eines neuen Kernels – ohne parallelem “make”
versteht sich – mal hängt die Alpha den
Athlon um Längen ab, vor allem bei
Floating-Point-intensiven Anwendungen. Im Kasten auf dieser Seite sind beispielsweise die Ergebnisse eines typischen gzip(1)-Laufs angegeben. Man erkennt recht deutlich, dass sich die Alpha
erst dann in Szene setzen kann, wenn
man den Compaq-Compiler verwendet.
Wie bereits erwähnt, ändert sich die Lage vor allem bei FP-intensivem Code.
Ebenfalls in diesem Kasten sind die Resultate des Whetstone-Benchmarks gegeben, eines rein auf Floating-Point basierenden Fortran-Benchmarks. Die
Durchläufe werden in getrennten Benchmarks sowohl in einfacher als auch doppelter Genauigkeit gemessen.
Das Gespann Alpha mit CompaqFortran hängt den Athlon mit dem
GNU-Fortran recht locker ab. Der Vollständigkeit halber muss gesagt werden,
dass der GNU-Fortran auf der Alpha je
nach Anzahl der Durchläufe Fehler produzierte – daher wurden diese Ergebnisse nicht mit aufgenommen. Abschließend lässt sich sagen, dass die Alpha bereits seit geraumer Zeit klaglos ihren
Dienst unter Linux, teilweise unter recht
hoher Last, verrichtet.
In Sachen Rechenleistung liegt sie im
praktischen Betrieb an der Spitze dessen,
was man heute von einer modernen Doppelprozessor-Maschine erwarten kann.
65
Linux
Mit der aktuellen Alpha-Generation
spielt Compaq eindeutig in der ersten Liga mit, und die Systemumgebung von
API kann die Stärken des Alpha in Szene
setzen. Allerdings schläft die PC-Konkurrenz nicht. Führt man sich vor Augen, dass das Athlon-Vergleichssystem
mit 500 MHz betrieben wird, so lässt
sich erahnen, zu welchen Werten der gerade vorgestellte 1-GHz-Athlon fähig
wäre. Der Systempreis der Alpha in der
vorliegenden Konfiguration liegt in der
Größenordnung um 30.000 Mark, also
einem Mehrfachen dessen, was man für
ein vergleichbares Athlon oder PentiumIII-System ausgeben müsste – für Letzteren gibt es auch entsprechende Doppelprozessor-Konfigurationen. Für die
Alpha spricht vor allem die Tatsache,
dass es sich auch unter Linux um eine
echte 64-Bit-Umgebung handelt, die den
Umgang mit entsprechend großen Dateien und Prozessen erlaubt.
Vor allem bei fließkommaintensiven
Aufgaben spielt die Alpha ihre Stärken
aus und demonstriert ein Leistungsniveau, von dem insbesondere x86-Prozessoren noch weit entfernt sind. Es
bleibt zu wünschen, dass das Trio API,
Samsung und Compaq in Sachen Taktfrequenz und Herstellungstechnik nicht
den Anschluss verliert, und die bereits
mehrfach demonstrierte 1-GHz-Version des Alphas ausliefern. Der etablierten Workstation-Konkurrenz, etwa
aus dem Hause Sun Microsystems,
rennt die Alpha schon in der vorliegenden 667-MHz-Version auf und davon.
Für alle, die Spitzenleistung vor allem
unter Linux suchen, ist das UP2000 eine stabile und attraktive Alternative zu
den bekannten x86-Multiprozessoren.
In meinem Arbeitsalltag möchte ich jedenfalls nicht mehr auf die Alpha verzichten.
(Thomas Weyergraf/rhh)
Wachsendes Software-Angebot
StorageManagement
Linux konnte sich im letzten Jahr im Server-Bereich
weiter etablieren. Etliche Software-Unternehmen
haben schnell reagiert und viele Produkte auf Linux
portiert. Dazu gehört nun auch Arcserve-IT von Computer Associates (CA) als Open-Beta-Version. Dieses
Tool bietet etliche Managementfunktionen, die bisher
im Linux-Umfeld gefehlt haben.
L
inux konnte laut einer Studie der
IDC (International Data Corporation) seinen Marktanteil im ServerBereich von 16 Prozent in 1998 auf 25
Prozent im Jahr 1999 steigern. Microsoft
Windows NT ist zwar nach wie vor mit
38 Prozent marktführend, aber der Vorsprung vor Linux schrumpft ständig. Der
freie Unix-Abkömmling hat Novell Netware schon von Platz 2 der Rangliste verdrängt, dieses Betriebssystem erreichte
Literaturhinweise
[1] und [2] Kernel-News,
Unixopen 4/2000, Seite 64
[3] “Linux im Alpha-Test”,
Unixopen 11/1997, Seite 64 ff.
[4] “Es muß nicht immer Pentium
sein”, Unixopen 12/1 2000, Seite
35 ff.
Arcserve-IT bietet umfassendes Storage-Management unter Linux
66
5/2000
Mit der zunehmenden Ausbreitung in
Unternehmen steigen die Anforderungen
an ein sicheres Speichermanagement unter Linux. Dies gilt besonders vor dem
Hintergrund von E-Commerce-Anwendungen, die ohnehin zu einem Anschwellen der Datenflut und einer wachsenden
Nachfrage für Speichermanagement
führen. IDC hat für
das Marktsegment
“Storage Management” im Jahr 1998
bereits einen Umsatzzuwachs von 22
Prozent auf 2,67 Billionen Dollar ermittelt und weiteres
Wachstum prognosMit der
Der Job-Status-Manager hält die Anwender über den System- tiziert.
wachsenden Populazustand auf dem Laufenden
rität der Linux-Plattform erwartet IDC, dass Datenschutz und
hen.”
Zahlreiche Software-Hersteller haben -management auch hier immer wichtiger
sich schon lange auf diese Entwicklung werden. Unternehmen wie Computer Aseingestellt. Die Palette an Produkten, die sociates (CA) tragen dem Linux-Boom
unter Linux laufen, wird immer größer. aufgrund solcher Prognosen jetzt verDie Isis-Software-Datenbank registrierte stärkt Rechnung. CA hat den Einsatzbebereits für das Jahr 1999 ein beträchtli- reich der Speichermanagementlösung
ches Anwachsen der Linux-Programme Arcserve-IT mit der jüngsten Betaversion
von 138 im Januar auf 931 im Dezember. auf Linux-Server ausgedehnt. Damit will
Neben technischen (6,4 Prozent) und den der Software-Anbieter eine systemspeziSystemprogrammen (17,6 Prozent) gibt fische Speichermanagement-Komplettlönur noch 19 Prozent. Die übrigen UnixDerivate brachten es zusammen auf 15
Prozent.
“Open-Source-Programme”,
fasst die Gartner Group den Trend zusammen, “werden in zunehmendem Maße im
Umfeld von kommerziellen Anbietern
und Konsumentenorganisationen entste-
EServers
Windows NT 3.51 oder 4.0
Solaris 4.2 oder höher
HP/UX 10.x
IBM/AIX
SCO Open Server R5
SCO Unixware 7
Redhat
Suse
Clients
Windows 3.x, 95/98 und NT
Netware
Macintosh
OS / 2
AS400
verschiedene Unix-Plattformen
Redhat
Suse
Unterstützte Umgebungen von Arcserve-IT
es mittlerweile zahlreiche spezielle Branchenprogramme (32,2 Prozent) für die
öffentliche Verwaltung, für Dienstleistungsanbieter und Banken. Den
Löwenanteil am Gesamtangebot (43,8
Prozent) können aber die branchenübergreifenden Programme für sich verbuchen, die etwa im Finanz- und Rechnungswesen, in der Fertigungsorganisation, Büroautomation und Textverarbeitung eingesetzt werden.
5/2000
sung für Linux bieten, die Datenschutz
und -speicherung automatisiert und dazu
mit anderen Datensicherungstechnologien innerhalb komplexer Umgebungen integrierbar ist.
Arcserve-IT ist für Linux bislang als
“Advanced Edition” erhältlich. Die Lösung ermöglicht zentrales, plattformübergreifendes Management von einer Konsole aus und bietet Performance-, Wiederherstellungs- und Datenschutzmodu-
le. Durch Alarmmanagement, Datenverifikation und Fehlerkorrektur stellt die
Speichermanagementlösung im Ernstfall
Datenintegrität und Recovery-Funktionalität sicher. Wie alle bestehenden Arcserve-IT-Versionen setzt auch die neue Variante für Linux auf das Unicenter-TNGFramework auf. Die Linux-Distributoren
Redhat, Suse, Caldera und Turbo-Linux
unterstützen CA dabei, ihre Managementlösung für Linux-Plattformen bereitzustellen.
Die Installation von Arcserve-IT für Linux läuft über eine einzige Schnittstelle,
die durch den gesamten Vorgang führt.
Optionen und Agenten können dabei zentral für das ganze Unternehmen installiert
werden. Die Speichermanagement-Lösung erlaubt gleichzeitiges Backup auf
bis zu 32 Clients. Die Client-Agent PushTechnologie ermöglicht, dass die Daten
am Client vorab gepackt und an Arcserve-IT weitergeleitet werden, was den
Durchsatz verbessert. Weiterhin verfügt
die “Advanced Edition” über ein Medienmanagement, das sich vor allem
durch die automatische Medienverwaltung (Medienrotation, Medien-Pooling,
fortlaufende Nummerierung von Medien
und Barcode-Unterstützung für Bandbibliotheken) auszeichnet.
Das lokale und Remote-Management
wird durch Alarmmeldungen und andere
Benachrichtigungen verbessert: Für alle
denkbaren Ereignisse und Aufgaben sind
Empfänger und Benachrichtigungsmethoden individuell konfigurierbar. Die
Speichermanagement-Lösung optimiert
zusätzlich die Fähigkeiten zahlreicher
Band- und optischer Bibliotheken. In Bibliotheken mit mehreren Laufwerken
werden medienübergreifende Datensicherung und paralleles Streaming unterstützt; der gleichzeitige Ablauf von Jobs
ist möglich.
Arcserve-IT bietet damit Funktionen
für Datensicherung und -management,
Automatisierung und größere Reichweiten sowohl für ausschließliche Linux- als
auch für heterogene Plattformumgebungen. Das größte Plus der Software ist sicher die Einbeziehung jener Linux-Umgebungen, die bisher mit großem Aufwand über Einzellösungen verwaltet werden mussten.
(Claudia Mrosek/gg)
67
Linux
RAID unter Linux
Redundanz ohne Zusatz-Hardware
Eine Möglichkeit, seine Daten gegen Ausfall von Festplatten zu schützen, liegt im Verbund von mehreren
Festplatten in einem RAID. (RAID = Redundant Array of
Independent Disks). Auf dem Markt sind einige Systeme erhältlich, die solche Arrays von Hardware-Seite
aus steuern. Dies geschieht durch eine Controllerkarte,
an die die Festplatten angeschlossen werden. Ein bekannter Vertreter ist zum Beispiel der Serve-RAIDAdapter von IBM. Die Basis dafür sind SCSI-Systeme.
Linux ermöglicht ebenfalls den Aufbau eines RAID-Systems, und zwar, ohne einen speziellen Hardware-Controller in den Rechner einzubauen. Die Steuerung eines
solchen RAID wird vom Linux-Kernel und einigen
Programmen übernommen. Deshalb spricht man
in diesem Zusammenhang von Software-RAID.
S
oftware-RAID bietet einige Vorteile wie die Möglichkeit, ein
RAID mit Festplattenpartitonen
aufzubauen. Für Testzwecke ließe sich
beispielsweise ein RAID 5 auf einer Festplatte realisieren, indem man sie in drei
Partitionen aufteilt. Dies ist aber wirklich
nur ein Gedanke für Testzwecke. Solche
Konfigurationen sind für Produktivsysteme nicht geeignet, da der Grundgedanke
von RAID, Ersatz bei Ausfall von einer
Platte zu haben, nicht gewährleistet ist.
Eine weitere Möglichkeit liegt in der
Verwendung der beiden EIDE-Controller,
die heute üblicherweise bei PCs mitgeliefert werden für ein RAID-System, da
Hardware-RAID normalerweise SCSIPlatten verlangt. Ebenfalls möglich ist die
70
Kombination von SCSI und IDE zu einem
RAID, wobei die langsamste Platte im
Verbund die Datentransferrate vorgibt.
Unter Linux funktionieren folgende
unterschiedliche RAID-Level:
LINEAR – dieser Modus fasst zwei
oder mehrere Festplatten zu einer “virtuellen” Festplatte zusammen. Die Platten
müssen nicht gleich groß sein, da die Platten nacheinander beschrieben werden.
Zuerst kommt also Platte 0 zum Einsatz,
dann Platte 1 und so weiter. Es existiert
keine Redundanz, und wenn eine Platte
kaputt geht, gehen alle Daten verloren.
RAID 0 beschreibt im Gegensatz dazu
das Zusammenfassen von zwei oder mehreren Festplatten zu einem Stripe-Set. Der
Schreib- und Lesezugriff wird dabei auf
mehrere Festplatten verteilt. Dies bringt
einen Geschwindigkeitsgewinn.
Der Nachteil ist das Fehlen von Festplattenredundanz, mit der Folge, dass bei
einem Festplattendefekt sämtliche Daten
verloren gehen. Die Platten sollten in diesem Fall ungefähr gleich groß sein.
RAID 1 befasst sich mit dem Spiegeln
von Festplatten. Das macht beim Ausfall
einer Festplatte die Rekonstruktion der
Daten möglich. Die Platten oder Partitionen müssen die gleiche Größe haben. Bei
unterschiedlicher Größe geht Speicherplatz verloren, da nur soviel beschrieben
wird, wie die kleinste Platte oder Partition
besitzt.
RAID 4 enthält einen Stripe-Set wie
RAID 0, hat aber zusätzlich eine so genannte Parity-Partition. Die Parity sorgt
für Redundanz. Wenn eine Festplatte ausfällt, lassen sich die Daten mit Hilfe dieser
Partition rekonstruieren.
Der Nachteil von RAID 4 liegt im verhältnismäßig langsamen Schreibzugriff,
da bei einem Schreibvorgang auch jedes
Mal in die Parity geschrieben werden
muss.
RAID 5 vermeidet den Flaschenhals,
der durch langsamen Schreibzugriff bei
RAID 4 entsteht. RAID 5 schreibt die Parity-Information nicht auf eine Partition
oder Festplatte, sondern verteilt sie auf
alle. Die Geschwindigkeit ist zwar nicht
ganz so gut wie bei RAID 1, bietet aber
Redundanz und dadurch Datensicherheit, wenn eine Platte ausfällt. Zudem erhält man größeren Speicherraum bei
Verwendung von drei und mehr Festplatten.
Wie bei RAID 1 müssen die Platten bei
RAID 4 und 5 gleiche Größe haben.
Wie bei Linux üblich, lässt sich auch
Software-RAID nicht ohne ein wenig
Handarbeit einrichten. Bei unserem Beispiel kommt die aktuelle Suse-Distribution 6.3 zum Einsatz. Unter dem Paket ap
– Anwendungen, die kein X benötigen –
findet man das Paket Raid-Tools, welches die notwendigen Programme bereitstellt.
Trotzdem ist noch ein Kernel-Patch zu
installieren, da die Unterstützung des aktuellen Kernels für eine veraltete Version
der Raid-Tools eingerichtet ist, die noch
5/2000
Linux
kein Booten unterstützen.
Der Kernel-Patch lässt sich unter
ftp.kernel.org/pub/linux/raid/alpha herunterladen. Anschließend ist er in das
Verzeichnis /usr/src zu kopieren und zu
entpacken sowie mit dem Befehl
patch -p0 < raid0145-19990724-2.2.10
zu installieren.
Danach muss der Kernel neu compiliert
werden. Nach der Installation des neuen
Kernels erfolgt ein reboot, um mit dem
neuen Kernel zu arbeiten.
Wenn alles funktioniert hat, sollte jetzt
im Verzeichnis /proc die Datei/proc/mdstat zu sehen sein.
Diese Datei zeigt die Informationen
über den Zustand des RAID-Systems und
die verwendeten Devices an. Da nach
dem Reboot die Festplatten noch nicht
vorbereitet sind, steht hier in dieser Phase
auch nichts. Um ein RAID zu erstellen,
muss der Anwender nun im /etc-Verzeichnis eine Datei namens /raidtab erstellen. In dieser Datei werden der RAIDLevel und die verwendeten Festplatten
oder Partitionen definiert.
Eine /etc/raidtab für RAID-1 könnte
zum Beispiel so aussehen:
# Beginn der RAID-Definition
raiddev /dev/md0
raid-level
nr-raid-disks 2
nr-spare-disks
chunk-size
persistent superblock
device
raid-disk
device
raid-disk
# Ende der RAID-Definition
1
0
4
1
/dev/sdb6
0
/dev/sda5
1
Die Begriffe bedeuten im Einzelnen:
raiddev /dev/md0:
Es wird ein RAID-Device md0
definiert. Dieses kann später auch in
die /etc/fstab eingetragen werden.
Raid-level:
Der RAID-Level wird festgelegt.
nr-raid-disks:
Die Anzahl der Festplatten im RAID.
nr-spare-disks:
Reserve Platten. In diesem Beispiel
keine.
chunk-size:
Wird separat erklärt.
persistent superblock: Es wird ein Superblock im RAID definiert. Wichtig, um das RAID zu booten.
Device:
Festplatte oder Festplattenpartition.
raid-disk 0:
Erste Festplatte im RAID.
72
raid-disk 1:
Zweite Festplatte im RAID.
Die Reihenfolge der Platten im RAID
ist übrigens nicht beliebig. Sie muss auf
jeden Fall so sein wie in der /etc/raidtab
definiert. Bei einer Änderung der Reihenfolge muss also auch die /etc/raidtab
geändert werden. Der Befehl mkraid/
dev/md0 initialisiert nun das RAID.
Nach erfolgreicher Initialisierung findet man in der Datei /proc/mdstat die
Meldung, dass das Device /dev/md0 gestartet wurde. Es kann also jetzt gemountet werden.
Das Anhalten des RAID-Device ist jederzeit mit dem Befehl raidstop möglich,
genauso lässt sich das Device mit raidstart
wieder starten. Vorher sollte man das
RAID-Device auf jeden Fall unmounten.
Was geschieht beim Booten?
Um diese Frage beantworten zu können, sind ein Paar “historische” Kenntnisse erforderlich. In der alten Version von
Software-RAID haben die RAID-Tools
beim Booten die /etc/raidtab ausgelesen
und dann initialisiert. Dies hat vorausgesetzt, dass das Dateisystem, in dem die
/etc/raidtab lag, bereits gemountet war.
Eine etwas unglückliche Lösung, um ein
RAID zu booten. Die Lösung lag damals
darin, die Root-Partition (/) nicht in das
RAID aufzunehmen und die RAID-Devices (/dev/md0, /dev/md1 etc.) über bestimmte Verzeichnisse zu mounten wie
zum Beispiel /home, /opt oder /var. Dieses Problem wurde nun durch die “persistent superblocks” gelöst.
Wenn bei der Initialisierung eines
RAID die Option persistent superblock 1
in der /etc/raidtab angegeben wurde,
wird ein spezieller Superblock an den
Anfang jeder Festplatte geschrieben, die
an dem RAID teilnimmt. Dies erlaubt
dem Kernel die Konfiguration des
RAID-Devices direkt von den Festplatten zu lesen, anstatt von einer init-Datei,
auf die nicht immer zugegriffen werden
kann. Man sollte aber trotzdem eine aktuelle /etc/raidtab erhalten, falls man das
Problem hat, ein RAID-Device zu rekonstruieren.
Chunk Sizes
Dieser Begriff bedarf einer Erklärung.
Das komplett parallele Schreiben auf
zwei Platten ist unmöglich (bei RAID 0
mit zwei Disks). Ein Schreibvorgang
von 1 Byte würde bedeuten, auf jede
Platte 4 Bit zu schreiben. Um genau zu
sein, jedes zweite Bit würde auf Platte 0
gehen und der Rest auf Platte 1. Dies lässt die Hardware nicht zu. Daher wurde
ein chunk size definiert, welches die
kleinste mögliche Menge Daten darstellt, die auf eine Platte geschrieben
werden kann. Ein Beispiel: Ein Schreibvorgang von 16 KByte Daten mit
einer chunk size von 4 bedeutet, dass
das erste und das dritte 4 KByte chunk
auf die erste Platte geschrieben wird und
das zweite und das vierte 4 KByte chunk
auf die zweite Platte. Die Angabe der
Größe eines chunk erfolgt in Kilobyte,
ein chunk von “4” bedeutet also “4
KByte”.
Bei großen Dateien kann es sinnvoll
sein, die chunk size zu vergrößern, um
einen schnelleren Datendurchsatz zu erreichen. Zum Erreichen optimaler Leistung sollte mit dem Wert experimentiert
werden.
Praktischer Einsatz
Wir haben ein RAID 1 mit zwei Platten eingerichtet und gestartet. Nach einem Reboot wurde der Befehl ckraid
aufgerufen und das RAID auf Konsistenz überprüft. Dieser Befehl wird bei
jedem Systemstart aufgerufen und
Volker Pense ist Systemingenieur
für AIX/RS6000 und Linux bei der
Profi Engineering Systems GmbH
E-Mail: [email protected]
durchgeführt, was bei großen Systemen
einige Zeit in Anspruch nehmen kann.
Ein ungewollter Systemstop (Stecker
ziehen) wurde von dem System ohne
Probleme verdaut. Seitdem läuft das
RAID ohne Probleme.
(Volker Pense/gg)
Literatur:
Software RAID Howto v0.54 von Linas Vepstas: http://www.linas.org
Software RAID Howto v0.90.2-Alpha von Jakob Oestengaard:
http://ostenfeld.dk/jakob/Software-Raid.HOWTO
Kernelpatch: ftp.kernel.org/pub/
linux/daemons/raid/alpha
raidtools: SuSe 6.3 Paket ap raidtools.rpm
5/2000
XFree 4.0, Apache und FreeBSD 4.0
Kernel-News
Mit der Version 4.0 kommt XFree in einer verbesserten
Architektur auf den Markt, der Apache-Web-Server ist
in der Alpha-Version 2.0a verfügbar, und FreeBSD
4.0 glänzt mit Optimierungen – vor allem im Bereich
des Network File System (NFS).
A
m 9. März war es endlich soweit: XFree 4.0 steht als erste
Version zum Download auf
dem Server der Organisation bereit
(www.xfree.org). Zu finden sind die
Quellen auf dem ftp-Server sowie fertige
Binärpakete für Linux-x86, Linux-Alpha,
FreeBSD, NetBSD, OpenBSD, LynxOS,
Solaris und Unixware. Damit ist Xfree
quasi “aus dem Stand” für eine ganze Reihe von interessanten Plattformen verfüg-
bar. XFree 4.0 wurde gegenüber den Vorgängern der 3.x-Serie komplett überarbeitet. Endlich ist vor allem der Server
von den eigentlichen Hardware-Treibern
getrennt worden, sodass der eigentliche
Server gleich bleibt und die Hardwareabhängige Schicht als Modul nachlädt.
Damit lassen sich eine ganze Reihe von
Problemen lösen, die den Vorgängerversionen zu Eigen waren. Zum einen steht
es nunmehr Hardware-Herstellern frei,
Treiber für ihre Grafikkarten und Chips
Steht zum Download bereit: XFree 4.0
5/2000
73
Linux
selbst zu
entwickeln,
ohne sich
dabei in
zeitraubender Manier mit dem
X-Server
im
Ganzen rumschlagen zu müssen. Für den
Anwender dürfte der Wechsel einer Grafikkarte problemloser vonstatten gehen,
da die Hardware-Erkennung durch das XServer-Setup den entsprechenden Treiber
selbstständig nachladen kann – so er denn
vorhanden ist. Darin liegt vorerst auch ein
kleiner Wermutstropfen. Noch nicht alle
Grafikkarten, die von den 3.x-Versionen
unterstützt wurden, sind bereits in der
Version 4.0 enthalten.
Allerdings listet das “Driverstatus
Document” (www.xfree.org/4.0/Sta
tus.html) bereits eine ansehnliche
Sammlung von unterstützten Karten.
Vor der Installation ist diese Seite also
unbedingt zu besuchen. Das Laden von
Modulen erschöpft sich allerdings
nicht beim Thema Hardware-Unterstützung.
Die allseits beliebten “Extensions”,
also Erweiterungen in der Funktionalität, werden ebenfalls als Module dynamisch vom generischen X-Server
geladen. Auch hier ist Vorsicht gebo-
ten, da nicht alle Extensions für alle
Karten vollständig angepasst wurden –
prominentes Beispiel ist an dieser Stelle die Hardware-beschleunigte 3-DUnterstützung.
Wer nicht warten kann, bis “sein”
Betriebssystem in Form eines Updates
mit Xfree 4.0 daherkommt, sollte für
den Download allerdings Zeit mitbringen. Die Sourcen schlagen hier mit 46
MByte, die Binaries – für Linux etwa –
mit immerhin gut 30 MByte auf die
“Telefonrechnung” durch.
Apache 2.0a
Der März scheint es in Sachen neuer
Releases freier Software wirklich in
sich zu haben. Die Apache Organisation (www.apache.org) gab am 10.
März die Verfügbarkeit der AlphaVersion 2.0a des am weitesten verbreiteten Web-Servers bekannt. Als wichtige Neuerungen seien hier vor allem der
Multithreading-Support auf Unix-Plattformen genannt, die über entsprechende Posix-Threads verfügen – die Betreiber entsprechend gut besuchter
Web-Server wird dies sicherlich freuen.
Daneben wurde die Unterstützung
von Nicht-Unix-Systemen erheblich
verbessert, sodass der Einsatz unter
OS/2, BeOS und Windows stabiler und
“performanter”
sein sollte. Das beliebte und vielgenutzte Modul-API
wurde
umfangreich überarbeitet –
so sollen insbesondere die Abhängigkeiten zu ladender
Module entschärft
worden sein. Die
Übersetzung der
Apache-Software
basiert nun auf
“autoconf”
und
“libtool”, vollzieht
sich also ähnlich
wie von anderer
freier Software bereits bekannt.
FreeBSD 4.0
Freunde der BSD-Derivate unter den
frei verfügbaren Betriebssystemen kamen ebenfalls im März auf ihre Kosten:
FreeBSD.org gab am 13. März die Verfügbarkeit der 4.0-Version bekannt. Das
vor allem im Internet-Server-Bereich sehr
beliebte und moderne BSD-Unix liefert
damit einen weiteren Meilenstein in seiner Entwicklungsgeschichte. Neben den
obligatorischen Bugfixes wurden unzählige neue Treiber implementiert und bestehende überarbeitet und zum Teil komplett ersetzt.
Vor allem wurde NFS intensiv überarbeitet und soll den Release-Notes zur Folge erheblich bessere Performance bieten
als noch in den 3.x-Versionen. Ebenfalls
wurde das Signal-Handling komplett
überarbeitet, sodass nunmehr mehr als
32 Signale zur Verfügung stehen.
Als Basis-Compiler wurde der bislang
verwendete gcc 2.7.2 auf 2.9.5 umgestellt, sodass nun auch unter FreeBSD
standardmäßig ein ISO-C-Compiler zum
Einsatz kommt. Auf NTFS-Dateisysteme
kann direkt zugegriffen werden, Gleiches
gilt auch für Netware-Dateisysteme
(NWFS).
Darüber hinaus bietet FreeBSD 4.0 einen SVR4-Emulator, verbesserte LinuxBinärkompatibilität sowie erheblich weiterentwickelten Support für IPv6. Auch in
Sachen Sicherheit hat sich einiges getan.
OpenSSL gehört genauso zum Basissystem wie OpenSSH. Das beliebte Telnet
verwendet bei FreeBSD bei Bedarf nun
einen verschlüsselten Authentifizierungsmechanismus namens SRA – vorbei also
die Zeiten, in denen die bei Telnet-Logins eingegebenen Passwörter im Klartext
über das Netz gingen. In Sachen IP-Filter
wurden ebenfalls eine ganze Reihe von
Neuerung eingebaut und auf IPv6 ausgedehnt. Angestammte FreeBSD-Anwender werden sich wahrscheinlich die neue
Version beschaffen.
Anwender, die mit Linux und ähnlichem Lösungen im Netzwerkbereich realisieren wollen, ohne dabei auf eine bestimmte OS-Platform fixiert zu sein, finden in FreeBSD eine ähnlich freie Alternative – und sollten daher in jedem Fall
einen Blick riskieren.
(Thomas Weyergraf/rhh)
Eine intensive NFS-Überarbeitung hat FreeBSD 4.0 erfahren
74
5/2000
Unterstützung
ausgebaut
Die IBM-Unterstützung
für Linux erstreckt sich sowohl auf das Betriebssystem selbst als auch auf den
technischen Support; es umfasst Hardware, Software
und Services. So kündigte
das Unternehmen im Februar 2000 mit “ViaVoice” die
Spracherkennungstechnologie für Linux sowie die Thin
Clients “Network Station
Series 2200” und “2800” für
Linux an. Darüber hinaus
werden Technologien und
Ressourcen für die Entwicklung eines unternehmensweiten Protokolldateisystems für Linux bereitgestellt und ein kostenfreies
Entwicklungs-Kit für EBusiness-Linux-Anwendungen angeboten. Ebenfalls im Februar brachte
IBM die Betaversion von
“TopPage for Linux” von
Netobjects heraus, einem
Entwicklungswerkzeug für
die Gestaltung von WebSeiten. Schon im Januar gab
AntivirenSoftware
Die
Antiviren-Software
“AVP” kommt jetzt auch für
Linux auf den Markt. Das
Software-Paket des russischen Unternehmens Kaspersky hält Workstations, FileServer und ApplicationServer, die unter Linux betrieben werden, frei von Viren. AVP kombiniert drei
Komponenten: “AVP Anti
Virus Scanner”, “AVP Daemon” und “AVP Monitor”.
Der Anti-Virus-Scanner arbeitet auf Abruf und lässt sich
von jedem unabhängigen
5/2000
IBM bekannt, alle ServerPlattformen auch für Linux
auszulegen und ernannte
mit Irving Wladawsky-Berger einen Verantwortlichen
für Linux. Weltweit stehen
mehr als 300 ausgebildete Linux-Berater zur Verfügung,
um Kunden bei Aufbau, Gestaltung und Verbesserung
ihrer Linux-Umgebung zu
unterstützen. Über die Operational Support Services von
IBM, die derzeit nur in den
Vereinigten Staaten verfügbar sind, stehen rund um die
Uhr Linux-Experten für technische Unterstützung zur
Verfügung. In Deutschland,
Österreich und der Schweiz
bestehen bereits Projektteams, die sich ausschließlich mit Linux befassen. Der
Bereich Global Services unterstützt die Linux-Varianten
der drei Linux-Distributoren
Redhat, Suse und Caldera
Systems. Mit diesem Unternehmen wurde auch eine enge technische Zusammenarbeit vereinbart.
(rb)
www.software.ibm.de
Scheduler einstellen. AVP
Daemon ist ein Filter, der speziell die Web-Server und Internet-Gateways überwacht.
Mit dem AVP-Monitor werden Vorgänge wie Starten,
Öffnen und Initialisieren von
Programmen nach Viren untersucht und gegebenenfalls
unterbrochen. Gemäß den
Prinzipien der Linux-Gemeinde hat Kaspersky Teile von
AVP für den Linux-SourceCode freigegeben, um Integratoren die Entwicklung weiterer Applikationen zu erleichtern.
(rb)
www.avp.ru
75
LINUX-MARKT
NUX-TICKER-LINUX-TICKER-LINUX
Komplettlösung
Redhat bringt mit “Linux
6.1 Professional” eine Allround-Lösung für InternetServer auf den Markt. Das
Produkt wurde in Deutschland entwickelt und kommt
als erstes außerhalb der USA
in den Handel. Zum Paket
gehören der “Secure Web Server” 3.1, die Vollversion von
DB2, mehr als 30 der bekann-
KonferenzServer
White Pine Software gab
die Verfügbarkeit des Konferenz-Servers “MeetingPoint”
für Redhat Linux 6.1 bekannt.
Meeting Point ist eine Applikation, die auf dem IP-Stan-
Entwicklung
unter Linux
Das
Entwicklungs-Tool
Magic läuft jetzt auch unter
Linux. Die aktuelle Version
8.3 soll für E-Commerce- und
76
testen Server-Anwendungen,
Software für den E-Commerce sowie 30 Tage Support für
die Konfiguration des “Apache Web-Servers”. Außerdem
enthält Linux 6.1 Professional
alle Programme für Arbeitsplatzrechner, die mit der Standard- und der Deluxe-Version
ausgeliefert wurden, unter anderem mehr als 40 Linux-Anwendungen von Drittanbietern. Der Straßenpreis beträgt
149 Euro plus Mehrwertsteuer. Das Programm ist ab sofort
verfügbar und kann im Internet unter ftp.redhat.com oder
www. redhat.com heruntergeladen oder über Redhat- Distributoren und Partner bezogen werden.
(rb)
www.redhat.de
dard H.323 basiert. Mit Version 4.0.2 bietet das Produkt pro
Server eine erhöhte Anzahl an
Ports. Provider können somit
ihre Angebote mit Mehrwert
wie Videochat, Face-to-Face
E-Commerce und anderen
Help-Desk-Services ausstatten. Ein einzelner MeetingPoint-Server unterstützt ab
Version 4.0.2 50 H.323-User
oder bis zu 200 “CU-SeeMePro”- oder “CU-SeeMeWeb”-Anwender.
Zudem
können mehrere solcher Server miteinander verbunden
werden. Die Software im aktuellen Release für Linix, Solaris und NT verfügbar.
(rb)
Embedded
Datenbank
Mit “db.linux” stellte Centura ein Open-Source-Datenbank-Managementsystem für
den Einbau in InformationAppliances auf der LinuxPlattform vor. Neben einer eigenständigen Logik benötigen
die boomenden Information
Appliances-Geräte auch Datenbankfunktionen, um statische Informationen für längere
Zeit an Ort und Stelle vorhalten zu können. Db.linux ist eine Linux-Version von Centuras Datenbank RDM (Raima
Database Manager) und bein-
Bezahlen
im Internet
Brokat hat für die TwisterKomponente “X-Pay”, die
Module für das Bezahlen im
Internet umfasst, das “SETZertifikat” (Secure Electronic
Transaction) erhalten. X-Pay
gewährleistet damit durchgängig sichere Online-Transaktionen zwischen Endkunden, Händlern und Zahlungssystem-Betreibern. Das Zertifikat wird von der SETCo
(Secure Electronic Transaction LLC) verliehen, einer
1997 von Visa und Mastercard gegründeten Organisation, die sich für den weltweiten Einsatz dieses Standards
als sicheres Protokoll für Zahlungssysteme im Internet en-
www.wpine.com
Backup
und Recovery
Client-/Server-Anwendungen
eingesetzt werden. In das datenbank- und plattformunabhängige Tool Magic sind die
Technologien HTML und Java integriert.
(rb)
Der Linux-Client von “Veritas Netbackup” Software
wird ab sofort zusammen mit
Redhat Linux 6.1 ausgeliefert.
Das ist ein Ergebnis der Partnerschaft zwischen Veritas
und Redhat, die die gemeinsa-
www.magic-sw.com
haltet eine kompakte Datenbank-Engine mit 50 bis maximal 200 KByte (Small Footprint), die skalierbar ist und die
verschiedene Zugriffsmethoden wie Pointer-basierte Navigation und B-Tree-Index unterstützt. Das Gleiche gilt für
internationale Charakter-Sets.
Centura stellt die Datenbank
im Rahmen einer Partnerschaft mit Openavenue im
Source-Code kostenfrei zur
Verfügung. Openavenue übernimmt die Betreuung des
Quellcodes und macht diesen
per Web zugänglich (www.
openavenue.com).
(rb)
www.centurasoftware.com/ce
gagiert. Mit X-Pay werden so
genannte Thin-Wallets (ebenfalls SETCo zertifiziert) eingesetzt, die der Kunde durch
ihre geringe Größe beim Bezahlen in seinen InternetBrowser laden kann, ohne
dass er zusätzlich Software
installieren muss. Als Multipayment-System unterstützt
X-Pay unterschiedliche Zahlungsarten wie Kunden- und
Geldkarten oder auch Debitzahlungen wie das elektronische
Lastschriftverfahren.
Zahlungen können via SSL
(Secure Socket Layer) oder
SET
entgegengenommen
werden. Verfügbar ist der XPay-Server auf NT, Solaris
und Linux.
(rb)
www.brokat com
me Entwicklung von StorageManagementapplikationen
für Linux zum Ziel hat. Mit
dem Linux-Client für Veritas
Netbackup werden Unternehmen unterstützt, die rund um
die Uhr auf Applikationen in
heterogenen Umgebungen zugreifen müssen.
(rb)
www.de.veritas.com
5/2000
Unkompliziert
ins Internet
Equiinet, britischer Hersteller von Internet ServerAppliances, führt seine
“Netpilot”-Familie
nun
auch in Deutschland ein.
Der “Netpilot” eignet sich
für Unternehmen, die Zugang zum Internet benötigen, jedoch nicht auf Sicherheitsmechanismen ver-
kann das Gerät über seine
parallele Schnittstelle auch
einen Drucker ansteuern. Es
eignet sich für kleinere und
mittlere Unternehmen mit
bis zu 150 Arbeitsplätzen.
Für größere Installationen
steht der “Netpilot Enterprise” zur Verfügung, der bis
zu 500 Arbeitsplätze unterstützt. Beide Modelle sind
in mehreren Versionen erhältlich, die sich durch ihre
Support-Center
in Bremen
Suse baut das Dienstleistungsangebot weiter aus. So
wurde ein Support-Center
in Bremen gegründet, das
am 15. Februar seinen Betrieb mit zunächst 20 Mitarbeitern aufnahm. Suse plant
den Standort im Laufe des
Jahres auf mehr als 60 Mitarbeiter auszubauen. Von
Bremen aus will das Unternehmen in erster Linie den
kostenlosen InstallationsSupport für Suse-Linux abwickeln. Interessenten und
Jobsuchende sind aufgefor-
Zertifizierungsprogramm
zichten möchten. Die Allin-one-Lösung auf Basis
von Linux ermöglicht Mitarbeitern im LAN die Nutzung des Internet und von
E-Mail-Diensten und beinhaltet eine Firewall sowie
einen lokalen Cache. Dabei
werden interne und externe
E-Mail-Dienste sowie alle
Internet-Services wie HTTP,
FTP etc. unterstützt. Zudem
Interfaces zum öffentlichen
Netz unterscheiden. WANseitig werden Modem- oder
ISDN-Verbindungen sowie
Standleitungen unterstützt,
die Einbindung in das lokale
Netz erfolgt über Fast
Ethernet. In Deutschland
vertreibt Qunix die Geräte.
(rb)
ORB unterstützt
Linux
cess Protocol) die Entwicklung von verteilten Applikationen unter gleichzeitiger
Verwendung von Corba,
COM, Java, RPC und XML
ermöglicht. Darüber hinaus
können mit einem BrowserInterface
Corba-Services
über das Internet genutzt und
verteilt werden. Die Zusammenführung erfolgt durch
Xorba, das XML-basierende
Applikationen und CorbaArchitekturen verbindet.
(rb)
Rogue Wave hat jetzt Version 2.0 des Internet-ORB
(Object Request Brokers)
“Nouveau” auf Linux portiert. Die Komponentenbibliotheken Tools.h++, DBTools.h++ und Threads.h++
gibt es bereits für das OpenSource-Betriebssystem.
Nouveau ist eine Middleware, die durch die Unterstützung von Windows DNA
2000 und der SOAP-Technology (Simple Object Ac-
5/2000
www.qunix.com
www.roguewave.de
Redhat bietet ab sofort
das europäische Zertifizierungsprogramm für Wiederverkäufer der Produkte
und Services von Redhat
an. Die Teilnahme am
“Redhat Certified ResellerProgramm” (RHCR) ist
dann kostenfrei, wenn bereits ein Mitarbeiter eines
Fachhändlers zum “Redhat
Certified Engineer” ausgebildet wurde. Teilnehmer
des Programms erhalten
Zugang zur Reseller-Zone
von Redhat. Das OnlineWerkzeug
unterstützt
Ilog für Linux
Ilog, Anbieter von Komponenten-Software, bietet seine
gesamte Produktpalette jetzt
auch auf Linux an. Dies umfasst die Programmbibliotheken für Optimierung und Visualisierung sowie regelbasiertes Wissensmanagement
in den Sprachen C++ und Java. Das Unternehmen beabsichtigt damit, sein Engage-
LINUX-TICKER-LINUX-TICKER-LIN
dert, sich per E-Mail unter
[email protected] zu melden
und sich zu bewerben. Entsprechende Stellenangebote
finden sich im Internet unter
http://www.suse.de/ jobs/
(rb)
www.suse.de
Händler bei Marketing und
Verkauf von Linux-Lösungen. Darüber hinaus können
sich Reseller unter www.
europe.redhat.com/reseller
über Details des Zertifizierungsprogramms informieren und sich online registrieren lassen. Die reguläre
Teilnahmegebühr beträgt
2500 Euro zuzüglich Mehrwertsteuer. Die Termine
für die RHCE-Kurse in
Deutschland können unter
der E-Mail-Adresse training@redhat. de angefordert werden.
(rb)
www.europe.redhat.com/
reseller
ment im E-Commerce-Markt
zu stärken. Ilog hat die Portierung der Optimierungs-, Visualisierungs- und Rules-Engines für die Linux-Systeme
von Redhat und Suse bereits
abgeschlossen. Gleichzeitig
mit den Produkten hat der
Komponentenhersteller auch
die technische Unterstützung
uneingeschränkt auf Linux
ausgeweitet.
(rb)
www.ilog.de
77
LESER-INFO-KENNZIFFERN
Informationen schnell per
Anzeigen-Kennziffern und Inserentenverzeichnis
Inserent/Anbieter
Articon
bdata systems
Bytec
Cadtronic
ComMunic
Corel Systems
dc Europe
DV-Job
DV-Markt
fms Computer
Freund + Dirks
Gall EDV-Systeme
IBM
IBM
ID-Pro
Intershop
IPS
Seite
19
75
84
57
15
60
27
69
69
21
19
21
19
9
75
57
2
Kennziffern
Seminarführer
023
025
018
007
019
008
021
020
010
Seminarführer
009
Seminarführer
004
024
012
001
Inserent/Anbieter
MKS
Olmos Workstations
Pyramid Computer Systeme
Quadratec
Sun Microsystems
The Bristol Group
Tiscon
Trend Micro
Tritec Electronic
Veritas Software
Web.de
Wizard Software
Wizard Software
Wizard Software
Seite
49
41
71
73
7
19
3
11
29
13
68
43
45
47
Kennziffern
017
013
027
022
003
Seminarführer
002
005
011
006
026
014
015
016
Dieser Ausgabe liegt eine Gesamtbeilage der Firma IBM bei.
Die Redaktion bittet um freundliche Beachtung.
UNIXopen Info
Der Web-Kennzifferndienst UNIXopen
info macht die gezielte Suche im WWW
so komfortabel und schnell wie nie zuvor.
Der neue Dienst von UNIXopen funktioniert im Prinzip wie das Leser-Info-Fax,
das den UNIXopen-Lesern ja seit Jahren
vertraut ist, nur mit erheblich erweiterten
Möglichkeiten und allen Vorteilen des
World Wide Web: Sie suchen in unserer
Online-Datenbank die für Sie interessanten Produkte. Dann entscheiden Sie, in
welcher Form Sie kontaktiert werden
möchten. Wir leiten Ihre Anfrage an den
richtigen Ansprechpartner beim Anbieter
weiter, der Sie dann auf dem von Ihnen
gewünschten Weg kontaktiert.
Unter der Adresse:
http://www.unix-open.de/info
wählen Sie zunächst aus, in welcher Ausgabe Sie recherchieren möchten. Dann
wählen Sie eine oder mehrere Produktkategorien aus. Alternativ können Sie, falls
Sie schon genau wissen, wofür Sie sich
interessieren, direkt den Namen des Anbieters eingeben. Drücken Sie die Schaltfläche »Weiter«, um Ihre Abfrage zu
starten.
80
Das System stellt nun eine Liste aller Inserenten und redaktionellen Beiträge zusammen, die Ihren Suchkriterien entsprechen. Wenn die Firma eine eigene WebSite besitzt, dann ist der Firmenname in
der linken Spalte mit einem Hyperlink
unterlegt. Damit kommen Sie direkt auf
die Webseiten des Anbieters. Wichtig für
Ihre Info-Anforderung sind die letzten
vier Spalten. Hier können Sie bei jeder
Firma ankreuzen, ob Sie weitere Informationen per E-Mail, Post, Fax oder Telefon
erhalten möchten. Selbstverständlich
können Sie hier mehr als eine Firma ankreuzen. So können Sie gleichzeitig mehrere Anfragen generieren.
Bei der erstmaligen Benutzung von
UNIX info drücken Sie jetzt einfach den
»Weiter«-Button und gelangen damit zur
Eingabemaske für Ihre Kontaktinformationen. Noch schneller geht es, wenn Sie
das System schon einmal benutzt haben.
Dann reicht die Eingabe Ihrer E-MailAdresse aus, und ihre Daten werden automatisch ergänzt.
Wenn Sie jetzt »Weiter« drücken, gelangen Sie auf eine Bestätigungsseite und
das System generiert für jeden der von Ihnen angekreuzten Anbieter eine Anfrage,
die per E-Mail an den zuständigen Ansprechpartner verschickt wird.
Auf der Bestätigungsseite finden Sie
außerdem eine kleine Online-Umfrage.
Durch Ihre Teilnahme helfen Sie uns dabei, UNIXopen auch in Zukunft optimal auf
Ihre Interessen auszurichten.
Frank-Martin Binder
5/2000
Info-Fax oder Internet
Der moderne Weg zu detaillieren Informationsmaterial zu der in dieser Ausgabe veröffentlichten Anzeige.
▲
▲
●Info-Fax # 023 www.unix-open.de/info● Tragen Sie die entsprechende Kennziffer unter www.unix-open.de/info an der vorgesehenen Stelle ein und
Sie gelangen direkt und ohne Umwege zu Ihren gewünschten Zusatzinformationen.
▲
▲
●Info-Fax # 023 www.unix-open.de/info● Selbstverständlich haben Sie noch nach wie vor die Möglichkeit, weitere Anzeigen-Produkt-Infos mit dem
untenstehenden Faxformular abzurufen. Einfach ausfüllen und an die Fax-Nummer 0 86 21/97 99 60 faxen. Zum schnellen Überblick
haben wir alle inserierenden Firmen auf der gegenüberliegenden Seite aufgelistet.
An AWi-Verlag
UNIXopen-Leserservice
Herzog-Otto-Str. 42
83308 Trostberg
en
op
IX 0
UN 200
5/
Meine Anschrift lautet:
Ich möchte Informationsmaterial zu Anzeigen mit folgenden Kennziffern (siehe nebenstehende Übersicht):
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
Firma
Abteilung
Vorname/Name
Straße/Nummer
PLZ/Ort
Telefon
Fax
Meine Funktion: (bitte ankreuzen) ❑ Spezialist ❑ Gruppen-/Abteilungsleiter ❑ Einkauf ❑ Unternehmensleitung ❑
Mein Unternehmen beschäftigt:
❑ 1 bis 19 Mitarbeiter
❑ 100 bis 249 Mitarbeiter
❑ über 1000 Mitarbeiter
❑ 20 bis 49 Mitarbeiter
❑ 250 bis 499 Mitarbeiter
Mein Unternehmen gehört zu folgender
Branche:
❑ Elektroindustrie
❑ Maschinenbau
❑ Fahrzeughersteller und -zulieferer
❑ Chemisch pharmazeutische Industrie
❑ Transport- und Logistikbranche
❑ Geldinstitute/Bausparkassen
❑ Versicherungswesen
❑ Reise- und Touristikbranche
❑ Handel und Dienstleistungen
❑ Öffentliche Verwaltung
❑ Hochschulen und Forschungsinstitute
❑ Nahrungs- und Genußmittel
❑ 50 bis 99 Mitarbeiter
❑ 500 bis 999 Mitarbeiter
Ich interessiere mich für folgende Themenbereiche:
Betriebssysteme:
Soft- und Hardwarelösungen:
❑ Unix SVR4
❑ Linux
❑ Solaris
❑ AIX
❑ HP-UX
❑ Windows NT
❑ andere
❑ Entwicklungswerkzeuge
❑ Netzwerkhardware
❑ Connectivity-Produkte
❑ Datenbanklösungen
❑ Inter-/Intranet und WWW
❑ RISC-Systeme
❑ Sicherheit
Damit Hersteller und Anbieter von Produkten, für die ich mich interessiere, meine Kennziffernanfragen so gezielt wie möglich beantworten können, bin ich damit einverstanden, daß diese Daten
elektronisch gespeichert und weitergegeben werden.
Ort, Datum
Unterschrift
VORSCHAU Juni 2000
Impressum
UNIX open
6 ist
19. Ma
i für Ab ab dem
und ab
onnent
dem
en
Kiosk e 26. Mai am
rhältlic
h
E-Commerce:
Bis ins Jahr 2003 wird nach Schätzungen der Deutschen Telekom jeder zweite Haushalt vernetzt sein – und damit zum potenziellen Kunden im Bereich E-Commerce.
Und auch die Marktforscher von Forrester Research entwerfen für die Net Economy
in Deutschland und Europa ein lukratives Bild. Nach ihrer Einschätzung wird
Deutschland spätestens im Jahr 2004 mit Abstand der größte E-Commerce-Markt in
Westeuropa sein. 406 Milliarden Euro sollen zu diesem Zeitpunkt alleine in
Deutschland über das Internet umgesetzt werden. Folglich befasst sich unser
Schwerpunkt im nächsten Heft intensiv mit den Faktoren, die für elektronischen
Handel wichtig sind: Shopping-Systeme, Sicherheit und Infrastruktur.
Know-How:
Das Konfigurationsmanagement (KM) bedeutet Kontrolle und Steuerung des SoftwareEntwicklungsprozesses. Der wichtigste Teil und auch der Ursprung von KM ist das Versionsmanagement. Dieses befasst sich mit den einzelnen Objekten in einer definierten
Umgebung und ihrem Werdegang. So ist jederzeit nachvollziehbar, wer was wann und
wo an welchem Objekt verändert hat, wann und von wem es erzeugt wurde etc. Dazu
eignet sich das Tool Web Synergy, das in der nächsten Ausgabe vorgestellt wird.
Linux:
Professionelle Programmierwerkzeuge für Linux sind, zumindest wenn sie auch unter X-Window laufen sollen, leider immer noch Mangelware. Ein intensiver Blick auf
das Werkzeug “Omnis Studio” soll zeigen, wie weit der Stand der Dinge mittlerweile unter Linux ist. Der Dreh- und Angelpunkt von Omnis ist seine Library, enthält sie
doch alle relevanten Daten, aus denen nachher das Programm erstellt werden kann.
Ausgabe
Nummer
Titelthema
Einkaufsführer
7/2000
Software-Qualität
Automatische Testwerkzeuge, Java
C++, Debugger, Programmierumgebung
Standard-Software
8/2000
System- und
Netzwerkmanagement
Software-Verteilung, Performance
Management, Administrationslösungen
Intel-basierte Server mit
Linux/Unix
9/2000
Server-Software
Datenbank-Server, ApplikationsServer, Web-Server, Script-Programmierung
USV
Herausgeber: Eduard Heilmayr (he/-140)
Verlagsleiter: Frank-Martin Binder (fbi/-112)
Chefredaktion: Rainer Huttenloher (rhh/-132)
Redaktion: Dr. Götz Güttich (gg/-111)
Redaktionsassistenz: Janine Amann (-221)
([email protected])
Ständige freie Mitarbeiter: Ruth Bosch (rb)
Reinhard Wobst, Jürgen Mischke, Thomas Weyergraf
Redaktionsanschrift: Redaktion UNIXopen,
Bretonischer Ring 13, 85630 Grasbrunn,
Tel.: 089/45616- Durchwahl siehe Redaktion
Fax: 089/45616-200
Layout, Grafik, Produktion und Anzeigendisposition:
Daniela Ernst, Michael Szonell, Edmund Krause (Leitung)
Titelbild: Ilona Kocksch
Anzeigenleitung: Wolfgang Zielke
– verantwortlich für Anzeigen
Tel.: (089) 45616-270,
Fax: (089) 45616-250
Anzeigenverkaufsleitung AWi:
Cornelia Jacobi 089/7194 0003
Anzeigenpreise: Es gilt die Preisliste Nr. 8 vom 1. 1. 2000
Anzeigenverwaltung: Gabi Fischböck
Tel.: 089/45616-262
Fax: 089/45616-100
Erscheinungsweise: monatlich,
12 Ausgaben/Jahr
Vertrieb:
Abonnementbestellungen und Adressänderungen richten Sie
bitte an: Edith Winklmaier, Herzog-Otto-Str. 42,
83308 Trostberg, Tel. 08621/645841, Fax: 08621/62786
Zahlungsmöglichkeit für Abonnenten:
Bayerische Vereinsbank München (BLZ 700 202 70)
Konto-Nr. 32 248 594
Postgiro München (BLZ 700 100 80)
Konto-Nr. 537 040-801
Bezugspreise: Jahresabonnement Inland: 96,– DM
Auslandsabonnement: 122,– DM
Kann die Zeitschrift, aus vom Herausgeber nicht zu vertretenden
Gründen, nicht geliefert werden, besteht kein Anspruch auf
Nachlieferung oder Erstattung vorausbezahlter Bezugsgelder.
Sonderdruckdienst: Alle in dieser Ausgabe erschienenen
Beiträge sind in Form von Sonderdrucken erhältlich.
Anfragen richten Sie bitte an Edmund Krause,
Tel.: 089/45616-240, oder Alfred Neudert, Tel.: 089/45616-146,
Fax: 089 45616-250
Druck: Druck- und Verlagshaus Alois Erdl KG
Gabelsbergerstr. 4-6, 83308 Trostberg
Einsendungen: Manuskripte werden gerne von der Redaktion
entgegengenommen. Mit der Einsendung von Manuskripten gibt
der Verfasser die Zustimmung zum Abdruck. Kürzungen der
Artikel bleiben vorbehalten. Für unverlangt eingesandte Manuskripte kann keine Haftung übernommen werden. Das Urheberrecht für angenommene Manuskripte liegt beim Verlag.
Für unverlangt eingesandte Hard- und Software kann keine
Haftung übernommen werden.
Vertrieb Handelsauflage:
MZV Moderner Zeitschriften Vertrieb GmbH
Breslauer Str. 5, 85386 Eching
Tel. 089/319 06-0
Urheberrecht und Haftung: Alle in UNIXopen erscheinenden Beiträge sind urheberrechtlich geschützt. Alle Rechte, auch
Übersetzungen vorbehalten. Reproduktionen, gleich welcher Art,
benötigen der schriftlichen Genehmigung des Herausgebers.
UNIXopen veröffentlicht ohne Berücksichtigung eines
eventuellen Patentschutzes. Warenbezeichnungen werden
ohne Gewähr einer freien Verwendung benutzt.
Eine Haftung für die Richtigkeit von Veröffentlichungen
können Redaktion und Verlag trotz sorgfältiger Prüfung
nicht übernehmen.
© 2000 AWi UNIXopen Verlagsgesellschaft mbH
Verlag: AWi UNIXopen Verlagsgesellschaft mbH
Ein Unternehmen der AWi Aktuelles Wissen
Verlagsgesellschaft mbH Postfach 1101, 83302 Trostberg
Geschäftsführer: Eduard Heilmayr
ISSN 0943-8416
Mitglied zur Informationsgemeinschaft
i
zur Feststellung der Verbreitung
v
von Werbeträgern e.V. (IVW), Bad Godesberg
w
Themenänderungen sind aus aktuellem Anlass möglich. Wir bitten um Verständnis.
82
UNIX 5/2000
O P E N

Documentos relacionados