U - ITwelzel.biz
Transcrição
U - ITwelzel.biz
OPEN NIX U 4 398040 609007 Mai B 30674 E 05 5/2000 UNIX Im Test: Snap-Server, Alpha-Doppelprozessorsystem • Übersicht: Software-Entwicklungs-Tools • Unix-News 5/2000 ISSN 0943-8416 DM 9.00; Ös 68,–; Sfr 9,00 OPEN Die Zeitschrift für Unix- und Linux-Profis Systemmanagement im Intranet Doppelprozessorsystem mit Alpha-CPUs im Test: Zwei für Linux Optimierende Compiler garantieren Bestmarken Internet-/IntranetTechnologien • Hardware gegen Hacker • Embedded Web-Server • Portale: Technik plus Administration Das Chaos fest im Griff Arcserve-IT erweitert die • Shellscripts für effektives Suchen Plattformunabhängigkeit Migration auf Linux Management aller Backup-Aufgaben Software-RAID für Linux Redundanz inklusive Boot-fähige RAID-Arrays aufbauen http://www.linux-open.de Kapazität erweitern • “On the fly” • Snap-Server im Test Marktübersicht SoftwareEntwicklungs-Tools UNIX OPEN http://www.unix-open.de Besuchen Sie uns: Halle 9 Stand C1/B2 EDITORIAL Bewegung bei Beamten Vor kurzem hat die “Koordinierungs- und Beratungsstelle der Bundesregierung für Informationstechnik in der Bundesverwaltung (KBSt)” eine Studie veröffentlicht, die sich für den Einsatz freier Software in öffentlichen Händen ausspricht. Diese Studie argumentiert unter anderem damit, dass Open-Source-Software in Behörden im Server-Umfeld schon des längeren eingesetzt wird und sich dort als äußerst zuverlässige Lösung erwiesen hat. Die KBSt geht aber noch einen Schritt weiter, denn sie stellt darüber hinaus fest, dass schon heute die Möglichkeit besteht, Büroanforderungen komplett mit Open-Source-Lösungen abzudecken. Eines der Hauptargumente für Behörden ist der Preis, denn die Informationstechnik steht nach Aussage der KBSt vor erheblichen Herausforderungen und hohen Ansprüchen aus dem politischen Bereich, wobei gleichzeitig nicht mit einer spürbaren Erhöhung der Haushaltsansätze gerechnet werden kann. Aber auch die Funktionen haben die Beratungsstelle überzeugt: “Windows NT-File- und PrintServer können durch eine Linux- (oder FreeBSD) und Samba-Lösung vollständig ersetzt werden”, ist eine der wichtigsten Aussagen des Papiers. Als Strategie schlägt die KBSt schließlich vor, sich aus der Abhängigkeit eines Herstellers zu lösen, und zwar durch den Aufbau einer heterogenen Landschaft mit Linux, FreeBSD und anderer OpenSource-Software sowie kommerziellen Produkten. Diese Kombination bietet ein “stabiles, preiswertes, ressourcenschonendes, sicheres und von ausreichend vielen Beratungsfirmen unterstütztes Rechnersystem”, sowohl für den Client- als auch für den Server-Bereich. Auch der Investitionsschutz ist nach Ansicht der Beratungsstelle gewährleistet. Ein interessantes Papier, das vor allem deshalb für Wirbel sorgte, weil die Behörde es nach kurzer Zeit als “intern” deklarierte und wieder vom Netz nahm. Der Grund lag darin, dass es vertrauliche Preisangaben enthielt. Die Open-Source-Community reagierte darauf sehr erbost, Linux-Tag startete sogar sofort eine Unterschriftenkampagne im Internet. Diese und ähnliche Proteste gegen die “Zensur” der Bundesverwaltung hatten Erfolg: Die Studie ist jetzt (ohne Preise) wieder offiziell unter http://www.kbst.bund.de/papers/briefe/02-2000/brief22000.html einsehbar. Sicher eine positive Entwicklung! Götz Güttich ([email protected]) 5/2000 3 INHALT MARKT Ab Seite 6 KNOW-HOW Ab Seite 28 Internet-/Intranet Technologien Ab Seite 40 Die wesentlichen Themen auf der Apache-Konferenz in Orlando lauteten: XML, mod_perl, Comanche, LDAP, PHP und SSL Die Plug-and-Play-Fileserver aus der Snap-Server-Familie eignen sich für die Erweiterung der Speicherkapazität in kleineren Netzwerken Web-Switches bieten neben der Lastverteilung auch noch Schutz gegen HackerAngriffe wie etwa die Form des so genannten Denial-of-Service 6 Web-Server-Konferenz Apache-Con 2000 in Orlando 28 Alltägliches Chaos Suche nach vergessenen Dateien 12 Ticker 33 18 Produkt-News Speicherkapazität für kleine Netze Im Test: Quantum-Snap-Server 35 SCSI im neuen Gewand Bewährte Technik mit mehr Leistung 40 Hacker-Angriffe entschärfen Web-Switches gegen Denial-ofServices-Angriffe 43 Voller Durchblick Systemmanagement im Intranet 47 “Embedded” im Vormarsch Steuern und Regeln über das Internet 50 Tür zur Info Technologie für Unternehmensportale 52 Sicherheit pflegen Sicherheitsmanagement in Computernetzen Darstellung der Signalverläufe bei Ultra2-SCSI 4 5/2000 OPEN OPEN 05 U NIX B 30674 E 5/2000 4 3 9 8 04 0 6 0 9 00 7 Mai UNIX Im Test: Snap-Server, Alpha-Doppelprozessorsystem • Übersicht: Software-Entwicklungs-Tools • Unix-News 5/2000 ISSN 0943-8416 5/2000 DM 9.00; Ös 68,–; Sfr 9,00 LinuxOpen Die Zeitschrift für Unix- und Linux-Profis Know-how für Linux-Profis Zwei für Linux Systemmanagement im Intranet Doppelprozessorsystem mit Alpha-CPUs im Test: Zwei für Linux Internet-/IntranetTechnologien 61 • Hardware gegen Hacker • Embedded Web-Server • Portale: Technik plus Optimierende Compiler garantieren Bestmarken Administration Das Chaos fest im Griff • Shellscripts für effektives Suchen Arcserve-IT erweitert die Plattformunabhängigkeit Migration auf Linux Management aller Backup-Aufgaben Software-RAID für Linux Redundanz inklusive Boot-fähige RAID-Arrays aufbauen Kapazität erweitern 66 • “On the fly” • Snap-Server im Test Marktübersicht SoftwareEntwicklungs-Tools http://www.linux-open.de http://www.unix-open.de Zwei für Linux Alpha-Doppelprozessorsystem im Test online http://www.linux-open.de Doopelprozessorsystem mit ◆ Doppelprozessorsystem Alpha-Prozessoren getestet ◆ Optimierte Compiler garantieren Bestmarken Backup-Management für Linux In dieser Ausgabe ◆ Arcserve-IT für heterogene Umgebungen Storage-Management Wachsendes Software-Angebot Redundanz inklusive ◆ Software-RAID für Linux ◆ Boot-fähige RAID-Arrays einrichten http://www.linux-open.de UNIX 70 Redundanz ohne Zusatz-Hardware RAID unter Linux 73 Kernel-News XFree 4.0, Apache und FreeBSD Version 4.0 75 Linux-Ticker OPEN RUBRIKEN Editorial 3 Inhaltsverzeichnis 4 Seminarführer 19 Marktführer 31 Unix-Navigator 38 Inserentenverzeichnis 80 Kennziffernliste 80 Info-Fax 81 Impressum 82 Vorschau 82 Links: Alle wichtigen Linux-Adressen im Netz +++ Marktübersicht: Kommerziell unterstützte Software für Linux +++ Stellenmarkt: Job-Angebote für LinuxProfis +++ Tests: Linux-Distributionen, Office-Software ◆ Alpha-Doppelprozessorsystem im Test ◆ Arcserve-IT für Linux ◆ Redundanz ohne Zusatz-Hardware ◆ Kernel-News Unterstützung ausgebaut … Antiviren-Software … Komplettlösung … Konferenz-Server … Entwicklung unter Linux … Embedded Datenbank … Bezahlen im Internet … Backup und Recovery … Unkompliziert Alpha Slot-B Modul (2) L2 Cache 2/4/8 MByte 128 Bit Bus D-Chips (4) Main Memory 8 DIMMs, 2 GByte max. 256 Bit, 83 MHz PC 100, optional ECC SPD-config 21264 Alpha CPU-Core 2”64 KByte L1 Cache 55 Einkaufsführer: Software-Entwicklungs-Tools C-Chip Flash-ROM 2 MByte P-Chip (2) South Bridge Cypress CY82C693UB PCI-Bus 1 Config IRQ 3 PCI-Slots, 33 MHz 1” 32 Bit, 2” 64 Bit Das Blockschaltbild des UP2000 zeigt den modularen Aufbau des Doppelprozessorsystems auf Basis der Alpha-Prozessoren 5/2000 5 MARKT Apache-Con 2000 in Orlando Web-ServerKonferenz Auf der Apache-Con 2000, die während des Zeitraums von 8. bis 10. März 2000 in Orlando Florida stattfand, hielten mehr als 40 internationale Experten vor einem Publikum von mehr als 1000 Fachleuten aus aller Welt Vorträge über den am meisten verbreiteten Web-Server “Apache” und damit zusammenhängende technische Randbereiche. Es gab unter anderem Sessions zu den Themen mod_perl, XML, Comanche, LDAP, PHP und SSL. Im Rahmen der Veranstaltung wurde auch die Verfügbarkeit der Apache-Version 2.0 angekündigt. D er Name Apache wurde ursprünglich davon abgeleitet, dass es anfangs für diesen Web-Server sehr viele Patches gab: “A patchi Web Server”. Die Tatsache, dass Apache fester Bestandteil in kommerziellen Produkten, so unter anderem auch im IBM-Produkt “Websphere” ist, verdeutlicht den Stellenwert, den der Server inzwischen auch bei größten Firmen erlangt hat. Der Präsident der Apache Software Foundation (ASF) Brian Behlendorf erklärte in seiner Rede die derzeitigen Ziele der Organisation. Um den Namen Apache zu schützen, musste man letztendlich den Markennamen registrieren und hat aus diesem Grund eine Incorporation gegründet. Behlendorf erklärte, er wüsste noch nicht genau, welche Nachteile das mit sich brächte – 6 aber man werde das schon noch herausfinden. Wörtlich meinte er, man wollte primär verhindern, dass sich andere Unternehmen das Branding zunutze machen und plötzlich einen “Apache++” auf den Markt bringen. Er selbst sei derzeit hauptsächlich damit beschäftigt, die zukünftige Entwicklung des WebServers zu organisieren. Dazu gehört es unter anderem, die laufenden Projekte zu betreuen, eine Infrastruktur für die reibungslose Abwicklung bereitzustellen oder Mailing-Listen zu organisieren. Kurz gesagt kümmert er sich um die Nebensächlichkeiten, die eben erledigt werden müssen. Es soll sich bei Apache weiterhin alles um Open Source drehen und auch der NonProfit-Status aufrechterhalten bleiben. Dies ist aber bei weitem nicht mehr so einfach wie früher: Zum Bei- spiel wurde es in der letzten Zeit erforderlich, nun auch Leute für die Büroarbeit fest anzustellen. Deshalb sind die Mitglieder des ApacheProjekts derzeit in der Diskussion, wie sich die freie Verfügbarkeit und der nun entstehende kommerzielle Gedanke vereinbaren lassen. Ein weiterer heiß diskutierter Punkt ist SSL. Soll/ kann dieser zukünftig in den Kern des Web-Servers einfließen? Da unlängst die Kryptographiegesetze in den USA gelockert wurden, stehen die Zeichen für eine Einbindung prinzpiell ganz gut. Insgesamt hat sich die Blockadepolitik der amerikanischen Regierung zum Schaden der amerikanischen Entwicklung ausgewirkt. Behlendorf erinnerte an den Bernstein-Fall, wo das NCSA (National Center for Supercomputing Applications) offenbar der NSA (National Security Agency) mitgeteilt hatte, dass sich im Web-Server kryptographische Algorithmen befinden, die nicht exportiert werden dürfen. Das gerichtliche Verfahren ließ sich aber kurzfristig abbiegen, indem die relevanten Code-Stellen entfernt wurden. Inzwischen, so Behlendorf, hat sich die Situation ergeben, dass nun kryptographischer Code in die USA importiert werden muss. Daher überlegen die ApacheEntwickler zur Zeit, ob es nicht besser wäre, eine Kryptographieschnittstelle à la “mod_ backend” zur Verfügung zu stellen. Behlendorf zeigte gleichzeitig auch Probleme der Organisation auf. Die bestehende Codebasis muss beispielweise dringend dokumentiert werden. Auch die Website bedarf einer grundsätzlichen Reorganisation. Und schließlich ist auch der, so wörtlich, “merocratic process” in irgendeiner Art und Weise zu entschärfen. Damit meinte Behlendorf, dass nur die Mitglieder der ASF (Apache Software Foundation) bestimmen können, wer als neues Mitglied in ihren Kreis aufgenommen wird, was damit in gewissem Sinne die Inzucht fördert. Davon geht nach Ansicht Behlendorfs über kurz oder lang die Gefahr aus, dass ein “Club alter Jungs” entsteht. Ein weiterer wichtiger Punkt war das Projekt “www.tigris.org” das eine Web-basierte Infrastruktur zur Koordination von Projekten zur Verfügung stellen wird. Auch die Tigris-Entwicklung wird unter der Open-Source-Doktrin erfolgen. Dieses Projekt wurde zwar von der ASF initiiert, 5/2000 MARKT doch läuft es unter eigenem Namen, weil man eine echte Trennung zu Apache erreichen will. Es soll, so Behlendorf, verhindert werden, dass mit der Verwendung des Namens Apache automatisch eine Assoziation mit anderen Projekten stattfindet. Weitere Projekte sind in Planung. Dazu gehört etwa die Entwicklung eines Installations- sowie Konfigurationsassistenten, der das Handhaben der Distribution des Web-Servers – beziehungsweise anderer Komponenten – deutlich vereinfachen soll. Ebenfalls in Planung ist eine Three-Tier-Architektur von mod_backend sowie eine ASP-artige Funktionalität für den Web-Server. Dabei steht ASP jedoch nicht für Active Server Pages, sondern für “A ServiceProvider”. Behlendorf rief die Anwesenden dazu auf, bei Projekten mitzumachen und damit die Weiterentwicklung des Apache zu sichern. Parallel zu den Vorträgen fand eine Ausstellung statt. Die beiden Großunternehmen IBM und Sun waren dort ebenso vertreten wie Apple, Suse sowie weitere kleinere in diesem Bereich agierende Unternehmen. Eine SoftwareAgenda In der Keynote vom 9. März erläuterte Dr. Alfred Spector den zukünftigen Weg der IBM. Der Senior Technology Strategist von IBM Software, gleichzeitig Professor an der Columbia University Computer Science, erklärte, dass sich IBM ganz offen zu der Open-Source-Bewegung, ein- 8 schließlich Linux bekennt. In Bezug auf Linux vertritt er die Meinung, dass es in Zukunft nicht nur ein Betriebssystem geben werde, sondern vielmehr eine Mischung aus vielen. Er verglich die Betriebssystemlandschaft mit einer Metropole in der es U-Bahn, Bus, Zug, Autos und andere Fortbewegungsmittel als Beförderungsplattform gibt. Jedes davon hat seine Existenzberechtigung, und niemand kann festlegen, dass es nur ger Motor erwiesen, der verdeutlicht, dass nichtkommerzielle Produkte leistungsfähige Software hervorbringen. Der beschleunigende Effekt, den keine kommerzielle Entwicklung erreichen kann, wird dadurch erreicht, dass die Entwickler Dinge, die sie gerade selbst benötigen, gleich in die Quellen einbauen. Die brauchbarsten Neuerungen fließen dann wiederum in die nächste Inkarnation des Basisprodukts ein. Auf der Apache-Con 2000 in Orlando ein Transportmittel gibt oder nur eine Art und Weise, etwas richtig zu machen. Vielmehr ist es gerade die Vielfalt, die eine gut funktionierende Ganzheit bildet. IBM wird nach wie vor seine eigenen Betriebssysteme unterstützen, weiterentwickeln und pflegen. Aber auch Windows NT darf Big Blue nicht vernachlässigen, so Spector, da es sich derzeit nach wie vor um einen Multimilliardenmarkt handelt für den Lösungen angeboten werden müssen. Obwohl IBM offen zur Open-Source-Bewegung steht, betrachtet Big Blue die Entwicklung insgesamt eher mit gemischten Gefühlen. Open Source hat sich als ein kräfti- Die Medaille hat aber nach Spector auch eine Kehrseite. Die Vorgehensweise der Open-Source-Entwickler sorgt für ein mehr oder minder unkontrolliertes Wachstum der Codebasis. Die Anzahl von wiederverwendbaren, standardisierten Komponenten steigt nicht analog zur Menge des frei verfügbaren Quelltextes. Die Tatsache, dass die erarbeiteten Lösungen vollständig in Quelltext zur Verfügung stehen, ändert nichts an dem Umstand, dass es große Mängel im Hinblick auf Modularität gibt. Die eingebrachte Wissensbasis in den Quelltexten ist einfach zu umfangreich, um sie vollständig als Funktionsblock zu erschließen. Die universelle Wiederverwendbarkeit des Codes wird damit hinfällig. Das Ziel, das er und auch IBM mit zunehmender Dringlichkeit verfolge, liegt nach Spector darin, den Wildwuchs durch wiederverwendbare Komponenten kontrollierbar zu halten und Normungen gemeinsam mit den freien Entwicklern in den Projektgruppen zu erarbeiten. Als warnendes Beispiel nannte er die vorhandene Cobol-Codebasis, welche von unseren Vätern programmiert wurde. Kaum jemand will geschweige denn kann diesen Code heute noch warten. Unsere Kinder werden, so Spector, den heute produzierten Code mit größter Wahrscheinlichkeit zu großen Teilen genauso wegwerfen wie wir es heute mit den alten Code-Fragmenten tun. Die Warnung stützt sich auf den Umstand, dass für die Implementierung von Lösungen generell zu wenig Geld beziehungsweise Ressourcen zur Verfügung stehen. Studien zufolge werden sich in naher Zukunft eine Milliarde Web-gestützte Geräte wie PCs, TV-SettopBoxen oder auch WAP-Lösungen in Händen von Endanwendern befinden. Der Bedarf an Applikationen steigt in diesem Markt auf nicht absehbare Zeit überproportional an. In den USA herrscht genau wie hierzulande ein massiver Mangel an geeignetem Fachpersonal. Derzeit bekommen in den Vereinigten Staaten 150.000 Ausländer jährlich die H1Sonderzulassung. Dabei handelt es sich um eine auf fünf Jahre beschränkte Ar- 5/2000 MARKT beitserlaubnis der amerikanischen Einwanderungsbehörde. Nach Spectors Meinung müsste die Zahl dieser Genehmigungen in der derzeitigen Lage auf 500.000 angehoben werden. Die Werbung in den Medien im Großraum von San Francisco/Silicon Valley reflektiert den Aufschrei der dort ansässigen Industrie. Aggressive Werbesprüche auf riesigen Transparenten am Rand der Highways, im Radio sowie im Fernsehen zeigen nur zu deutlich, welcher Mangel an hochqualifizierten Kräften dort vorherrscht. Die Tatsache, dass das Internet explosionsartig weiterwächst, verspricht auch für die Zukunft keine Verbesserung, sondern eher noch eine Zuspitzung der Situation. Qualität sichern Nicht nur der Bedarf an Web-Applikationen wird in Zukunft weiter ansteigen, sondern auch die Notwendigkeit, für einen hohen Qualitätsstandard dieser Applikationen zu sorgen. Denkt man etwa an Anwendungen im medizinischen Bereich, so dürfte es kaum im Sinne der Patienten sein, wenn sensitive Informationen entweder verloren gehen oder in falsche Hände geraten. Spector sprach in diesem Zusammenhang von Brücken, die gebaut werden, um Lösungen bereitzustellen. Er sprach bewusst nicht von Brückenbaumeistern. Es ist klar, was er damit zum Ausdruck bringen wollte. Die derzeit entwickelten Codekomponenten sind in aller Regel unmodular und nicht wiederverwendbar. Ein Brükkenbauingenieur geht nach bestimmten Regeln vor, zum 10 Beispiel der Belastbarkeit. Solche Vorgaben haben sich beim Bauingenieurswesen im Laufe der Zeit entwickelt und sind mit der Zeit als Standards in die geltenden Vorschriften eingeflossen. Derartige Bauvorschriften gibt es in der Software-Welt noch kaum. Zaghafte Bemühungen finden sich hierzulande in Form der europäischen ISO-Zertifizierung. Dennoch: Es wird wohl bei dem Versuch bleiben, denn die Gremien hecheln genau wie die hierzulande allerorts zu findenden Berufsverbände, allen voran die Industrie und Handelskammer, der rapiden fortschreitenden Technologieentwicklung hinterdrein. Im Grunde genommen haben diese Einrichtungen dieselben Probleme wie IBM, die in der mangelhaften Kontrolle der sich entwickelnden Pseudostandards begründet liegen. Der Professor richtete daher den nachhaltigen Appell an die anwesenden Entwickler: Code für Generationen zu bauen, nicht für den Moment. In diesem Zusammenhang wies er auch auf die Fähigkeiten sowie die Führungsrolle von IBM hin. Er stellte klar heraus, dass IBM nicht an den ganz kleinen Entwicklungen interessiert sei. Der Industriegigant möchte die Software-(Web-)Welt zukünftig maßgeblich gestalten und ihr die Richtung weisen. Man hat laut Spector bei IBM die Zeichen der Zeit erkannt und reagiert nun auf die neue Situation. Er brachte einige Beispiele für Software-Komponenten, etwa im Bereich XML (Extended Markup Language). IBM liefert jetzt seit geraumer Zeit im Sinne der GPL funk- tionierende Codekomponenten und ebnet damit ganz automatisch den Weg für die eigenen Standards. Auf den Punkt gebracht stellte der Vordenker von IBM drei Forderungen für die zukünftige Software-Entwicklung, die er sich und IBM auf die Fahnen geschrieben hat: Eine bessere Integration von Programmiersprachen, fertig verwendbare standardisierte Codebausteine und einfachere Wege zum Erarbeiten der dazu notwendigen Technik sowie zum Entwickeln von Lösungen. Lippenbekenntnis Auch Sun fehlte nicht bei den aktiven Teilnehmern. Der Enterprise-Spezialist und Java-Pionier entsandte Patrizia Suelz als KeynoteSpeakerin. Auch Sun verhält sich wie IBM offen zur Open-Source-Bewegung. Man hört der Entwicklergemeinde verstärkt zu, so erklärte Suelz. Im Gegensatz zu IBM, die Lösungen plakativ zur Verfügung stellt, versucht Sun einen anderen Ansatz, um sich mit der nicht greifbaren Macht der OSF und vor allem der OpenSource-Entwickler zu arrangieren. Sun sucht den offenen Dialog und denkt verstärkt über eine andere Art der Software-Entwicklung nach: Zum Teil soll sie verteilt erfolgen, aber dennoch im festen Griff von Sun bleiben. Wie dies konkret aussehen könnte, steht derzeit aber noch nicht fest. Damit befindet sich die in Bewegung geratene Änderung des Source-Licensing-Modells von Sun-Produkten in direktem Zusammenhang. Sun möchte auch hier einen Dialog mit den Entwicklern beginnen, um ein gemeinsames Modell zu entwickeln, das einer möglichst breiten Masse entgegenkommt. Im Rahmen der Keynote kündigte Frau Suelz die Verfügbarkeit der Java-Entwicklungsumgebung “Forte” in Binärform an. Innerhalb der nächsten Tage soll auch der vollständige Quellcode dafür zur Verfügung stehen. Abwesend Auffallend war, wie wenig über den Erzrivalen Microsoft gesprochen wurde. Wenn, dann wurde lediglich breit über diverse BlueScreens gegrinst. Man lebt nun einfach damit. Die mentale Trendwende hat ganz klar eingesetzt. Die Entwickler haben es durch ungeheuren Einsatz von wenigen Vordenkern geschafft, die eigenen Entwicklungen zum Momentum werden zu lassen. Zum voranstrebenden Koloss, der auch nicht durch die einflussreichste Industrie zu bremsen ist. Sowohl IBM als auch Sun suchen nun mit anderen Taktiken um die Gunst der Masse zu kämpfen. Anders ist diesem Phänomen offensichtlich nicht beizukommen. Das Ziel der beiden Unternehmen liegt darin, die Kontrolle über die Standards wiederzuerlangen. Dazu scheint den beiden fast jedes Mittel recht zu sein. Am Rande der Konferenz war zu erfahren, dass in Kalifornien die Arbeitslosenquote bereits unter zwei Prozent liegt. Das bedeutet, jeder der nur irgendwelche Fähigkeiten nachzuweisen hat, wird derzeit in ein Beschäftigungsverhältnis übernommen. (Robert Schott/gg) 5/2000 MARKT $ -TICKER-TICKER-TICKER-TICKER Umsatz verdoppelt Der IT-Vermarkter Computer Links hat nach dem vorläufigen Jahresabschluss 1999 seinen Umsatz von 44,1 auf 90,9 Millionen Mark gesteigert. Dies entspricht einem Zuwachs von 106 Prozent. Das Ergebnis vor Steuern stieg um 157 Prozent auf 7,2 Millionen Mark. Das Ergebnis pro Aktie liegt bei 0,77 Mark nach 0,33 Mark im Vorjahr. Stephan Link, Gründer und Vor- Programm für Händler Ab sofort bietet Adiva SGIHändlern die Möglichkeit, mit dem “time to change”-Programm den Produktvertrieb von Compaq und HP zu übernehmen. Dabei können SGIHändler auf das gesamte Enterprise-Produktportfolio Die Zukunft aufs Spiel gesetzt? Etwa 258.000 kleine Unternehmen in Deutschland, England und Frankreich stehen vor dem finanziellen Ruin, wenn sie ihre Computerdaten verlieren. Zu diesem Ergebnis kommt eine Studie, die von Mori, einem unabhängigen Marktforschungsinstitut in Großbritannien, 12 standsvorsitzender des NeuenMarkt-Unternehmens vertritt die Ansicht, dass der starke Anstieg des Dollars im letzten Quartal 1999 ein noch besseres Ergebnis verhindert habe. Der von 45,1 Millionen Mark auf 99 Millionen Mark gestiegene Auftragseingang lasse für das laufende Geschäftsjahr auf weiteres Wachstum hoffen. Derzeit vermarktet Computer Links Produkte aus sechs wachstumsstarken ITBereichen: Internet/Intranet, Datensicherheit, Thin-Client-/ Server-Computing, Remote Access, kabellose Netzwerke sowie Clustering. Dabei bietet der Distributor seinen Kunden ein komplettes Vermarktungspaket an, das Beratung, Schulung, Logistik und Vertrieb, Marketingunterstützung sowie After-Sales-Support umfasst. (rb) (Unix-/NT-Server und Workstations) zurückgreifen. Registrierten Händlern steht eine dedizierte Support-Hotline in Konfigurationsfragen sowie eine spezielle Betreuung durch den Adiva-Außendienst zur Verfügung. Vervollständigt wird das Programm durch Schulungs-, Upgrade- und Demoangebote. (rb) durchgeführt wurde. Die Kosten, die auf diese Unternehmen zukommen, wenn sie ihre gesamten Datenbestände durch fehlendes Backup verlieren, entsprechen in den drei Ländern einem Wert von 700 Milliarden Euro. Rechnet man diese Zahl auf alle Länder in der Europäischen Union hoch, so würde der Verlust 1200 Milliarden Euro betragen. (rb) Vereinbarung Unisys und Compaq wollen einen Partnerschaftsvertrag schließen. Der Vertrag soll Compaq ermöglichen, 32-Prozessor-Server von Unisys unter dem Compaqeigenen Label “Proliant” zu vermarkten. Hierbei wird die skalierbare CMP-Prozessor- Erfolgreiches Geschäftsjahr RSA Security schloss das Geschäftsjahr 1999 weltweit mit 218,1 Millionen Dollar ab; das entspricht einer Umsatzsteigerung von 27 Prozent im Vergleich zum Vorjahr. Der Reingewinn belief sich auf 183,8 Millionen Dollar, verglichen mit 29,4 NCs als OEM-Produkt Network Computing Devices (NCD) gab bekannt, dass man mit Hitachi eine Vereinbarung getroffen hat, NCD Thin-Client-Terminals unter dem Hitachi-Markennamen zu entwickeln, zu fertigen und zu vermarkten. Hitachi hat laut Aussagen von NCD Übernahme Onyx Software, Spezialist für Web-basierte CRM-Systeme, übernimmt CSN Computer Consulting einschließlich Mitarbeiter. Mit dieser Akquisition baut Onyx nicht nur seine Marktpräsenz in Deutschland aus, sondern deckt in dieser Region auch den Bereich architektur (Cellular MultiProcessing) von Unisys mit der Erfahrung von Compaq im Server-Geschäft gekoppelt. Die Server nutzen Windows 2000 Datacenter Server. Aus der OEM-Vereinbarung erwartet Unisys einen Umsatz von zirka 400 Millionen Dollar in den nächsten zwei Jahren. (rb) Millionen aus dem Jahr 1998. Der Gewinn pro Aktie stieg von 0,7 Dollar (gewichteter Wert) im Jahr 1998 auf 4,38 Dollar pro Aktie (gewichteter Wert) im Jahr 1999. Diese betriebswirtschaftlichen Kennzahlen des Unternehmens verdeutlichen, dass Sicherheitslösungen gefragt sind wie nie zuvor. (rb) die NCs (Netzcomputer) wegen des einfachen Einsatzes, der geringen Stellfläche und der Funktionalität in Verbindung mit Hitachis-ServerUmgebung gewählt. Das OEM-Produkt wird unter dem Namen Floranet 130 vermarktet und basiert auf dem NCD-Thinstar-400Windows-based-Terminal (WBT). (rb) Professional-Services für CRM-Anwender ab. Seit 1989 ist CSN auf die Einführung und Entwicklung von CRM-Projekten für Vertriebsorganisationen spezialisiert und betreibt in München ein eigenes Schulungs- und Servicezentrum. Die Übernahme ergänzt die Lösungen und Produkte von Onyx. (rb) 5/2000 MARKT $ -TICKER-TICKER-TICKER-TICKER Kauf von E-Procurement ICL hat sich für den weltweiten Einsatz von “Get.Resources!”, der Lösung für das Deal von vier Milliarden Dollar Computer Accociates (CA) und Sterling Software schlossen im Februar auf Basis eines Aktienübernahmeangebots in Höhe von vier Milliarden Dollar ein Abkommen, das die Akquisition von Sterling Software durch CA vorsieht. Diese Übernahme ergänzt das Software- und DienstleistungsPortfolio von CA in den Bereichen Entwicklung, Integrati- Standardisierung beschleunigen 3Com beteiligt sich an der Ausarbeitung des künftigen Standards für Ethernet mit 10 Gigabit pro Sekunde. Das Unternehmen trat der “10 Gigabit Ethernet Alliance” bei, Vertriebskooperation Der Siemens-Bereich “Information and Communication Networks” und Sun arbeiten beim Vertrieb des Siemens “DirX Meta Directory Server” eng zusammen. Der Verzeichnisdienst dient der Konsolidie- 14 E-Procurement von Peregrine Systems, entschieden. Zugleich wurde der Anbieter in den Kreis der strategischen Partner aufgenommen und die Produktsuite für das Infrastrukturmanagement zum Unternehmensstandard erklärt. Get.Resources! ist Teil von “Get.It!”, einer Familie von Self-Service-Applikationen aus dem Hause Peregrine Systems. Get.Resources! soll den Beschaffungsprozess in Unternehmen vereinfachen und beschleunigen. (rb) on, Management und Sicherung von E-Business-Lösungen. Sterling Software ist Anbieter von Speicher- und Netzwerkmanagement-Lösungen, Electronic Application Integration (EAI), Portalen und Werkzeugen für die Anwendungsentwicklung. Durch die Fusion entsteht nach Aussagen von CA der größte Anbieter von SpeichermanagementTechnologie. Die Transaktion bedarf noch der kartellrechtlichen Genehmigung (rb) der außerdem Cisco, Extreme Networks, Intel, Nortel Networks, Sun und Worldwide Packets angehören. In Zusammenarbeit mit den beteiligten Unternehmen soll der neue IEEE-Standard 802.3ae bis zum Frühjahr 2002 ratifiziert werden. (rb) rung und Synchronisation von zahlreichen Verzeichnisdaten wie Telefonnummern oder EMails. Die Software unterstützt die Standards InternetLDAPv3 (Lightweight Directory Access Protocol) sowie X.500 und bietet unter anderem spezielle Konnektoren für Solaris. (rb) WRQ kauft ein WRQ hat den EnterpriseApplication-Integration-Spezialisten (EAI) Supernova übernommen. Mit den Produkten des niederländischen Unternehmens erweitert der Hersteller von Lösungen für den Web-basierenden Zugriff und für das Management von E-Business-Lösungen sein Restrukturierung Nachdem das amerikanische Department of Justice (DoJ) die geplante Übernahme von Viasoft durch Compuware abgelehnt hat, richtet Viasoft nun seine Geschäftsaktivitäten an einer neuen Unternehmens- 10. Geburtstag Vor mehr als zehn Jahren stellte IBM die Hardware-Generation RISC System/6000, später einfach RS/6000, als Angebot für den Unix-Markt vor. Mit angekündigt wurde zeitgleich ein Betriebssystem Distributionsvertrag HP ernannte GE Access, ein Unternehmen der General Electric Gruppe, zum Distribuitor von Grafik- Namensänderung Die Sun|Netscape Alliance hat einen neuen Namen. Um das Engagement und die Marktposition im B2B-ECommerce-Bereich hervorzuheben, heißt der virtuelle Zusammenschluss von AOL, Netscape und Sun ab sofort Portfolio um Lösungen für die Integration bestehender HostSysteme und unternehmensweiter Applikationen in EBusiness-Infrastrukturen. Dies unterstreicht die neue strategische Ausrichtung von WRQ, Lösungen anzubieten, die Unternehmen den schnellen Einstieg ins EBusiness ermöglichen sollen. (rb) struktur aus. Danach organisiert sich das Unternehmen in zwei unabhängige Geschäftsbereiche um, wovon einer auf die Metadaten-Repository-Umgebung Rochade, der andere auf Existing Systems Workbench-Lösungen (ESW) fokussiert ist. (rb) namens AIX (Advanced Interactive eXecutive) Version 3. Mit diesen zwei Produkten wurde IBM zu einem der Hauptanbieter im Unix- und Workstation-Markt. Bis heute sind mehr als eine Million dieser Rechnerkategorie installiert. (rb) Workstations und technischen Servern unter HP-UX. Die deutsche HP erhofft sich von der Zusammenarbeit Zugang zu neuen Anwendergruppen und Marktsegmenten. (rb) “iPlanet”- a Sun|Netscape Alliance. Der Name und das neue Motto “iPlanet for iPeople” wird durch eine integrierte Branding-Kampagne – zunächst im Web und anderen digitalen Medien, später in Anzeigen und Broschüren etc. – kommuniziert. (rb) 5/2000 MARKT $ -TICKER-TICKER-TICKER-TICKER SAP steigert Umsatz Die SAP AG hat ihren Umsatz im Geschäftsjahr 1999 um 18 Prozent auf 5,11 Milli- arden Euro (1998: 4,32 Milliarden) erhöht. Der Gewinn vor Steuern (ohne Rückstellungen für das Mitarbeiterbonus-Programm STAR) wuchs um 18 Prozent auf 1,12 Milliarden Euro (1998: 948 Millionen); einschließlich der Rückstellungen für STAR legte der Vorsteuergewinn 1999 um fünf Prozent auf 981 Millionen Euro (1998: 932 Millionen) zu. Der Jahresüberschuss stieg um 14 Prozent auf 602 Millionen Euro (1998: 527 Millionen). (rb) Kooperation SGI und Sysload Software, Spezialist für Performancemanagement in heterogenen Client-/Server-Umgebungen, arbeiten ab sofort bei Kundenprojekten zusammen. Um neben reiner Hardware auch umfangreiche Software-Lösungen anbieten zu können, hat SGI in den Bereich Professional-Services zahlreiche Partnerprodukte aufgenom- Akquisition Strategische Allianz Quadratec, Hersteller von Software für das Datenmanagement in heterogenen Netzen, und Network Appliance, Anbieter von Data AccessSystemen, haben eine strategische Kooperation vereinbart. Im Rahmen des Abkommens bietet Quadratec mit dem “Time Navigator for Sicherheit mit neuem Namen Data Fellows, finnischer Anbieter von zentralgesteuerter Sicherheits-Software, wird seinen Namen offiziell in F-Secure Corporation ändern. Die Aktionäre haben dem Namenswechsel bereits zugestimmt. Obwohl Data Fellows in Finnland ein sehr Serviceleistungen Dell hat mit der GeneralElectric-Tochter GE Compunet eine Allianz für ServiceDienstleistungen in Deutschland geschlossen. Im Rahmen der Zusammenarbeit 16 NDMP” ab sofort ein Schnittstellenmodul für seine Backup-Software Time Navigator zur Sicherung der als “Filer” bezeichneten File Server von Network Appliance an. Anwendern steht damit eine Lösung zur Verfügung, die plattformübergreifend das Backup und Restore von Network-Appliance-Fileservern unter NT und diversen UnixPlattformen ermöglicht. (rb) bekanntes Unternehmen ist, steht international der F-Secure Markenname im Vordergrund. Dieser Tatsache trägt das Unternehmen jetzt mit der Namensänderung Rechnung. So soll der Fokus des Unternehmens stärker betont werden, der auf integrierten Lösungen für unternehmensweite Sicherheit liegt. (rb) konzentriert sich GE Compunet auf Service und Support rund um die Hardware. Dell und GE Compunet können nun gemeinsam umfangreiche Systemlösungen konzipieren, anbieten und unterstützen. (rb) Mit der Akqusition von Valto Systems, einem Pionier auf dem Gebiet der EJB-Server (Enterprise Javabeans), beabsichtigt Allaire, seine Position im Bereich dieser Schlüsseltechnlogie auszubauen. Im Rahmen der zwischen Allaire und Valto getroffenen Vereinbarung erfolgt die sofortige Integration der Mitarbeiter von Valto Systems in das Team von Allaire. Das Schlüsselprodukt von Valto, Ejipt 1.2, wird von Allaire weiter vertrieben. Eine Betaversion der nächsten Wachstum in jeder Beziehung Die Gauss Interprise AG, Spezialist für Web Content Management, hat 1999 ein außergewöhnliches Wachstum realisiert. Der Konzernumsatz konnte auf Basis des vorläufigen Jahresabschlusses gegenüber dem Vorjahr um 236 Prozent von 8,8 auf 20,8 Millionen Mark gesteigert werden. Im gleichen Zeitraum wurde die Mitarbeiterzahl von 76 auf 210 erhöht. Mit der Gründung der US-Tochtergesellschaft men, wobei sich das Unternehmen auf dem Gebiet des Leistungsmanagements für das Tool Sysload entschieden hat. Das Werkzeug eignet sich für die Überwachung von SGI-Servern, die in heterogenen Systemlandschaften sowohl unter Irix als auch unter NT arbeiten. Darüber hinaus bietet Sysload auch die Anbindung an Tivoli TME, HP Open View oder Unicenter TNG. (rb) Generation von Ejipt steht bereits jetzt zur Verfügung. Durch die Integration der Valto-Technologie unterstützen in Zukunft alle Allaire-Produkte E-BusinessTransaktionen. Großunternehmen investieren derzeit in Multitier-Architekturen, die Message-Queuing und verteilte Transaktionen auf der Basis von Java beherrschen. Allaire wird für diese Infrastruktur eine neue Java2 Enterprise Edition Suite (J2EE) bereitstellen, die allgemeine Standards unterstützt. (rb) Gauss Interprise, wurde die Internationalisierung bereits im abgelaufenen Geschäftsjahr begonnen. Im Geschäftsbereich Software Solutions entwickelte sich der Umsatz von 0,9 im Jahr 1998 auf 5,3 Millionen Mark 1999. Dies entspricht einer Steigerung von mehr als 480 Prozent. Auch der Geschäftsbereich Consulting entwickelte sich positiv und erwirtschaftete eine Umsatzsteigerung von fast 100 Prozent auf 15,5 Millionen Mark (1998: 7,9 Millionen Mark). (rb) 5/2000 MARKT ProduktNews Minikassette mit 100 GByte Die französische Firma Alditech präsentierte eine Minikassette mit einer Speicherka- gegenwärtig für etwa sechs Dollar erhältlich ist. Durch die Alditech-Entwicklung wird es möglich, die Daten-Bits mit einer Spurbreite von weniger als 5 µ abzuspeichern. Dabei kommt eine Gruppentechnologie unter Verwendung von Silizium zum Einsatz. Mit dieser Technik gelingt es, beide Teile des Lesekopfs mit der geforderten präzisen Ausrichtung und integriertem Azimutwinkel herzustellen. Dabei wird der Lesekopf mittels Ätzung und Auftragen von mehreren Kombinierte Lösung Das PDM-System “Rapport” von Optimum ist eine Kombilösung für Systemadministratoren und Anwender, die ein unternehmens- oder konzernweit strukturiertes Dokumentenmanagement zur Verfügung stellt. So werden Informationen über Internet oder Intranet verteilt. Integrierte Verschlüsselungsmöglichkeiten sorgen dafür, dass brisante Informationen nur einem Integrierte Lösungen pazität von mehr als 100 GByte. Die digitalen Leseköpfe bieten die Möglichkeit, unkomprimiert mehr als 100 GByte (bei Datenkompression mit Faktor 2 bis zu 200 GByte) auf einer handelsüblichen Digitalkassette zu speichern, die Portierung auf Solaris Den “Tango-2000-Application-Server” und den “Pervasive.SQL-Server” gibt es jetzt auch für Solaris. Web-, Javaund Datenbankentwickler können damit ihre Tango2000- und Pervasive. SQL2000-basierenden Anwendungen auf Solaris 7, dem 64-BitBetriebssystem und der 32Bit-Version Solaris 2.6 bereitstellen. Der Tango-2000-Application-Server für Solaris ist 18 Metallschichten gefertigt, wobei wie bei einem Chip das Silizium als Trägermaterial und das Siliziumdioxid als Isoliermittel verwendet werden. (rb) Nähere Informationen: Alditech Tel. +33(0) 4 76 88 57 14 www.alditech.com mit allen anderen Tango-2000Lösungen kompatibel. Das Gleiche gilt für den Pervasive.SQL-2000 Server in Bezug auf alle weiteren Pervasive.SQL-Lösungen sowie bestehende Btrieve-Anwendungen, die auf unterstützten Plattformen laufen. Unter www.per vasive. com/products/psql/ps qlser vengine/solaris sind weitere Informationen erhältlich. (rb) Nähere Informationen: Pervasive Software Tel. (0 61 03) 96 22 Die “HP Visualize P600C, P650C und P700C Personal Workstations” werden künftig mit WRQ-Reflection-Lösungen konfiguriert. Damit werden NT-basierende Workstations mit Unix-HostSystemen integriert. Die neuen Visualize-Workstations werden zusammen mit der vorinstallierten “WRQ Reflection X”-Software ausgeliefert. Damit können von diesen Workstations aus Unix-basierende Grafikanwendungen wiedergegeben und integriert werden. Auch werden die Rechner mit Solaris-8Unterstützung Ab sofort unterstützt Informix Solaris 8, wobei die Unterstützung sowohl die WebPlattform “Informix Internet Foundation.2000” als auch das E-Commerce-Paket “i.Sell” umfasst. Die Internet Foundation.2000 vereint die Funktionen einer Datenbank mit denen eines Anwen- bestimmten Nutzerkreis zugänglich sind. Dateien werden schon beim Abspeichern komprimiert. Daten aus den verschiedensten Anwendungen können zusammengeführt, gefiltert, sortiert und arbeitsplatzspezifisch bereitgestellt werden. Rapport steht systemübergreifend für Unix (HP, IBM, SNI, Sun, Linux) und NT/ Windows 95/98 zur Verfügung. (rb) Nähere Informationen: Optimum Tel. (0 71 46) 87 10 60 www.optimum.com WRQ Reflection NFS Connection ausgestattet. Dieses Tool macht geschäftskritische Datei- und Druckdienste zwischen Windows-basierenden PCs und Unix-HostSystemen möglich. Darüber hinaus verfügen die Workstations über eine Testversion der WRQ Reflection Suite for X, die 60 Tage gültig ist. Die Suite ist eine voll funktionsfähige Version von Reflection X und ermöglicht es, XClients, VT-, TN3270- und TN5250-Emulationen ablaufen zu lassen. (rb) Nähere Informationen: WRQ Software Tel. (0 21 02) 4 96 50 www.wrq.com dungs-Servers. Auf der Datablade-Technologie baut auch i.Sell auf. Die Software ermöglicht in Verbindung mit Solaris 8 die Entwicklung von E-Commerce-Lösungen, mit denen Unternehmen im Web ihren elektronischen Handel starten und durchführen können. (rb) Nähere Informationen: Informix Tel. (089) 99 61 30 www.informix.com 5/2000 MARKT ProduktNews Sicherheitsmerkmale erweitert Die Firewall- und VPN-Lösung von Genua “Genugate 3.0 Enterprise” bietet Mehrfach-Cluster-Fähigkeit, Dualprozessoroption, neue Proxies für POP und NNTP, Transparenz aller Proxies, heuristischen Spam-Filter, ContentWeeder für aktive Inhalte und mehr. Dank Cluster-Fähigkeit kann eine Lösung stufenweise erweitert und die Last auf die vorhandene Hardware optimal verteilt werden. Damit ist Hochverfügbarkeit erreicht. Für den High-End-Bereich gerüstet ist das Betriebssystem der Enterprise-Systeme durch Unterstützung von Dualpro- NetzwerkServer-Backup Das “ADR50” DigitalBandlaufwerk bietet 50 GByte Kapazität, Übertragungsgeschwindigkeiten von bis zu 4 MBit pro Sekunde, sowie Multiplattform-Unterstützung für Server-Backups über externe und interne SCSI-Schnittstellen. Außerdem ist das Laufwerk kompatibel zu den bestehenden 30- und 50-GByteADR-Cartridges. Das Laufwerk von OnStream, das als interne oder externe Version erhältlich ist, unterstützt eine Reihe von Betriebssystemen wie Netware, Unixware, Openserver, Linux, Windows 95, 98 und NT, MacOS und 20 zessor-Boards. Der GenugateWeeder findet und filtert auf Wunsch alle aktiven Inhalte in Web- und Mail-Daten. Übergriffe in Unternehmensnetze durch Java, JavaScript oder Active-X werden damit abgewehrt. Die Software erweitert im aktuellen Release die Liste der unterstützten Proxies um POP und NNTP. Inhalte können jetzt durch den GenugateWeeder von sicherheitskritischen, aktiven Inhalten bereinigt werden. Der integrierte Spam-Index bildet nach heuristischem Verfahren Indizes aus Reizwörtern, Ausrufezeichen etc. Der gesamte Datenverkehr kann jetzt transparent auf Viren geprüft werden. Zugrunde liegt dabei der Virenscanner von NAI. Die bestehende Möglichkeit, EinmalPasswörter mit Kryptokarten zur Authentisierung zu verwenden, wird jetzt durch das Software-basierte S/Key-Verfahren ergänzt. (rb) Nähere Informationen: Genua Tel. (089) 9 91 95 00 www.genua.de andere. Das ADR50 hat die offizielle SCO-Zertifizierung für Unixware 7 und SCO Openserver Version 5. Das Gerät nutzt neben der “Advanced Digital Recording”-Technologie (ADR) die neu eingeführte Hardware-Kompression ALDC (adaptive lossless data compression. Es ist mit einer WideUltra2-kompatiblen SCSI-3Schnittstelle mit automatischer Erkennung und LVD-Technologie (Low Voltage Differential) zur Gewährleistung einer größeren Signalintegrität ausgestattet. (rb) Nähere Informationen: OnStream Europe Tel. +44 (16 28) 40 17 05 www.onstream.com SingleBoard-Rechner Mit “Robo-658” präsentierte der Industrie-PC-Hersteller Portwell eine PICMG-CPU-Karte, die auf einen Socket-370 mit Celeron- oder Pentium III-Prozessoren bis 1 GHz Taktfrequenz bestückt werden kann. Der Rechner basiert auf Intels 810e-Chipsatz und lässt mit RJ45-Anschluss sowie ein Grafik-Interface mit 4 MByte Video-Memory. An weiteren Schnittstellen stehen ein EIDE- und FloppyController, zwei serielle, ein paralleler und ein USB-Port sowie Anschlüsse für Maus und Tastatur zur Verfügung. Das ebenfalls zum Lieferumfang gehörende OnboardSystem-Management überwacht unter anderem die sich mit bis zu 133 MHz Bustakt betreiben. Auf dem Board finden bis zu 512 MByte SDRAM Platz sowie weitere 144 MByte “Disk On Chip”. Neben einem Ultra-3SCSI-Controller mit Transferraten bis 160 MBit pro Sekunde bietet die Karte einen 10/100BaseT-Ethernet-Port Prozessortemperatur, die Funktion der Lüfter sowie die Betriebsspannung. Der Single-Board-Computer ist mit allen gängigen Betriebssystemen kompatibel. (rb) Speicher aufrüsten und Zuverlässigkeitsfunktionen. Das Hardware-Kit, das insgesamt aus zwei 1GByte-Speicher-Modulen besteht, unterstützt die HPServer L1000 und L2000 für Unix-Entry-Level Systeme, den HP-4000-Server für Midrange-Systeme sowie diverse Workstations wie beispielsweise die Modelle HP B1000, C3000, J5000 und J7000. (rb) Kingston bringt ein 2GByte Memory-Upgrade für “N- und L-Class” Enterprise-Server und VisualizeWorkstations von HP auf den Markt. Mit diesem Modul kann die zur Zeit maximale Speicherkapazität verdoppelt werden. Grundlage für das Memory-Kit bildet die 256-MB-133-MHz-ECCSDRAM-Technologie. Gleichzeitig integriert das Upgrade erweiterte Schutz- Nähere Informationen: PI Industrial Computers Tel. (0 81 42) 5 98 10 60 www.portwell.de Nähere Informationen: Kingston Tel. (08 00) 80 12 80 12 www.kingston.de 5/2000 CPU-Board verkraftet Hitze Auf Basis des Pentium-IIIMobile-Prozessors präsentierte Radisys die PCI/ ISACPU-Karte “PB3000 BXSVE”. Der All-in-One Single-Board-Rechner, ausgestat- tet mit SCSI-, Ethernet- und Grafik-Interface on board, ist für einen erweiterten Betriebstemperaturbereich bis über 70 Grad Celsius ausgelegt. Die Spezifikation reicht bei einer kontinuierlichen Belüftung des Prozessors von 600 LFM (Linear Feet per Minute) sogar bis 85 Grad Celsius. Neben einem Dual-Ultra-2- Backup und Recovery Legato, Anbieter von Enterprise Storage Management Software, bietet ab sofort das “Legato-Networker-Modul” 3.0 für Oracle an. Es nutzt die 64-Bit-Funktionen von Oracle auf Solaris, AIX sowie HP-UX und unterstützt darüber hinaus den OracleParallel-Server (OPS). Das Networker-Modul läuft nicht nur auf Unix- und NT-Plattformen, sondern auch auf Irix-, Dynix/ptx- und Tru64Plattformen. Anwender können so mit einer einzigen Backup-Lösung arbeiten, die alle kritischen Daten unter- 5/2000 SCSI-Controller bietet die Platine einen 10/100BaseTEthernet-Port mit RJ45-Anschluss sowie ein AGP-Grafik-Interface. An weiteren Schnittstellen stehen ein Dual-EIDE- und FloppyController, zwei serielle, ein paralleler und zwei USB- Ports sowie Anschlüsse für Maus und Tastatur zur Verfügung. Der Rechner ist mit allen gängigen Betriebssystemen getestet; der Hersteller gewährt auf die Karte zwei Jahre Garantie. (rb) Nähere Informationen: Radisys Tel. (0 61 02) 7 30 50 www.radisys.com nehmensweit erfasst – unabhängig davon, unter welchem System die Daten genutzt werden. Zu den Leistungsmerkmalen des Moduls gehören unter anderem TapeMedia-Überprüfung, End-toEnd-Tests, um die RestoreFähigkeiten sicherzustellen, komplettes oder inkrementelles Backup, lokale und externe Datensicherung, Onlineoder Offline-Backup sowie die Unterstützung von bis zu 64 parallelen Datenströmen und bis zu 32 gleichzeitig betriebenen Bandgeräten. (rb) Nähere Informationen: Legato Systems Tel. (089) 8 99 69 20 www.legato.com 21 MARKT ProduktNews 4GL-Erweiterung Creaso, ein Systemhaus für wissenschaftlich-technische Software, hat Version 5.3 von “IDL” angekündigt. Die 4GLProgrammiersprache IDL (Interactive Data Language) bietet Wissenschaftlern und Ingenieuren eine Umgebung zur Datenanalyse, Visualisierung und plattformübergreifenden Anwendungsentwicklung. Das aktuelle Release erweitert und optimiert zahlreiche Eigenschaften der bisherigen Version in den Bereichen Sprache, Analyse und Visualisierung, bem Daten-I/O, dem IDL-GUIBuilder und der SecurityFramework Version 7.1 des Transaktionsmonitors “Tuxedo” von Bea Systems bietet jetzt zusätzliche Funktionen für sicheren B2B-E-Commerce. Zu den Erweiterungen gehören integrierte Sicherheits-Features, QueuingPerformance, Threads-basierte Programmierung sowie XML-Unterstützung. Das Security Framework ergänzt die bisherigen Sicherheitsfunktionen um Schnittstellen für die Integration von Sicherheitslösungen und unterstützt PKI-Verschlüsselung. Damit können Unternehmen zum Beispiel digitale Signaturen, digitale Briefe und Zertifikate in ihre 22 IDL-ActiveX-Schnittstelle. Die Analysefähigkeiten für Bilder von medizinischen Scannern, Satelliten, Mikroskopen, Mustererkennungssystemen oder Teleskopen werden durch eine Reihe weiterer Hilfsmittel erhöht. Mehr als 30 neue und verbesserte Routinen optimieren die Verarbeitungszeiten für dreidimensionale GitterpolygonAlgorithmen. IDL 5.3 unterstützt jetzt das GZIP-Komprimierungs-/Dekomprimierungsformat. Für Anwender, die mit IDL eigene Applikationen schreiben, enthält Version 5.3 so genannte “IDL Projects”. Damit kann man IDL-Quellcodes, GUIBuilder-Dateien, Bitmaps, Daten oder Dateien organisieren und in Projekten zusammenfassen. IDL unterstützt in Version 5.3 Windows, MacOS, VMS und Unix. (rb) Nähere Informationen: Creaso Tel. (0 81 05) 2 50 55 www.creaso.com Anwendungen integrieren. Entwickler können jetzt auch Tuxedo-Dienste für die Übermittlung von XML-Daten verwenden. So ist es möglich, Tuxedos datenabhängiges Routing zu nutzen; dabei richtet sich der Pfad einer Transaktion und ihrer nachfolgenden Weiterleitung nach dem Inhalt der XML-Daten. Darüber hinaus umfasst der Transaktionsmonitor nun auch In-Memory-Queuing. Damit ist es für Entwickler möglich, die Echtzeit-Transaktionsübermittlung mit zeitlich versetzter Datenweiterleitung zu kombinieren. (rb) Nähere Informationen: Bea Systems Tel. (089) 94 51 80 www.beasys.com Für verteilte Anwendungen Die Version 2.0 des Internet-ORB (Object Request Broker) “Nouveau” unterstützt nun auch Windows DNA 2000 und die SOAPTechnologie (Simple Object Access Protocol). Damit ermöglicht die Middleware die Entwicklung von verteilten Applikationen unter Verwendung von Corba, COM, Java, RPC und XML. Darüber hinaus können Corba-Services über das Internet genutzt und verteilt werden. Nouveau wurde in der aktuellen Version in die Produktpalette von Rogue Wave integriert. So werden die letzten Versionen von Threads.h++, Tools.h++ All-in-One CPU-Karte Unter dem Namen “Eagleray” bietet der Industrie-PCHersteller I-Bus einen in Deutschland entwickelten und produzierten PICMG-SingleBoard-Rechner mit Socket370 an. Die CPU-Karte lässt sich mit dem Celeron-Prozessor bis 500 MHz bestücken und bietet onboard – je nach Ausführung – neben diversen Standardanschlüssen einen Ultra-Wide-SCSI-, AGP-Grafikund 10/100BaseT-EthernetController. Die Platine basiert auf Intels 443BX-Chipsatz. Auf zwei DIMM-Sockeln finden auf der Karte höchstens Professional und die Standard-C++-Bibliothek unterstützt. Durch die Einbindung eines skalierbaren CorbaEvent-Service steht darüber hinaus ein standardbasierender Mechanismus für die asynchrone Kommunkation zwischen verschiedenen Lokationen zur Verfügung. Erweitert wird diese Funktionalität durch die “Objects-by-Value”Technologie, die die Verteilung komplexer Datenstrukturen über das Internet ermöglicht. Als Plattformen unterstützt Nouveau Windows NT, Solaris, HPUX sowie den Sun-WorkshopC++-Compiler. (rb) Nähere Informationen: Rogue Wave Tel. (0 61 03) 5 93 40 www.roguewave.de 512 MByte SDRAM Platz. Neben einem Ultra-Wide-SCSI-Controller bietet das Board auch eine 10/100BaseT-Ethernet-Schnittstelle mit RJ45-Anschluss. Das AGP-Grafikinterface mit 2 oder 4 MByte Videospeicher ermöglicht den Anschluss sowohl von Analogmonitoren als auch von TFT-Flachbildschirmen, die sich auch simultan betreiben lassen. Das Board wurde unter den gängigen Betriebssystemen getestet. (rb) Nähere Informationen: I-Bus Deutschland Tel. (0 81 42) 4 67 90 www.ibus-deutschland. de 5/2000 Hochverfügbarkeit für AIX Check Point hat in Kooperation mit IBM die Integration von Firewall-1 und der Clustering-Software HACMP realisiert. Die IBM-Software entdeckt selbständig Fehlfunktionen von Hard- oder Software und schaltet automatisch auf alternative Gateways um. Das Umschalten erfolgt mit IBMs Lösung für den Anwender transparent. Bestehende Verbindungen (HTTP, FTP, Telnet) bleiben dabei erhalten. Client-unabhängiger Zugriff Citrix will das Produkt “Metaframe” künftig auch für Unix-Plattformen anbieten. Damit wird Unternehmen und Application-Service-Providern (ASPs) der Zugriff auf Windows-, Unix- und Javabasierte Applikationen über ein einziges Application-Portal ermöglicht. Anwender können dank ICA (Indepen- Zur Effizienzsteigerung Embarcadero stellte mit “XPlan” ein Software-Werkzeug vor, das die Effizienz und Qualität der Arbeit von Oracle-Datenbankadministratoren erhöhen soll. XPlan kann kostenlos von der Embarcadero-Web-Seite heruntergeladen werden. Die Software ermöglicht den Zugriff auf die Informationen, die Administratoren benötigen, um die Qualität und Performance ihrer Oracle-8-Datenbank zu verbessern. Die Installation beeinträchtigt den Datenbank-Server nicht. XPlan ist ei- 5/2000 Durch die Verbindung mit Check Points Firewall-1 steht damit jetzt für AIX eine Internet-Sicherheits- und Hochverfügbarkeitslösung bereit. Die Zertifizierung des Produkts im Rahmen der “Open Platform for Security”-Allianz (OPSec) garantiert zudem die Kompatibilität mit den Produkten von Unternehmen aus allen Bereichen der Sicherheitstechnologie. (rb) Nähere Informationen: Check Point Tel. (08 11) 60 05 20 www.checkpoint.com dent Computing Architecure) mit den unterschiedlichsten Clients auf Unix-Applikationen zugreifen – von Terminals über Desktop-PCs, Handhelds bis hin zu PDAs über WAN und Dial-up-Verbindungen. “MetaFrame 1.0 for Solaris” wird demnächst im Markt eingeführt. (rb) Nähere Informationen: Citrix Systems Tel. (08 11) 83 00 00 www.citrix.com ne grafische Oberfläche, die potenzielle und existierende Probleme zum Beispiel mit Festplattenplatz, Tablespaces und Hauptspeicherverbrauch kenntlich macht. Das Werkzeug kann zudem den zukünftigen Verbrauch von Festplattenkapazität auf Basis aktueller Trends vorhersagen. Der Benutzer von XPlan kann sich die “Explain Plans”, also den Ausführungsplan für SQL-Anweisungen ansehen und problematische SQL-Anweisungen lokalisieren. (rb) Nähere Informationen: Embarcadero Tel. (+44 16 28) 41 81 22 www.embarcadero.de Kosten einsparen Der IP-Billing-Hersteller uni-X Software bringt eine Lösung “Next Generation Billing, Accounting & Customer Care” unter dem Namen “Openinformer” auf den Markt. Die Software erlaubt dienstespezifisch das Billing und Accounting pauschaler, zeit- oder volumenabhängiger, Content- oder Applikationsund Quality-of-Service basierter Tarifmodelle. Zusätzlich werden Dienstleistungen oder andere nicht wiederkehrende Leistungen abgerechnet. Neben der Erfassung und Bewertung der auftretenden Kosten gehört die aufgrund der Visualisierung der Ressourcen-Kosten mögliche Reduzierung der Betriebskosten zu den Eckpfeilern von OpenInformer. Über ein Web-Interface werden die Kosten als Einzelverbindungen aufgelistet. Dies er- Switches für Gigabit-Ethernet Die zwei neuen Switches von Planet entsprechen dem IIEEE802.3-, 802.3z-, 10/100 Base-TX- und 1000-BaseSX/LX-Standard. Das Board “FGSW-1602” ist ein 16-Port 10/100Base-TX Auto-SenseSwitch und verfügt über 16 RJ45-Anschlüsse. Es bietet Store- and Forward-Switching, mit 4 MByte Dynamic Shared Data Buffer. Außerdem sind Dip-Switches für ProduktNews höht die Kundenakzeptanz. Insbesondere die frei konfigurierbare Customer-Self-Service- und Customer-Self-Subscription-Funktion ermöglicht Kosteneinsparungen. Die Client-/Server-Anwendung baut auf offenen Schnittstellen wie Corba oder XML auf. Unterstützt werden Solaris, PCSolaris, Linux und NT. Für ISPs wird eine auf Linux basierte Open Informer-Version 45 Tage kostenfrei angeboten. (rb) Nähere Informationen: uni-X Software Tel. (05 41) 71 00 80 www.uni-X.com 100-Base-FX und zwei Erweiterungs-Slots (auch für Gigabit Uplink) auf dem Board. Der “FGSW-2401” ist ein 24-Port 10/100-Base-TX-Auto-SenseSwitch und verfügt über 24 RJ45-Anschlüsse. Es bietet ebenfalls Store- and ForwardSwitching, allerdings mit 6 MByte Dynamic Shared Data Buffer. Der Halb- oder Vollduplex-Betrieb ist bei beiden Karten frei wählbar. (rb) Nähere Informationen: ICO Innovative Computer Tel. (0 64 32) 9 13 90 www.ico.de 23 MARKT ProduktNews Datenintegration Sun unterstützt “Datadirect Sequelink” von Merant zur Implementierung der Java-Database-Connectivity2.0 (JDBC), dem Kernstück der Spezifikation für die Java-2-Plattform Enterprise Edition (J2EE). J2EE dient als Plattform für Entwicklung, Verwaltung und Einsatz von unternehmensweit genutzter Software in heterogenen Umgebungen und SAN-ready Tape-Library Exabyte hat mit der Library X80 ein Mammoth-Tape-System vorgestellt, von dem zwei in einem 19-ZollRack Platz finden. Das Gerät lässt sich standardmäßig in SAN- (Storage Area Networks) und Fibre-ChannelArchitekturen integrieren. Die Tape-Library ist mit Mammoth-Laufwerken verfügbar mit einer Kapazität von 1,6 TByte bei einer Transferrate von 86,4 GByte pro Stunde; oder mit M2Laufwerken mit einer Kapazität von 4,8 TByte und einer Transferrate von 345,6 GByte pro Stunde. Das Mammoth-2-Laufwerk (M2) bietet Übertragungsraten von 12 MByte pro Sekunde und sichert einen Datenumfang von 43 GByte in weniger als einer Stunde. Alle 24 definiert den Standard für Multi-Tier-Unternehmensapplikationen. Sequelink unterstützt im JDBC 2.0 Optional-Package-Leistungsmerkmale wie die Java-Naming- und Directory-Interface-Technology (JNDI), den Java Transaction Service (JTS) und Connection Spooling. Mit diesen Features ist der Einsatz zuverlässiger, skalierbarer und dezentraler Anwendungen möglich, die auf allen gängigen Datenbanken aufsetzen. Die Middleware-Plattform stellt direkte Punkt-zuPunkt-Verbindungen zwischen unterschiedlichen Interfaces, Plattformen und Datenspeichern her. (rb) Nähere Informationen: Merant Tel. (089) 96 27 10 www.merant.com hier genannten Werte beziehen sich auf Übertragungen ohne Datenkompression. Die X80 kann remote über einen Java-basierten WebBrowser betrieben werden. Das Gerät kann zwei bis acht Mammoth-Tape-Laufwerke mit 40 bis 80 AME-SmartClean-Medien aufnehmen, die eine separate Reinigungskassette oder einen Operatoreingriff überflüssig machen. Laut Angaben des Herstellers reduziert diese Technologie die Abnutzung der Laufwerksköpfe, weil unnötige Reinigungsläufe vermieden werden. Die X80 unterstützt unbeobachtetes Backup/Restore im Netz und hierarchisches Storage-Management. Der Hersteller gewährt drei Jahre Garantie. (rb) Nähere Informationen: Exabyte Tel. (08 00) 3 92 29 83 www.exabyte.com Unix auf AS/400-Servern Eine neue AS/400-Technologie gestattet Anwendungsentwicklern, Unix-Applikationen auf AS/400-Server zu portieren. Die Technologie “AS/ 400 PASE” (Portable Application Solutions Environment) verbessert die Integration von unternehmenskritischen Anwendungen wie ERP, E-Commerce, Business Intelligence, Supply Chain- und CRM auf einem einzigen Server. AS/400 PASE ist eine in das Betriebssystem OS/400 (Version 4 Re- InternetGateway Die Schnittstelle zwischen Netzwerk und Internet “IG2000” unterstützt alle gängigen Betriebssysteme. Um mit der Außenwelt in Kontakt zu treten, stehen dem Planet-Gateway 1-Port-LAN mit 10Base-T, 100Base-TX und AutoNegotiation und 2-Port-WAN (Async. Port) zur Verfügung. Das Gerät ist kompatibel zu allen gängigen Modems, inklusive 56K und ISDN und kann mit Windows und in TCP/IPNetzwerken eingesetzt werden. Es lässt sich mit einer IP- lease 4) integrierte Komponente, die ein Subset von AIXRuntime-Funktionalitäten bietet. Sie arbeitet mit der Fähigkeit des AS/400-Prozessors, zwischen dem AS/400- und dem Unix-Runtime-Modus zu wechseln. Das heißt: Anwendungen, die PASE nutzen, laufen “nativ” auf der AS/400 und verwenden dabei das Filesystem, die Sicherheitsmechanismen und die DB2 Universal Database für AS/400. (rb) Nähere Informationen: IBM Systems Tel. (07 11) 78 50 www.as400.ibm.com Adresse für alle User im TCP/IP-Netz arbeiten. Weitere Implementierungen stellen die DHCP-Unterstützung für bis zu 50 User und ein lokales Passwort nach PAP/CHAP (RFC 1334) dar. Vier LEDs für eine Netzwerkdiagnose bieten dem Benutzer die Übersicht über die wesentlichen Status-informationen (LANStatus, WAN-Error, Geschwindigkeit -10/100). Weitere On-Board-Features sind Firewall-Protection, Dial-onDemand und Access-Control. Das “IG-2000” unterstützt auch Bandwidth-on-Demand. (rb) Nähere Informationen: ICO Innovative Computer Tel. (0 64 32) 9 13 90 5/2000 Synchrones Surfen “Webcall” von der Ton Beller AG ermöglicht eine geführte Präsentation von HTML-Seiten im Internet/ Intranet für mehrere gleichzeitig zugreifende Benutzer. Hierbei sehen alle Teilnehmer gleichzeitig mit dem Vorführer diejenige Abfolge der Seiten, die dieser aktuell auswählt. Ausgangspunkt für die Webcall-Entwicklung ist die Kombination von Internet und Telefon zur Vertriebsunterstützung. Im Telefonkontakt vermittelt der Verkäufer Produktinformationen und erfragt die Bedürfnisse des Kunden. Über das Internet vermittelt er gleichzeitig begleitende visuelle Produktinformationen. Webcall lässt sich auch zur Außendienstunterstützung oder in einer Hotline sowie bei Schulungen einsetzen. Auch für Adhoc-Präsentationen eignet sich das Tool, weil es die gleichzeitige Dar- UltraSPARC III Leistung steigern Der 64-Bit-Mikroprozessor UltraSPARC III wird in 600- und 750-MHz-Versionen verfügbar sein. Aufgrund seiner Binärkompatibilität zu bisherigen 32- und 64-BitSPARC-Chips ermöglicht der Mikroprozessor den Einsatz von bereits vorhandener Applikations-Software. Speziell die Bereiche massives Multiprocessing, Non-Uniform Memory Access (NUMA), High-Bandwidth Memory I/O und Scalable Shared Memory (SSM) wurden verbessert. Die Design-Features von Solaris 8.0 erlauben dem Betriebssystem, 5/2000 stellung von Firmendaten, beispielsweise aus einem Data Warehouse gestattet und gefundene Zusammenhänge mehreren Personen vorführt. Die zu präsentierenden Daten müssen Internet-fähig in Form von HTML-Seiten vorliegen. Auf Kundenseite wird lediglich ein Browser benötigt. Webcall läuft als Servlet unter einem Web-Server. Es ist in Java implementiert. Die Definition von Nutzerprofilen mit der Festlegung der zur Verfügung stehenden Präsentationen ist in XMLNotation abgelegt. Dank der Implementierung in Java ist Webcall nicht an bestimmte Hardware-Plattformen oder Betriebssysteme gebunden. Webcall kann in “wwwEIS”, dem Web-basierten DataWarehouse-Visualisierungsund Navigationssystem von Ton Beller, integriert werden. (rb) Alles auf einen Blick Über ein Modell zur Unternehmensplanung und -analyse verfügt Version 3.2 des Planungs- und Controllingtools »Control-It!« von Intellicube. Das Modul ermöglicht die integrierte Planung und Analyse von Bilanz, GuV (Gewinn und Verlust) sowie Liquidität. Darauf aufbauend bietet die Software eine Kennzahlenanalyse (ROI-Baum) und ein ProduktNews dem Control-It!-Server sind mehrere Anwender im Netz in der Lage, unter TCP/IP gemeinsam an einem Control-It!-Modell zu arbeiten. Eine Überführung der Mo- Nähere Informationen: Ton Beller AG Tel. (0 62 51) 7 00 00 www.tonbeller.com hunderte von Prozessen, die auf mehreren UltraSPARCIII-Mikroprozessoren laufen, als Abbildung eines einzigen Systems zu erkennen und zu verstehen. Die CPU unterstützt auf dem NUMAKonzept basierende Systeme und nutzt bei der Verarbeitung von NUMA-Zugriffen die Multi-Processing- und Multi-Threading-Features des Prozessors aus. Die CPU des UltraSPARC III enthält einen Memory-Controller. Dies erlaubt Speicherzugriffe mit bis zu 2,4 GBit/s, was die Systemleistung verbessern soll. (rb) Nähere Informationen: Sun Microsystems Tel. (089) 46 00 80 www.sun.com/sparc Modul zur Unternehmensbewertung. Mit dem Unternehmenscockpit ist auf einen Blick eine qualitative Analyse der wesentlichen Unternehmens-Benchmarks möglich. Die für kleine und mittelständische Unternehmen ausgelegte und auf OLAPTechnologie basierende Software-Lösung bietet nun auch die Möglichkeit zum Client-/Server-Betrieb. Mit delle aus der Einzelplatzlösung in die Server-Umgebung ist möglich. Control-It 3.2 verfügt neben den KHKund ODBC-Schnittstellen nun auch über eine DatevAnbindung zum Import von Einzelbuchungssätzen aus den Datev-Systemen. (rb) Nähere Informationen: Intellicube Software Tel. (02 21) 33 63 70 www.intellicube.com So erreichen Sie den Anzeigenverkauf: Wolfgang Zielke Tel.: (089) 45616-270 Fax (089) 45616-250 25 MARKT ProduktNews Systemadministration Science + Computing hat das SystemmanagementTool Venus in Version 1.7 freigegeben. Venus ermöglicht die transparente Verwaltung von heterogenen Unix- und NT-Workstation/ Server-Clustern. Das SoftwareWerkzeug wird zum Konfigurations-, Benutzer- und Dateisystemmanagement sowie zur Software-Verwaltung eingesetzt. Mit den im Lieferumfang enthaltenen Venus-Methoden kann für Anwender eine Single-System-Image-Umgebung (SSI) realisiert werden. Dies garantiert die Integration AntivirenSoftware F-Secure (ehemals Data Fellows), finnischer Anbieter von zentralgesteuerter Sicherheits-Software, stellte Version 3.0 von “F-Secure Antivirus for Firewalls” vor. Das Release bietet einen schnelleren Scan-Durchlauf für Unternehmensnetze mit großen Datenmengen. Bevor Malicious Code in das Unternehmensnetzwerk gelangen kann, stoppt die AVSoftware sie an der Firewall. Das Programm baut auf der Framework-Sicherheitsarchitektur von F-Secure auf. Der Administrator legt Sicherheitsrichtlinien fest, er- 26 verschiedener Betriebssysteme in einem Cluster. Im aktuellen Release 1.7 ist die Unterstützung von NT neu hinzugekommen. Benutzerund Filesysteme sind in gemischten Unix-/NT-Umgebungen direkt verfügbar. Venus 1.7 ermöglicht die transparente Installation von NTSoftware: Aus einem 3rdParty-Produkt wie zum Beispiel Nastran, Ideas etc. wird ein Venus-Paket erzeugt und in ein Software-Depot eingecheckt. Ab diesem Moment ist es für eine automatisierte Cluster-weite Software-Installation verfügbar, unter gleichzeitiger Berücksichtigung unterschiedlicher Betriebssysteme. Jetzt wird auch Perl unterstützt, das heißt, alle Venus-Funktionen stehen für Perl zur Verfügung und können sowohl auf Unix- als auch auf NTClients genutzt werden. (rb) Nähere Informationen: Science + Computing Tel. (0 70 71) 9 45 70 www.science-computing. de hält aus dem gesamten Netz die Virenmeldungen und verteilt die Software-Updates auf die angeschlossen Maschinen. Die Firewall schützt Webbrowsing, FTP und E-Mail-Verkehr. Das Zusammenspiel der Antiviren-Software und der Firewall basiert auf dem Content Vectoring Protocol (CVP). Die meisten Firewalls, auch Check Point FireWall-1, sind CVP-kompatibel. Über das protokollbasierte CVP hinaus unterstützt die Antiviren-Software auch Check Points Opsec SDK-basiertes extended CVP. (rb) Nähere Informationen: F-Secure Tel. (089) 24 21 80 www.f-secure.com Sicherheit erhöhen “Check Point 2000”, eine integrierte Software für Internet-Sicherheit, basiert auf der Secure-Virtual-NetworkArchitektur (SVN) und wurde in den Bereichen VPN-Sicherheit, Hochverfügbarkeit und Plattformunterstützung erweitert. “Malicious Activity Detection” ist Check Points neuentwickelte Technologie zur zentralen Analyse des Traffic auf Firewalloder VPN-Gateways (Virtual Private Network). Verdächtige und gefährliche Aktivitäten wie zum Beispiel Port-Scanning, wiederholt falsche Logins oder SYNAngriffe werden erkannt und automatisch dem Systemadministrator gemeldet. Check Point 2000 unterstützt darüber hinaus Authentifizierung im “Hybrid”-Modus und ermöglicht damit den Einsatz standardbasierter VPNs mit Systemen zur Authentifizie- Serielle Glasfaser-Interfaces Wiesemann & Theis (W&T) bietet mit seriellen GlasfaserInterfaces eine Anschlussmöglichkeit beliebiger serieller Schnittstellen an Multimode-Glasfaserleitungen an. Es stehen wahlweise Interfa- rung, darunter beispielsweise SecurID Token und Radius oder Tacacs+-Server. Mit dem “Secure Authentication API” (SAA) wird die Integration von Check Point 2000 und einer ganzen Reihe von Lösungen anderer Hersteller zur Authentifizierung sichergestellt. Dazu gehören biometrische Systeme für das Erkennen von Stimmen oder Fingerabdrücken ebenso wie verschiedene Hardware-Token. Um Hochverfügbarkeit zu erreichen, schaltet das optionale Modul den VPN-Verkehr bei Beeinträchtigung des primären Gateways automatisch und transparent auf sekundäre Gateways um. Zu den unterstützten Plattformen sind nun Windows 2000 und Redhat Linux hinzugekommen, um heterogene Umgebungen besser zu unterstützen. (rb) Nähere Informationen: Check Point Tel. (08 11) 60 05 20 www.checkpoint.com ces zum Anschluss von Endgeräten mit RS232-, RS422/ RS485-, TTY- und ProfibusSchnittstelle zur Verfügung. Die Glasfaser-Verbindung der Interfaces ist in Form von ST-Steckverbindern ausgeführt. Die überbrückbare Entfernung beträgt – abhängig vom verwendeten Glasfaserkabel – maximal 4000 Meter bei einer Übertragungsrate von bis zu 5 MBaud. Die Schnittstellen sind zur Hutschienenmontage geeignet und können mit einer beliebigen Gleich- oder Wechselspannung zwischen 12 und 24 Volt versorgt werden. (rb) Nähere Informationen: Wiesemann & Theis (W&T) Tel. (02 02) 2 68 00 www.WuT.de 5/2000 KNOW-HOW Suche nach vergessenen Dateien Alltägliches Chaos Der Standard-Werkzeugkasten unter Unix bietet Möglichkeiten, weitere Werkzeuge zu konstruieren. Eines davon, das vergesslichen Nutzern unter die Arme greifen kann und nicht ganz so einfach ist wie es scheinen mag, stellt der folgende Artikel vor. Die vorgeschlagenen Lösungen arbeiten unter kommerziellen Unixen wie unter Linux. E s gibt Studien, die behaupten, Manager würden 20 Prozent ihrer Arbeitszeit mit der Suche in Papierstapeln verbringen. Es erscheint fraglich, ob diese Zahl nur für Manager gilt, doch eines trifft ohne Zweifel zu: Derartige Suchaktionen beschränken sich nicht nur auf Papier – sie wurden mittlerweile auf die Tiefen der Verzeichnisbäume erweitert. Der unschätzbare Geschwindigkeitsvorteil, den eine rechnergestützte Suche bietet, wird durch den Umfang der Aufgabe leider wieder zunichte gemacht. So zählte der Autor über 30.000 Files in seinem Home-Directory, während er gewiss weniger Schriftstücke in seinem Büro hat. Und weil es beim kreativen Arbeiten kaum möglich ist, eine perfekte Ordnung einzuhalten, ertappt man sich regelmäßig bei der Suche nach Dateien auf seinem Computer. Ohne dessen Hilfe wäre der Erfolg übrigens oft illusorisch. Wie also findet man eine Datei? Die Antwort darauf erscheint trivial: Schließlich gibt es den Befehl “find” mit der Option “-name”, der die Suche nach einer Datei mit bekanntem Namen ermöglicht. Auch wenn nur ein Teil des Namens bekannt ist, leistet “find” gute Dienste. Der Autor schrieb sich eine primitive Shell-Funktion “where”, deren Definition man zum Beispiel in .profile unterbringen kann: 28 where() { find . -name “*$1*” -print | more } Der Befehl “where angebot” listet dann alle Dateien im aktuellen und seinen Subdirectories, deren Namen die Zeichenkette “angebot” enthalten. Übrigens dient die Definition einer Shell-Funktion nur der Bequemlichkeit, damit man nicht jedesmal die Befehlszeile eintippen muss. Ebenso kann man diese Zeile auch in ein File “where” schreiben und dieses als Shell-Prozedur aufrufen. Nach McMurphy hat man aber im Normalfall den Namen der Datei vergessen. Bekannt ist lediglich, was “ungefähr der Inhalt gewesen sein müsste.” Üblicherweise schaut man dann in “verdächtigen Directories nach verdächtigen Dateinamen” und prüft einzeln, ob es die gesuchte Datei ist. Das entspricht dem klassischen Vorgehen auf dem “Papiersektor”: Öffne den wahrscheinlichsten Schrank und blättere alle Ordner durch, in denen sich das gesuchte Papier befinden könnte. Während eine solche Strategie bei Papierunterlagen noch relativ oft zum Erfolg führt – vermutlich wegen sehr negativer Erfahrungen bei ungenügender Ordnung – herrscht auf Computern vergleichsweise Chaos. Nichts ist leichter als eine Datei versehentlich per Mausklick in den unergründlichen Tiefen des Dateibaums verschwinden zu lassen. Wie zeitaufwendig die spä- tere Suche wird, weiß wohl jeder selbst. Bevor sich der Anwender jedoch aus # tree text search in possibly compressed files # (C) R.Wobst, @(#) 4.Mar 15:28 # CONFIGURE HERE ———————————— bon=”$(tput smso)” boff=”$(tput rmso)” #bon=”$(tput mr)” #boff=”$(tput me)” N=/dev/null #PG=”less -r” PG=more # END CONFIGURE ———————————— if [ “$1” = “-l” ]; then ast=; shift; else ast=”****** “; fi exclude= [ -n “$ZFIND_EXCL” ] && { for i in $ZFIND_EXCL do exclude=”$exclude | egrep -v \”$i\”” done } eval “find . -print $exclude” | while read i do { [ -f $i ] || continue echo “$ast$i $ast” case “$i” in (*.gz) gunzip <$i 2>$N;; (*) cat $i 2>$N;; esac | egrep “$1” }| { read name read line && { echo “$name” [ -n “$ast” ] && { { echo “$line”; cat -; } | sed -e “s /\($1\)/$bon\1$boff/g” } } } done | $PG Die Kornshell-/bash-Prozedur zfind 5/2000 Verzweiflung an seinem Dateibaum erhängt, sollte er per Shellskript nach einem Muster – möglichst noch einem regulären Ausdruck – in allen Dateien suchen. Irgendeine für das Dokument typische Zeichenkette ist immer bekannt. Auch hier gibt es scheinbar schnelle Abhilfe: Der find-Befehl kennt schließlich eine Option “-exec”, auf die ein Befehl folgt, der für jede gefundene Datei ausgeführt wird. Lautet dieser Befehl nun grep _muster_ {} , ist man scheinbar am Ziel (hier bedeutet {} den jeweils aktuellen Dateinamen). Doch so einfach ist es nicht. Zunächst muss die Suche auf gewöhnliche Files beschränkt werden, denn Geräte-Files, Fifos oder symbolische Links würden zu erstaunlichen Effekten führen (bei Fifos zum Beispiel wartet grep auf einen Prozess, der diese Fifo speist, das heisst die Prozedur bleibt einfach stehen). Hier ist die Option “-type” nützlich. Die Prozedur “grepfind” könnte so aussehen: find . -type f -exec grep “$1” {} \; | more Der Aufruf grepfind “SVR[34]” sucht das Vorkommen von SVR3 oder SVR4 in allen Files. Doch die Suche zeigt nur die Zeileninhalte und nicht die Dateinamen. Das ist eine “Unart” von grep – bei mehreren Dateinamen in der Befehlszeile werden diese mit angegeben, bei nur einem jedoch nicht. Es gibt standardmäßig leider keinen Schalter, der dies erzwingen könnte. Ein einfacher Trick schafft hier Abhilfe: find . -type f -exec grep “$1” /dev/null {} \; | more Nun sieht grep zwei Dateinamen beim Aufruf, und in /dev/null wird es gewiss kein Muster finden. Dennoch wird der Anwender an diesem Skript keinen rechten Gefallen finden. Die find-Option “-type f” selektiert unterschiedslos Daten-Files, Word-Dokumente, komprimierte Dateien und ausführbare Programme. Die Ausgabe wird dadurch sehr schnell zum unlesbaren Durcheinander. Der Autor schrieb sich zu diesem Zweck schon vor langer Zeit eine Prozedur namens tfind, die nur in Textda- 5/2000 29 KNOW-HOW teien suchen soll und nicht mehr so simpel ist. Dabei wird der Befehl “file” ausgenutzt, der heuristisch herauszufinden versucht, welcher Art eine Datei ist – ein C-Programm, ein Kornshell-Skript, ein ausführbares File, ein Fifo, etc. Außer unter manchen Varianten von BSD-Unix bedeutet das Vorkommen des Worts “text” in der Ausgabe von “file”, dass die Datei ein “lesbarer” Text ist, in dem eine Mustersuche sinnvoll ist. Die einfache Shell-Prozedur “istxt” gibt 0 (also “wahr”) zurück, wenn das Argument ein lesbarer Text ist, sonst 1 (“falsch”): #!/bin/ksh [[ “$(file $1)” = *text* ]] Diese Prozedur arbeitet auch unter Linux, zumindest unter Suse-Linux. Soll die bash verwendet werden, müsste es heißen: #!/bin/bash case “$(file $1)” in (*text*) exit 0;; (*) exit 1;; esac Die Prozedur “tfind” sieht nun wie folgt aus: #!/bin/ksh (($#)) || { print “usage: $0 pattern [filename_pattern]” exit 1 } find . -name “${2:-*}” -exec istxt {} \; -print | xargs grep $1 | less Nur wenn istxt ein “wahr” zurückgibt, wird “-print” ausgeführt. Der find-Befehl liefert also eine Liste “echter” Textdateien. Könnte man istxt als ShellFunktion implementieren, würde tfind schneller arbeiten, doch leider verweigert find dann den Dienst. Die Verwendung von xargs verhindert, dass grep bei jeder Datei einzeln aufgerufen wird und soll obendrein die Syntax einigermaßen einfach halten. Der abschließende Befehl less erlaubt ein Zurückblättern und kann auch durch more ersetzt werden (less ist ein PD-Tool und nicht auf allen Systemen vorhanden). Trotz aller Tricks ist tfind ziemlich 30 langsam. Der Befehl file arbeitet auch nicht immer zuverlässig und unterscheidet sich auf verschiedenen UnixSystemen nicht unerheblich. Unter Umständen muss die Miniprozedur istxt verändert werden. Schließlich kann tfind wichtige Anwendungsfälle nicht abdecken: So werden weder komprimierte Dateien noch Dokumente von Textverarbeitungen gesondert behandelt. Nach McMurphy verstecken sich jedoch gerade dort die gesuchten Informationen. Wünschenswert wäre auch eine Hervorhebung der gesuchten Muster, um bei vielen Hits die gesuchte Datei bequemer herauspicken zu können. Das leistet die im Listing auf Seite 28 vorgestellte Prozedur zfind, die sowohl unter der Kornshell als auch unter der bash läuft. Im Wesentlichen hat sie folgende Struktur: find . -print | while read i; do ... done | more Das ist eine häufig verwendete Konstruktion: Der find-Befehl erzeugt eine Liste aller Files, die mittels der while-Schleife verarbeitet wird. Kann “read” keine Zeile aus der Pipeline mehr auslesen, liefert es den Returncode 1 (“falsch”), und “while” bricht ab. Innerhalb der while-Schleife wird per [ -f $i ] zunächst getestet, ob es sich um eine ordinäre Datei handelt – genau wie die Option “-type f” bei find. Anstelle der umständlichen Konstruktion erweiterbar. So könnten noch Zeilen (*.bz2) bunzip2 <$i;; (*.Z) uncompress <$i;; eingefügt werden. Wer ein Filter besitzt, das Dokumente seines Textverarbeitungsprogramms in Textdateien konvertiert, sollte auch dieses verwenden. Er kann dann zum Beispiel in dieser Reihenfolge testen: *.doc.gz *.doc.bz2 *.doc *.gz *.bz2 ... * In jedem Fall muss ein Datenstrom erzeugt werden, aus dem der folgende egrep-Befehl Muster herausgreifen kann. Im letzten Glied der Pipeline wird zunächst der Dateiname mittels “read name” gelesen. Nur wenn die folgende Anweisung “read line” erfolgreich ist, hat egrep etwas gefunden, und nur dann wird der folgende Block ausgeführt. In ihm wird der Name wiederum ausgeben (um letztendlich auf dem Bildschirm zu erscheinen) und normalerweise per { echo “$line”; cat -; } if [[ $i = *.gz ]]; then gunzip <$i; else cat $i; fi der auf den Namen folgende Datenstrom. Der Stream-Editor sed fügt in der folgenden – zugegebenermaßen schwer lesbaren – Anweisung Steuerzeichen vor und nach jedem gefundenen Muster ein, wodurch die Matches zum Beispiel invers erscheinen. Schließlich wird das Ganze noch durch einen Seitenbetrachter gefiltert, üblicherweise more. Bei Verwendung von “less” sollte dieses Tool mit dem Schalter -r gerufen werden, damit Steuerzeichen zur inversen Hervorhebung nicht konvertiert werden (more arbeitet in dieser Hinsicht sauberer). Der optionale Schalter -l bewirkt, dass nur die Dateinamen selbst ausgegeben werden und nicht die interessierenden Zeilen danach. Ein Aufruf von zfind ohne und mit Schalter -l könnte so aussehen: doch die case-Anweisung ist beliebig home/wobst> zfind “SVR[34]” if [ ! -f $i ]; then continue; fi schreibt man kürzer und effektiver [ -f $i ] || continue Die folgende echo-Zeile gibt den Namen der Datei aus zur eventuellen Verwendung im nächsten Glied der Pipeline. Interessanter ist die folgende case-Anweisung. Zwar könnte man unter der Kornshell (nicht jedoch der bash) eleganter schreiben 5/2000 KNOW-HOW ****** ./lock ****** /etc/passwd ****** ./sc ****** SVR4 ****** ./cx.gz ****** c $* -DESIX -DSYSVR4 -DSV386 -lX11 -lsocket -lnsl home/wobst> zfind -l “SVR[34]” ./lock ./sc ./cx.gz home/wobst>_ Die erfolgreiche Suche bei “lock” verwundert zunächst. Eine Analyse zeigt, dass es sich um eine ausführbare Datei handelt, die sehr wohl auch “SVR4” enthält, allerdings auch mit Nullbytes davor. Grep kommt hier mit seiner Interpretation, was eine Zeile ist, durcheinander; echo gibt diese “Zeile” nur bis zum ersten Nullbyte aus. Man kann diesen Effekt durch weitere Tests etwa mittels des file-Befehls unterdrücken, was aber die Performance deutlich drückt. Auch analysiert “file” keinen Datenstrom, sondern nur echte Dateien. Man müsste also jedes Mal komprimierte Dateien zwecks Untersuchung dekomprimieren, womit die Geschwindigkeit im Keller angekommen sein dürfte. Es ist wohl besser, mit Nebeneffekten zu leben, als Dateien nicht zu finden oder ein halbe Stunde auf das Ergebnis zu warten. Bei binären Dateien kann es auch vorkommen, dass überlange Zeilen angezeigt werden. More kommt hiermit besser zurecht als less. Die Markierung der Muster ist in solch einem Fall besonders nützlich. Auch Wordperfect-Dateien lassen sich noch gut durchsuchen, da sie einen einigermaßen “vernünftigen” Aufbau haben. Schwierig wird es bei Word-Dateien, in denen oft korrigiert wurde. Da Löschoperationen dort üblicherweise durch das Setzen von Pointern geschehen, also aller verschwundener Text in Wirklichkeit noch enthalten ist und die ursprüngliche Reihenfolge der Textelemente verloren geht, wird der Erfolg der Suche fraglich. Hier ist wohl ein Filter notwendig, das in der oben genannten CaseAnweisung Verwendung finden muss. In jedem Fall sollte man Umlaute bei der Suche in Textverarbeitungsdateien mittels regulärer Ausdrücke “über- 32 springen” (egrep erlaubt, die Länge variabler Teile zu begrenzen!). Zfind erlaubt auch, einzelne Dateitypen oder Verzeichnisse auszuschließen: home/wobst> ZFIND_EXCL=”/tel/ *.wp” zfind UHU.Kleber ****** bastel.txt.gz ****** unter Verwendung von etwas UHU-Kleber oder ähnlichem ist das Ganhome/wobst>_ Dabei werden alle Files mit Namen *.wp, *.wp5 usw. sowie alle Unterverzeichnisse mit Namen “tel” übergangen. Die Konstruktion zur Verwendung von ZFIND_EXCL in zfind ist etwas trickreich, aber ebenso lehrreich: Sukzessive wird ein Teil einer Befehlszeile konstruiert und in der Variablen exclude gespeichert. Das “eval” in der find-Zeile muss dann genau an der richtigen Stelle erscheinen, ebenso ist peinlich auf saubere Quotierung zu achten. Zfind läuft unter der bash (Linux, FreeBSD) ebenso wie unter der Kornshell. Die Verwendung von echo statt des unter der Kornshell üblichen print ist nicht nur der bash geschuldet. Wenn eine Zeile mit “-” beginnt, führt print “$line” in vielen Fällen zu Fehlermeldungen, während echo robuster arbeitet. Sauber wäre die Lösung print — “$line”, die jedoch unter der bash nicht so einfach zu implementieren ist. Die Befehle zur Belegung der Steuerzeichenfolgen “bon” beziehungsweise “boff” sind nicht ganz portabel; zwei gängige Möglichkeiten sind im Skript angegeben. Wird eine Markierung der Muster nicht gewünscht, weist man diesen Variablen einfach leere Strings zu: bon= boff= Ein weiteres Problem verdient Beachtung. Enthält das Suchmuster einen Schrägstrich /, so kommt es zu unerfreu- lichen Fehlermeldungen: home/wobst> zfind /bin UX:sed: ERROR: Command garbled: s/\(/bin\)/...\1.../g ... Der Grund ist, dass / nicht als Begrenzer für das Substitute-Kommando des sed herhalten darf, wenn dieses Zeichen in den Mustern vorkommt. Richtig wäre in diesem konkreten Fall z.B. die Ersetzung durch ‘x’: sx\(/bin\)x...\1...xg Viel einfacher als ein variables Ersetzungszeichen ist jedoch die folgende Syntax beim Aufruf: zfind \\/bin Unter Linux gibt es zwar eine ShellProzedur zgrep, die das Durchsuchen auch mittels gzip komprimierter Dateien erlaubt. Damit ließe sich die oben beschriebene Prozedur grepfind verallgemeinern. Allerdings erlaubt diese Herangehensweise weder Hervorhebungen noch Verallgemeinerungen. So ist zfind als akzeptabler Kompromiss zu sehen. Das Skript wird niemals alle interessierenden Dateiformate richtig verarbeiten können und auch manchmal irritierende Ausgaben erzeugen. Trotzdem arbeitet es deutlich schneller als die o.g. Textsuche tfind (obwohl es mehr Dateien als diese durchsucht) und vor allem viel gründlicher. Es sind nicht nur unordentliche Nutzer, denen zfind eine große Hilfe sein kann. (Reinhard Wobst/rhh) Ein Download der Prozedur ist über die Homepage der UNIXopen möglich: www.unix-open.de Literatur: [1] Bolsky, M.I., Korn, D.G.: The Kornshell, Prentice Hall 1989 u.f. [2] Newham, C., Rosenblatt, B.: Learning the bash Shell, O’Reilly 1995 [3] Hernold, H., Unix-Shells, AddisonWesley 1996 [4] Wobst, R., Ein Skript für alle, Unixopen 3/99, S.30-34 [5] Unix-Manualseiten von find(1), grep(1) und file(1) 5/2000 Im Test: Quantum-Snap-Server Speicherkapazität für kleine Netze Quantum bietet mit seiner Snap-Server-Produktfamilie eine Möglichkeit, die Fileserver-Kapazität in kleineren Netzen oder Netzwerksegmenten zu erweitern. Die Produkte erheben den Anspruch, sich via “Plug-and-Play” einrichten zu lassen. Sie arbeiten mit Windows-, Unix-, Novell- und Apple-Netzwerkprotokollen. Im Test stellte sich allerdings heraus, dass die Snap-Server in Unix-Umgebungen mit Vorsicht zu genießen sind. Z ur Installation des Snap-Servers genügt es, das Gerät ans Stromnetz sowie via Twisted Pair ans LAN anzuschließen und die Taste auf der Rückseite des Geräts kurz zu drücken. Daraufhin fährt der Server hoch und steht zirka 90 Sekunden später zur Verfügung. Um ihn produktiv nutzen zu können, ist es jedoch erforderlich, ihm eine IP-Adresse zuzuweisen. Im Gegensatz zu anderen Lösungen dieser Art verfügt der SnapServer über kein Panel, an dem sich eine solche Adresse eingeben lässt. Statt dessen wurde der Server so vorkonfiguriert, dass er versucht, sich die IPAdresse bei einem DHCP-, BOOTPoder RARP-Server abzuholen. Steht im Netz kein solcher Server zur Verfügung, was gerade in kleineren Netzwerkumgebungen die Regel ist, muss der Anwender die IP-Adresse remote zuweisen. Dafür liegt eine Installations-Software bei, die den Snap-Server via RPC erkennt und das Ändern der IP-Adresse ermöglicht. Da es manchmal ein paar Minuten dauert, bis der Server gefunden wird, gibt diese Software den beruhigenden Hinweis aus, dass man es doch etwas später noch mal versuchen soll. Diese Vorgehens- 5/2000 weise ist zwar prinzipiell richtig, stimmt aber wirklich etwas mit der Netzwerkverbindung nicht, kann sie einen unerfahrenen Anwender leicht in die Irre führen. Das Bild wird noch weiter dadurch getrübt, dass die Konfi- ben, lässt sich der Snap-Server sehr gut über einen Browser konfigurieren. Eine “Quick-Configure”-Option ermöglicht das Ändern von Server-Name und Zeitzone sowie das Starten oder Stoppen von Server-Diensten wie SMB oder NFS. Konfiguration via HTTP Unter “Server-Settings” und “Network-Settings” kann der Anwender weitere Details konfigurieren. Zum Beispiel kann der Snap-Server im Fehlerfall eine E-Mail an einen vordefinierten Account schicken. Diese Funktion bringt in größeren Unternehmen, die Snap-Server als Fileserver in einzelnen Abteilungen einsetzen, einen Das HTML-basierte Konfigurations-Tool hilft bei der Security-Konfiguration gurations-Software nur für Windowsund Macintosh-Rechner zur Verfügung steht. Ist die IP-Adresse erst einmal verge- großen Vorteil für die IT-Abteilung. Außerdem: Da auf dem Snap-Server sowieso ein HTTP-Dienst läuft, lässt er sich auch ganz gut zum Betreiben klei- 33 KNOW-HOW nerer Intranets verwenden. Bei größeren Konfigurationsänderungen wie dem Start eines neuen Dienstes, zum Beispiel Novell-Networking, muss der Snap-Server neu gestartet werden. Auch dieser Schritt wird über das HTTP-Interface durchgeführt und dauert zirka 90 Sekunden. Nach Abschluss der Konfiguration erschien der Snap-Server mit seinem freigegebenen Share in der Netzwerkumgebung von Windows und ließ sich auch von Linux aus via mount ansprechen. Das Verwalten der Festplatte des Snap-Servers funktioniert genau wie die Konfiguration über das Browser-Interface. Hier hat der Anwender die Möglichkeit, den Disk-Status zu überwachen, die Festplatte zu formatieren und beschädigte Dateisysteme zu reparieren. Sichere Daten In der Regel macht es keinen Sinn, dass alle Anwender im Netz gleichermaßen auf die Daten zugreifen können. Meist genügt es, Verzeichnisse zum Austausch von Dateien zu definieren, auf die alle User Zugriff haben Der Quantum-Snap-Server 1000 und ihnen ansonsten Home-Verzeichnisse zuzuweisen, auf die nur die jeweiligen Anwender zugreifen können. Deshalb arbeitet der Snap-Server auch mit einem Sicherheitskonzept, das allerdings in der Default-Konfiguration komplett deaktiviert ist. Dieses Konzept unterscheidet zwischen Usern und User-Gruppen. Das bedeutet, ähnlich wie bei einem Windows-NT-File-Server unterstützt die Quantum-Lösung User-Level-Security. Die Zugriffs- 34 rechte werden auf Share-Ebene zugewiesen. Alle Dateien und Ordner innerhalb einer Share haben die gleichen Zugriffsrechte wie die Share selbst. Im praktischen Einsatz macht es Sinn, die Zugriffsrechte auf Festplattenebene stark einzuschränken und dann Shares für einzelne Ordner zu definieren, die den Anwendern dann zur Verfügung gestellt werden. Diese Vorgehensweise wird vom Konfigurations-Tool des Snap-Servers ausführlich und übersichtlich erklärt, die Utility prüft sogar nach, ob Zugriffsrechte für ein Share bestehen, die zum Umgehen der Rechte eines anderen Shares eingesetzt werden könnten. Mit diesen Funktionen fügt sich der Snap-Server ohne großen Aufwand nahtlos in ein Windows-Netzwerk ein und erfüllt alle Anforderungen, die in einem SOHO-Netz gestellt werden: Die Zugriffsrechte lassen sich vernünftig verwalten, die Konfiguration ist relativ unproblematisch, und der Gesamtaufwand hält sich deutlich in Grenzen. Anders sieht das Ganze aber in einem Netz mit Linux-Clients aus. NFS-Connectivity und die Grenzen Um die unterschiedlichen Unix-Zugriffsrechte auf den Snap-Server zu mappen, gibt es die Möglichkeit, Snap-Server-Usern bestimmte NFSAccounts zuzuweisen. Das heißt, wenn sich ein NFS-User einloggt, erhält er lokal die gleichen Rechte wie der definierte Snap-User, in dessen Account er mit eingetragen wurde. Diese Eintragung erfolgt über User-ID des Unix-Accounts, verbunden mit der IP-Adresse der Unix-Maschine. Dadurch ist es erforderlich, für einen Anwender, der sich via NFS von mehreren Maschinen anmelden soll, auch mehrere Accounts einzurichten, was spätestens im Fall eines Netzwerks mit dynamischer IP-Adressvergabe zu einem unverhältnismäßigen Verwaltungsaufwand führt, auch wenn man mit IP-Adress-Masks arbeitet. Damit nicht genug: Der Snap-Server ist nicht in der Lage, die Dateizugriffsrechte wie ein Unix-Filesystem abzu- speichern. Statt dessen werden Daten, die ein Unix-User auf den Snap-Server kopiert, mit den Rechten versehen, die für das gerade verwendete Snap-Share definiert wurden. Die Share-Rechte überschreiben dabei die Zugriffsbeschränkungen auf Dateiebene. Daraus folgt: Hat ein Anwender auf dem Unix-System nur Leserechte für eine Datei und kopiert er sie in ein SnapShare, auf das er Schreibrechte besitzt, so erhält er auch ein Schreibrecht auf die kopierte Datei. Damit öffnet ein Snap-Server ein gewaltiges Sicherheitsloch, das noch dadurch verstärkt wird, dass die Quantum-Lösung nicht in der Lage ist, die Owner und Group ID-Attribute mit abzuspeichern. Der Snap-Server setzt bei neuen Dateien immer die User-ID entsprechend der User-ID des aktuellen Anwenders und die Gruppenrechte auf root. NFS-Anwender können zwar User- und GroupID per Befehl ändern, aber diese Befehle haben keine Auswirkungen auf die Dateien. Da der Snap-Server außerdem keine Links unterstützt, reIm Test wurde ein Quantum-SnapServer 1000 in ein Netzwerk mit Windows 98-, Windows NT 4.0 (Service Pack 6) sowie Linux-Computern auf Basis von Kernel 2.2.14 integriert. duziert sich sein Einsatzbereich in Unix-Umgebungen wohl auf das Lagern vor Tarnarchiven. Auf jeden Fall macht es keinen Sinn, Unix-Software auf einem Snap-Share zu installieren. Fazit Die Quantum Snap-Server stellen sicher eine gute Alternative zum Erweitern des Speicherplatzes in Windows-Umgebungen dar. Dort fügen sie sich nahtlos ein, sind einfach zu warten und bieten mit dem integrierten HTTP-Server sogar noch einen Zusatznutzen. In Unix-Umgebungen sollte man im Gegensatz dazu wegen der unausgereiften Rechteverwaltung besser die Finger davon lassen. (Götz Güttich) 5/2000 Bewährte Technik mit mehr Leistung SCSI im neuen Gewand SCSI ist seit langem ein etabliertes “Produkt” mit einer großen Benutzerzahl. Die jüngste “Wiedergeburt” des Standards mit neuer Technologie hilft dabei, künftigen Herausforderungen im Markt zu begegnen. W ährend der SCSI-Standard über Jahre hinweg durch immer breitere und schnellere Versionen verbessert wurde, bringt die U2W-Variante einen großen Sprung vorwärts mit sich. Durch Erweiterung der Ultra2-SCSI-Version um die Niedrigspannung-Differential-Technologie (LVD = Low Voltage Differential) können VARs (Value Added Reseller) und Systemintegratoren die Datenzuverlässigkeit und Leistung ihrer derzeitigen und zukünftigen SCSI-Produkte verbessern. Diese Technik verdoppelt die synchrone Datentransferrate des 8Bit-Ultra-SCSI auf 40 MByte/s und des 16-Bit-Ultra-SCSI auf 80 MByte/s. Außerdem vergrößert der Differential-SCSI-Transceiver die maximale Buslänge und die Zahl der Geräte, die durch den Host unterstützt werden. Bei herkömmlichen Single-Ended-(SE-) Transceivern ist die Kabellänge auf drei Meter begrenzt, wenn vier Geräte angeschlossen sind, und auf 1,5 Meter bei einer Last von acht Geräten. Das Differentialsystem erlaubt eine Kabellänge von zwölf Metern für beide Busversionen (8 und 16 Bit Breite). Außerdem lassen sich dank der LVD-Technologie nun acht Geräte bei der 8 Bit breiten Busversion und 16 Geräte bei 16 Bit Busbreite an das Kabel anschließen. Das bringt einen deutlichen Vorteil gegenüber den früheren Versionen mit sich. Der bisherige Ansatz einer Differentialspezifikation für SCSI sah ein HochSpannungsschema, nun “HVD” genannt, vor. Obwohl dieser Ansatz 5/2000 gegenüber den vorigen Versionen eine hervorragende Leistung brachte, krankte er daran, dass zusätzliche externe Treiber und Receiver notwendig waren, die einen erheblich höheren Aufwand erforderten. Deshalb kam es dazu, dass weniger als zehn Prozent der SCSI-Systeme mit der HVD-Technik arbeiteten, obwohl längere Kabel und mehr Lasten als beim SE-Ultra-SCSI-Bus möglich sind. Im Gegensatz dazu macht die LVDTechnik externe HDV-Transceiver überflüssig. Zwar kann die LVD-Tech- Ein Niedrigspannungs-Signalhub von 400 mV bei einer Gleichtaktvorspannung von 1,25 V bietet Vorteile im Hinblick auf die Signalqualität von Differentialsystemen, weil damit das Gleichtaktrauschen reduziert wird. Dieser geringere Signalhub ermöglicht dem Transceiver, schneller den gewünschten Betriebszustand zu erreichen als SE- oder HVD-Systeme. Das verringert den Signalversatz, der durch die Verkabelung und die weiteren Einheiten auf dem Bus entsteht. Der Signalversatz war einer der Schlüsselfaktoren, der die Leistung älterer SCSISysteme begrenzt hat. Bild 1 ist ein gutes Beispiel, was von der LVD-Signalübertragung zu erwarten ist. Es zeigt die SCSI ACK(Acknowledge-)Plus- und Minussignale an der ersten von 15 Ultra2-SCSI-Festplatten bei einem zwölf Meter langen LVD-Signalverläufe bei Ultra2 SCSI nik für die niedrigeren Transferraten des Fast- und Ultra-SCSI-Busses Verwendung finden, doch zielt LVD derzeit auf die nächste Generation von Parallelprodukten, das heißt auf Ultra2 und Ultra3. Kabel. Eine größere Last und Kabellänge erlaubt das neue Protokoll SPI-2 (SCSI Parallel-Interface-2) nicht. Die resultierende Differenz des Plus- und Minussignals wird in der unteren Hälfte 35 KNOW-HOW des Fensters dargestellt. Der kleinere LVD-Signalhub verringert außerdem die Versorgungsleistung der Transceiver, sodass diese Funktion auf einfachere Weise in einem SCSISystemchip integriert werden kann. Dies verschafft Ultra2 SCSI einen wichtigen Vorteil gegenüber vorherigen Versionen, weil nun eine Integration zusammen mit anderen Funktionen in ein System-on-a-Chip möglich ist und da- te Teil der Leistung am Terminator umgesetzt wird, werden höhere Geschwindigkeiten möglich, ohne dass die Systemleistung eine höhere Versorgungsleistung erfordert. Für bisherige SCSI-Anwender besteht ein wichtiger Punkt darin, dass die LVD-Technik kompatibel zur derzeitigen SE-Infrastruktur ist. Das heißt, Multimode-Treiber können sowohl mit LVD- als auch mit herkömmlichen SE- Maximale Kabellänge (m)1) SCSITechnologie Transfer-Rate (MByte/s) Single-ended HVD LVD2) maximale Lasteinheiten SCSI-1 Fast Fast Wide Ultra Ultra Wide Ultra Wide Ultra Wide Ultra Ultra2 Wide Ultra2 5 10 20 20 20 40 40 40 40 80 6 3 3 1,5 3 1,5 3 -3) -3) 25 25 25 25 25 -3) -3) 12 12 12 12 12 12 12 8 8 16 8 4 16 8 4 8 16 Bemerkungen: 1. Dieser Parameter kann in Punkt-zu-Punkt-Applikationen überschritten werden. 2. LVD kann auch bei niedrigen Geschwindigkeiten als Ultra2 genutzt werden. 3. SE- und HVD-Modus sind bei Ultra2-Geschwindigkeiten nicht definiert. Tabellarischer Vergleich der SCSI-Spezifikationen mit die Gesamtsystemkosten sinken. Ein zusätzlicher Vorteil des neuen Verfahrens besteht darin, dass die LVDTechnik nicht von einer bestimmten Versorgungsspannung abhängt wie es bei früheren SCSI-Chips der Fall war, die mit 5 V Spannung arbeiteten. Deshalb können Chips nun einfach mit niedrigeren Versorgungsspannungen wie 3,3 Volt, 2,5 Volt oder 2,0 Volt bei gleichen Signalpegeln und mit derselben Leistung arbeiten. Dies verringert die Leistungsaufnahme des SCSI-Controllers und des gesamten Systems und ist wiederum wichtig, wenn die SCSIFunktionen in einen Systemchip integriert werden. Bei der LVD-Signalisierung sind die Konstantstrommodus-Treiber in den Transceivern frequenzunabhängig. Das bedeutet, dass die Treiberversorgungsleistung im Betriebsfrequenzbereich weitgehend konstant ist. Weil der größ- 36 Geräten arbeiten. Weil die Steckerbelegung für LVD-Transceiver und SETransceiver gleich ist, lassen sich beide gleichermaßen einsetzen. Bei der Umschaltung vom LVD-Modus auf den SEModus wird das positive Signal des LVD-Treibers zum virtuellen Massetreiber und das negative Signal zum SESCSI-Treiber, sodass das Treiberpaar kompatibel zu herkömmlichen SCSIBussen ist. Bei der HVD-Technik besteht diese Möglichkeit nicht, weil es hier eine andere Kontaktbelegung gibt. Die Restriktionen der SE-Spezifikation bedeuten, dass der Entwickler tatsächlich den Einsatz von zwei Bussen erwägen sollte. Ein Bus arbeitet dabei im SE-Modus für herkömmliche Geräte und der andere im LVD-Modus für neue Geräte. Um diese Möglichkeit einfacher zu gestalten, wurden Zweikanal-HostAdapter entwickelt. Obwohl dies im Widerspruch zu den vorab genannten Vorteilen der Übereinstimmungen zwischen LVD und SE SCSI steht, gibt es erhebliche Kostenvorteile durch Einsatz derselben Komponenten. Außerdem kommt nur der LVD-Controller auf dem Zweikanal-Board hinzu. Eine weitere Möglichkeit besteht in der Nutzung eines Expanders, auch Translator genannt, der LVD- mit SEGeräten verbindet, sodass die neuen Geräte mit Ultra2-SCSI-Geschwindigkeit arbeiten, aber weiterhin mit alten Geräten kommunizieren können. Dies ergibt sich daraus, dass die DIFFSENSLeitung des SCSI-Busses den anderen Geräten anzeigt, wenn ein SE-Gerät auf einen SCSI-Bus mit LVD geschaltet wird. Alle fallen dann zurück in den SEModus. In so einem Fall sind allerdings die Transceiver auf die maximale Kabellänge, Transferraten und Belastungsgrenzen von Ultra-SCSI- beziehungsweise langsamerer Einheiten begrenzt, und die Vorteile des Ultra2-SCSI-Busses bestehen nicht mehr. Um bei hohen Übertragungsraten zu arbeiten, müssen alle Einheiten am Bus LVD-fähig sein, oder es müssen Expander eingesetzt werden, um die SE-Geräte zu isolieren. Ein Expander arbeitet, indem er ein LVD- oder SE-SCSI-Signal empfängt, dieses Signal aufbereitet und es an ein weiteres SCSI-Bus-Segment sendet. Einige Expanderchips konvertieren SCSISignale zwischen LVD- und SE-Pegel, je nachdem, wie der Chip konfiguriert ist. Eine Möglichkeit zum Expandereinsatz besteht darin, LVD-Geräte auf dem Hauptbus zu betreiben und über einen LVD-zu-SE-Expander die Verbindung zu einem zweiten Bussegment herzustellen, an das die SE-Geräte angeschlossen sind. Diese Konfiguration ermöglicht Datentransfers mit der hohen Ultra2-SCSI-Übertragungsrate zu den LVD-Geräten auf dem Hauptbus, während die Ultra-SCSI-Transfers niedriger Geschwindigkeit zu den SE-Geräten auf dem zweiten Bussegment verbleiben. Die neue Technik verlangt, verschiedene Punkte bei der Systementwicklung zu berücksichtigen. Dies betrifft insbesondere das Layout der Leiterplatte. Aufgrund des geringen Signalhubs 5/2000 müssen die Differentialpaarleitungen gleich lang sein und in gleicher Weise auf der Leiterplatte geführt werden, um jeden Versatz (skew) zwischen den Signalen zu minimieren. Gleichermaßen müssen die Längen der Abzweige (stub) so kurz wie möglich sein und definitiv zehn Zentimeter nicht überschreiten, um die Signalreflektionen auf ein Minimum zu halten. Aus demselben Grunde sollten die Leiterbahnimpedanzen genauso groß sein, wie diejenigen des Mediums und des Abschlusses. Ultra2-SCSI-Konfigurationen erfordern eine Anpassung an die Leiterbahn- und Kabelimpedanz von 110 bis 135 Ohm bei LVD-Systemen und 90 Ohm bei SE-Systemen. Neben diesen Punkten sind noch die Terminatoren und Stecker zu berücksichtigen. Einige Terminatoren sind sowohl für LVD- als auch für SE-Signale geeignet und ermöglichen potenziell das Hin- und Herschalten zwischen diesen beiden Betriebsarten beziehungsweise das Abschalten. Dies kann erforderlich sein, wo der HostAdapter sich in der Mitte des Busses befindet und die On-Board-Terminatoren automatisch unterbrochen werden müssen. Die Größe des Steckers ist ebenso von Bedeutung, weil VHDCI(Very High Density Cabled InterDer Begriff Ultra 2 SCSI ist ein Marketing-Terminus der SCSI Trade Association (www.scsita.org). Der gültige ANSI-Standard heißt SCSI-Parallel-Interface – 2 (SPI-2), X3.302: 1999. Exemplare des Entwurfs des T10 Technical Committees zu SPI-2 stehen unter der Internet-Adresse ftp://ftp.symbios.com/pub/stan dards/io/t10/drafts/spi2/spi2r20b. pdf zur Verfügung. connect-)Stecker bis zu vier SCSIKanäle auf einer PCI-Card ermöglichen, was mit den größeren, weiter verbreiteten HD68-(High Density 68-Pin-) Steckern nicht möglich ist. Die ständig wachsende Datenrate verlangt von Systemintegratoren, der Qualität von Verkabelungen und dem Abstand zwischen den Einheiten mehr Aufmerksamkeit zu widmen, als früher. LVD ermöglicht jedoch Systemkonfi- 5/2000 gurationen, die bislang mit der SETechnik nicht realisierbar waren: 16 Geräte auf zwölf Meter Kabel im Gegensatz zu acht Geräten auf 1,5 Meter Kabel! Obwohl es möglich ist, Backplanes zu entwickeln, die sich sowohl für den SEwie auch den LVD-Modus eignen, muss dem Layout besondere Aufmerksamkeit geschenkt werden, um für beide Betriebsarten die richtige Leiterbahnimpedanz sicherzustellen. Weil LVD-Signale schwächer sind und das Timing kritischer ist, sollten Unterschiede in der Signalkapazität auf jeden Fall so gering wie möglich sein. Es gehört zur Upgrade-Strategie, für SCSI die erforderlichen Änderungen bei den Software-Treibern so gering wie möglich zu halten, sodass die SoftwareInvestitionen geschützt bleiben. Ein Hochrüsten auf Ultra2 SCSI bedeutet, den Treiber auf Ultra2-SCSI-Übertragungsraten sowie die Taktgenerierung auf Ultra2 SCSI einzustellen. Um potenzielle Änderungen des Busmodus zwischen LVD- und SE-Modus bewerkstelligen zu können, muss auch der Software-Treiber dies unterstützen. Wenn eine Änderung des Modus auftritt, so geht ein Interrupt-Signal an den Treiber, der die Änderung signalisiert. Nun kann der Treiber sich auf die neue Transferrate in Abhängigkeit vom Signalisierungstyp des neuen Geräts einstellen. Die Zukunft Zum SPI-2-Protokoll wurde eine Übereinkunft erzielt, und das T10 Technical Committee arbeitet bereits am Ultra3 genannten SPI-3-Protokoll. Hier wird die SCSI-Datentransferrate gegenüber Fast-80 wiederum verdoppelt (Ultra 160 liefert zum Beispiel 160 MBytes/s auf einem breiten SCSI-Bus), indem Daten sowohl bei der ansteigenden wie auch bei der abfallenden Flanke des Bustaktsignals übertragen werden. Das heißt, beide Flanken des REQ- und des ACK-Signals kommen zum Einsatz und verdoppeln die Datentransferrate, ohne dass die anliegenden Frequenzen sich verdoppeln. Um ein Aus- und Einstecken der Baugruppen (hot plug-in) des Systems im Betrieb zu ermöglichen, umfasst das SPI-3-Protokoll auch ein CRC-Error-Checking der Daten, sodass sich die Baugruppen ohne verborgene Fehler auswechseln lassen. Ein weiteres Merkmal von SPI-3 ist die Domain-Validation. Ähnlich wie bei Modemprotokollen erfolgt hierbei eine automatische Reduzierung der Übertragungsrate, wenn die Verbindungsqualität nicht ausreicht. Im Rahmen der Validierung wird geprüft, ob die Kabel, Anschlüsse und Expander in der Lage sind, die vereinbarte Datenrate und Busbreite zu unterstützen. Derzeit führt der Anschluss von Wide-SCSI-Einheiten mit einem Narrow-Kabel zu stetigen Parity-Fehlern. Ultra3-SCSI würde in diesem Fall die Übertragung dank der Domain-Validation auf “Narrow SCSI” umstellen. Zu guter Letzt wird SPI-3 Optionen für paketorientierte Protokolle enthalten, die in Umgebungen mit einer Vielzahl von I/Os mit kleiner Blockgröße Verwendung finden. Dies gewinnt immer mehr an Bedeutung, wenn die SCSI-Datenraten steigen. Schlussfolgerungen Die LVD-Signalisierung für Ultra2 SCSI verbessert die System-I/O-Performance und löst zahlreiche kabelund signalbezogene Probleme heutiger Ultra-SCSI-Systeme. Sie bringt VARs und Systemintegratoren die Vorteile einer besseren Device-Connectivity, Bill Schmitz und John Lohmeyer sind Systemingenieur beziehungsweise Senior Consulting Engineer bei der LSI Logic Corporation. Datenzuverlässigkeit und Performance in der neuen Generation von SCSIProdukten und ermöglicht die Integration neuer Transceiver in vorhandene SCSI-Geräte. Die Zuverlässigkeit der LVD-SCSI-Technologie sichert Investitionen in vorhandene SCSI-Produkte und bietet gleichzeitig einen Hochleistungs-Migrationspfad in das neue Jahrtausend. (John Lohmeyer, Bill Schmitz/gg) 37 A n z e i g e ✃ Bestellung: Unix-Navigator Ich möchte unter folgender Rubrik aufgenommen werden: ❏ Internet/Intranet-Provider ❏ Lösungen für Linux ❏ Java-Software ❏ Unix-Dienstleistungen ❏ Datenbanken ❏ Objektorientierte Technologien ❏ Datensicherheitssysteme ❏ weitere Unix-Software Ich buche den Eintrag meiner Firma zum Jahres-Festpreis von DM 600,- pro Rubrik (zzgl. MwSt.) für 12 Ausgaben. Firmenname (mit Rechtsform): Ansprechpartner: Position: Straße/Hausnummer: PLZ/Ort: Tel.: Fax: Email: Service: (max. 144 Anschläge) Homepage: Verbindliche Unterschrift für den Auftrag: AWi Verlag, Anzeigenabteilung Unixopen, Bretonischer Ring 13, 85630 Grasbrunn, Fax: 089/45616-250 ONLINE verlag münchen wir informieren spezialisten. http://www.unix-open.de/info Internet/Intranet Web-Switches gegen Denial-of-Service Hacker-Angriffe entschärfen Denial-of-Service-(DoS-)Angriffe sind in Mode gekommen. Sie haben im Gegensatz zu “traditionellen” Hacker-Angriffen nicht das Ziel, Daten zu klauen oder in das Intranet eines Unternehmens einzubrechen. Web-Switches können solche Angriffe wirkungsvoll abwehren. Die Geräte bieten neben Funktionalitäten für Traffic-Management und Lastverteilung auch ein Stück Sicherheit, da sie DoSAngriffe durch vorkonfigurierte ICMP-Filter (Internet Control Message Protocol) abfangen. D er Stein kam Anfang Februar ins Rollen: In den ersten Tagen des Monats waren die Websites von Yahoo, Amazon und EBay jeweils für mehrere Stunden nicht erreichbar. Wären nicht diese namhaften Unternehmen betroffen gewesen, hätte vielleicht niemand Notiz von diesem Ereignis genommen. So aber rückten die Hacker und ihre diversen Angriffsarten ins Rampenlicht der Medien. Die Reaktionen aus Politik und Wirtschaft sind sehr unterschiedlich: Während in den USA umgehend ein Treffen zwischen Bill Clinton und führenden Vertretern der Wirtschaft einberufen wurde, ist die Haltung in Deutschland eher abwartend. Das Motto “Hat ja keine deutsche Firma getroffen” sollte jedoch besser nicht angewendet werden. Denn eine DoSAttacke kann schnell zu Verlusten in Millionenhöhe führen. Ganz zu schweigen von den Kunden, die so eine Panne sehr verärgert. Schutzmaßnahmen sind folglich unumgänglich. Neben effektivem Traffic-Management und Mechanismen zur Lastver- 40 teilung spielen Sicherheitsaspekte eine immer zentralere Rolle im Netzwerk. Administratoren müssen in Zukunft eine durchgängige Sicherheitsstrategie implementieren. Die Installation von Web-Switches für Firewall Load Balancing und die Konfiguration von bestimmten Filtern ist dafür ein erster Ansatz. Um eine DoS-Attacke zu verursachen, ermittelt ein Hacker zunächst per DNSLookup eine IP-Adresse, die irgendwo im Netz existiert. Hat er ein Computersystem gefunden, das gezielt angesteuert werden soll, benötigt er noch Daten über die Segmentierung des Netzwerks. Denial-of-ServiceAttacken durchführen Dies geschieht mittels TracerouteAbfrage: Sie verfolgt ein Datenpaket vom Computer hin zum Internet-Host und ermittelt Anzahl und Dauer der Hops bis hin zum Host. Dabei wird das Datenpaket zunächst mit einem niedrigen “Auszeitfeld” (time-to-live oder TTL) verschickt. Der TTL-Wert bestimmt, wie viele Hops ein Datenpaket vor dem Zurückschicken durchlaufen darf: Kann das Paket den Zielort nicht erreichen, weil der TTL-Wert sehr niedrig angelegt ist, schickt es der letzte erreichte Host zurück. Bei der Rückübertragung des Datenpakets identifiziert sich dieser Host gleichzeitig. Über eine Reihe solcher Tests mit stetig höheren TTL-Werten können potentielle Hacker die Segmentierung des Netzwerks ausspionieren. Traceroutes kommen ursprünglich aus der UnixWelt. Aber auch Windows 95 unterstützt mit “Tracert” solche Abfragen. Zu den derzeit bekanntesten Attacken zählen “Smurf Attacks”. Um den eigentlichen Angriff auszulösen, muss der Angreifer einen Trojaner an viele Computer Die Produkte von Alteon Web-Systems basieren auf einer Multiprozessorarchitektur. Pro Port verarbeiten zwei Risc-Prozessoren die einkommenden Daten. 5/2000 im Netzwerk schicken. Ein solcher Trojaner lässt sich beispielsweise an ausführbare Programme oder Makros anhängen. Durch Öffnen des Anhangs installiert sich der Trojaner auf dem fremden Computersystem und wird aktiviert. Bei einer Smurf attack führt der Trojaner im einfachsten Fall langanhaltende Ströme von Ping-Anfragen durch. Eine solche Ping-Anfrage stellt eigentlich fest, ob eine bestimmte IPAdresse im Internet erreichbar ist. Bei Smurf attacks schicken die Trojaner sehr viele Anfragen dieser Art an unterschiedliche Rechner im Internet. Als vermeintlichen Absender geben Hacker dabei eine existierende IP-Adresse an, auf die sämtliche Rückmeldungen der Server innerhalb kürzester Zeit geschickt werden. Das führt über kurz oder lang zur Überlastung der WAN-Bandbreite der attackierten Website und unterbindet somit legitime Anfragen an die Site. Dies ist oft relativ einfach möglich, weil die meisten Router erlauben, Pings als Broadcast Request weiterzuleiten. Die Netzwerkkomponenten fungieren auf diese Weise als eine Art Ver- 5/2000 stärker und lösen innerhalb kürzester Zeit eine Vielzahl von Rückmeldungen auf nur einen Server aus. Das Fatale für das betroffene Unternehmen: Strömt die Flutwelle von Anfragen erst einmal auf das System zu, kann sie nicht mehr ad hoc abgewehrt werden. Schutzmaßnahmen durch Filtermechanismen Solche Attacken lassen sich jedoch über Filtermechanismen wie ICMP-Filter abwehren. Diese Filter können individuell konfiguriert werden. Administratoren sind damit im Vorfeld in der Lage, bestimmte Grenzwerte und Verfahrensweisen zu definieren, die Auskunft über Verfügbarkeit, Status der Datenleitungen, Erreichbarkeit der Hosts und mehr geben. ICMP-Filter lassen sich grundsätzlich auf allen aktiven Netzwerkkomponenten oder Servern konfigurieren. Eine zusätzliche Schutzmaßnahme stellen Firewalls dar. Sie sind gerade in Firmennetzen schon weitverbreitet. Firewalls dienen ursprünglich dazu, unberechtigte Zugriffe auf Unternehmensdaten zu verhindern. Sollen diese Produkte auch Filterfunktionen zum Beispiel zur Abwehr von HackerAttacken übernehmen, bedeutet dies jedoch häufig Leistungsverluste sowie mangelnde Skalierbarkeit des Systems, da Firewalls direkt im Datenfluss “Sitzen”. Darüber hinaus ist die Architektur der Software in der Regel nicht dafür ausgelegt, große Datenaufkommen schnell abzuarbeiten, da sie meist mit einem zentralen Prozessor arbeiten. Leistungssteigerung bedeutet deshalb Austausch von Hardware. Um per Software Hochverfügbarkeit sicher zustellen, gibt es bei Firewalls die Möglichkeit einer Standby-Konfiguration oder Features, mit denen die Firewall im Cluster arbeitet. In beiden Fällen verwenden die Firewalls jedoch einen nicht unbedeutenden Teil der Rechenleistung dafür, die Daten untereinander zu synchronisieren. Eine neue Generation von Switches, so 41 Internet/Intranet genannte Web-Switches, setzt an diesem Punkt an. Die Geräte eignen sich für Switching von Layer 4 bis 7 und bieten unter anderem Funktionalitäten wie Traffic Control, Load Balancing und ICMP-Filtering. Firewall Load Balancing bietet zusätzlichen Schutz Ein Beispiel dafür sind die Produkte von Alteon Web-Systems. Sie lassen sich vor die Firewall im Unternehmen schalten. An dieser Stelle fungieren sie als Puffer für alle dahinter installierten Netzwerkkomponenten und können so auch Hacker-Angriffe erschweren. Der Vorteil daran: Außenstehende erkennen nicht, welche IP-Adresse die Geräte hinter den Switches haben. Solche Produkte bilden im Netz sozusagen eine virtuelle IPAdresse ab. Das besondere an den Alteon-Switches ist es, dass sie auf einer Multiprozessorarchitektur basieren. Im Kern versteckt sich ein ASIC, den zwei Dual Risc-Prozessoren unterstützen. Der ASIC und die beiden Risc-Prozessoren sind eine Eigenentwicklung des Unternehmens. Damit bietet der Hersteller eine robuste Grundarchitektur in Silizium. Erweiterungen und neue Features wie Health- Der Alteon 180e kann bis zu 200.000 Web-Sessions pro Sekunde verarbeiten Checks oder zusätzliche Load-Balancing-Funktionen lassen sich über die Dual-Risc-Prozessoren per Software installieren. Der ASIC muss dabei nicht extra ausgetauscht werden. Die Geräte sind dafür ausgelegt, eine Vielzahl von Anfragen innerhalb kürzester Zeit abzuarbeiten. Dieser Prozess findet direkt am Port statt. Das macht die Geräte schneller, da die Switching-Entscheidung sozusagen direkt am Port getroffen wird. Der Hin- und Rückweg zu einer zentralen CPU, die entscheidet, wohin das Pakt gehen soll, entfällt. So erschwert die Architektur des Systems Angriffe von außen. Sehr wichtig für die Netzleistung sind Load-Balancing-Funktionen, die die eingehende Last auf mehrere Firewalls verteilen können. Dafür braucht man mindestens zwei Web-Switches, die dann in einer Sandwich-Konfiguration vor und hinRoland Hamann ist Sales Mögliche Konfiguration bei Firewall Load Balancing 1. Hot-Standby Eines der beiden Geräte ist aktiv, das andere arbeitet im Standby-Modus. Beide Switches sind über einen Failover-Link miteinander verbunden und tauschen regelmäßig so genannte “Keep-Alive”-Signale aus. Fällt ein Port des aktiven Switches aus, wird der Datenverkehr auf das Standby-Gerät umgeleitet. Um zu prüfen, ob der aktive Switch ausgefallen ist oder lediglich ein einzelner Port, führen die Produkte über den Data-Link-Layer eine spezielle Kombination physikalischer Health-Checks durch. Weitere standardbasierte Failover-Mechanismen sind ebenfalls verfügbar. Hierzu zählen Spanning Tree Protocol oder Virtual Router Redundancy Protocol nach RFC 2338. Die Switches synchronisieren in dieser Standby-Konfiguration keine Daten. Sie prüfen lediglich die gegenseitige Erreichbarkeit. Steht ein Switch, springt der andere ein. 2. Active-Standby In dieser Konfiguration teilen sich beide Switches die Arbeit. Sollen zum Beispiel drei virtuelle Server (VIP) verwaltet werden, so ist ein Gerät aktiv für zwei VIPs zuständig und standby für die dritte. Entsprechend regelt das zweite Gerät den Datenverkehr für einen VIP und arbeitet im Standby-Modus für die beiden anderen. Beide Switches sind also gleichzeitig am Load-Balancing-Prozess beteiligt, und es gibt keine ungenutzte Hardware. 3. Active-Active Diese Konfiguration eignet sich besonders für Unternehmen und Banken, die auf hohe Ausfallsicherheit und Verfügbarkeit angewiesen sind. Hier arbeiten beide Geräte parallel. 42 Manager Deutschland bei Alteon Web Systems ter die Firewall geschaltet werden. Viele Firewalls arbeiten nach dem Prinzip der “Stateful Inspection”. Deshalb sind alle Datenpakete einer einzelnen TCP/IPVerbindung auch durch dieselbe Firewall zu routen. Gute Web-Switches erkennen den Zustand der einzelnen Verbindungen. Und das auch bei Durchsatzraten für Fast Ethernet und Gigabit Ethernet. Regelmäßige automatische “Health Checks” stellen gleichzeitig die Verfügbarkeit sicher. Über die Load-Balancing-Funktionalitäten können Firewalls auch beim Filtern von Daten beispielsweise von FTPoder Web-Servern entlastet werden. Verschiedene Failover-Mechanismen regeln die gewünschten Ansprüche an die Verfügbarkeit der Systeme. (Roland Hamann/gg) 5/2000 Systemmanagement im Intranet Voller Durchblick Mit der Expansion eines Unternehmens wachsen auch die IT-Strukturen. Für die Administratoren wird es immer schwieriger, die steigende Zahl von Benutzern, Anwendungen und Datenmengen im Netz im Griff zu behalten. Unterstützung erhalten sie dabei durch selbstlernende Managementfunktionen, so genannte neuronale Agenten. Dieser Artikel geht näher auf die Funktionsweise solcher Systeme ein. N ach Jahren des Booms der Client-/Server-Systeme wird der Nutzen dezentraler Netzwerklösungen mittlerweile in vielen ITChefetagen nüchterner betrachtet als zuvor. Zwar konnten die flexiblen, leistungsstarken Architekturen der 90er Jahre mit der Dynamik expansiver Unternehmen gut mithalten. Ohne die Ab- hängigkeit von einem aufwendigen Rechenzentrum war der Einstieg in die Netzwerktechnologie und ihre Anpassung an einen wachsenden Bedarf vergleichsweise kostengünstig zu realisieren. Dagegen sind den eilig gesponnenen Intranets in vielen Anwenderbetrieben viele Qualitätsmerkmale klassischer Rechenzentren verloren gegangen. Da- Netzwerkagenten neuester Generation erstellen eine vollständig mehrdimensionale Topographie der Netzwerkarchitektur 5/2000 43 Internet/Intranet zu gehören Sicherheit, garantierte Datenverfügbarkeit, Stabilität und Zuverlässigkeit der Systeme. Nachdem das Controlling immer dringlicher die Frage nach der “Total Cost of Ownership” um die Frage, wie sich das Beste aus beiden Welten für das Informationsmanagement der Zukunft verwenden lässt. Die Abwägung, wieviel Autonomie im Intranet realisierbar und wie Das Systemmanagement der Zukunft integriert sämtliche Sichten des Unternehmens – vom User bis zu den Non-IT-Devices aufgeworfen hat, wird deutlich, dass die Administration von Client-/Server-Systemen einen hohen personellen Aufwand mit sich bringt und insgesamt weitaus mehr Kosten verursacht als früher angenommen wurde. Verteilte Anwendungen, heterogene Systemplattformen und eine ständige Zunahme der Knoten im Intranet treiben die Kosten des Netzwerkmanagements in die Höhe. Die Möglichkeiten der Automatisierung, die das Budget entlasten könnten, stoßen bisher an ihre Grenzen. Zu groß ist die Dynamik im Netz, zu schnell ändern sich die Strukturen. Kein Wunder also, dass die Tugenden des zentralen Datenmanagements immer häufiger beschworen werden, wo doch kleine, autonome und bewegliche Einheiten im Netzwerk bislang das Credo der Unternehmensstrategen waren. Ein Umdenken hat eingesetzt, die massiven Mainframes der Vergangenheit werden nicht mehr nur als hinderlicher Ballast gesehen, sondern wieder als “sichere Bank” geschätzt. Bei der aktuellen Entwicklung geht es allerdings nicht um die simple Wahl zwischen den Paradigmen “zentralisierte oder dezentrale” IT, eher schon 44 viel Zentralisierung nötig ist, muss letztlich jedes Unternehmen anhand seiner individuellen Anforderungen selbst treffen. Für das Management seiner Informations- und Kommunikationsstrukturen braucht ein zukunftsorientiertes Unternehmen daher Instrumente, die nicht einer einseitig definierten Strategie unterliegen. Vielmehr muss es seine Netzwerkprozesse so flexibel anpassen können wie es die dynamischen Rahmenbedingungen von Markt und Wettbewerb erfordern. Der Systemadministration steht für die Herausforderung “Netzwerkmanagement” ein vielfältiges Angebot an Tools und Gesamtlösungen zur Verfügung. Lösungen für das Netzwerkmanagement sind keine integrativen Bestandteile von Netzen, sondern setzen auf ihnen auf. Ihre Arbeit im Intranet beginnt mit einer umfassenden Bestandsaufnahme: Sie scannen das Netz und erfassen dabei die Gesamtheit seiner Struktur. Dieser Vorgang – auch als Autodiscovery-Prozess bezeichnet – nimmt je nach Komplexität des Systems wenige Minuten oder auch viele Stunden in Anspruch. Die Qualität dieser Inventur kann durchaus unterschiedlich ausfallen. Ein präziseres Bild entsteht, wenn neben der rein räumlichen Verteilung von Hardware auch die hierarchische Zuordnung der Client-/Server-Knoten, der Router, Hubs oder Switches zueinander ersichtlich wird. Die so entstandene Darstellung des Firmennetzwerks landet dann in einer Datenbank. Objektorientierte Management- und Database-Lösungen bieten erfahrungsgemäß die besten Voraussetzungen, um aus unstrukturierten Daten sinnvolle Informationen zu gewinnen. Für den Administrator kann es zum Beispiel hilfreich sein, die Topographie des Netzwerks noch durch eine andere Sicht zu ergänzen. Das könnte eine organisatorische Sicht sein, welche die Zugehörigkeit der Netzkomponenten zu einzelnen Abteilungen oder Filialbetrieben aufzeigt oder auch eine geographi- Die typische Warnmeldung eines neuronalen Agenten könnte so aussehen: Um 11 Uhr prognostiziert der Agent, dass mit 95-prozentiger Wahrscheinlichkeit der Server AB232 in etwa 45 Minuten zu wenig Speicherkapazität hat. Folgende Werte verdeutlichen das Problem: • Die Anzahl der eingegangenen Meldungen (Network Maintenance Message Input; ICMP: empfangene Meldungen pro Sekunde) ist höher als erwartet. Sie liegt bei 1,75 und war bisher nie höher als 1,324. • WWW Input (HTTP Service: empfangene Bytes pro Sekunde) ist höher als erwartet. Sie liegt bei 1482 und war bisher nie höher als 1268. • Virtuelle Speicherkapazität auf der Festplatte ist geringer als erwartet. Sie liegt bei 26,8 und sollte über 43,1 liegen. • Verfügbares RAM: innerhalb der Grenzwerte, • Auslagerung des virtuellen Speichers: innerhalb der Grenzwerte, • Lesevorgänge für den virtuellen Speicher: innerhalb der Grenzwerte, • Schreibvorgänge für den virtuellen Speicher: innerhalb der Grenzwerte. 5/2000 sche Darstellung ihrer Verteilung. In einem zweiten Schritt besetzt das Managementsystem das Intranet mit so genannten Netzwerkagenten. Ihre Aufgabe ist es, sich über einen begrenzten Zeitraum hinweg in das System “einzulernen”, um ein repräsentatives Bild von Normverhalten und -zustand all seiner aktivitäten durch die Agenten werden Erfahrungswerte gewonnen, die sich in Regeln und Grenzwerte für den künftigen Netzbetrieb ummünzen lassen. Diese Policies helfen der Automatisierung im Netzwerkmanagement bereits ein gutes Stück weiter. Sie können Parameter wie Verfügbarkeit oder Performance bereits selbsttätig regeln und sogar ganze Teilsysteme wie ERP-Anwendungen, Groupware- oder Middleware-Systeme automatisiert überwachen. Allerdings müssen diese Policies allen Änderungen in der Konfiguration, den Workloads oder im UserVerhalten immer neu angepasst werden. Statische Regelwerke tun sich generell schwer in einer dynamisch sich entwickelnden IT-Struktur. An diesem Punkt setzt die Technologie der neuronalen Netze an. Die FunkNeuronale Agenten in der Logistikplanung: Sie prognostizie- tion dieser Software ist dem menschliren beispielsweise die Zeit, wann das Fahrzeug eintreffen wird, wie lange der Entladevorgang dauert und welche Res- chen Gehirn nachsourcen bereit zu halten sind, um das nächste geplante Fahr- empfunden: Sie ist ziel rechtzeitig zu erreichen. Übersichtskarte Flottenmanage- fähig, Wissen anzusammeln und die ment und Palm-Emulators – Neugent Analysis daraus gewonnenen Bestandteile zu erhalten. Dies betrifft Erfahrungswerte auf künftige Situatiodie Performance und Auslastung ebenso nen anzuwenden. Neuronale Netze lerwie den Sicherheitsstatus oder die Hard- nen assoziativ durch eine Kombination ware-Konfiguration. Sämtliche Infor- von Beobachtung und Vergleichen mit mationen über diese “Managed Ob- adaptierten Mustern und ziehen eigenjects” – das sind sowohl Geräte als auch ständig Schlussfolgerungen daraus. Auf dieser Basis intelligenten LerApplikationen, Datenbanken oder Geschäftsprozesse – gehen ebenfalls in die nens ermöglichen neuronale Agenten Datenbank des Managementsystems ein dem Administrator eine genauere Anaund ergänzen die Bestandsaufnahme lyse seines Netzwerks. Als sich selbstdes Netzwerks um eine zeit- und situati- optimierende Software-Tools können onsbezogene Charakteristik. So entsteht sie geänderte Verhältnisse ohne zusätzeine plastische mehrdimensionale Wie- liche manuelle Eingriffe nachvollziehen und in Prognosen für künftiges Systemdergabe der Netzwerkarchitektur. Aus der Beobachtung der Netzwerk- verhalten umsetzen. Zusätzlich sind sie 5/2000 45 Internet/Intranet in der Lage, Vorschläge für Korrekturen in den Richtlinien zu unterbreiten. Dadurch steht dem Netzwerkleitstand ein effizientes Frühwarnsystem zur Verfügung. Es alarmiert den Administrator nur dann, wenn mit hoher Wahrscheinlichkeit ein aus der Historie des Systems bekannter Fehler oder aber eine völlig unbekannte Situation eintritt, etwa der Verdacht auf eine Sicherheitsverletzung. Neuronale Agenten verhelfen der Unternehmens-IT daher langfristig zu erhöhter Performance. Ausfallzeiten werden reduziert, der Grad der Automatisierung erhöht und damit insgesamt die Produktivität gesteigert. Der Erfahrung nach sind damit Einsparpotenziale von 18 bis 25 Prozent im Systemmanagement zu erzielen. Insgesamt stellt eine intelligente System-Management-Software die Verfügbarkeit eines Intranet sicher, indem es die Leistungsfähigkeit der einzelnen Elemente gewährleistet. Sind Clients und Netzkomponenten fehlerfrei, läuft auch der Datenbankprozess. Kann der Systemadministrator alle Einzelfunktionen überwachen, hat er auch die Gesamtkontrolle über die Netzwerkprozesse. Je mehr die Informationstechnologie eine Rolle als Herzstück des Unternehmens übernimmt, das alle betrieblichen Prozesse antreibt, desto stärker rückt auch die Bedeutung von Performance und Zuverlässigkeit der Systeme in den Mittelpunkt. Viele DV-Chefs kennen das Phänomen, dass Investitionen in diesen Bereichen der Informationstechnik in ganz anderen Managementbereichen Wirkung zeigen, etwa in der Effizienz des Vertriebs. Der Zusammenhang zwischen beiden Faktoren wird allerdings nur bei ganzheitlicher Sicht des Unternehmens deutlich. Eine IT-Infrastruktur sollte analog zur Herzfunktion im biologischen Organismus die Taktrate erhöhen können, wenn die beschleunigte Tätigkeit des Unternehmens das erfordert. Mehr noch, das “Zentralorgan” muss gleichzeitig in der Lage sein, das Durchsatzvolumen zu steigern, wenn die Gesamtaktivität des Enterprise zunimmt. Die Folgen von Fehlfunktionen oder nur vorübergehenden Ausfällen sind in der Unternehmens-IT heute ähnlich gravierend wie in 46 einem biologischen System: Jede Ausfallstunde unternehmenskritischer Anwendungen oder Server fügt dem Gesamtbetrieb empfindlichen Schaden zu. Schon bei Betrieben mittlerer Größe treten oftmals Einbußen in der Größenordnung von 150.000 Mark täglich auf, abhängig von Parametern wie dem Umfang der ausgefallenen Systeme und der Zahl der betroffenen Anwender. Die Analogie Organismus – Unternehmen zeigt auch, wie entscheidend die Steuerungsfunktionen des zentralen Nervensystems sprich: des Systemmanagements für das Funktionieren der Unternehmensnetzwerke sind. Das Management eines Systems ist grundsätzlich eine zentral wahrzunehmende Aufgabe, die sich nicht beliebig delegieren lässt. Die zunehmende Komplexität der Intranets, Systemarchitekturen und darauf laufenden Applikationen verlangt nach einem zentralen Leitstand, an dem die technischen, personellen und organisatorischen Voraussetzungen bestehen, um das Zusammenspiel dieser Komponenten auch verantwortlich steuern zu können. Idealerweise sind hier die Features eines Rechenzentrums gegeben, an dem die Fäden einer weiterhin dezentralen Client-/Server-Netzwerktopologie zusammenlaufen. Für das darauf aufbauende Netzwerkmanagement ist es entscheidend, ein vollständiges und unverzerrtes Bild der IT-Infrastruktur zu erhalten. Eine große Erleichterung für Administratoren liegt darin, dass sie den Wildwuchs heterogener Netzkomponenten auf einer grafischen Bedieneroberfläche einheitlich darstellen und mit geeigneten Werkzeugen – “Object Repositories” – von einer einzigen Konsole aus gebündelt steuern können. Neueste Management-Tools gehen noch einen Schritt weiter: Sie erlauben es der Netzbetreuung, eine ITKommandobrücke von jedem beliebigen Ort mit Web-Zugang aus zu aktivieren. Ein Java-Interface mit geeignetem Browser macht die Administration unabhängig vom Standort des Rechenzentrums aus möglich. Solche Innovationen bieten wichtige Voraussetzungen, um absehbaren Entwicklungen im Networking auch weiterhin begegnen zu können: Das expo- nentielle Wachstum von Datenvolumen und Usern im Netz sowie die Herausforderungen, die neue Anwendungen wie E-Commerce oder neue technologische Plattformen wie Windows 2000 mit sich bringen. Dem Framework eines zukunftsweisenden Netzwerkmanagements wird demnach einiges abverlangt: Es muss in hohem Maße skalierbar sein und sich vollständig in die Systemlandschaft des Unternehmens integrieren. Proprietäre Rechnersysteme wie AS/400 sollten sich genauso einbinden lassen wie künftige Standards des Electronic Business. Das Ziel ist letztlich ein End-to-EndManagement aller Anwendungssysteme von einem Punkt aus. Davon sind auch die Non-IT-Devices des Unternehmens nicht ausgenommen. Das können die Schaltkreise und Bauteile eines Gebäude-Sicherheitssystems sein, genauso gut aber auch die im Außendienst eingesetzten WAP-Handys oder andere internetfähige Geräte. Ein besonders spektakuläres Beispiel für effizientes Netzwerkmanagement ist Horst Leber ist Technical Marketing Manager bei Computer Associates die Überwachung von High-tech-Funktionen eines Formel-1-Wagens. So nutzt beispielsweise der Rennstall McLarenMercedes die Intelligenz neuronaler Netze zur Kontrolle von Fahrzeug und Fahrer. Das Kontrollsystem checkt nicht nur technische Parameter wie Kraftstoffmischung, Temperatur oder Reifendruck während der Fahrt, sondern auch deren Auswirkungen auf den Piloten. Sie bezieht selbst individuelle örtliche Gegebenheiten ein wie die Beschaffenheit eines bestimmten Parcours oder die Wetterverhältnisse. Die Daten werden dazu aus dem Rennwagen per Funk an die Box übermittelt und dort mit der Administrations-Software Unicenter TNG aufbereitet und an Bildschirmen mit kritischen Werten angezeigt. (Horst Leber/gg) 5/2000 Steuern und Regeln über das Internet “Embedded” im Vormarsch Embedded-Web-Server dienen zum Warten von Industrieanlagen oder zum Überwachen von weit entfernt laufenden Applikationen über das weltumfassende Internet. Damit reduzieren sie die Kosten für Remote Access, da auf Seiten des Clients lediglich ein Internet-Zugang erforderlich ist. A uf der diesjährigen CeBIT bahnte sich bei der WebTechnologie ein neuer Trend an. Denn zukünftig geht es zunehmend darum, bestehende Steuerungen aus dem Bereich der Industrie oder der Facilitys dahingehend zu erweitern, dass das Messen, Steuern, Regeln und Überwachen über das Internet möglich wird. Ein solcher Fernzugriff über das Internet lässt sich am einfachsten durch den Einsatz von so genannten Embedded-Web-Servern realisieren. Funktionelle Bestandteile eines Embedded-Web-Servers sind ein HTTP-Server, ein parallel dazu arbeitender Kommunikations-Server, ein Regel-Server und eine vollständige TCP/IP-Protokoll-Suite. Diese vier Bestandteile ermöglichen das Erweitern von Haushaltsgeräten, Industriesteuerungen sowie von Anlagen zur Messdatenerfassung um die Fähigkeit des Verbreitens von Steuer- und Messdaten über das Internet. Für die Übermittlung beziehungsweise das Aufbereiten der Daten können die lokalen Daten einer Steuerung entweder in einer dynamischen HTML-Seite eingebunden werden, um einen direkten Zugriff über einen Web-Browser zu ermöglichen, oder die Lösung schreibt die Daten einfach in eine Datei, um sie später zu einem definierten Zeitpunkt via FTP zu einem zentralen Punkt zu 5/2000 übertragen. Grundsätzlich eröffnen sich den Anwendern durch den Einsatz eines Embedded-Web-Servers eine Unmenge an Möglichkeiten des Remote Access für lokal erfasste Daten. Dabei spielt es keine Rolle, ob es um die Überwachung eines Gebäudes geht oder einfach darum, die Wasserstände an verschiedenen Stellen entlang der Elbe zu abzufragen. Klein aber fein Im Prinzip stellt ein EmbeddedWeb-Server ein Benutzer-Interface zur Verfügung, das durch die Implementierung der Web-Technologie mit praktisch jedem Web-Browser dargestellt werden kann. Das Web-basierte Management führt letztendlich zu einer Verlagerung des Ressourcenbedarfs, denn die eigentliche Rechenleistung wird auf Client-Seite benötigt, wodurch für den Embedded-Web-Server nur minimale Prozessor- und Speicherressourcen anfallen. Durch die minimale Anforderung an die Systemleistung lassen sich Lösungen mit geringem Stromverbrauch und geringer Wärmeentwicklung aufbauen. Diese positiven Faktoren sind eine Voraussetzung, um kleine autonome Systeme für die Fernüberwachung aufbauen zu können. Das Kernstück der HardwarePlattform besteht aus einem vollwertigen PC mit Harddisk auf Basis einer 47 INTERNET/INTRANET Flashdisk. So setzt beispielsweise die Compu-Shack Production in ihren Embedded-Web-Server eine ChipDIMM-CPU auf der Basis einer 386CPU ein, die ausreichende Rechenleistung für die Funktionalität eines Embedded-Web-Servers zur Verfügung stellt. Die gesamte Hardware-Plattform ist in der Regel so kompakt aufgebaut, dass der eigentliche “PC” nur wenig Platz benötigt: Er hat in etwa die Größe einer Scheckkarte. Erweitert wird die Hardware durch eine Basisplatine, auf der die notwendigen Peripheriekomponenten in Abhängigkeit der jeweiligen Anforderung integriert sind. Dabei handelt es sich beispielsweise um serielle Interfaces, MultiI/O-Ports, Multimedia-Interfaces, einen Kamerachip oder einen EthernetAnschluss. Als OS kommt ein Echtzeitbetriebssystem zum Einsatz, dass auf die vorhandenen Bedürfnisse eines Embedded-Web-Servers zugeschnitten ist. Geht es darum, den EmbeddedWeb-Server direkt in Hardware zu implementieren, so kann dies durch die Migration der Chip-DIMM-CPU erfolgen. Auf der 144-poligen Kontaktreihe dieser Lösung liegen zum Beispiel ein ISA und ein I2C-Bus. Diese lassen sich über einen entsprechenden Sockel kontaktieren. Der Kommunikations-Server stellt letztendlich den Gateway zu den Peripheriekomponenten dar und macht funktionell den wesentlichen Unterschied des Embedded zu einem herkömmlichen Web-Server aus. An den Embedded-Web-Server lassen sich entweder direkt über analoge oder digitale Ein- und Ausgänge Sensoren und Aktoren anschließen oder über eine serielle Schnittstelle Steuerungen aus dem Industriebereich oder des Facility. Die Kommunikation zwischen dem Embedded-Web-Server und der über eine serielle Schnittstelle angeschlossenen Peripherie wird durch ein einfaches Kommunikationsprotokoll realisiert. Über das Protokoll meldet sich die Peripherie während der Initialisierungsphase bei dem EmbeddedWeb-Server an und teilt mit, welche Daten beziehungsweise Variablen die 48 Peripherie hat, von welchem Typ diese Variablen sind und, wenn es sich um lesbare Variablen handelt, in welchen Abständen diese Variablen abgefragt werden sollen. Die weitere Kommunikation zwischen dem Embedded-WebServer und der Peripherie basiert dann auf den während der Initialisierungsphase ausgehandelten Variablen und Attributen. Das Kommunikationsprotokoll ist sehr einfach gehalten und lässt sich mit wenigen Zeilen Pro- umgesetzt, der für die Überwachung eines Server-Schranks gedacht ist. Über den 19-Zoll-Einschub lassen sich bis zu acht Stromkreise/Server überwachen sowie verschiedene Parameter des 19Zoll-Schranks wie Temperatur, Lüfterfunktion und Türverriegelung. Treten kritische Situationen in einem ServerUmfeld auf, so kann die Lösung den Administrator via SMS oder E-Mail darüber informieren. Der 19-Zoll-Einschub stellt einen klassischen Anwendungsfall dar, indem die Funktionalität des Embedded-Web-Server mit der Überwachung von Peripherieeinheiten, in diesem Fall mit dem Umfeld eines 19Zoll-Schranks samt Servern, betraut wird. Maßgeschneiderte Lösungen Die Web Engine CAM enthält einen vollständigen Web-Server mit integrierter Kamera grammcode auf der Peripherie implementieren. Neben der Möglichkeit, HMTL-Seiten zu generieren, in die aktuelle Werte der zu überwachenden oder zu steuernden Peripherie eingebunden sind, bietet sich auch die Möglichkeit, ereignisund/oder zeitgesteuerte Aktionen zu definieren. Ermöglicht wird dies durch den internen Regelprozessor. So reagiert der Embedded-Web-Server beispielsweise auf kritische Situationen, wenn ein über die Peripherie erfasster Messwert einen Schwellwert unterschreitet. Durch eine Verknüpfung von Ereignissen und Aktionen, kann der Embedded-Web-Server zum Beispiel veranlasst werden, sich in das Internet einzuwählen und über den SMS-Service einer verantwortlichen Person eine Nachricht zu schicken, damit sie über die kritische Situation informiert ist. Die Compu-Shack-Produktion hat diese Funktionalität des EmbeddedWeb-Servers in einen 19-Zoll-Einschub Die komplette TCP/IP-ProtokollSuite verwendet die klassischen Protokolle der dritten und vierten Schicht wie IP, TCP und UDP, die für die Kommunikation über das Internet oder Intranet notwendig sind. Dazu kommen noch Protokolle der höheren Schichten wie FTP, HTTP, SMTP, ARP und Telnet. Außerdem wurden PPP und RAS implementiert, damit sich eine direkte Kommunikationsverbindung zum Embedded-Web-Server über eine Telefonleitung und ein Modem realisieren lässt. Durch die Möglichkeit, die Dienste des Internets über die Funktion eines Embedded-Web-Servers für Steuer und Regelaufgaben zu nutzen, ergibt sich ein nicht zu unterschätzender Vorteil, denn die Kosten für die Kommunikation reduzieren sich drastisch und beschränken sich in der Regel auf lokale Telefongebühren und Online-Kosten zum Internet-Provider. Geht es darum, eine Steuerung für den Zugriff über das Internet zu erweitern, so kann man dies dank des Embedded-Web-Servers nach dem Baukastenprinzip verwirklichen. Der große Vorteil für den Anwender liegt darin, dass er sich um die gesamte Web-Technologie in keiner Weise Gedanken machen muss, sondern die komplexen Funktionen durch den Einsatz des Embedded-Web-Servers erhält. In allen Anwendungsfällen, bei 5/2000 Flash Eprom Command-LIne I/F Flash File Treiber Telnet LPT-Port ComPort LPT-Port EPP-Treiber LPT-Treiber ComTreiber Videograbber & Kompressor MIB File-System E-Mail Client SNMP BootP WEB-Server ftp-Server Communication Gateway UDP ftp http tcp/ip MakroProzessor PPP Ethernet-Treiber RegelProzessor 10 MBit/s ComPort RTK Realtime Kernel Blockschaltbild eines Embedded-Web-Servers denen man ein Mensch-Maschinen-Interface benötigt, muss man sich lediglich die grafischen Oberflächen über HTML zusammenstellen. Der Zugriff wird wie bei einem herkömmlichen Web-Server über einen Web-Browser 5/2000 realisiert, der Bestandteil aller gängigen Betriebssystemplattformen ist. Dies vereinfacht den Remote Access, denn aufwendige Implementierungen von Anwendungen entfallen gänzlich. Auf der Basis von HTML-Seiten las- sen sich eigene Bedieneroberflächen zusammenstellen, die jeweils auf die vorhandenen Bedürfnisse angepasst sind. Dabei stehen eine Vielzahl grafischer Objekte in der Form von Java Applets zur Verfügung, die es dem Anwender ermöglichen, ergonomische und ansprechende Benutzeroberflächen aufzubauen, die ein Abbild der zu überwachenden Anlage oder des Objekts darstellen. Möchte man sich ständige aktualisierte Daten anzeigen lassen, so kommen Makros zum Einsatz, die dynamisch Daten der angeschlossenen Peripherie in die HTML-Seiten einbinden. Die Daten der Peripherie werden dabei über das Communication-Gateway des Embedded-WebServers in regelmäßigen Abständen gesammelt und in der Form von Variablen ständig in einer Datenstruktur abgelegt beziehungsweise aktualisiert. Beim Aufrufen der HTML-Seite referenzieren die Makros der HTML-Seite auf die gewünschte Variablen der Datenstruktur. Bevor die HTML-Seite an den Web-Browser übertragen wird, werden die Makros dann durch die aktuellen Werte der Variable ersetzt. (Jörg Rech/gg) Weitere Informationen: web-techno [email protected] 49 Internet/Intranet Technologie für Unternehmensportale Tür zur Info Das derzeit aktuelle Schlagwort “Portal” bezeichnet personalisierte Internet- oder Intranet-Zugänge zu Unternehmensinformationsbeständen. Es werden durchaus unterschiedliche Anwendungen mit diesem Schlagwort bedacht, die von “Eingangspforten für Massenpublikum” über “Errichtung von Informationskanälen für Spezialisten” bis hin zu “Business-to-Business-(B2B-)Vertriebswegezugängen” reichen. Dazu sind jeweils ganz unterschiedliche technische Ansätze nötig, die eine leistungsfähige Portal-Lösung abdecken muss. V iele Unternehmen stellen sich gerade der Herausforderung, Leistungsmerkmale und Konzepte aus den “Masseneingangspforten” – zum Beispiel AOL, MSN, Yahoo oder auch T-Online – in “ihre” spezialisierten B2B-Anwendungen zu übertragen. Die Gartner Group prognostiziert, dass in drei Jahren zwei von drei Fortune-500-Unternehmen Firmenportale als zentrale Benutzerschnittstelle zu Internet und Intranet einsetzen werden. Auch kleinere Unternehmen müssen voraussichtlich beim “Next Generation Desktop” nachziehen. Betrachtet man die unterschiedlichen Anwendungsbereiche der Portale, so zeigen sich für die eingesetzte Software verschiedenartige Anforderungen. Die Meta-Group unterscheidet vier Typen: – für Decision Support (Entscheidungsunterstützung): Voraussetzung sind entsprechende DCSS-(Vor-)Kenntnisse der Anbieter; – zur Informationspublikation, hier sind Spezialkenntnisse im Bereich der Dokumenten- und Wissensverwaltung von Nutzen; – Business-to-Business (Firmenkooperation), wichtige Portal-Bausteine sind zum Beispiel Mail-Dienste, Datenkonferenz-Software, Kalenderverwaltung 50 und Ähnliches, – zur Unterstützung des operationalen Geschäfts, eine entscheidende Anforderung ist die umfassende Integration bestehender Informationsressourcen von Unternehmen auf Basis ihrer existierenden, oft sehr heterogenen IT-Infrastrukturen. Neben diesen anwendungspezifischen Merkmalen sind noch eine ganze Reihe allgemein gehaltener Leistungsmerkmale te Unternehmensinformationen aufbaut. Hinzu kommen die technischen Herausforderungen. Bestehende IT-Systeme setzen meist eine Vielzahl unterschiedlicher Technologien ein. Dazu gehören Protokolle wie HTTP, IIOP, WAP, XML, Komponententechnologien wie Corba, COM, EJB, JSP sowie verschiedenste Betriebssysteme und Programmiersprachen. Ergänzt wird dies schließlich um die üblichen Qualitätsmerkmale wie sehr leichte Änderbarkeit von Anwendungen, Geschwindigkeit, Skalierbarkeit bezüglich Nutzeranzahl, Durchsatz oder Wartbarkeit. Insbesondere der Punkt der Skalierbarkeit von Portal-Software kann ein wettbewerbskritischer Faktor sein. Dies ist eine zentrale Bedingung, um tatsächlich zehntausende von Benutzerzugriffen in Web-basierten Unternehmensanwendungen mit praktikablen Antwortzeiten zu bewältigen. Nur wenige Technologien wie beispielsweise Corba, haben bereits bewiesen, dass sie dazu in der Lage sind. Etwas plakativ zusammengefasst lässt sich sagen: Enterprise Portal = heutige PC-Desktop Werkzeuge + standardbasierte Integration mit bestehenden Unternehmensinformationsquellen (Daten und Anwendungen) + Fähigkeiten und Vorteile von Internet-Umgebungen und -Technologien. iPortal Server Orbix 2000 iPortal Application Server iPortal Integration Server Bild 1. Der Aufbau von Iona’s I-Portal Suite für Portale zu beachten. Eine bedeutsame Anforderung, um individuellen Mehrwert bieten zu können, ist die “Personalisierbarkeit” eines Portals. Den Nutzern müssen für ihre Arbeit die jeweils für sie relevanten Informationen angeboten werden. Voraussetzung ist eine durchdachte Verwaltung der angebotenen Inhalte, die auf der Möglichkeit des Zugriffs auf integrier- Dies alles sollte hochskalierbar und flexibel sowie “in internet time” dynamisch änderbar sein. Eine Lösung wie Iona’s I-Portal Suite schafft beispielsweise eine Software-Umgebung, mit deren Hilfe Portale entwickelt werden können, die diesen Anforderungen entsprechen. Sie besteht aus vier wesentlichen Elementen (siehe Bild 1). 5/2000 in Form von Corba-Objekten. So können bewährte Applikationen in gekapselter Form mit definierten Schnittstellen neuen Anwendungen zur Verfügung gestellt werden. Die weiteren Elemente der I-PortalSuite bauen auf dem Orbix2000-Kern auf. Der I-Portal-Application-Server dient zum Entwickeln komponentenbasierter Anwendungen auf Basis von En- Scalability Ralliability Security Management Commerce Catalog Mgmt Application Server IIOP RMI • Business Logic Deployment • Session and Process Management Integration Server Profiling Etc. C++ EJB COM+ OS/390 DCOM Collaboration Search ART iPortal Server • • • • JSP/Servlet-Engine HOP ART terprise Java Beans (EJB). Dieser EJB Server/Container ist eine Sun-Soft-EJB 1.1 konforme Implementierung – unter anderem mit Bean und Container Managed Persistence sowie Bean Security. Darüber hinaus bietet er die Leistungsmerkmale von Sun-Softs Java 2 Enterprise Edition (J2EE). Zur Entwicklerunterstützung arbeitet das Produkt zudem mit einer grafischen Oberfläche, die ein einfaches “Zusammenbauen” von EJBs verschiedener Anbieter zu eigenen Applikationen erlaubt. Dadurch, dass dieser Application-Server auf Basis von Orbix 2000 implementiert wurde, stellen EJBs de facto Corba-Objekte dar, das heisst, sie sind interoperabel zu anderen Corba-Objekten, über die wiederum der Zugang zu den bestehenden Unternehmensanwen- Security Mgmt HTTP/SOAP EJB Server EJB Server JSP/Servlet-Engine EJB Server JSP/Servlet-Engine Bild 2. Skalierbarkeit der I-Portal-Suite-Architektur Content Mgmt Personalization Apache/ IIS/ Netscape http dungen realisiert wird. Außerdem “erben” EJBs durch ihre Implementierung als Corba-Objekte alle Eigenschaften hinsichtlich Skalierbarkeit und Administrierbarkeit. So ist es möglich, EJBs nicht nur über beliebig viele EJB-Container-Prozesse auf einem Rechner, sondern zudem über beliebig viele solcher Prozesse im Unternehmensnetzwerk zu verteilen. So- ART Many server processes, many beans per server ART Das erste Element ist der I-Portal-Server. Er sorgt für den benutzerseitigen Portal-Zugang. Sein besonderes Merkmal liegt im Aufbau aus vorgefertigten “Portal-Bauelementen”, die im Wesentlichen nur noch konfiguriert werden müssen, um ein Portal wie “Ihr.de” zur Verfügung zu stellen. Zu nennen sind in diesem Zusammenhang inhaltsspezifische Nutzerantworten (User session content router), Suchmechanismen, Profiling, E-Mail-Integration, Kalenderfunktionen und auch die wichtigen Web-Protokolle (XML, HTML, IIOP, HTTP). Der Server stellt damit die wesentlichen Merkmale der oben genannten Anforderungen an die Endbenutzerseite von Portalen bereit. Das zweite Element bildet den Kern der I-Portal-Suite. Es handelt sich dabei um den Object Request Broker (ORB) Orbix 2000. Orbix 2000 ist eine HochleistungsORB-Implementierung auf der Basis der letzten verabschiedeten Corba-Spezifikation Corba 2.3. Zu seinen wichtigsten Leistungsmerkmalen gehören beispielsweise der Portable-Object-Adapter (POA) und Objects by Value. Zudem enthält Orbix 2000 bereits eine Reihe von Elementen der kurz vor Abschluss befindlichen Corba-3-Spezifikation, wie asynchrone Methodenaufrufe. Eine weitere wichtige Eigenschaft des Produkts liegt in seiner Skalierbarkeit, die technisch auf der Ausnutzung des POAs basiert. Gerade zur Integration bestehender Unternehmensinformationsquellen ist die Verfügbarkeit für viele Systemplattformen wichtig. Deshalb reicht der Rahmen unterstützter Betriebssysteme von NT bis Unix (unter anderem HP-UX, Linux und Sun Solaris). Hinzu kommen Programmiersprachenanbindungen an unter anderem Java und C++. Orbix 2000 sorgt damit für die Integration von Unternehmensressourcen SAP MVS • Data transformation • Rules Engine • Connectors Notes gar im laufenden Betrieb können neue EJB-Prozesse in weiteren ContainerProzessen lokal und im Netz gestartet werden, ohne EJB-Client-Anwendungen zu beeinflussen. Client-Referenzen auf EJB-Server bleiben unverändert gültig, bei Kapazitätsengpässen lassen sich weitere Rechner problemlos hinzunehmen. Noch einen Schritt weiter geht die Skalierbarkeit hinsichtlich des Zusammenspiels mit dem I-Portal-Server auf der Basis von Java-Server-Pages beziehungsweise Servlets, also Server-seitigen JavaProgrammen, die wiederum EJBs oder Corba-Objekte aufrufen können. Diesen Programmen lassen sich ebenfalls eigene Server-Prozesse zuordnen, sodass auch auf dieser Ebene Skalierbarkeit gegeben ist (vgl. Bild 2). Zu guter Letzt bietet der I-Portal-Integration-Server eine Vielzahl von Konnektoren, um zum Beispiel StandardSoftware-Pakete anzubinden. Diese umfassen unter anderem Integration von SAP-Systemen, Host-Anbindungen oder auch Messaging-Produkten. (Dr. Arne Koschel/gg) AS/400 Bild 3. Zusammenspiel der I-Portal-Suite-Komponenten 5/2000 51 Internet/Intranet Sicherheitsmanagement in Computernetzen Sicherheit pflegen Die Aufgabe von IT-Sicherheit liegt nicht nur im Datenschutz, sondern auch im Fördern der Zuverlässigkeit der IT-Infrastruktur. Besonders in großen Unternehmen mit einer komplexen IT-Landschaft ist dies jedoch ein schwieriges Unterfangen. Administratoren brauchen dafür geschicktes Management und leistungsfähige wie auch passende Werkzeuge. I n vielen Unternehmen ist die elektronische Informationsverarbeitung ein wichtiger “Motor” im Geschäftsbetrieb. Von Motoren erwartet man, dass sie vor sich hin schnurren und ihre Arbeit tun. Dafür wählt man ein gut gebautes Modell und investiert in Pflege und Wartung. Das sollte man auch für die IT-Sicherheit tun, damit diese wie ein gut gebauter, sauber geölter und sorgfältig gepflegter Motor den reibungslosen Betrieb unterstützt. Zugriffe auf IT-Ressourcen sind generell nur im Berechtigungsfalle zu gewähren – alle nicht gewünschten Zugriffsversuche sollten erfolglos bleiben. Das ist keine leichte Aufgabe in den oft sehr komplexen Umgebungen moderner Unternehmensnetze. Unterschiedlichste Plattformen, von Großrechnern über unterschiedliche Unix-Derivate bis hin zu Windows- und NT-Front-ends, erwarten eine auf sie zugeschnittene Behandlung. Zahlreiche Anwendungen vergeben eigene Zugriffsrechte, die verwaltet werden müssen. Dies gilt für intern entwickelte Applikationen ebenso wie für SAP-Anwendungen sowie Lotus Notes und E-Commerce-Angebote. Hier den Überblick zu bewahren, ist in großen Umgebungen ein Kunststück. Erfassen etwa die Administratoren Anträge zum Einrichten und Löschen von Benutzern nur auf Papier oder erlauben, dass An- und Abmeldeinformationen auf unterschiedlichen Rechnern und womöglich ohne Versionskontrolle gespeichert 52 Notes, für alle Unix-Rechner und auch für SAP-HR. Die Bedeutung dieser Zuordnung kennt jeder, der Unix-Rechner per NFS verbunden hat und mit dem Problem zu kämpfen hatte, dass die jeweils gleichen UIDs auf den einzelnen Rechnern unterschiedlichen Mitarbeitern gehörten. Die gemeinsame Nutzung von Accounts lässt sich per Organisationsanweisung unterbinden. Doch spätestens bei Accounts wie dem Superuser “root”, der nun mal für viele administrative Aktivitäten benötigt wird, reicht eine solche organisatorische Regel nicht mehr aus. Die Unterstützung, die “native” Unix hier bietet, ist leider nur spärlich. Die Frage “Wer war’s?” führt eher zu einem Puzzlespiel als zu einer brauchbaren Antwort. Ein weiteres Problem liegt im noch immer am weitesten verbreiteten Verfahren zur Identifizierung und Authentisierung (I&A): User-ID plus Passwort. Sicher kann man dieses Verfahren meistens nicht nennen: Die Qualität der Passwörter ist meist so schlecht, dass ein Programm wie und automatisch wieder überschrieben werden, lassen sich auch verhältnismäßig schlichte Fragen nur mit relativ hohem Aufwand beantworten. Etwa, wenn die Revision die Frage stellt, wann welche Benutzer auf welchen Rechnern wie lange angemeldet waren. Komplexere Fragen müssen in solchen Fällen meist unbeantwortet bleiben. Dazu gehören Fragen wie etwa “Welche Zugriffsrechte hat ein Benutzer in allen Systemen und Anwendungen der gesamten IT-Landschaft?” oder “Wann und von wem wurden diese Rechte beantragt und eingerichtet?” oder “Wurden einem ausgeschiedenen Mitarbeiter wirklich auf allen Systemen und in allen Anwendungen seine Zugriffsrechte entzogen?” Als Grundvoraussetzung für eine sinnvolle Antwort auf solche Fragen muss der einem System bekannte Account genau einer realen Person zugeordnet sein. Diese Zuordnung sollte in allen Systemen und Anwendungen der heterogenen ITLandschaft immer dieselbe bleiben. Das gilt für die NT- Die drei Phasen des IT-Sicherheitsmanagements Domänen, für Lotus (Quelle: BSI IT-Grundschutzhandbuch 2000) 5/2000 crack oft innerhalb von Minuten mehr als die Hälfte der Passwörter “geknackt” hat. Darüber hinaus braucht ein im Netzwerk lauschendes Sniffer-Programm nur auf unverschlüsselte Passwörter zu warten, die etwa per ftp, telnet oder rexec übertragen werden. Mit ein wenig Glück reichen sogar schon zwei gesunde Ohren, um ein über den Gang gebrülltes Passwort zu ergattern. Auch per Telefon oder E-Mail mitgeteilte Passwörter können leicht unbemerkte Lauscher finden. Kurzum: Ge- B sD n l- o a ti n a o is rs n e a P rg O thentisierungsverfahren. Neben den Grundanforderungen, wie ordnungsgemäße Rechnerverwaltung, Systemadministration, Backup/Recovery oder Virenschutz sind auch diese kritischen Bereiche zu “managen”. Um beim Bild des Motors zu bleiben: Was nutzt der beste Motor, wenn die Zündung nicht funktioniert oder der Tank undicht ist? Ziel muss also sein, die IT-Sicherheit als Ganzes auf das gewünschte Niveau zu bringen. Und zwar über alle unterschiedlichen Plattformen und Anwendungen hinweg, ungeachtet ihA m uf rer Heterogenität. t e r n a ts g ys sm Beispielsweise ist te a m na g es für Anwender e ausgesprochen lästig, wenn sie auf unterschiedlichen Plattformen und Anwendungen in verschiedenen Abständen zu einem Passwortwechsel gezwungen werden – und dann womöglich noch unterschiedliche Wünsche der Systeme bezüglich der Passwortqualität berücksichtigen müssen. Eine typische Architektur zum plattformübergreifenden BeHier zwei Ziffern rechtigungsmanagement und sechs Buchstagen unerwünschten Systemzugriff ist die ben, dort zwei Ziffern, ein Sonderzeichen User-ID/Passwort-Kombination zwar und sieben Buchstaben. Solch inkonsisbesser als gar nichts. Die Administratoren tente Regeln sind allenfalls dafür geeigmüssen bei ihrem Einsatz aber auf jeden net, entnervte Benutzer zu Zettel und Stift Fall geeignete technische und organisato- greifen zu lassen, um die Passwörter unter rische Maßnahmen ergreifen, um aus die- die Tastatur zu kleben. Ziel und Aufgabe des IT-Sicherheitssem potentiellen Scheunentor zu den ITRessourcen zumindest eine Tür normaler managements ist also das Aufstellen und Umsetzen einheitlicher Regeln. Größe zu machen. D B S - e i g in e l a n m l a Ad te m ts s it it it m n e l h rh o c e o s h -T ns ic nt io e t m tra s A g e n t 1 S g ic A h n e e rh t e 2 s ff ri zg t u u m Z ch te s ys s it s -D A e B g n t 3 M m B te D ys s ty ri u m c e te S ys s Kritische Bereiche IT-Sicherheitsmanagement In heterogenen IT-Landschaften gibt es mehrere kritische Bereiche: – unterschiedliche Stellen mit Autorisierungsinformationen, – unzureichende Revisionssicherheit, – geringe Kontrolle über die Superuser, – unterschiedliche und oft unsichere Benutzer-Identifizierungs- und Au- Das BSI-Grundschutzhandbuch [GSH 2000] des Bundesamts für Sicherheit in der Informationstechnik bezeichnet die Planung, Realisierung und Verwaltung von IT-Sicherheit als IT-Sicherheitsmanagement. Im ersten Schritt wird hierzu eine auf das jeweilige Unternehmen passgenau 5/2000 zugeschnittene IT-Sicherheitspolitik festgelegt. Das benötigte Sicherheitsniveau, die globalen Sicherheitsziele und die verantwortlichen Personen werden in einer allgemeinen Sicherheitsrichtlinie benannt. Ein Plan zur praktischen Umsetzung zielt auf eine schnelle Realisierung. Um die jetzt noch recht abstrakte Sicherheitsrichtlinie zu konkretisieren, werden auf Basis von Schutzbedarfsfeststellung, Bedrohungs- und Schwachstellenanalyse sowie Risikoanalyse konkrete Maßnahmen zusammengestellt, das so genannte IT-Sicherheitskonzept. Es besteht aus organisatorischen und technischen Komponenten. Absolute Sicherheit wird es trotzdem niemals geben. Vielmehr gilt es, die Kosten einer Sicherheitsmaßnahme gegen ihren Nutzen abzuwägen. Eine Restrisikoanalyse ermittelt, welche Risiken auch nach Umsetzung aller Maßnahmen noch verbleiben. Dann können die Verantwortlichen entscheiden, wie mit diesen Risiken zu verfahren ist. Entweder stufen sie sie als tragbar ein, oder sie ergreifen weitere technische, versicherungstechnische oder organisatorische Sicherheitsmaßnahmen. Die konkrete Umsetzung der im Sicherheitskonzept entwickelten Maßnahmen stellt einen weiteren wichtigen Schritt dar. Parallel dazu ist die Sensibilisierung aller Mitarbeiter und ihre Unterstützung beim Umsetzen der Maßnahmen von entscheidender Bedeutung. Kontinuierliche Pflege, der Schlüssel für IT-Sicherheit Neben einer periodischen Überprüfung der Einhaltung der Maßnahmen sowie der Kontrolle und Revision von IT-Sicherheitspolitik und IT-Sicherheitskonzept muss die Sicherheitspolitik für den Regelbetrieb ständig verfeinert beziehungsweise ergänzt werden. Zum Beispiel ist für eine neue Firewall ein Betriebskonzept zu entwickeln. Oder für die stark veränderte Version des Virenscanners wird ein Überarbeiten der vorhandenen Maßnahmen nötig. Bisher wurden hauptsächlich konzeptionelle und organisatorische Aspekte des IT-Sicherheitsmanagements betrachtet. Gerade in großen Umgebungen ist aber bereits die schiere Menge der zu überwa- 53 Internet/Intranet chenden und zu verwaltenden Komponenten eine Herausforderung für sich. Mehrere 1000 Benutzer auf mehreren 100 Rechnern mit mehreren Dutzend unterschiedlicher Betriebssysteme und Anwendungen sind keine Seltenheit. Und gerade in so großen Umgebungen ändern sich die Strukturen des Datennetzes und die Zugriffsrechte der Mitarbeiter fortlaufend. Dies erfordert eine ständige Überprüfung des Sicherheitsstatus und gegebenenfalls seine Anpassung an neue Strukturen und technische Entwicklungen. Hier kommt ein durchdachtes, ganzheitliches und zentral gesteuertes Sicherheitsmanagement ins Spiel. Nur dann bleibt ein komplexes Sicherheitssystem stets auf dem neuesten Stand und kann aktuelle Bedrohungen abwehren. Ein Beispiel für effizientes Sicherheitsmanagement ist das plattformübergreifende Berechtigungsmanagement. Seine Aufgabe liegt darin, mit der Dynamik der sich kontinuierlich ändernden Zugriffsrechte Schritt zuhalten und sie fortwährend zu aktualisieren. Und dies über alle DV-Plattformen des Unternehmens. Denn einzelne, unkoordinierte Sicherheitslösungen können Missbrauch, etwa durch Datenzugriffe von nicht mehr autorisierten (Ex-)Mitarbeitern, nicht wirksam verhindern. Am so genannten “Single Point of Access Control and Security Administration” (SPSA) wird die komplette Berechtigungsverwaltung eines Unternehmens auf einer zentralen Plattform vereint. Basieren sollte eine derartige Berechtigungsverwaltung auf einem Rollenkonzept, in dem plattformübergreifende Benutzerrollen passend zu den Funktionen der einzelnen Mitarbeiter im Unternehmen definiert sind. Ausgehend vom Rollenkonzept lassen sich Zugriffsschutz-Policies erstellen, die die Grundlage zur Einführung eines SPSA bilden. Alle Zugriffsberechtigungen auf die unterschiedlichen DV-Plattformen werden dann von einer einzigen Administration flexibel und transparent gesteuert. Und auch die Beantwortung von Revisionsfragen wird wesentlich erleichtert. Einsparungen bei den Personalkosten, Beschleunigung von Arbeitsprozessen und nicht zuletzt wirksamer Informationsschutz sind die Folgen. 54 SPSA-Software-Produkte wie ControlSA von BMC, der Security-Administration-Manager (SAM) von Schumann und En-Role von Enable-Solutions, um nur einige zu nennen, können bei dieser Aufgabe wirkungsvolle Unterstützung leisten. Das beste Berechtigungsmanagement bringt jedoch nur wenig, wenn die darunter liegenden Betriebssysteme unsicher sind. Für viele Unix-Derivate gibt es spezielle Betriebssystem-Erweiterungen, die zum “Härten” des OS dienen. Wenn in einem Unternehmen jedoch unterschiedliche Derivate nebeneinander zum Einsatz kommen, möchte man auch dort eine zentrale Stelle haben, mit der sich die IT-Sicherheitspolitik auf Betriebssystemebene umsetzen und kontrollieren lässt. Ein oft genannter Kritikpunkt an Unix-Betriebssystemen ist beispielsweise die unzureichende Kontrolle über den Superuser “root”. Obschon hier noch ein anerkannter Standard für plattformübergreifende OS level security fehlt, bietet der Markt Produkte, die diese Lücke füllen. Wie etwa E-Trust Access Control von CA (früher Se-OS von Memco), mit dem sich der Zugriff auf viele Ressourcen wie etwa Dateien, Prozesse und Programme dediziert schützen und kontrollieren lässt – auch vor Zugriff durch den Superuser. Unter anderem können Aktivitäten des root-Accounts den persönlichen Accounts der Mitarbeiter zugeordnet werden. Access Control Security ist damit für Solaris, HP-UX, AIX und laut Hersteller auch für Windows NT Server möglich. Besonders für Rechner mit sensiblen Daten wie beispielsweise SAP-HR bringt das interessante Aspekte mit sich. Das Gleiche gilt für Computer, auf die über das Internet zugegriffen wird. Gegen das Dilemma unterschiedlicher Passwortpolitik und dadurch oft unnötig schwacher Passwörter, bieten SPSA-Produkte erste Abhilfe, indem sie eine einheitliche Passwortqualität forcieren. Eine Single-Sign-On-Lösung bietet für die Benutzer das wohl angenehmste Umfeld. Einmal anmelden, und dann haben sie Zugriff auf alle Anwendungen, mit denen sie arbeiten, egal auf welchen Plattformen sie liegen. Doch schon eine Passwortsynchronisation wie sie etwa E-Trust Access Control ermöglicht, schafft bereits eine deutliche Entlastung der Anwender. Und vermindert damit die Anzahl von am Bildschirm klebenden Passwortlisten. Public-Key- oder Kerberos-basierte – Authentisierungsverfahren können schwache Passwortverfahren ersetzen. Weitere Produkte wie etwa Trust-Broker von Cyber-Safe, um nur ein Beispiel zu nennen, sollen laut Hersteller ein Framework für den parallelen Einsatz beider Authentisierungsverfahren bieten. Auch Einmalpasswörter reduzieren die Schwächen “klassischer” Passwortauthentisierung. Wie etwa das Token-basierte Verfahren der Secure-ID-Card von RSA Security, das frei erhältliche Software-basierte ‘One-time Passwords in Everything’ (OPIE, früher S/Key) [GSH2000] oder das Challenge-Response-Verfahren der Vasco Data Security – um nur drei Beispiele zu nennen. Beim Einsatz von Smartcards müssen die Anwender neben einer PIN auch ein Token besitzen. Ohne diese Komponenten wird kein Zugang gewährt. Das reduziert die Menge der möglichen Angriffspunkte massiv. Zudem lässt sich die Qualität der Authentisierungsinformation stark erhöhen: Smartcards sind dazu in der Lage, extrem komplizierte “Passwörter” sicher zu speichern. Fazit IT-Sicherheitsmanagement ist ein kontinuierlicher Prozess, der von allen Mitarbeitern mitgetragen und “gelebt” sein will. Der Markt bietet zahlreiche Werkzeuge, die die technische Umsetzung der anspruchsvollen Aufgabe unterstützen. Eine Analyse der unternehmensspezifischen Anforderungen und geschickte Produktauswahl kann zu Lösungen führen, die das IT-Sicherheitsniveau heben und Kosten sparen. (Roland Holtkämper, Thomas Schoch, Susanne Gehlen/gg) Literatur S. Garfinkel, G. Spafford, Practical UNIX & Internet Security, O’Reilly [GSH2000] Bundesamt für Sicherheit in der Informationstechnik, ITGrundschutzhandbuch 2000, ISBN 3-88784-915-9 http://www.bsi.de/gshb/deutsch/ menue.htm 5/2000 EINKAUFSFÜHRER SoftwareEntwicklungs-Tools a) CAS b) 06104/9808-0 c) 06104/9808-30 a) Check Point b) 0811/60052-0 c) 0811/60052-99 a) Computer Links b) 089/93099-0 c) 089/93099-200 a) Collogia b) 0221/33608-0 c) 0221/33608-36 a) Compuware b) 06103/9488-0 c) 06103/9488-88 a) Coverflex b) 06172/952120 c) 06172/74801 a) Creaso b) 08105/25055 c) 08105/25623 a) EAS b) 02723/979309 c) 02723/979311 a) Forté Software b) 0228/91499-0 c) 0228/91499-90 a) GFT Technologies b) 07724/9411-0 c) 07724/9411-94 a) Halstenbach b) 02261/9902-0 c) 02261/9902-99 5/2000 a) CA b) CCC-Harvost a) CA b) OpenRoad a) CA b) Jasmine ii Builder a) Intland b) Source Explorer a) Redhat Cygnus b) Source Navigator a) Check Point b) OPSEC SDK LynxOS ● ● ● ● ● ● ● ● ● ● ● ● ● Win 95/98, NT/2000 ● Ada83 ● ● ● ● ● ● ● ● ● ● ● ● Sequent DGiUX 4GL ● ● ● ● ● ● ● ● ● ● ● NT ● ● ● NT ● ● ● ● ● HTML ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● True 64, NT a) SCO b) UnixWare and Open Server Development VDK a) Collogia b) Collinor ● ● ● ● ● ● Ada95 True 64 Unix ● ● ● ● ● ● ● Interpreter Compiler Debugger Editor Ablaufverfolgung Konfigurationsverwaltung Projekt-/Prozessverwaltung ● ● ● ● ● ● ● ● ● ● Sonstige ● ● ● ● ● a) Aonix b) ObjectAda a) Aonix b) AdaWorld a) Allant b) Aspex a) Basis Intern. Ltd. b) BBj Sonstige ● ● ● ● ● ● ● ● ● Tool-Art Ada ● ● ● ● ● ● ● ● ● ● ● ● ● NT a) Compuware b) Uniface ● ● ● ● ● ● ● ● ● diverse andere a) Powerflex Corp. b) PFXplus 4.5x ● ● ● ● ● a) RSI b) IDL b) VIP b) ION a) CA b) AION ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● a) Forté b) Forté for Java b) Forté UGL a) GFT b) GRIT Application Developer a) Halstenbach b) Rosi-SQL b) iSS-Base ● ● ● ● ● ● ● ● ● NT ● ● ● ● ● ● ● PFXplus ● ● OS/390 ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● fast alle 3GL ActiveX, Corba, Encina, Tuxedo ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● Forté 4GL eigene 4GL ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ▼ a) ARS Software b) 089/893413-0 c) 089/893413-10 a) Basis Int. Software b) 0611/7146682 c) 0611/7146683 a) Bläske Consulting b) 089/78581633 a) CA Comp. Associates b) 089/62724-100 c) 089/62724-140 a) Hersteller b) Produktname a) Acucorp Inc. b) Acucobol-GT unterstützte Programmiersprachen C/C++ Fortran Basic Java Cobol Pascal Assembler a) Anbieter b) Telefon c) Telefax a) Acucorp Deutschland b) 06175/03310 c) 06175/1429 a) Aonix b) 0721/98653-0 c) 0721/98653-98 Linux SCO Open Server SCO Unixware HP UX AIX Sun Solaris SunOS Irix Sinix Unix-Derivat 55 EINKAUFSFÜHRER a) HWF Software b) 02214/845966 c) 02234/78684 a) IAR Systems b) 089/90069080 c) 089/90069081 a) IBM b) 0180/3313233 c) 0711/7853511 a) InfoCom b) 06652/910910 c) 06652/910999 a) Information Builders b) 089/354890 c) 089/35489190 a) Inter Media b) 02203/182374 c) 02203/182375 a) Intersystems b) 06151/1747-0 c) 06151/1747-11 a) Imcor b) 0711/7089-003 c) 0711/7089-004 a) Industrial Application b) 0721/96416-0 c) 0721/96416-40 a) ISA Tools b) 0711/227692-0 c) 0711/2276929 a) ixsoft b) 033363/46100 c) 033363/46109 a) Dr. Rudolf Keil b) 06221/862091 c) 06221/861954 a) Langner b) 040/609011-0 c) 040/609011-11 a) LinuxLand International b) 089/993414-0 c) 089/993414-99 a) IBM b) Visual Age ● a) InfoCom b) Snowbound RasterMaster 8.0 a) Information Builders b) WebFocus ● a) Supernova b) Prozess Integrator/ Developer a) Intersystems b) Caché Studio ● ● ● ● ● ● ● ● ● ● ● ● ● True 64 Unix ● Sonstige ● ● ● ● ● Visual C++, SQL ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● VMS auf VAX ● ● ● eigene 4GL ● ● ● ● ● ● ● ● ● ● ● ● Caché Object Script a) KRFTech b) WinDriver ● ● ● Delphi a) IAS b) IAS Troia ● ● ● ● ● ● a) ISA Tools b) ISA Dialog Manager ● ● ● ● ● a) Cygnus Solutions b) Source Navigator Enterprise b) Code Fusion b) CygWin a) ObjectLife Soft b) SoftWorks ● ● ● a) Langner b) Luca ● ● ● ● ● ● ● ● Win ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● Smalltalk, RPG ● ● ● ● ● ● ● UML, HDBF ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● TCL ● ● ● ● ● ● Win a) TakeFive Software ● b) SNIFF+ Java/Web-Ed. b) SNIFF+ Small Business ● Edition a) McCabe & Asssociates a) McCabe Associates ● b) 0202/2581-201 b) McCabe QA c) 0202/2581-204 a) MDlink a) MDlink ● ● b) 0391/25568-0 b) Skyrix c) 0391/25568-99 a) Merant a) Merant ● ● ● ● ● b) 089/96271-0 b) Object COBOL c) 089/96271-111 Developer Suite b) Server Express ● ● a) Metrowerks a) Metrowerks ● ● b) 0611/97774-235 b) CodeWarrior c) 0611/97774-162 a) National Instruments a) National Instruments ● ● ● b) 089/7413130 b) LabVIEW c) 089/7416035 b) LabWindows/CVI ● 56 ● Tool-Art Interpreter Compiler Debugger Editor Ablaufverfolgung Konfigurationsverwaltung Projekt-/Prozessverwaltung a) Hersteller Sonstige b) Produktname a) highTech ● ● b) GNU Development System b) TGDB ● ● a) CA ● ● ● ● ● ● ● ● ● b) SQL Station b) Erwin BPwin Modul Mart ● ● ● a) IAR Systems ● ● ● b) ICCxxxx unterstützte Programmiersprachen C/C++ Fortran Basic Java Cobol Pascal Assembler a) Anbieter b) Telefon c) Telefax a) HighTech b) 0681/92613-0 c) 0681/92613-26 Linux SCO Open Server SCO Unixware HP UX AIX Sun Solaris SunOS Irix Sinix Unix-Derivat ● ● ● ● ● ● Corba, Ada ● ● ● ● ● ● ● Ada 83, Ada 95 ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● Python, Objective-C ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● 5/2000 5/2000 ● a) Otris b) Janus/Enterprise ● a) Prahm b) Control 98 ● a) Patzschke & Rasp b) GIPSY b) VisualGIPSY ● a) DataViews Corp. b) DataViews a) QA Systems b) QA-C, QA-C++, Q-Studio Java a) Magic Software b) Magic a) Lynx USA b) Lynx OS ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● Sonstige eigene 4GL, SQL Interpreter Compiler Debugger Editor Ablaufverfolgung Konfigurationsverwaltung Projekt-/Prozessverwaltung Sonstige Win, MacOS Tool-Art ● ● ● ● ● ● QNX ● FB/5, Kof, AWL/L, DIM19239, IEC1191 ● ● ● ● ● ● ● Tru64 Unix, NT ● Tcl/Tk ● jede, wenn Tcl/Tk 8.0 oder höher installiert ist Tru 64 Unix, OpenVMS, ● NT, 95 ● ● ● ● Tcl/Tk 8.0 oder höher ● ● ● ● E-Commerce ● ● Echtzeit add-on ● ● ● HTML, XML ● ● ● ● ● ● ▼ a) QA Systems b) 0711/138183-0 c) 0711/138183-10 a) Qering Global b) 089/7470050 c) 089/7470047 a) Hersteller b) Produktname a) Omnis Software b) Omnis Studio unterstützte Programmiersprachen C/C++ Fortran Basic Java Cobol Pascal Assembler a) Anbieter b) Telefon c) Telefax a) Omnis Software b) 040/53287211 c) 040/5313818 a) Otris b) 0231/1061540 c) 0231/1061544 a) Prahm b) 0721/558995 c) 0721/9554348 a) prs Patzschke & Rasp b) 0611/1731-0 c) 0611/1731-31 Linux SCO Open Server SCO Unixware HP UX AIX Sun Solaris SunOS Irix Sinix Unix-Derivat 57 EINKAUFSFÜHRER a) Rogue Wave b) 06103/5934-0 c) 06103/36955 a) Software AG b) 06151/92-3100 c) 06151/92-4405 a) SCO b) 06172/48670 c) 06172/486712 a) Secude b) 06151/880060 c) 06151/8800626 a) Segue b) 040/33313-310 c) 040/33313-445 a) Silverstream b) 089/99216-124 c) 089/99216-284 a) Softlab b) 089/9936-1103 c) 089/9936-1768 a) Software AG b) 06151/92-3151 c) 06151/92-3151 a) SQL b) 03518/76190 c) 03518/718731 a) Stockmayer b) 0911/505241 c) 0911/5009584 a) Tasking b) 07152/97991-0 c) 07152/97991-20 a) tiscon Infosystems b) 0731/95448-150 c) 0731/95448-901 a) Tritec b) 06131/92220 c) 06131/922229 a) UniCon Software b) 0721/96451-0 c) 0721/96451-43 a) Vectorsoft b) 06104/660-100 c) 06104/660-190 a) Willert b) 06722/24081 c) 05722/24083 58 Sonstige ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● XMC/COM CORBA ● ● ● a) Segue ● b) Silk Test b) Silk Performer b) Silk Pilot b) Silk Observer b) Silk Meter a) Silverstream b) Application Server 3.0 ● ● ● ● ● a) Softlab b) Enabler blue + aqua ● ● ● a) Software AG b) Bolero b) Natural a) CA b) QL Station ● ● Tru64 Unix, OS/390, NT ● ● ● ● ● ● a) Secude b) Secude SOK ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● Forté Powerbuilder ● ● ● ● ● ● ● ● ● OS/390, NT ● ● ● ● ● ● ● Bolero ● ● ● ● ● ● ● BS2000, OS/390 ● ● ● ● ● ● ● ● ● a) SCO b) C++ 3.0 a) Tasking b) C/C++ Cross Development Tools a) Togethersoft b) Together ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● a) SCO b) UODK Sonstige Tool-Art Interpreter Compiler Debugger Editor Ablaufverfolgung Konfigurationsverwaltung Projekt-/Prozessverwaltung a) Hersteller b) Produktname a) Absoft b) Pro Fortran a) Fujitsu b) F90 a) Rogue Wave b) TOOLS.n++ b) THREADS.n++ b) Nouveau b) Studlog b) Standard C++ Library a) Software AG b) Bolero unterstützte Programmiersprachen C/C++ Fortran Basic Java Cobol Pascal Assembler a) Anbieter b) Telefon c) Telefax a) QT software b) 089/332970 c) 089/332974 Linux SCO Open Server SCO Unixware HP UX AIX Sun Solaris SunOS Irix Sinix Unix-Derivat ● ● XML ● ● ● ● ● ● Natural ● ● ● ● Visual C++, SQL, Visual ● ● ● ● J++ ● ● ● ● ● Embedded Internet Technologie ● ● Mac OS 8.x, Win ● ● ● a) Sun ● b) Workshop C++ b) Visual Workshop ● C/C++ b) Workshop Fortran ● b) Performance Work● shop Fortran a) UniCon ● ● ● ● ● ● ● ● ● BS2000, VMS, NT b) FELICS b) FELICS Lizenzmanag. ● ● ● ● ● ● ● ● ● BS2000, VMS, NT a) Vectorsoft ● ● ● ● ● ● ● b) CENZEPT 16 ● ● ● ● ● ● ● ● ● ● ● ● ● ● a) Tasking ● b) Tasking C16K-Compiler a) Hitec ● b) GNU C166-Compiler ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● Delphi ● ● ● ● ● ● ● Delphi Conzept 16 ● ● ● ● ● ● ● ● ● ● ● ● ● 5/2000 5/2000 Know-how für Linux-Profis Zwei für Linux Doopelprozessorsystem mit ◆ Doppelprozessorsystem Alpha-Prozessoren getestet ◆ Optimierte Compiler garantieren Bestmarken Backup-Management für Linux ◆ Arcserve-IT für heterogene Umgebungen Redundanz inklusive ◆ Software-RAID für Linux ◆ Boot-fähige RAID-Arrays einrichten online http://www.linux-open.de Links: Alle wichtigen Linux-Adressen im Netz +++ Marktübersicht: Kommerziell unterstützte Software für Linux +++ Stellenmarkt: Job-Angebote für LinuxProfis +++ Tests: Linux-Distributionen, Office-Software In dieser Ausgabe ◆ Alpha-Doppelprozessorsystem im Test ◆ Arcserve-IT für Linux ◆ Redundanz ohne Zusatz-Hardware ◆ Kernel-News Unterstützung ausgebaut … Antiviren-Software … Komplettlösung … Konferenz-Server … Entwicklung unter Linux … Embedded Datenbank … Bezahlen im Internet … Backup und Recovery … Unkompliziert sich anhand des Blockschaltbilds einen Überblick über das Mainboard verschaffen. Der Tsunami-Chipsatz (er trägt die offizielle Bezeichnung: 21272), besteht aus drei Funktionsblöcken – den D, C und P-Chips. Mit den D-Chips wird der Speicherbus aufgebaut, der mit der Anzahl der eingesetzten D-Chips in seiner Breite skaliert werden kann. Beim UP2000 werden vier D-Chips eingesetzt, was einer Speicherbusbreite von 256 Bit entspricht. Diktiert wurde diese Entscheidung wohl von der verfügbaren Platinenfläche des FullsizeATX-Mainboards. Bei dem ersten System, welches auf dem Tsunami-Chipsatz basierte, der Compaq DS20, wurden acht D-Chips mit einer resultierenden Speicherbusbreite von 512 Bit eingesetzt, was allerdings zu einem erheblich größeren Mainboard führte. Damit bietet das UP2000 einen maximalen Speicherausbau von 2 GByte, die in acht Alpha-Doppelprozessorsystem im Test Zwei für Linux Die 64-Bit-Architektur der Alpha-Prozessoren kann unter Linux mit enormen Testergebnissen aufwarten. Vor allem beim Einsatz der frei verfügbaren, optimierenden “Compaq-Compiler” zeigt sich das Doppelprozessorsystem auf Basis des UP2000-Mainboards von seiner besten Seite. N achdem Compaq die Firma Digital Equipment übernahm, erbte der PC-Hersteller deren technologisches “Filetstück”, den Alpha-Prozessor. Allzu eifrige Auguren sagten daraufhin dieser Architektur das baldige Ende voraus. Heute, ungefähr ein Jahr nach der Ankündigung der neuesten Alpha-Generation, dem 21264, scheint Compaqs Bekenntnis zu Alpha ungebrochen. Unlängst wurde mit dem Fertigungspartner Samsung sowie dessen Tochter Alpha-Processor Inc. (API), ein 500 Millionen Dollar starkes Entwicklungsprogramm für die Alpha-Architektur angekündigt. Die Gründe für das Engagement Compaqs in Sachen Alpha sind vielfältig. Zum einen gilt der Alpha seit Jahren hinsichtlich der Leistung als führend und ist als 64-Bit-Architektur für die Zukunft bestens gerüstet. Im Gegensatz zu den noch kommenden IA64Prozessoren ist er am Markt seit Jahren eingeführt und wird von Software-Herstellern umfangreich unterstützt. Entsprechend liefert Compaq stetig neue Systeme auf Basis dieses Chips aus. Um den OEM Markt – einst von DEC selbst bearbeitet – beliefern zu können, bedienen sich die Alpha-Partner Compaq und Samsung der Firma API. Folgerichtig liefert API auch die Mainboards und Prozessoren auf Alpha-Basis an die interessierte Klientel. Nach der “Abkündigung” der vorherigen Alpha-Generation 21164 besteht deren Angebotspalette mit dem Boards DS20, UP1000 und UP2000 ausschließlich aus aktuel- 5/2000 len Alpha-21264-Systemen. Beim UP1000 handelt es sich um ein SingleProzessor-Board, basierend auf dem Irongate-Chipsatz von AMD, der ursprünglich für den Athlon entwickelt wurde. Da sich AMDs Athlon und der aktuelle Alpha-21264 das Busprotokoll EV6 teilen, lag eine Adaption des in entAlpha Slot-B Modul (2) L2 Cache 2/4/8 MByte 128 Bit Bus D-Chips (4) Main Memory 8 DIMMs, 2 GByte max. 256 Bit, 83 MHz PC 100, optional ECC SPD-config 21264 Alpha CPU-Core 2”64 KByte L1 Cache C-Chip Flash-ROM 2 MByte P-Chip (2) South Bridge Cypress CY82C693UB PCI-Bus 1 Config IRQ 3 PCI-Slots, 33 MHz 1” 32 Bit, 2” 64 Bit Bild 1. Das Blockschaltbild des UP2000 sprechenden Mengen hergestellten AMDChipsatzes für Alpha-Systeme nahe. Beim UP2000 wird der TsunamiChipsatz von Compaq verwendet, der den Aufbau von Doppelprozessorsystemen erlaubt. Im Folgenden soll dieses Board einer eingehenden Betrachtung unterzogen werden. In Bild 1 kann man SDRAM DIMMS nach marktüblicher PC100-Spezifikation aufgebaut werden. Dabei wird ECC zur Fehlererkennung und -korrektur genauso unterstützt wie die automatische Konfiguration des Speicher-Timings mittels SPD-ROM auf den DIMM-Riegeln. Der Speicher wird mit – im Vergleich zu modernen 61 Linux PCs – moderaten 83 MHz getaktet. Führt man sich die Anzahl der Signalleitungen eines 256-Bit-Busses im Vergleich zu den typischen 64 Bit im PCBereich vor Augen, wird leicht klar, dass sich hohe Taktfrequenzen aus Layoutgründen verbieten. Immerhin erlaubt das Speicher-Interface des UP2000 theoretisch einen Durchsatz von über 2,6 GByte/s. Über den C-Chip wird die Systemsteuerung abgewickelt und die verschiedenen Bussysteme angekoppelt. Im Fall des UP2000 werden über zwei P-Chips entsprechend zwei PCIBusse realisiert. Der erste PCI-Bus bietet neben einem 32-Bit-Slot zwei 64Bit-Steckplätze sowie einen SCSI-Bus auf Basis des 7891/3860-Chipsatzes von Adaptec, der Ultra-2/LVD sowie “Singleended Ultra-Wide” bietet – also das, was eine normale 2940U2W-PCIKarte auch kann. Ebenfalls an den ersten PCI-Bus wird die “Southbridge” angebunden, die üblicherweise IDE- und ISA-Bus sowie zwei USB-Ports bereitstellt. Der ISASlot ist “shared” ausgelegt, was bedeutet, dass man sich aus mechanischen Gründen für den ISA-Slot oder den benachbarten PCI-Slot entscheiden muss. Bild 2. Prozessoren plus Kühler dominieren das Bild Außerdem ist an ihr auch ein SMCKombicontroller angeschlossen, der übliche Schnittstellen wie Floppy, seriell/parallel, Keyboard und Maus (PS/2) bietet – quasi alles alte Bekannte aus dem PC-Bereich. Unabhängig von diesem ersten PCI-Bus wird über den zweiten P-Chip noch ein PCI-Bus geboten, der seinerseits drei 32-Bit-Slots bietet. Allerdings hätte es an dieser Stelle auch Der PAL-Code Die Alpha-Architektur beinhaltet eine Besonderheit – den PAL-Code. Dabei handelt es sich um Routinen, die in normalem Alpha-Assembler geschrieben werden, aber in einem besonderen, privilegierten Modus ausgeführt werden – dem PALMode. PAL-Code-Routinen dienen vor allem dazu, fehlende Funktionen der Alpha-Architektur, wie sie von Betriebssystementwicklern benötigt werden, zu implementieren. Dazu gehören beispielsweise Funktionen zur Speicherverwaltung oder Behandlung von bestimmten Exceptions. PAL-Code erlaubt damit die optimale Anpassung einer Architektur an ein Betriebssystem, ohne die nötigen Funktionen in Hardware zu verankern. Typischerweise lädt die Firmware entsprechenden PAL-Code, bevor das eigentliche Betriebssystem geladen wird. Als man noch unter der Regie von Digital Equipment die ARC-Firmware für den Betrieb von Windows NT entwickelte, wurde der von Windows NT benötigte PAL-Code gleich mit implementiert. Bei Windows NT auf Alpha handelt es sich allerdings um eine 32-Bit-Umgebung, die unter Linux in dieser Form nicht zu gebrauchen war. Diese Tatsache, zusammen mit einer ganzen Reihe von anderen Problemen, auch lizenzrechtlicher Natur, verboten den Einsatz des NT-PAL-Codes unter Linux. Dieses und einige andere Probleme wurden durch einen separaten, von einem DOS-FAT-Filesystem zu startenden Bootlader names “Milo” gelöst, dessen Aufgaben unter anderem darin bestand, einen PAL-Code zu laden, der den Betrieb von Linux erlaubte. PAL-Code zu entwickeln ist keine triviale Aufgabe, und so basiert der von Milo verwendete PAL-Code auf einer Referenzimplementierung eines EntwicklungsKits aus dem Hause DEC. Der verwendete PAL-Code weist unangenehmerweise eine Reihe von Instabilitäten auf und ist zudem nicht notwendigerweise auf allen Alpha-Plattformen, die auf ARC-Firmware basieren, problemlos einzusetzen. Der von der SRM geladene PAL-Code arbeitet jedoch problemlos mit Linux zusammen, sodass man SRM dann vorziehen sollte, wenn man die Wahl hat. 62 ein 64-Bit-PCI-Slot auf dem zweiten Bus sein dürfen, da Hochleistungsnetzwerke wie Myrinet oder Gigabit Ethernet genügend Bandbreite offerieren, um einen eigenen PCI-Bus zu rechtfertigen, allerdings häufig in Form von 64-BitKarten angeboten werden. Will man also 64-Bit-Karten verwenden, muss man diese im ersten PCI-Bus betreiben, wo sie die Bandbreite mit dem SCSI-Bus zu teilen haben, der ja auch nicht gerade “lastarm” mit maximal 80 MByte/s (bei Ultra-2/LVD) arbeitet – vom IDE ganz zu schweigen. Insgesamt ist die Ausstattung des Boards mit Schnittstellen reichhaltig. Für den Server-Markt konzipiert, liefert das UP2000 mit zwei PCI Bussen, SCSI und IDE nahezu alles, was man sich wünschen kann. Da “verschmerzt” man es leicht, dass kein Ethernet auf dem Mainboard vorhanden ist. Leider muss man allerdings auch auf eine AGP-Schnittstelle verzichten, was die Tauglichkeit in Sachen Grafik-Workstation wohl einschränken dürfte. Die Leistungsexplosion im 3-D-Bereich bei den PC-Grafikkarten beschränkt sich vornehmlich auf den AGP-Bus. Eine moderne Grafikkarte mit Nvidias-Geforce-Chip wäre nicht zuletzt preislich interessant und könnte in Verbindung mit den Alpha-Prozessoren der etablierten Konkurrenz, etwa aus dem Hause Intergraph oder SGI, potentiell das Fürchten lehren. Das UP2000 unterstützt zwei Prozesso- 5/2000 ren, die im aktuellen Slot-B-Format vorliegen. Dabei handelt es sich um eine aus dem PC-Bereich seit dem Pentium-II bekannte “Kassette”, die neben der CPU auch den L2-Cache enthält. Im Vergleich zum Pentium-II/III oder dem Athlon fällt jedoch die enorme Größe des Alpha-Moduls auf, das mit einem riesigen Kühlkörper ausgestattet ist. Insgesamt wiegt ein Alpha-Modul damit 1,2 Kilogramm. Der große Kühlkörper ist auch bitter nötig, verbraucht doch der Alpha schon bei 667 MHz immerhin knapp 100 Watt – die resultierende Wärme will abgeführt werden. Daher sind pro Prozessorsteckplatz auf dem Mainboard zwei kleine Lüfter eingebaut, die einen entsprechenden Luftstrom sicherstellen sollen. Allerdings sorgen diese Lüfter beim Einbau des Mainboards in ein Gehäuse für Probleme. API reklamiert für das UP2000 den standardisierten Fullsize-ATX-Formfaktor, der vom Mainboard auch vollständig ausgereizt wird. Leider stehen die Lüfter der CPU-Halterung über den unteren Rand der Platine hinaus, sodass das Board den angesprochenen Formfaktor damit praktisch überschreitet. Im vorliegenden Fall wurde das Board in ein 19-Zoll-Einschubgehäuse verbaut, das über eine “Schublade” für die Platine verfügt. Diese Schublade war ein Fall für den Schlosser, da dank der überstehenden Lüfter erst eine entsprechende Aussparung geschnitten werden musste. Bild 2 zeigt das Mainboard. Bei der mechanischen Nacharbeit wurden gleich noch acht zusätzliche Löcher gebohrt, die der Befestigung des Mainboards unterhalb der CPU-Halterungen dienen. Durch das bloße Gewicht der CPU-Module ist die Platine Die Testumgebung Mainboard: UP2000 von Alpha-Processor Inc. (API) CPUs: zweimal 667 MHz Alpha 21264, 2 MByte L2-Cache, Slot-B Module Speicher: 512 MByte in viermal 128 MByte PC100 SDRAM Modulen, mit ECC I/O-Karten: ASUS SC-200 Fast-SCSI-II-Controller, NCR 53c810a Chip Symbios-Logic SYM8951U Ultra-II LVD Wide SCSI, 53c875E Chip No-Name Ethernet 10/100 MBit/s TP, Intel (DEC) 21143 Chip Harddisk: IBM DNES 309170 (9 GByte Fast-SCSI-II), zwei IBM DNES 309170W (9 GByte Ultra-Wide-SCSI) Bandlaufwerk: Wangtek 5525ES Console: Terminal Digital VT-520 zusätzlich mit jeweils vier Distanzstücken unterhalb der CPUs abzustützen, da sich sonst die Platine zu sehr durchbiegt. Darüber hinaus hat man durch eine entsprechende Bestückung mit Lüftern für eine ausreichende Kühlung im Gehäuseinneren zu sorgen. Besondere Anforderungen stellt das UP2000 auch an die Stromversorgung. Die Alphas selbst schlagen mit knapp 100 Watt pro CPU zu Buche. Dazu kommt eine entsprechende Leistung für den Speicher. Auch scheint sich die Logik der Platine seinerseits ebenfalls reichlich Strom zu genehmigen, sodass API als Minimum eine 600-Watt-Netzteilkonfiguration empfiehlt. Diese Leistung ist über einen normalen ATXStecker nicht mehr zu liefern, sodass API zwingend die Versorgung über zwei zusätzliche sechs- und zehnpolige Steckverbindungen vorschreibt. Ein typisches PC-Netzteil kommt also nicht in Frage, nicht einmal die, die für den “Server-Betrieb” empfohlen werden. Wer also mit dem “Selbstbau” eines UP2000-basierenden Alpha-Systems liebäugelt, sollte sich nach entsprechenden Quellen der benötigten Komponenten umsehen. Für den Unerfahrenen in Weitere Informationen www.alphalinux.org, die Alpha-Linux-Homepage, umfangreiche Infos zu Alpha und Linux allgemein. www.alpha-processor.com, die Homepage von Alpha Processor Inc, dem Hersteller der UP1000/UP2000-Mainboards und der Alpha-Prozessoren. www.support.compaq.com/alpha-tools/index.html, Seite mit nützlicher Software für Alpha-Systeme, wie die im Text angesprochenen Compiler und einer Netscape-Version für Alpha-Linux. ftp.digital.com/pub/Digital/info/semiconductor/literature/dsc-library.html, umfangreiche Dokumentation zu verschiedenen Alpha-Systemen, Chipsätzen und Prozessoren. ftp.digital.com/pub/DEC/alpha/firmware, Firmware-Upgrades für verschiedene Alpha-Systeme, (auch älteren Datums). 5/2000 Sachen Selbstmontage sei an dieser Stelle dringend ein Komplettsystem oder zumindest ein “Barebone”, bestehend aus Mainboard, Netzteil und Gehäuse empfohlen. API hat mit dem Powerrack 3U ein entsprechendes Angebot im Programm. Die Dokumentation des Mainboards hinterlässt allerdings einen zwiespältigen Eindruck. Geliefert wird ein farbiges Faltblatt, das mit Hilfe von reichlich Bildern das Mainboard, dessen Montage und die Jumper erklärt. Das eigentliche Handbuch liegt in Form einer Diskette bei, die eine entsprechende PDFDatei enthält. Um das Handbuch lesen zu können, muss man also Zugang zu einem System haben, das über einen Acrobat-Reader verfügt. Bei einem nicht gerade kleinlichen Preisschild für Mainboard und CPUs ein unschönes Detail. Wie üblich, liegt die Dokumentation nur in englischer Sprache vor. Insgesamt ist die Information im “Handbuch” als gut zu bewerten, sieht man von einigen kleinen “Schwächen” ab. So ist nirgendwo die Pinbelegung der Stromversorgung zu finden. Auch vermeidet das Handbuch elegant, auf einige Schwächen des UP2000 hinzuweisen. Ausgesprochen erfreulich ist der qualitative Eindruck der Platine. Layout und Verarbeitung machen einen ausgezeichneten Eindruck, der durch sinnvolle Details noch verstärkt wird. So informiert eine Leiste mit acht LEDs über den Zustand des Systems während des Boot-Vorgangs. Als Firmware läuft auf dem UP2000 das aktuelle Alpha-BIOS. Es vereinigt die zu DEC-Zeiten entstandenen SRMund ARC-Versionen. Da die ARCFirmware ursprünglich für Windows 63 Linux NT entwickelt wurde, ist sie insofern überflüssig, da NT auf Alpha bekanntermaßen eingestellt wurde, allerdings läuft die mittlerweile alte NT-Version auf dem Mainboard noch – zumindest gemäß der Dokumentation. Getestet wurde NT jedenfalls nicht. Entsprechend lässt sich das System auf die Verwendung der SRM-Firmware konfigurieren, die auch von den aktuellen OpenVMS- und True64-Betriebssystemen verwendet wird. Um eine Alpha mit ARC unter Linux zu betreiben, ist ein spezieller Boot-Loader namens “Milo” nötig. Dieser existiert für das UP2000 nicht, sodass die Linux-Installation und der Boot-Vorgang über die SRM abgewickelt wird. Prinzipiell ist das von Vorteil, da durch die SRM-Firmware auf dem UP2000 auch NetBSD eingesetzt werden kann, was in einem getrennten Artikel demnächst behandelt werden soll – vorab lediglich der Hinweis: Es läuft. Darüber hinaus ist die Verwendung von “Milo” generell recht problematisch wie in Kasten auf Seite 62 dargestellt. Als Linux-Distribution wurde die aktuelle Redhat 6.1 verwendet. Die Konfiguration des Testsystems ist in Kasten auf Seite 63 oben wiedergegeben. Zunächst bildete die SRM-Firmware des UP2000 die erste Hürde bei der Installation. Die ursprünglich ausgelieferte Version erlaubt es nicht, von dem AdaptecController auf dem Mainboard zu booten, womit sich eine SCSI-CD-ROM basierte Installation ohne Umwege nicht durchführen ließ. Diese Tatsache blieb auch im Handbuch unerwähnt – dort wird davon ausgegangen, dass man via Floppy den Boot-Vorgang startet – doch dies sollte im Jahr 2000 inakzeptabel sein. Zur Ehrenrettung sei gesagt, dass mittlerweile ein Firmware-Update auf der API-Homepage existiert, das sich bequem via Floppy einspielen lässt und das dann das Booten vom Adaptec-Controller aus erlaubt. Alternativ kann man einen Symbios-Logic-basierenden SCSI-Controller einsetzen, der von der SRM-Firmware in der Regel erkannt wird und damit Zugriff auf die angeschlossene SCSI-Peripherie von der Konsole-Firmware aus erlaubt. Das Alpha-BIOS versucht grundsätz- 64 lich sowohl bei ARC als auch SRM über eigene Hardware-Erkennungsroutinen und einem kleinen x86-Emulator I/OKarten und deren BIOS zu finden und zu initialisieren. Im Fall der SymbiosLogic-Controllerfamilie funktioniert das so zuverlässig, dass auch No-NameKarten mit diesen Chips erkannt werden. Ähnliches gilt auch für Netzwerkkarten mit Chips aus der (ehemals DECeigenen) 2114x-”Tulip”-Familie. Damit wird dann auch ein “Diskless-Boot” via Die Ergebnisse des SSBA für das UP2000 DHRYSTONE GCC (without reg,without optimization): Dhrystones per Second: 713785,9 MP_Dhrystones 1399656 (196 %) Compaq-C 2152034,4 3938223 (183 %) (with reg,without optimization): Dhrystones per Second: 817307,7 MP_Dhrystones 1643835 (201 %) 2318181,8 4184615 (180 %) (without reg,with optimization): Dhrystones per Second: 1888888,9 MP_Dhrystones 3526361 (186 %) 2281879,2 4241164 (185 %) (with reg,with optimization): Dhrystones per Second: 1895910,8 MP_Dhrystones 3469387 (182 %) 2341889,4 4396551 (187 %) TOOLS total time for tools: real: 1,37 user: 0,29 syst: 0,41 real 0,09 0,07 0,12 0,23 0,45 0,90 1,81 3,63 user 0,01 0,02 0,04 0,09 0,17 0,34 0,65 1,29 syst 0,02 0,04 0,07 0,13 0,27 0,55 1,15 2,32 BYTE time in seconds: 1 user: 2 user: 4 user: 8 user: 16 user: 32 user: 64 user: 128 user: BONNIE 10 MByte Datei: Sequential Output Per Char Block K/s K/s 18141 147686 Rewrite K/s 13090 Sequential Per Char K/se 16565 Input Block K/s 275941 Random Seek/s /sec 25441 1024 MByte Sequential Per Char K/s 7241 Rewrite K/s 3482 Sequential Per Char K/s 6319 Input Block K/s 7155 Random Seeks /sec 113,6 Datei: Output Block K/s 10091 TEST C time in seconds: BSD time time time time time in seconds: for memory: for calls: for pipes: for fork/exec: real 3,36 user 0,01 syst 0,00 GCC real 5,8 0,5 0,93 28,59 user 0 0,02 0 10,12 syst 0 0,13 0,3 11,27 real 3,76 user 0,00 syst 0,01 Compaq-C real user 4,8 0 0,48 0,02 0,96 0 31,17 13,55 syst 0 0,16 0,35 13,28 5/2000 bootp/tftp möglich. Da das Testsystem mit entsprechenden Symbios-Logic-Controllern nachgerüstet wurde, lief die Installation der Redhat-Distribution aus Sicht der Hard- Terminal als Konsole. Die grafische Benutzeroberfläche wird via Netz auf einem Linux-PC abgewickelt. Eine kurze Testsitzung mit einer Matrox-Millenium zeigte aber keine gröberen Unver- Performance-Beispiele Das (De-)Komprimieren einer Datei mittels GNU-gzip lieferte folgende Ergebnisse: Kompression Dekompression Athlon: 25,52 6,95 Alpha, GCC Binary: 24,80 6,95 Alpha, Compaq-C Binary: 19,36 3,73 Alle Zeiten in Sekunden. Die Datei ist ein Tar-Archiv der Linux-Kernel 2.2.14 Quellen, etwa 16 MByte groß. Kompression: time gzip kernel-2.2.14.tar Dekompression: time gzip d kernel-2.2.14.tar.gz Die angegebenen Zeiten sind die “real” Werte des time(1) Kommandos. Der Whetstone Floating-Point Benchmark lieferte die folgenden Resultate: Athlon, GNU g77 -O2 Genauigkeit: single double 35587 2335570 Alpha, Compaq-Fortran fort -fast Genauigkeit: single double 1932076 1729730 Resultate sind in 1000 Whetstones/sec. ware problemlos. Einzig die Alpha-spezifische Redhat-Dokumentation legt dem Alpha-Neuling Stolpersteine in den Weg. Alle zur Installation notwendigen Informationen sind zwar in einem gesonderten Alpha-Addendum vorhanden, jedoch unübersichtlich verstreut. Ein vollständiges und aufmerksames Durchlesen der Dokumentation vor der Installation sei an dieser Stelle dringend empfohlen. Hat man diese Hürden überwunden, läuft die Installation selbst unspektakulär und problemlos. Der Umfang der mitgelieferten Software reicht nicht ganz an den der entsprechenden x86Distribution heran, aber dem kann man durch gezielte Suche im Netz abhelfen. Zunächst existiert keine Portierung des Netscape-Browsers. Um dem abzuhelfen, hat Compaq ein Paket, basierend auf der True64-Version, bereitgestellt, wie schon in [1] erwähnt. Ebenfalls wurde der mitgelieferte Kernel 2.2.13 durch den aktuellen 2.2.14 ersetzt, der einige Fixes für die Alpha-Familie bereithält. Redhat bietet als grafische Benutzeroberfläche sowohl Gnome als auch KDE an, im Test-Setup läuft die Alpha ohne Grafikkarte mit einem seriellen 5/2000 träglichkeiten sowohl bei Gnome als auch KDE auf. Schon bei der Installation der Pakete fällt die enorme Arbeitsgeschwindigkeit ins Auge. Die komplette Installation der gewählten Pakete – so ziemlich alles außer Games, Emacs und Tex – war nach ungefähr 15 Minuten erledigt. Die ebenfalls auf Alphas laufende Suse-Distribution unterstützt nach eigenen Angaben ebenfalls das UP2000. Für diesen Test war allerdings eine aktuelle Suse 6.3 nicht mehr rechtzeitig zu bekommen, sodass wir einen Erfahrungsbericht an dieser Stelle schuldig bleiben müssen. Ein erster Benchmark-Lauf mit der bekannten SSBA-Suite lieferte nur enttäuschende Ergebnisse. Als verantwortlich für die schwachen Resultate ließ sich der GCC ausmachen. Der bekannte GNU-Compiler erzeugt nur sehr schlecht optimierten Code auf AlphaSystemen – offenbar gilt das erst recht für die aktuellen 21264er Prozessoren. Dramatische Abhilfe schaffen hier die von Compaq frei zur Verfügung gestellten Compiler, auf die schon in [2] hingewiesen wurde. Im Kasten auf Seite 63 unten sind nochmals viele relevante Quellen für Software und Infos rund um Alpha zusammengefasst – ein Besuch der Seiten empfiehlt sich nicht nur für UP2000-Anwender, auch die in [3] getestete Alpha wird beispielsweise von den Compaq-Compilern unterstützt. Im Kasten auf Seite 64 sind die Ergebnisse der SSBA aufgeführt. Die Tests, bei denen C-Programme übersetzt werden, sind mit sowohl mit dem GCC als auch dem Compaq-C-Compiler durchgeführt worden. Anhand der DhrystoneWerte kann man den Unterschied der Codequalität zwischen den beiden Compilern erkennen. Absolut stellt ein Wert von über zwei Millionen Dhrystones einen Rekord dar. Selbst der in [4] getestete Athlon-Rechner bleibt bei diesen Tests unter einer Million. Vergleicht man die beiden Systeme in der Praxis, ergibt sich ein eher uneinheitliches Bild. Mal liegen Athlon und Alpha nahe beieinander, so zum Beispiel bei der Übersetzung eines neuen Kernels – ohne parallelem “make” versteht sich – mal hängt die Alpha den Athlon um Längen ab, vor allem bei Floating-Point-intensiven Anwendungen. Im Kasten auf dieser Seite sind beispielsweise die Ergebnisse eines typischen gzip(1)-Laufs angegeben. Man erkennt recht deutlich, dass sich die Alpha erst dann in Szene setzen kann, wenn man den Compaq-Compiler verwendet. Wie bereits erwähnt, ändert sich die Lage vor allem bei FP-intensivem Code. Ebenfalls in diesem Kasten sind die Resultate des Whetstone-Benchmarks gegeben, eines rein auf Floating-Point basierenden Fortran-Benchmarks. Die Durchläufe werden in getrennten Benchmarks sowohl in einfacher als auch doppelter Genauigkeit gemessen. Das Gespann Alpha mit CompaqFortran hängt den Athlon mit dem GNU-Fortran recht locker ab. Der Vollständigkeit halber muss gesagt werden, dass der GNU-Fortran auf der Alpha je nach Anzahl der Durchläufe Fehler produzierte – daher wurden diese Ergebnisse nicht mit aufgenommen. Abschließend lässt sich sagen, dass die Alpha bereits seit geraumer Zeit klaglos ihren Dienst unter Linux, teilweise unter recht hoher Last, verrichtet. In Sachen Rechenleistung liegt sie im praktischen Betrieb an der Spitze dessen, was man heute von einer modernen Doppelprozessor-Maschine erwarten kann. 65 Linux Mit der aktuellen Alpha-Generation spielt Compaq eindeutig in der ersten Liga mit, und die Systemumgebung von API kann die Stärken des Alpha in Szene setzen. Allerdings schläft die PC-Konkurrenz nicht. Führt man sich vor Augen, dass das Athlon-Vergleichssystem mit 500 MHz betrieben wird, so lässt sich erahnen, zu welchen Werten der gerade vorgestellte 1-GHz-Athlon fähig wäre. Der Systempreis der Alpha in der vorliegenden Konfiguration liegt in der Größenordnung um 30.000 Mark, also einem Mehrfachen dessen, was man für ein vergleichbares Athlon oder PentiumIII-System ausgeben müsste – für Letzteren gibt es auch entsprechende Doppelprozessor-Konfigurationen. Für die Alpha spricht vor allem die Tatsache, dass es sich auch unter Linux um eine echte 64-Bit-Umgebung handelt, die den Umgang mit entsprechend großen Dateien und Prozessen erlaubt. Vor allem bei fließkommaintensiven Aufgaben spielt die Alpha ihre Stärken aus und demonstriert ein Leistungsniveau, von dem insbesondere x86-Prozessoren noch weit entfernt sind. Es bleibt zu wünschen, dass das Trio API, Samsung und Compaq in Sachen Taktfrequenz und Herstellungstechnik nicht den Anschluss verliert, und die bereits mehrfach demonstrierte 1-GHz-Version des Alphas ausliefern. Der etablierten Workstation-Konkurrenz, etwa aus dem Hause Sun Microsystems, rennt die Alpha schon in der vorliegenden 667-MHz-Version auf und davon. Für alle, die Spitzenleistung vor allem unter Linux suchen, ist das UP2000 eine stabile und attraktive Alternative zu den bekannten x86-Multiprozessoren. In meinem Arbeitsalltag möchte ich jedenfalls nicht mehr auf die Alpha verzichten. (Thomas Weyergraf/rhh) Wachsendes Software-Angebot StorageManagement Linux konnte sich im letzten Jahr im Server-Bereich weiter etablieren. Etliche Software-Unternehmen haben schnell reagiert und viele Produkte auf Linux portiert. Dazu gehört nun auch Arcserve-IT von Computer Associates (CA) als Open-Beta-Version. Dieses Tool bietet etliche Managementfunktionen, die bisher im Linux-Umfeld gefehlt haben. L inux konnte laut einer Studie der IDC (International Data Corporation) seinen Marktanteil im ServerBereich von 16 Prozent in 1998 auf 25 Prozent im Jahr 1999 steigern. Microsoft Windows NT ist zwar nach wie vor mit 38 Prozent marktführend, aber der Vorsprung vor Linux schrumpft ständig. Der freie Unix-Abkömmling hat Novell Netware schon von Platz 2 der Rangliste verdrängt, dieses Betriebssystem erreichte Literaturhinweise [1] und [2] Kernel-News, Unixopen 4/2000, Seite 64 [3] “Linux im Alpha-Test”, Unixopen 11/1997, Seite 64 ff. [4] “Es muß nicht immer Pentium sein”, Unixopen 12/1 2000, Seite 35 ff. Arcserve-IT bietet umfassendes Storage-Management unter Linux 66 5/2000 Mit der zunehmenden Ausbreitung in Unternehmen steigen die Anforderungen an ein sicheres Speichermanagement unter Linux. Dies gilt besonders vor dem Hintergrund von E-Commerce-Anwendungen, die ohnehin zu einem Anschwellen der Datenflut und einer wachsenden Nachfrage für Speichermanagement führen. IDC hat für das Marktsegment “Storage Management” im Jahr 1998 bereits einen Umsatzzuwachs von 22 Prozent auf 2,67 Billionen Dollar ermittelt und weiteres Wachstum prognosMit der Der Job-Status-Manager hält die Anwender über den System- tiziert. wachsenden Populazustand auf dem Laufenden rität der Linux-Plattform erwartet IDC, dass Datenschutz und hen.” Zahlreiche Software-Hersteller haben -management auch hier immer wichtiger sich schon lange auf diese Entwicklung werden. Unternehmen wie Computer Aseingestellt. Die Palette an Produkten, die sociates (CA) tragen dem Linux-Boom unter Linux laufen, wird immer größer. aufgrund solcher Prognosen jetzt verDie Isis-Software-Datenbank registrierte stärkt Rechnung. CA hat den Einsatzbebereits für das Jahr 1999 ein beträchtli- reich der Speichermanagementlösung ches Anwachsen der Linux-Programme Arcserve-IT mit der jüngsten Betaversion von 138 im Januar auf 931 im Dezember. auf Linux-Server ausgedehnt. Damit will Neben technischen (6,4 Prozent) und den der Software-Anbieter eine systemspeziSystemprogrammen (17,6 Prozent) gibt fische Speichermanagement-Komplettlönur noch 19 Prozent. Die übrigen UnixDerivate brachten es zusammen auf 15 Prozent. “Open-Source-Programme”, fasst die Gartner Group den Trend zusammen, “werden in zunehmendem Maße im Umfeld von kommerziellen Anbietern und Konsumentenorganisationen entste- EServers Windows NT 3.51 oder 4.0 Solaris 4.2 oder höher HP/UX 10.x IBM/AIX SCO Open Server R5 SCO Unixware 7 Redhat Suse Clients Windows 3.x, 95/98 und NT Netware Macintosh OS / 2 AS400 verschiedene Unix-Plattformen Redhat Suse Unterstützte Umgebungen von Arcserve-IT es mittlerweile zahlreiche spezielle Branchenprogramme (32,2 Prozent) für die öffentliche Verwaltung, für Dienstleistungsanbieter und Banken. Den Löwenanteil am Gesamtangebot (43,8 Prozent) können aber die branchenübergreifenden Programme für sich verbuchen, die etwa im Finanz- und Rechnungswesen, in der Fertigungsorganisation, Büroautomation und Textverarbeitung eingesetzt werden. 5/2000 sung für Linux bieten, die Datenschutz und -speicherung automatisiert und dazu mit anderen Datensicherungstechnologien innerhalb komplexer Umgebungen integrierbar ist. Arcserve-IT ist für Linux bislang als “Advanced Edition” erhältlich. Die Lösung ermöglicht zentrales, plattformübergreifendes Management von einer Konsole aus und bietet Performance-, Wiederherstellungs- und Datenschutzmodu- le. Durch Alarmmanagement, Datenverifikation und Fehlerkorrektur stellt die Speichermanagementlösung im Ernstfall Datenintegrität und Recovery-Funktionalität sicher. Wie alle bestehenden Arcserve-IT-Versionen setzt auch die neue Variante für Linux auf das Unicenter-TNGFramework auf. Die Linux-Distributoren Redhat, Suse, Caldera und Turbo-Linux unterstützen CA dabei, ihre Managementlösung für Linux-Plattformen bereitzustellen. Die Installation von Arcserve-IT für Linux läuft über eine einzige Schnittstelle, die durch den gesamten Vorgang führt. Optionen und Agenten können dabei zentral für das ganze Unternehmen installiert werden. Die Speichermanagement-Lösung erlaubt gleichzeitiges Backup auf bis zu 32 Clients. Die Client-Agent PushTechnologie ermöglicht, dass die Daten am Client vorab gepackt und an Arcserve-IT weitergeleitet werden, was den Durchsatz verbessert. Weiterhin verfügt die “Advanced Edition” über ein Medienmanagement, das sich vor allem durch die automatische Medienverwaltung (Medienrotation, Medien-Pooling, fortlaufende Nummerierung von Medien und Barcode-Unterstützung für Bandbibliotheken) auszeichnet. Das lokale und Remote-Management wird durch Alarmmeldungen und andere Benachrichtigungen verbessert: Für alle denkbaren Ereignisse und Aufgaben sind Empfänger und Benachrichtigungsmethoden individuell konfigurierbar. Die Speichermanagement-Lösung optimiert zusätzlich die Fähigkeiten zahlreicher Band- und optischer Bibliotheken. In Bibliotheken mit mehreren Laufwerken werden medienübergreifende Datensicherung und paralleles Streaming unterstützt; der gleichzeitige Ablauf von Jobs ist möglich. Arcserve-IT bietet damit Funktionen für Datensicherung und -management, Automatisierung und größere Reichweiten sowohl für ausschließliche Linux- als auch für heterogene Plattformumgebungen. Das größte Plus der Software ist sicher die Einbeziehung jener Linux-Umgebungen, die bisher mit großem Aufwand über Einzellösungen verwaltet werden mussten. (Claudia Mrosek/gg) 67 Linux RAID unter Linux Redundanz ohne Zusatz-Hardware Eine Möglichkeit, seine Daten gegen Ausfall von Festplatten zu schützen, liegt im Verbund von mehreren Festplatten in einem RAID. (RAID = Redundant Array of Independent Disks). Auf dem Markt sind einige Systeme erhältlich, die solche Arrays von Hardware-Seite aus steuern. Dies geschieht durch eine Controllerkarte, an die die Festplatten angeschlossen werden. Ein bekannter Vertreter ist zum Beispiel der Serve-RAIDAdapter von IBM. Die Basis dafür sind SCSI-Systeme. Linux ermöglicht ebenfalls den Aufbau eines RAID-Systems, und zwar, ohne einen speziellen Hardware-Controller in den Rechner einzubauen. Die Steuerung eines solchen RAID wird vom Linux-Kernel und einigen Programmen übernommen. Deshalb spricht man in diesem Zusammenhang von Software-RAID. S oftware-RAID bietet einige Vorteile wie die Möglichkeit, ein RAID mit Festplattenpartitonen aufzubauen. Für Testzwecke ließe sich beispielsweise ein RAID 5 auf einer Festplatte realisieren, indem man sie in drei Partitionen aufteilt. Dies ist aber wirklich nur ein Gedanke für Testzwecke. Solche Konfigurationen sind für Produktivsysteme nicht geeignet, da der Grundgedanke von RAID, Ersatz bei Ausfall von einer Platte zu haben, nicht gewährleistet ist. Eine weitere Möglichkeit liegt in der Verwendung der beiden EIDE-Controller, die heute üblicherweise bei PCs mitgeliefert werden für ein RAID-System, da Hardware-RAID normalerweise SCSIPlatten verlangt. Ebenfalls möglich ist die 70 Kombination von SCSI und IDE zu einem RAID, wobei die langsamste Platte im Verbund die Datentransferrate vorgibt. Unter Linux funktionieren folgende unterschiedliche RAID-Level: LINEAR – dieser Modus fasst zwei oder mehrere Festplatten zu einer “virtuellen” Festplatte zusammen. Die Platten müssen nicht gleich groß sein, da die Platten nacheinander beschrieben werden. Zuerst kommt also Platte 0 zum Einsatz, dann Platte 1 und so weiter. Es existiert keine Redundanz, und wenn eine Platte kaputt geht, gehen alle Daten verloren. RAID 0 beschreibt im Gegensatz dazu das Zusammenfassen von zwei oder mehreren Festplatten zu einem Stripe-Set. Der Schreib- und Lesezugriff wird dabei auf mehrere Festplatten verteilt. Dies bringt einen Geschwindigkeitsgewinn. Der Nachteil ist das Fehlen von Festplattenredundanz, mit der Folge, dass bei einem Festplattendefekt sämtliche Daten verloren gehen. Die Platten sollten in diesem Fall ungefähr gleich groß sein. RAID 1 befasst sich mit dem Spiegeln von Festplatten. Das macht beim Ausfall einer Festplatte die Rekonstruktion der Daten möglich. Die Platten oder Partitionen müssen die gleiche Größe haben. Bei unterschiedlicher Größe geht Speicherplatz verloren, da nur soviel beschrieben wird, wie die kleinste Platte oder Partition besitzt. RAID 4 enthält einen Stripe-Set wie RAID 0, hat aber zusätzlich eine so genannte Parity-Partition. Die Parity sorgt für Redundanz. Wenn eine Festplatte ausfällt, lassen sich die Daten mit Hilfe dieser Partition rekonstruieren. Der Nachteil von RAID 4 liegt im verhältnismäßig langsamen Schreibzugriff, da bei einem Schreibvorgang auch jedes Mal in die Parity geschrieben werden muss. RAID 5 vermeidet den Flaschenhals, der durch langsamen Schreibzugriff bei RAID 4 entsteht. RAID 5 schreibt die Parity-Information nicht auf eine Partition oder Festplatte, sondern verteilt sie auf alle. Die Geschwindigkeit ist zwar nicht ganz so gut wie bei RAID 1, bietet aber Redundanz und dadurch Datensicherheit, wenn eine Platte ausfällt. Zudem erhält man größeren Speicherraum bei Verwendung von drei und mehr Festplatten. Wie bei RAID 1 müssen die Platten bei RAID 4 und 5 gleiche Größe haben. Wie bei Linux üblich, lässt sich auch Software-RAID nicht ohne ein wenig Handarbeit einrichten. Bei unserem Beispiel kommt die aktuelle Suse-Distribution 6.3 zum Einsatz. Unter dem Paket ap – Anwendungen, die kein X benötigen – findet man das Paket Raid-Tools, welches die notwendigen Programme bereitstellt. Trotzdem ist noch ein Kernel-Patch zu installieren, da die Unterstützung des aktuellen Kernels für eine veraltete Version der Raid-Tools eingerichtet ist, die noch 5/2000 Linux kein Booten unterstützen. Der Kernel-Patch lässt sich unter ftp.kernel.org/pub/linux/raid/alpha herunterladen. Anschließend ist er in das Verzeichnis /usr/src zu kopieren und zu entpacken sowie mit dem Befehl patch -p0 < raid0145-19990724-2.2.10 zu installieren. Danach muss der Kernel neu compiliert werden. Nach der Installation des neuen Kernels erfolgt ein reboot, um mit dem neuen Kernel zu arbeiten. Wenn alles funktioniert hat, sollte jetzt im Verzeichnis /proc die Datei/proc/mdstat zu sehen sein. Diese Datei zeigt die Informationen über den Zustand des RAID-Systems und die verwendeten Devices an. Da nach dem Reboot die Festplatten noch nicht vorbereitet sind, steht hier in dieser Phase auch nichts. Um ein RAID zu erstellen, muss der Anwender nun im /etc-Verzeichnis eine Datei namens /raidtab erstellen. In dieser Datei werden der RAIDLevel und die verwendeten Festplatten oder Partitionen definiert. Eine /etc/raidtab für RAID-1 könnte zum Beispiel so aussehen: # Beginn der RAID-Definition raiddev /dev/md0 raid-level nr-raid-disks 2 nr-spare-disks chunk-size persistent superblock device raid-disk device raid-disk # Ende der RAID-Definition 1 0 4 1 /dev/sdb6 0 /dev/sda5 1 Die Begriffe bedeuten im Einzelnen: raiddev /dev/md0: Es wird ein RAID-Device md0 definiert. Dieses kann später auch in die /etc/fstab eingetragen werden. Raid-level: Der RAID-Level wird festgelegt. nr-raid-disks: Die Anzahl der Festplatten im RAID. nr-spare-disks: Reserve Platten. In diesem Beispiel keine. chunk-size: Wird separat erklärt. persistent superblock: Es wird ein Superblock im RAID definiert. Wichtig, um das RAID zu booten. Device: Festplatte oder Festplattenpartition. raid-disk 0: Erste Festplatte im RAID. 72 raid-disk 1: Zweite Festplatte im RAID. Die Reihenfolge der Platten im RAID ist übrigens nicht beliebig. Sie muss auf jeden Fall so sein wie in der /etc/raidtab definiert. Bei einer Änderung der Reihenfolge muss also auch die /etc/raidtab geändert werden. Der Befehl mkraid/ dev/md0 initialisiert nun das RAID. Nach erfolgreicher Initialisierung findet man in der Datei /proc/mdstat die Meldung, dass das Device /dev/md0 gestartet wurde. Es kann also jetzt gemountet werden. Das Anhalten des RAID-Device ist jederzeit mit dem Befehl raidstop möglich, genauso lässt sich das Device mit raidstart wieder starten. Vorher sollte man das RAID-Device auf jeden Fall unmounten. Was geschieht beim Booten? Um diese Frage beantworten zu können, sind ein Paar “historische” Kenntnisse erforderlich. In der alten Version von Software-RAID haben die RAID-Tools beim Booten die /etc/raidtab ausgelesen und dann initialisiert. Dies hat vorausgesetzt, dass das Dateisystem, in dem die /etc/raidtab lag, bereits gemountet war. Eine etwas unglückliche Lösung, um ein RAID zu booten. Die Lösung lag damals darin, die Root-Partition (/) nicht in das RAID aufzunehmen und die RAID-Devices (/dev/md0, /dev/md1 etc.) über bestimmte Verzeichnisse zu mounten wie zum Beispiel /home, /opt oder /var. Dieses Problem wurde nun durch die “persistent superblocks” gelöst. Wenn bei der Initialisierung eines RAID die Option persistent superblock 1 in der /etc/raidtab angegeben wurde, wird ein spezieller Superblock an den Anfang jeder Festplatte geschrieben, die an dem RAID teilnimmt. Dies erlaubt dem Kernel die Konfiguration des RAID-Devices direkt von den Festplatten zu lesen, anstatt von einer init-Datei, auf die nicht immer zugegriffen werden kann. Man sollte aber trotzdem eine aktuelle /etc/raidtab erhalten, falls man das Problem hat, ein RAID-Device zu rekonstruieren. Chunk Sizes Dieser Begriff bedarf einer Erklärung. Das komplett parallele Schreiben auf zwei Platten ist unmöglich (bei RAID 0 mit zwei Disks). Ein Schreibvorgang von 1 Byte würde bedeuten, auf jede Platte 4 Bit zu schreiben. Um genau zu sein, jedes zweite Bit würde auf Platte 0 gehen und der Rest auf Platte 1. Dies lässt die Hardware nicht zu. Daher wurde ein chunk size definiert, welches die kleinste mögliche Menge Daten darstellt, die auf eine Platte geschrieben werden kann. Ein Beispiel: Ein Schreibvorgang von 16 KByte Daten mit einer chunk size von 4 bedeutet, dass das erste und das dritte 4 KByte chunk auf die erste Platte geschrieben wird und das zweite und das vierte 4 KByte chunk auf die zweite Platte. Die Angabe der Größe eines chunk erfolgt in Kilobyte, ein chunk von “4” bedeutet also “4 KByte”. Bei großen Dateien kann es sinnvoll sein, die chunk size zu vergrößern, um einen schnelleren Datendurchsatz zu erreichen. Zum Erreichen optimaler Leistung sollte mit dem Wert experimentiert werden. Praktischer Einsatz Wir haben ein RAID 1 mit zwei Platten eingerichtet und gestartet. Nach einem Reboot wurde der Befehl ckraid aufgerufen und das RAID auf Konsistenz überprüft. Dieser Befehl wird bei jedem Systemstart aufgerufen und Volker Pense ist Systemingenieur für AIX/RS6000 und Linux bei der Profi Engineering Systems GmbH E-Mail: [email protected] durchgeführt, was bei großen Systemen einige Zeit in Anspruch nehmen kann. Ein ungewollter Systemstop (Stecker ziehen) wurde von dem System ohne Probleme verdaut. Seitdem läuft das RAID ohne Probleme. (Volker Pense/gg) Literatur: Software RAID Howto v0.54 von Linas Vepstas: http://www.linas.org Software RAID Howto v0.90.2-Alpha von Jakob Oestengaard: http://ostenfeld.dk/jakob/Software-Raid.HOWTO Kernelpatch: ftp.kernel.org/pub/ linux/daemons/raid/alpha raidtools: SuSe 6.3 Paket ap raidtools.rpm 5/2000 XFree 4.0, Apache und FreeBSD 4.0 Kernel-News Mit der Version 4.0 kommt XFree in einer verbesserten Architektur auf den Markt, der Apache-Web-Server ist in der Alpha-Version 2.0a verfügbar, und FreeBSD 4.0 glänzt mit Optimierungen – vor allem im Bereich des Network File System (NFS). A m 9. März war es endlich soweit: XFree 4.0 steht als erste Version zum Download auf dem Server der Organisation bereit (www.xfree.org). Zu finden sind die Quellen auf dem ftp-Server sowie fertige Binärpakete für Linux-x86, Linux-Alpha, FreeBSD, NetBSD, OpenBSD, LynxOS, Solaris und Unixware. Damit ist Xfree quasi “aus dem Stand” für eine ganze Reihe von interessanten Plattformen verfüg- bar. XFree 4.0 wurde gegenüber den Vorgängern der 3.x-Serie komplett überarbeitet. Endlich ist vor allem der Server von den eigentlichen Hardware-Treibern getrennt worden, sodass der eigentliche Server gleich bleibt und die Hardwareabhängige Schicht als Modul nachlädt. Damit lassen sich eine ganze Reihe von Problemen lösen, die den Vorgängerversionen zu Eigen waren. Zum einen steht es nunmehr Hardware-Herstellern frei, Treiber für ihre Grafikkarten und Chips Steht zum Download bereit: XFree 4.0 5/2000 73 Linux selbst zu entwickeln, ohne sich dabei in zeitraubender Manier mit dem X-Server im Ganzen rumschlagen zu müssen. Für den Anwender dürfte der Wechsel einer Grafikkarte problemloser vonstatten gehen, da die Hardware-Erkennung durch das XServer-Setup den entsprechenden Treiber selbstständig nachladen kann – so er denn vorhanden ist. Darin liegt vorerst auch ein kleiner Wermutstropfen. Noch nicht alle Grafikkarten, die von den 3.x-Versionen unterstützt wurden, sind bereits in der Version 4.0 enthalten. Allerdings listet das “Driverstatus Document” (www.xfree.org/4.0/Sta tus.html) bereits eine ansehnliche Sammlung von unterstützten Karten. Vor der Installation ist diese Seite also unbedingt zu besuchen. Das Laden von Modulen erschöpft sich allerdings nicht beim Thema Hardware-Unterstützung. Die allseits beliebten “Extensions”, also Erweiterungen in der Funktionalität, werden ebenfalls als Module dynamisch vom generischen X-Server geladen. Auch hier ist Vorsicht gebo- ten, da nicht alle Extensions für alle Karten vollständig angepasst wurden – prominentes Beispiel ist an dieser Stelle die Hardware-beschleunigte 3-DUnterstützung. Wer nicht warten kann, bis “sein” Betriebssystem in Form eines Updates mit Xfree 4.0 daherkommt, sollte für den Download allerdings Zeit mitbringen. Die Sourcen schlagen hier mit 46 MByte, die Binaries – für Linux etwa – mit immerhin gut 30 MByte auf die “Telefonrechnung” durch. Apache 2.0a Der März scheint es in Sachen neuer Releases freier Software wirklich in sich zu haben. Die Apache Organisation (www.apache.org) gab am 10. März die Verfügbarkeit der AlphaVersion 2.0a des am weitesten verbreiteten Web-Servers bekannt. Als wichtige Neuerungen seien hier vor allem der Multithreading-Support auf Unix-Plattformen genannt, die über entsprechende Posix-Threads verfügen – die Betreiber entsprechend gut besuchter Web-Server wird dies sicherlich freuen. Daneben wurde die Unterstützung von Nicht-Unix-Systemen erheblich verbessert, sodass der Einsatz unter OS/2, BeOS und Windows stabiler und “performanter” sein sollte. Das beliebte und vielgenutzte Modul-API wurde umfangreich überarbeitet – so sollen insbesondere die Abhängigkeiten zu ladender Module entschärft worden sein. Die Übersetzung der Apache-Software basiert nun auf “autoconf” und “libtool”, vollzieht sich also ähnlich wie von anderer freier Software bereits bekannt. FreeBSD 4.0 Freunde der BSD-Derivate unter den frei verfügbaren Betriebssystemen kamen ebenfalls im März auf ihre Kosten: FreeBSD.org gab am 13. März die Verfügbarkeit der 4.0-Version bekannt. Das vor allem im Internet-Server-Bereich sehr beliebte und moderne BSD-Unix liefert damit einen weiteren Meilenstein in seiner Entwicklungsgeschichte. Neben den obligatorischen Bugfixes wurden unzählige neue Treiber implementiert und bestehende überarbeitet und zum Teil komplett ersetzt. Vor allem wurde NFS intensiv überarbeitet und soll den Release-Notes zur Folge erheblich bessere Performance bieten als noch in den 3.x-Versionen. Ebenfalls wurde das Signal-Handling komplett überarbeitet, sodass nunmehr mehr als 32 Signale zur Verfügung stehen. Als Basis-Compiler wurde der bislang verwendete gcc 2.7.2 auf 2.9.5 umgestellt, sodass nun auch unter FreeBSD standardmäßig ein ISO-C-Compiler zum Einsatz kommt. Auf NTFS-Dateisysteme kann direkt zugegriffen werden, Gleiches gilt auch für Netware-Dateisysteme (NWFS). Darüber hinaus bietet FreeBSD 4.0 einen SVR4-Emulator, verbesserte LinuxBinärkompatibilität sowie erheblich weiterentwickelten Support für IPv6. Auch in Sachen Sicherheit hat sich einiges getan. OpenSSL gehört genauso zum Basissystem wie OpenSSH. Das beliebte Telnet verwendet bei FreeBSD bei Bedarf nun einen verschlüsselten Authentifizierungsmechanismus namens SRA – vorbei also die Zeiten, in denen die bei Telnet-Logins eingegebenen Passwörter im Klartext über das Netz gingen. In Sachen IP-Filter wurden ebenfalls eine ganze Reihe von Neuerung eingebaut und auf IPv6 ausgedehnt. Angestammte FreeBSD-Anwender werden sich wahrscheinlich die neue Version beschaffen. Anwender, die mit Linux und ähnlichem Lösungen im Netzwerkbereich realisieren wollen, ohne dabei auf eine bestimmte OS-Platform fixiert zu sein, finden in FreeBSD eine ähnlich freie Alternative – und sollten daher in jedem Fall einen Blick riskieren. (Thomas Weyergraf/rhh) Eine intensive NFS-Überarbeitung hat FreeBSD 4.0 erfahren 74 5/2000 Unterstützung ausgebaut Die IBM-Unterstützung für Linux erstreckt sich sowohl auf das Betriebssystem selbst als auch auf den technischen Support; es umfasst Hardware, Software und Services. So kündigte das Unternehmen im Februar 2000 mit “ViaVoice” die Spracherkennungstechnologie für Linux sowie die Thin Clients “Network Station Series 2200” und “2800” für Linux an. Darüber hinaus werden Technologien und Ressourcen für die Entwicklung eines unternehmensweiten Protokolldateisystems für Linux bereitgestellt und ein kostenfreies Entwicklungs-Kit für EBusiness-Linux-Anwendungen angeboten. Ebenfalls im Februar brachte IBM die Betaversion von “TopPage for Linux” von Netobjects heraus, einem Entwicklungswerkzeug für die Gestaltung von WebSeiten. Schon im Januar gab AntivirenSoftware Die Antiviren-Software “AVP” kommt jetzt auch für Linux auf den Markt. Das Software-Paket des russischen Unternehmens Kaspersky hält Workstations, FileServer und ApplicationServer, die unter Linux betrieben werden, frei von Viren. AVP kombiniert drei Komponenten: “AVP Anti Virus Scanner”, “AVP Daemon” und “AVP Monitor”. Der Anti-Virus-Scanner arbeitet auf Abruf und lässt sich von jedem unabhängigen 5/2000 IBM bekannt, alle ServerPlattformen auch für Linux auszulegen und ernannte mit Irving Wladawsky-Berger einen Verantwortlichen für Linux. Weltweit stehen mehr als 300 ausgebildete Linux-Berater zur Verfügung, um Kunden bei Aufbau, Gestaltung und Verbesserung ihrer Linux-Umgebung zu unterstützen. Über die Operational Support Services von IBM, die derzeit nur in den Vereinigten Staaten verfügbar sind, stehen rund um die Uhr Linux-Experten für technische Unterstützung zur Verfügung. In Deutschland, Österreich und der Schweiz bestehen bereits Projektteams, die sich ausschließlich mit Linux befassen. Der Bereich Global Services unterstützt die Linux-Varianten der drei Linux-Distributoren Redhat, Suse und Caldera Systems. Mit diesem Unternehmen wurde auch eine enge technische Zusammenarbeit vereinbart. (rb) www.software.ibm.de Scheduler einstellen. AVP Daemon ist ein Filter, der speziell die Web-Server und Internet-Gateways überwacht. Mit dem AVP-Monitor werden Vorgänge wie Starten, Öffnen und Initialisieren von Programmen nach Viren untersucht und gegebenenfalls unterbrochen. Gemäß den Prinzipien der Linux-Gemeinde hat Kaspersky Teile von AVP für den Linux-SourceCode freigegeben, um Integratoren die Entwicklung weiterer Applikationen zu erleichtern. (rb) www.avp.ru 75 LINUX-MARKT NUX-TICKER-LINUX-TICKER-LINUX Komplettlösung Redhat bringt mit “Linux 6.1 Professional” eine Allround-Lösung für InternetServer auf den Markt. Das Produkt wurde in Deutschland entwickelt und kommt als erstes außerhalb der USA in den Handel. Zum Paket gehören der “Secure Web Server” 3.1, die Vollversion von DB2, mehr als 30 der bekann- KonferenzServer White Pine Software gab die Verfügbarkeit des Konferenz-Servers “MeetingPoint” für Redhat Linux 6.1 bekannt. Meeting Point ist eine Applikation, die auf dem IP-Stan- Entwicklung unter Linux Das Entwicklungs-Tool Magic läuft jetzt auch unter Linux. Die aktuelle Version 8.3 soll für E-Commerce- und 76 testen Server-Anwendungen, Software für den E-Commerce sowie 30 Tage Support für die Konfiguration des “Apache Web-Servers”. Außerdem enthält Linux 6.1 Professional alle Programme für Arbeitsplatzrechner, die mit der Standard- und der Deluxe-Version ausgeliefert wurden, unter anderem mehr als 40 Linux-Anwendungen von Drittanbietern. Der Straßenpreis beträgt 149 Euro plus Mehrwertsteuer. Das Programm ist ab sofort verfügbar und kann im Internet unter ftp.redhat.com oder www. redhat.com heruntergeladen oder über Redhat- Distributoren und Partner bezogen werden. (rb) www.redhat.de dard H.323 basiert. Mit Version 4.0.2 bietet das Produkt pro Server eine erhöhte Anzahl an Ports. Provider können somit ihre Angebote mit Mehrwert wie Videochat, Face-to-Face E-Commerce und anderen Help-Desk-Services ausstatten. Ein einzelner MeetingPoint-Server unterstützt ab Version 4.0.2 50 H.323-User oder bis zu 200 “CU-SeeMePro”- oder “CU-SeeMeWeb”-Anwender. Zudem können mehrere solcher Server miteinander verbunden werden. Die Software im aktuellen Release für Linix, Solaris und NT verfügbar. (rb) Embedded Datenbank Mit “db.linux” stellte Centura ein Open-Source-Datenbank-Managementsystem für den Einbau in InformationAppliances auf der LinuxPlattform vor. Neben einer eigenständigen Logik benötigen die boomenden Information Appliances-Geräte auch Datenbankfunktionen, um statische Informationen für längere Zeit an Ort und Stelle vorhalten zu können. Db.linux ist eine Linux-Version von Centuras Datenbank RDM (Raima Database Manager) und bein- Bezahlen im Internet Brokat hat für die TwisterKomponente “X-Pay”, die Module für das Bezahlen im Internet umfasst, das “SETZertifikat” (Secure Electronic Transaction) erhalten. X-Pay gewährleistet damit durchgängig sichere Online-Transaktionen zwischen Endkunden, Händlern und Zahlungssystem-Betreibern. Das Zertifikat wird von der SETCo (Secure Electronic Transaction LLC) verliehen, einer 1997 von Visa und Mastercard gegründeten Organisation, die sich für den weltweiten Einsatz dieses Standards als sicheres Protokoll für Zahlungssysteme im Internet en- www.wpine.com Backup und Recovery Client-/Server-Anwendungen eingesetzt werden. In das datenbank- und plattformunabhängige Tool Magic sind die Technologien HTML und Java integriert. (rb) Der Linux-Client von “Veritas Netbackup” Software wird ab sofort zusammen mit Redhat Linux 6.1 ausgeliefert. Das ist ein Ergebnis der Partnerschaft zwischen Veritas und Redhat, die die gemeinsa- www.magic-sw.com haltet eine kompakte Datenbank-Engine mit 50 bis maximal 200 KByte (Small Footprint), die skalierbar ist und die verschiedene Zugriffsmethoden wie Pointer-basierte Navigation und B-Tree-Index unterstützt. Das Gleiche gilt für internationale Charakter-Sets. Centura stellt die Datenbank im Rahmen einer Partnerschaft mit Openavenue im Source-Code kostenfrei zur Verfügung. Openavenue übernimmt die Betreuung des Quellcodes und macht diesen per Web zugänglich (www. openavenue.com). (rb) www.centurasoftware.com/ce gagiert. Mit X-Pay werden so genannte Thin-Wallets (ebenfalls SETCo zertifiziert) eingesetzt, die der Kunde durch ihre geringe Größe beim Bezahlen in seinen InternetBrowser laden kann, ohne dass er zusätzlich Software installieren muss. Als Multipayment-System unterstützt X-Pay unterschiedliche Zahlungsarten wie Kunden- und Geldkarten oder auch Debitzahlungen wie das elektronische Lastschriftverfahren. Zahlungen können via SSL (Secure Socket Layer) oder SET entgegengenommen werden. Verfügbar ist der XPay-Server auf NT, Solaris und Linux. (rb) www.brokat com me Entwicklung von StorageManagementapplikationen für Linux zum Ziel hat. Mit dem Linux-Client für Veritas Netbackup werden Unternehmen unterstützt, die rund um die Uhr auf Applikationen in heterogenen Umgebungen zugreifen müssen. (rb) www.de.veritas.com 5/2000 Unkompliziert ins Internet Equiinet, britischer Hersteller von Internet ServerAppliances, führt seine “Netpilot”-Familie nun auch in Deutschland ein. Der “Netpilot” eignet sich für Unternehmen, die Zugang zum Internet benötigen, jedoch nicht auf Sicherheitsmechanismen ver- kann das Gerät über seine parallele Schnittstelle auch einen Drucker ansteuern. Es eignet sich für kleinere und mittlere Unternehmen mit bis zu 150 Arbeitsplätzen. Für größere Installationen steht der “Netpilot Enterprise” zur Verfügung, der bis zu 500 Arbeitsplätze unterstützt. Beide Modelle sind in mehreren Versionen erhältlich, die sich durch ihre Support-Center in Bremen Suse baut das Dienstleistungsangebot weiter aus. So wurde ein Support-Center in Bremen gegründet, das am 15. Februar seinen Betrieb mit zunächst 20 Mitarbeitern aufnahm. Suse plant den Standort im Laufe des Jahres auf mehr als 60 Mitarbeiter auszubauen. Von Bremen aus will das Unternehmen in erster Linie den kostenlosen InstallationsSupport für Suse-Linux abwickeln. Interessenten und Jobsuchende sind aufgefor- Zertifizierungsprogramm zichten möchten. Die Allin-one-Lösung auf Basis von Linux ermöglicht Mitarbeitern im LAN die Nutzung des Internet und von E-Mail-Diensten und beinhaltet eine Firewall sowie einen lokalen Cache. Dabei werden interne und externe E-Mail-Dienste sowie alle Internet-Services wie HTTP, FTP etc. unterstützt. Zudem Interfaces zum öffentlichen Netz unterscheiden. WANseitig werden Modem- oder ISDN-Verbindungen sowie Standleitungen unterstützt, die Einbindung in das lokale Netz erfolgt über Fast Ethernet. In Deutschland vertreibt Qunix die Geräte. (rb) ORB unterstützt Linux cess Protocol) die Entwicklung von verteilten Applikationen unter gleichzeitiger Verwendung von Corba, COM, Java, RPC und XML ermöglicht. Darüber hinaus können mit einem BrowserInterface Corba-Services über das Internet genutzt und verteilt werden. Die Zusammenführung erfolgt durch Xorba, das XML-basierende Applikationen und CorbaArchitekturen verbindet. (rb) Rogue Wave hat jetzt Version 2.0 des Internet-ORB (Object Request Brokers) “Nouveau” auf Linux portiert. Die Komponentenbibliotheken Tools.h++, DBTools.h++ und Threads.h++ gibt es bereits für das OpenSource-Betriebssystem. Nouveau ist eine Middleware, die durch die Unterstützung von Windows DNA 2000 und der SOAP-Technology (Simple Object Ac- 5/2000 www.qunix.com www.roguewave.de Redhat bietet ab sofort das europäische Zertifizierungsprogramm für Wiederverkäufer der Produkte und Services von Redhat an. Die Teilnahme am “Redhat Certified ResellerProgramm” (RHCR) ist dann kostenfrei, wenn bereits ein Mitarbeiter eines Fachhändlers zum “Redhat Certified Engineer” ausgebildet wurde. Teilnehmer des Programms erhalten Zugang zur Reseller-Zone von Redhat. Das OnlineWerkzeug unterstützt Ilog für Linux Ilog, Anbieter von Komponenten-Software, bietet seine gesamte Produktpalette jetzt auch auf Linux an. Dies umfasst die Programmbibliotheken für Optimierung und Visualisierung sowie regelbasiertes Wissensmanagement in den Sprachen C++ und Java. Das Unternehmen beabsichtigt damit, sein Engage- LINUX-TICKER-LINUX-TICKER-LIN dert, sich per E-Mail unter [email protected] zu melden und sich zu bewerben. Entsprechende Stellenangebote finden sich im Internet unter http://www.suse.de/ jobs/ (rb) www.suse.de Händler bei Marketing und Verkauf von Linux-Lösungen. Darüber hinaus können sich Reseller unter www. europe.redhat.com/reseller über Details des Zertifizierungsprogramms informieren und sich online registrieren lassen. Die reguläre Teilnahmegebühr beträgt 2500 Euro zuzüglich Mehrwertsteuer. Die Termine für die RHCE-Kurse in Deutschland können unter der E-Mail-Adresse training@redhat. de angefordert werden. (rb) www.europe.redhat.com/ reseller ment im E-Commerce-Markt zu stärken. Ilog hat die Portierung der Optimierungs-, Visualisierungs- und Rules-Engines für die Linux-Systeme von Redhat und Suse bereits abgeschlossen. Gleichzeitig mit den Produkten hat der Komponentenhersteller auch die technische Unterstützung uneingeschränkt auf Linux ausgeweitet. (rb) www.ilog.de 77 LESER-INFO-KENNZIFFERN Informationen schnell per Anzeigen-Kennziffern und Inserentenverzeichnis Inserent/Anbieter Articon bdata systems Bytec Cadtronic ComMunic Corel Systems dc Europe DV-Job DV-Markt fms Computer Freund + Dirks Gall EDV-Systeme IBM IBM ID-Pro Intershop IPS Seite 19 75 84 57 15 60 27 69 69 21 19 21 19 9 75 57 2 Kennziffern Seminarführer 023 025 018 007 019 008 021 020 010 Seminarführer 009 Seminarführer 004 024 012 001 Inserent/Anbieter MKS Olmos Workstations Pyramid Computer Systeme Quadratec Sun Microsystems The Bristol Group Tiscon Trend Micro Tritec Electronic Veritas Software Web.de Wizard Software Wizard Software Wizard Software Seite 49 41 71 73 7 19 3 11 29 13 68 43 45 47 Kennziffern 017 013 027 022 003 Seminarführer 002 005 011 006 026 014 015 016 Dieser Ausgabe liegt eine Gesamtbeilage der Firma IBM bei. Die Redaktion bittet um freundliche Beachtung. UNIXopen Info Der Web-Kennzifferndienst UNIXopen info macht die gezielte Suche im WWW so komfortabel und schnell wie nie zuvor. Der neue Dienst von UNIXopen funktioniert im Prinzip wie das Leser-Info-Fax, das den UNIXopen-Lesern ja seit Jahren vertraut ist, nur mit erheblich erweiterten Möglichkeiten und allen Vorteilen des World Wide Web: Sie suchen in unserer Online-Datenbank die für Sie interessanten Produkte. Dann entscheiden Sie, in welcher Form Sie kontaktiert werden möchten. Wir leiten Ihre Anfrage an den richtigen Ansprechpartner beim Anbieter weiter, der Sie dann auf dem von Ihnen gewünschten Weg kontaktiert. Unter der Adresse: http://www.unix-open.de/info wählen Sie zunächst aus, in welcher Ausgabe Sie recherchieren möchten. Dann wählen Sie eine oder mehrere Produktkategorien aus. Alternativ können Sie, falls Sie schon genau wissen, wofür Sie sich interessieren, direkt den Namen des Anbieters eingeben. Drücken Sie die Schaltfläche »Weiter«, um Ihre Abfrage zu starten. 80 Das System stellt nun eine Liste aller Inserenten und redaktionellen Beiträge zusammen, die Ihren Suchkriterien entsprechen. Wenn die Firma eine eigene WebSite besitzt, dann ist der Firmenname in der linken Spalte mit einem Hyperlink unterlegt. Damit kommen Sie direkt auf die Webseiten des Anbieters. Wichtig für Ihre Info-Anforderung sind die letzten vier Spalten. Hier können Sie bei jeder Firma ankreuzen, ob Sie weitere Informationen per E-Mail, Post, Fax oder Telefon erhalten möchten. Selbstverständlich können Sie hier mehr als eine Firma ankreuzen. So können Sie gleichzeitig mehrere Anfragen generieren. Bei der erstmaligen Benutzung von UNIX info drücken Sie jetzt einfach den »Weiter«-Button und gelangen damit zur Eingabemaske für Ihre Kontaktinformationen. Noch schneller geht es, wenn Sie das System schon einmal benutzt haben. Dann reicht die Eingabe Ihrer E-MailAdresse aus, und ihre Daten werden automatisch ergänzt. Wenn Sie jetzt »Weiter« drücken, gelangen Sie auf eine Bestätigungsseite und das System generiert für jeden der von Ihnen angekreuzten Anbieter eine Anfrage, die per E-Mail an den zuständigen Ansprechpartner verschickt wird. Auf der Bestätigungsseite finden Sie außerdem eine kleine Online-Umfrage. Durch Ihre Teilnahme helfen Sie uns dabei, UNIXopen auch in Zukunft optimal auf Ihre Interessen auszurichten. Frank-Martin Binder 5/2000 Info-Fax oder Internet Der moderne Weg zu detaillieren Informationsmaterial zu der in dieser Ausgabe veröffentlichten Anzeige. ▲ ▲ ●Info-Fax # 023 www.unix-open.de/info● Tragen Sie die entsprechende Kennziffer unter www.unix-open.de/info an der vorgesehenen Stelle ein und Sie gelangen direkt und ohne Umwege zu Ihren gewünschten Zusatzinformationen. ▲ ▲ ●Info-Fax # 023 www.unix-open.de/info● Selbstverständlich haben Sie noch nach wie vor die Möglichkeit, weitere Anzeigen-Produkt-Infos mit dem untenstehenden Faxformular abzurufen. Einfach ausfüllen und an die Fax-Nummer 0 86 21/97 99 60 faxen. Zum schnellen Überblick haben wir alle inserierenden Firmen auf der gegenüberliegenden Seite aufgelistet. An AWi-Verlag UNIXopen-Leserservice Herzog-Otto-Str. 42 83308 Trostberg en op IX 0 UN 200 5/ Meine Anschrift lautet: Ich möchte Informationsmaterial zu Anzeigen mit folgenden Kennziffern (siehe nebenstehende Übersicht): 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. Firma Abteilung Vorname/Name Straße/Nummer PLZ/Ort Telefon Fax Meine Funktion: (bitte ankreuzen) ❑ Spezialist ❑ Gruppen-/Abteilungsleiter ❑ Einkauf ❑ Unternehmensleitung ❑ Mein Unternehmen beschäftigt: ❑ 1 bis 19 Mitarbeiter ❑ 100 bis 249 Mitarbeiter ❑ über 1000 Mitarbeiter ❑ 20 bis 49 Mitarbeiter ❑ 250 bis 499 Mitarbeiter Mein Unternehmen gehört zu folgender Branche: ❑ Elektroindustrie ❑ Maschinenbau ❑ Fahrzeughersteller und -zulieferer ❑ Chemisch pharmazeutische Industrie ❑ Transport- und Logistikbranche ❑ Geldinstitute/Bausparkassen ❑ Versicherungswesen ❑ Reise- und Touristikbranche ❑ Handel und Dienstleistungen ❑ Öffentliche Verwaltung ❑ Hochschulen und Forschungsinstitute ❑ Nahrungs- und Genußmittel ❑ 50 bis 99 Mitarbeiter ❑ 500 bis 999 Mitarbeiter Ich interessiere mich für folgende Themenbereiche: Betriebssysteme: Soft- und Hardwarelösungen: ❑ Unix SVR4 ❑ Linux ❑ Solaris ❑ AIX ❑ HP-UX ❑ Windows NT ❑ andere ❑ Entwicklungswerkzeuge ❑ Netzwerkhardware ❑ Connectivity-Produkte ❑ Datenbanklösungen ❑ Inter-/Intranet und WWW ❑ RISC-Systeme ❑ Sicherheit Damit Hersteller und Anbieter von Produkten, für die ich mich interessiere, meine Kennziffernanfragen so gezielt wie möglich beantworten können, bin ich damit einverstanden, daß diese Daten elektronisch gespeichert und weitergegeben werden. Ort, Datum Unterschrift VORSCHAU Juni 2000 Impressum UNIX open 6 ist 19. Ma i für Ab ab dem und ab onnent dem en Kiosk e 26. Mai am rhältlic h E-Commerce: Bis ins Jahr 2003 wird nach Schätzungen der Deutschen Telekom jeder zweite Haushalt vernetzt sein – und damit zum potenziellen Kunden im Bereich E-Commerce. Und auch die Marktforscher von Forrester Research entwerfen für die Net Economy in Deutschland und Europa ein lukratives Bild. Nach ihrer Einschätzung wird Deutschland spätestens im Jahr 2004 mit Abstand der größte E-Commerce-Markt in Westeuropa sein. 406 Milliarden Euro sollen zu diesem Zeitpunkt alleine in Deutschland über das Internet umgesetzt werden. Folglich befasst sich unser Schwerpunkt im nächsten Heft intensiv mit den Faktoren, die für elektronischen Handel wichtig sind: Shopping-Systeme, Sicherheit und Infrastruktur. Know-How: Das Konfigurationsmanagement (KM) bedeutet Kontrolle und Steuerung des SoftwareEntwicklungsprozesses. Der wichtigste Teil und auch der Ursprung von KM ist das Versionsmanagement. Dieses befasst sich mit den einzelnen Objekten in einer definierten Umgebung und ihrem Werdegang. So ist jederzeit nachvollziehbar, wer was wann und wo an welchem Objekt verändert hat, wann und von wem es erzeugt wurde etc. Dazu eignet sich das Tool Web Synergy, das in der nächsten Ausgabe vorgestellt wird. Linux: Professionelle Programmierwerkzeuge für Linux sind, zumindest wenn sie auch unter X-Window laufen sollen, leider immer noch Mangelware. Ein intensiver Blick auf das Werkzeug “Omnis Studio” soll zeigen, wie weit der Stand der Dinge mittlerweile unter Linux ist. Der Dreh- und Angelpunkt von Omnis ist seine Library, enthält sie doch alle relevanten Daten, aus denen nachher das Programm erstellt werden kann. Ausgabe Nummer Titelthema Einkaufsführer 7/2000 Software-Qualität Automatische Testwerkzeuge, Java C++, Debugger, Programmierumgebung Standard-Software 8/2000 System- und Netzwerkmanagement Software-Verteilung, Performance Management, Administrationslösungen Intel-basierte Server mit Linux/Unix 9/2000 Server-Software Datenbank-Server, ApplikationsServer, Web-Server, Script-Programmierung USV Herausgeber: Eduard Heilmayr (he/-140) Verlagsleiter: Frank-Martin Binder (fbi/-112) Chefredaktion: Rainer Huttenloher (rhh/-132) Redaktion: Dr. Götz Güttich (gg/-111) Redaktionsassistenz: Janine Amann (-221) ([email protected]) Ständige freie Mitarbeiter: Ruth Bosch (rb) Reinhard Wobst, Jürgen Mischke, Thomas Weyergraf Redaktionsanschrift: Redaktion UNIXopen, Bretonischer Ring 13, 85630 Grasbrunn, Tel.: 089/45616- Durchwahl siehe Redaktion Fax: 089/45616-200 Layout, Grafik, Produktion und Anzeigendisposition: Daniela Ernst, Michael Szonell, Edmund Krause (Leitung) Titelbild: Ilona Kocksch Anzeigenleitung: Wolfgang Zielke – verantwortlich für Anzeigen Tel.: (089) 45616-270, Fax: (089) 45616-250 Anzeigenverkaufsleitung AWi: Cornelia Jacobi 089/7194 0003 Anzeigenpreise: Es gilt die Preisliste Nr. 8 vom 1. 1. 2000 Anzeigenverwaltung: Gabi Fischböck Tel.: 089/45616-262 Fax: 089/45616-100 Erscheinungsweise: monatlich, 12 Ausgaben/Jahr Vertrieb: Abonnementbestellungen und Adressänderungen richten Sie bitte an: Edith Winklmaier, Herzog-Otto-Str. 42, 83308 Trostberg, Tel. 08621/645841, Fax: 08621/62786 Zahlungsmöglichkeit für Abonnenten: Bayerische Vereinsbank München (BLZ 700 202 70) Konto-Nr. 32 248 594 Postgiro München (BLZ 700 100 80) Konto-Nr. 537 040-801 Bezugspreise: Jahresabonnement Inland: 96,– DM Auslandsabonnement: 122,– DM Kann die Zeitschrift, aus vom Herausgeber nicht zu vertretenden Gründen, nicht geliefert werden, besteht kein Anspruch auf Nachlieferung oder Erstattung vorausbezahlter Bezugsgelder. Sonderdruckdienst: Alle in dieser Ausgabe erschienenen Beiträge sind in Form von Sonderdrucken erhältlich. Anfragen richten Sie bitte an Edmund Krause, Tel.: 089/45616-240, oder Alfred Neudert, Tel.: 089/45616-146, Fax: 089 45616-250 Druck: Druck- und Verlagshaus Alois Erdl KG Gabelsbergerstr. 4-6, 83308 Trostberg Einsendungen: Manuskripte werden gerne von der Redaktion entgegengenommen. Mit der Einsendung von Manuskripten gibt der Verfasser die Zustimmung zum Abdruck. Kürzungen der Artikel bleiben vorbehalten. Für unverlangt eingesandte Manuskripte kann keine Haftung übernommen werden. Das Urheberrecht für angenommene Manuskripte liegt beim Verlag. Für unverlangt eingesandte Hard- und Software kann keine Haftung übernommen werden. Vertrieb Handelsauflage: MZV Moderner Zeitschriften Vertrieb GmbH Breslauer Str. 5, 85386 Eching Tel. 089/319 06-0 Urheberrecht und Haftung: Alle in UNIXopen erscheinenden Beiträge sind urheberrechtlich geschützt. Alle Rechte, auch Übersetzungen vorbehalten. Reproduktionen, gleich welcher Art, benötigen der schriftlichen Genehmigung des Herausgebers. UNIXopen veröffentlicht ohne Berücksichtigung eines eventuellen Patentschutzes. Warenbezeichnungen werden ohne Gewähr einer freien Verwendung benutzt. Eine Haftung für die Richtigkeit von Veröffentlichungen können Redaktion und Verlag trotz sorgfältiger Prüfung nicht übernehmen. © 2000 AWi UNIXopen Verlagsgesellschaft mbH Verlag: AWi UNIXopen Verlagsgesellschaft mbH Ein Unternehmen der AWi Aktuelles Wissen Verlagsgesellschaft mbH Postfach 1101, 83302 Trostberg Geschäftsführer: Eduard Heilmayr ISSN 0943-8416 Mitglied zur Informationsgemeinschaft i zur Feststellung der Verbreitung v von Werbeträgern e.V. (IVW), Bad Godesberg w Themenänderungen sind aus aktuellem Anlass möglich. Wir bitten um Verständnis. 82 UNIX 5/2000 O P E N