1/96 pdf

Transcrição

1/96 pdf
1/96
Table of Contents
In aller Kürze
Welches Mail−Programm?
Flieg,Pferdchen, flieg... Der Mail Client Pegasus
MIME − Multipurpose Internet Mail Extension
Sicherheit bei Kommunikations−Anwendungen, insbesondere bei E/Mail
E−Mail im Unix−Workstationpool
VBN in BelWü 1988 − 1995
ATM − RUS, urbi et orbi
The University of Stuttgart − A Future−Oriented Place of Research and
Teaching:
· Belwü Coordination
· Information Services
· High−Performance Computing
· Server & Networks
· Basic Services
· Projects of RUS
Fachhochschule Isny der Naturwissenschaftlich−Technischen Akademie Prof.
Dr. Grübler, gemeinnützige GmbH
Der Südwestdeutsche Bibliotheksverbund
FTP−, WWW−, Info−Server, Netzinfos
BelWü−Beauftragte
Inhaltsverzeichnisse aller BelWü−Spots
1
März 1996
Contents
1/ 96
+++ in aller Kürze +++
+++ Im Dezember 95 unterschrieben das Land (MWF) und eine Tochter der
baden−württembergischen Energieversorger (CNS) eine Vereinbarung hinsichtlich der
Versorgung der BelWü−Teilnehmer mit Hochgeschwindigkeitsverbindungen. Zu Beginn
werden die Anschlüsse zwischen den neun Landesuniversitäten vom DFN im Rahmen
des Breitband−(ATM) Wissenschaftsnetzes erbracht − ab spätestens April 96 mit 34
MBit/s, später dann mit 155 MBit/s. Parallel dazu wird ein ebenfalls auf ATM
basierendes Hochgeschwindigkeitsnetz auf Leitungen der Energieversorger aufgebaut,
über die neben den Universitäten (mit 155 MBit/s) ab 1998 zusätzlich einige
Fachhochschulen mit 34 MBit/s eingebunden werden sollen. Im Vorgriff darauf sind seit
Ende 1995 zehn Fachhochschulen mit 2 MBit/s Telekom−Standleitungen an das BelWü
angebunden. +++
+++ Der unbefriedigende transatlantische Zugang soll durch Erhöhung der
Leitungskapazität durch den DFN verbessert werden. Gerüchteweise hört man hier
sowohl 34 MBit/s nach Europa als auch USA. +++
+++ Die Dynamik des Internets läßt sich auch im BelWü nachvollziehen: So
verzwanzigfachte sich das Verkehrsvolumen der BelWü−Teilnehmer von Ende 91 von 80
GByte/Monat auf über 1600 GByte/Monat Ende 95. +++
+++ Ende 95 verband das BelWü über 45 000 Rechner von über 70 Teilnehmern: Den
Universitäten Freiburg, Heidelberg, Hohenheim, Karlsruhe, Konstanz, Mannheim,
Stuttgart, Tübingen und Ulm; den Fachhochschulen Aalen, Albstadt−Sigmaringen,
Biberach, Esslingen, Furtwangen, Heilbronn, Isny, Karlsruhe (FHT und HfG),
Konstanz, Ludwigsburg, Mannheim (FHT und FHS), Nürtingen, Offenburg, Pforzheim,
Reutlingen, Rottenburg, Schwäbisch Gmünd, Stuttgart (FHB, FHD, FHT), Ulm und
Weingarten; den Berufsakademien Heidenheim, Karlsruhe, Lörrach, Mannheim,
Mosbach, Ravensburg und Stuttgart, den Pädagogischen Hochschulen Heidelberg,
Ludwigsburg und Schwäbisch Gmünd, der Musikhochschule Stuttgart, der Akademie
für Datenverarbeitung Böblingen, der Badischen Landesbibliothek Karlsruhe, dem
Institut für Deutsche Sprache Mannheim, dem Zen−trum für europäische
Wirtschaftsforschung Mannheim, dem Zentralinstitut für Seelische Gesundheit
Mannheim, dem Deutschen Literaturarchiv Marbach, der University of Maryland
(Außenstelle Schwäbisch Gmünd), dem Mathematischen Forschungsinstitut
Oberwolfach, der Akademie für Technikfolgenabschätzung Stuttgart, der evangelischen
Landeskirche Stuttgart, der Landesbildstelle Stuttgart, dem Landesinstitut für
Erziehung und Unterricht Stuttgart, dem Ministerium für Wissenschaft und Forschung
Stuttgart, dem Psychotherapeutischen Zentrum Stuttgart, der Württembergischen
Landesbibliothek Stuttgart sowie mehreren nicht−öffentlichen Teilnehmer. +++
2
IMG
Welches Mail−Programm?
Hartmuth Heldt
Auswahlkriterien bei der Wahl
eines Mail−Programms für Einsteiger
Die Kommunikation über Electronic Mail ist eine der ersten und wichtigsten
Anwendungen, mit der man im Internet konfrontiert wird. Für den Anfänger stellt sich
dann allerdings die Frage, welches Programm für ihn sinnvoll ist. In diesem Artikel
werden die verschiedenen Kriterien für die Auswahl eines Programmes erläutert. Dabei
werden die diversen Rechnerplattformen und Verbindungsarten, wie Modem oder
Arbeitsplatzrechner, am Uni−Netz berücksichtigt.
Ein bestimmtes Programm zu empfehlen, ist zu−dem schwieriger als es auf den ersten
Blick er−scheint. Dies liegt nicht an den technischen De−tails, sondern an deren
Beurteilung.
Während der Anfänger, um schnell mit dem Programm zurechtzukommen, leicht
verständliche Funktionen benötigt, möchte der erfahrene An−wender die bequemen
Funktionen nicht vermissen. Daß er am Anfang kaum einsehen konnte, warum er diese
Funktionen so aufrufen muß, in−teressiert ihn nun nicht mehr. Wer am Tag hundert(e)
von Mails bearbeiten muß oder will, der benötigt schnelle Funktionen, ganz egal wie
einsichtig oder bequem sie sind.
In diesem Artikel wird die Sicht eines Anfängers berücksichtigt, der keine Erfahrungen
mit E−Mail oder einer bestimmten Rechnerplattform hat.
Um zu entscheiden, welches E−Mail−Programm man wählen sollte sind die folgenden
Kriterien wichtig:
· Die Rechnerplattform/das Betriebssystem
· Die Funktionen, die das Programm bietet
· Die Bedienung des Programms
· Der Ort, von dem die E−Mail verschickt oder empfangen werden soll.
Dabei ist es oft Ansichtssache, welches Kriteri−um einem am wichtigsten erscheint.
Insbesondere bei der Bedienung des Programmes gerät man in heftigste Diskussionen
darüber, ob beispielsweise die Bedienung einer grafischen Oberfläche mit der Maus
3
einfacher, schneller oder leichter ist, als einen Befehl mittels Tastatur einzugeben.
Angenommen, die Bedienung eines Programms mit der Maus ist einfacher, aber nicht
schneller als die Eingabe von Befehlen − was ist dann besser? Konkret wird auf die
folgenden (alphabetisch aufgelisteten) Programme eingegangen:
· elm
· emacs
· Eudora
· mail
· Netscape
· pine
· Pmail (Pegasus Mail).
Es gibt natürlich noch viele andere E−Mail−Programme. Sollte eines häufig in Ihrer
Umgebung benutzt werden, ist es zu empfehlen dieses auch zu benutzen, da Sie dann
die Möglichkeit haben, daß Andere Ihnen bei Problemen helfen können.
Als Infrastruktur setze ich die normale Umgebung an einer Universität voraus: Ein vom
Re−chenzentrum oder einer DV−Abteilung betriebener Pool von Unix−Rechnern. Den
Benutzern stehen Unix−Terminals (X−Terminals), PCs oder Macintosh−Rechner, die via
Uni−Netz (Ethernet, Tokenring, FDDI, ...) mit dem Rechenzentrum verbunden sind, zur
Verfügung. Weiterhin können Modemanschlüsse von zu Hause benutzt werden.
Auswahlkriterium:
Das Betriebssystem
Alle o.a. Programme, außer emacs, können mit PCs und Macintoshs benutzt werden. Die
Programme elm und mail sind reine Unix−Program−me und lassen sich deshalb von
PCs und Macs nur mit Hilfe des Programms Telnet (siehe un−ten) einsetzen. pine ist
sowohl unter Unix, als auch unter DOS (PC−Pine) verfügbar, die Nutzung durch Macs
ist wiederum nur mit Telnet möglich.
Mit Unix−Rechnern bzw. X−Terminals können Eudora und Pmail nicht verwendet
werden.
Auswahlkriterium:
Die Funktionen des Programms
4
Die wesentlichen Funktionen eines E−Mail−Programmes sind:
· Editor zum Schreiben einer E−Mail
· E−Mail verschicken/empfangen
· Speichern von abgeschickter und empfangener E−Mail
· E−Mail in verschiedenen Ordnern nach Inhalt sortieren
· Ein Adressbuch
· Nicknames, also Kurznamen für Adressaten
· Signatur
· Die Funktionen cc, bcc, forward und reply.
Jedes der genannten Programme hat alle diese wesentlichen Funktionen. Deshalb
scheidet bei der Wahl des Programms keines aufgrund einer fehlenden, wichtigen
Funktion aus.
Auswahlkriterium:
Die Bedienung des Programms
Bei der Bedienung sind zwei Extreme zu unterscheiden:
Das Programm läßt sich entweder mittels Mausklick und entsprechenden Menüs
bedienen oder es hat eine Kommandozeile, in der auswendig gelernte Befehle eingetippt
werden müssen. Es gibt auch Zwischenlösungen, z.B. Menüs, die über die Tastatur
bedient werden
Für Anfänger halte ich die menügesteuerten Programme für deutlich sinnvoller. Die
möglichen Befehle werden nach Themen sortiert angezeigt und sind durch einen
Mausklick auszuführen. Syntaxfehler können nicht vorkommen.
Der Hinweis, daß Kommandos schneller sind, ist sicher richtig, aber zum einen ist die
Ge−schwindigkeit am Anfang nicht das Problem, zum anderen können die meisten
menügeführten Programme auch über Kommandos oder Tastenkombinationen bedient
werden.
Zum Bedienungskomfort eines Mailprogramms gehört auch der Editor. Er dient zum
Schreiben und Korrigieren einer Mail.
Gerade bei Anfängern halte ich es für wichtig, daß ein Editor einfach zu bedienen ist
und folgende Funktionen erfüllt:
5
· Durch Drücken der Entertaste beginnt eine neue Zeile
· Drückt man die Entertaste in einer Zeile, wird dort ein Zeilenende−Zeichen eingefügt
· Mit den Cursortasten kann man sich im Text bewegen
· Tippt man im Textbereich Buchstaben, werden diese in den Text geschrieben.
Die Programme elm und mail erfüllen diese Be−dingungen nicht. Jedenfalls dann nicht,
wenn der mitgelieferte Editor verwendet wird. (Näheres weiter unten bei der
Beschreibung der Programme.)
Ohne an dieser Stelle auf die Programme konkret einzugehen, hier eine Reihenfolge
nach Be−dienbarkeit. Je weiter oben die Programme stehen, desto stärker sind sie
maus− und menügesteuert:
· Eudora
· Netscape
· Pmail (Pegasus Mail)
· emacs
· pine
· elm
· mail.
Auswahlkriterium:
Der Ort,
an dem das Programm benutzt wird
E−Mail wird im wesentlichen an drei verschiedenen Orten verwendet:
1. Am Arbeitsplatz an einem vernetzen Rechner
2. Zu Hause an einem Rechner mit Modemanschluß oder
3. an irgendeinem Ort an einem Rechner mit Internetanschluß.
Wer im Büro einen Arbeitsplatzrechner benutzt, zeitweise zu Hause seine E−Mail liest
und/oder oft auf Reisen von anderen Systemen aus seine Mail lesen muß, der benötigt
ein Programm oder eine Kombination von Programmen, die es ihm ermöglichen jederzeit
Zugriff auf seine E−Mail zu haben. In diesem Fall ist es nicht immer möglich, daß das
6
bevorzugte E−Mail−Programm zur Verfügung steht.
Im allgemeinen ist eine E−Mail−Adresse ein Ac−count auf einem Unix−Rechner im
Rechenzentrum. Dort kommt die E−Mail an und wird gespeichert, unabhängig davon,
wo sie gelesen wird. Betrachen wir die drei verschiedenen Orte:
1. Am vernetzten Arbeitsplatz an der Uni, mit einem Unix−Terminal (X−Terminal):
Die E−Mail wird nun über das Unix−Terminal (X−Terminal) auch an dem gleichen
Rechner gelesen und bleibt dort auch gespeichert. Mögliche Programme (ohne Wertung)
wären pine, elm, mail, emacs oder Netscape.
2. An einen PC oder Macintosh am Arbeitsplatz oder auch zu Hause, sofern eine
Modemanbindung existiert:
Soll die E−Mail auf einem PC oder Macintosh gelesen werden, wird dies im allgemeinen
mit Hilfe eines POP−Mail−Pro−grammes getan. Es nimmt Verbindung mit dem
Unix−Rechner auf und transportiert dann die Mail auf den PC (oder Macintosh, im
weiteren erwähne ich den Mac−intosh nicht mehr extra). Natürlich muß auf dem
Unix−Rechner ein POP−Server laufen. Wahlweise zeigt der PC nun die E−Mail nur an
und läßt sie auf dem UnixRechner gespeichert oder die E−Mail wird auf den PC
übertragen und dort gespeichert; gleichzeitig wird sie dann auf dem Unix−Rechner
gelöscht. Dies ist insbesondere bei Modemverbindungen von Vorteil, da nach der
Übertragung nun die Telefonverbindung abgebrochen werden kann. Beachten Sie aber,
ob Sie die Mail noch auf dem Unix−Rechner benötigen, z.B. um von einem anderen
Rechner noch einmal darauf zugreifen zu können. Die Berechtigung am Unix−Rechner
die E−Mail abzuholen ist natürlich mit UserID und Password gesichert. Geeignete
Programme sind (wieder ohne Wertung): Eudora, Pmail oder Netscape. Statt eines
POP−Mail−Programms können Sie auch mit Telnet eine Verbindung zum Unix−Rechner
aufbauen und dann mit pine, elm oder mail direkt auf dem Unix−Rechner arbeiten, wie
unter 3. beschrieben. Bei Modemverbindungen müssen Sie al−lerdings die Gebühren
beachten, da Sie die gesamte Zeit über die Verbindung halten müssen.
3. Zugang von irgendwo auf der Welt:
Sie benötigen einen Rechner mit Internet−Anschluß und Telnet−Programm.
Es spielt keine Rolle, was dies für ein Rechner und wie er angebunden ist; auch ein PC
mit Modemanschluß ist möglich. Via Telnet wählen Sie nun Ihren Unix−Rechner am
Rechenzentrum an. Sie erhalten dann ein Fenster oder Bildschirm, in dem Sie genauso
arbeiten, wie auf einem Unix−Terminal am Rechenzentrum, allerdings ohne Grafik. Das
E−Mail−Programm rufen Sie nun auf dem Unix−Rechner auf. Zu beachten sind die
unterschiedlichen Tastaturen der verschiedenen Rechner. Daher eignen sich nur
Programme, die mit den Tasten zu bedienen sind, die jeder Rechner zur Verfügung hat.
Dies sind im Prinzip die Buchstaben, die Shift− und Crtl−Taste (auf deutsch die
Umschalt− und Strg−Taste). Mit diesen Tasten lassen sich alle Befehle eingeben und es
funktioniert immer und überall. Geeignete Programme sind pine, elm und mail, da sie
ohne Grafik arbeiten und wie oben beschrieben zu bedienen sind. E−Mail, die Sie schon
mit einem POP−Mail−Programm, wie unter 2. be−schrieben, auf einem PC
abgespeichert haben, können Sie nun natürlich nicht mehr lesen!
Nachfolgend noch einige Kommentare zu den einzelnen Programmen.
7
Eudora
Eudora ist ein POP−Mail−Programm für PCs mit Windows oder Macintoshs. Eine
Verbindung über Modem ist möglich. Das Programm hat ei−ne grafische Oberfläche, die
mittels Maus zu be−dienen ist, es können aber auch Tastenkombinationen verwendet
werden; es ist daher leicht zu bedienen und außerdem gibt es (zumindest in der
Mac−Version) ein ausführliches Handbuch (MS−Word−Dokument).
Pmail
Pmail ist ebenfalls ein POP−Mail−Programm für PCs unter DOS, MS−Windows
(Winpmail) oder Macintosh. Im DOS werden die Menüs durch Buchstabentasten oder
Cursortasten bedient. Es gibt eine ausführliche Hilfe, aber das Programm ist (soweit ich
weiß) nur in Englisch erhältlich.
Netscape
Eigentlich ist Netscape ein WWW−Browser, der sich zur Eierlegenden Wollmilchsau
entwickelt hat. Das Programm gibt es auf allen Plattformen (Unix, PC, Macintosh).
Benutzt werden kann es als normales Mail− oder POP−Mail−Programm. Die
Mailfunktionen gibt es eventuell erst in der nächsten Version, je nach Plattform. Es hat
eine grafische (3D−) Oberfläche und ist mit der Maus zu bedienen. Dieses Programm
hätte den Vorteil alles abzudecken: WWW, News, Telnet, ftp und Mail.
emacs
emacs ist eigentlich ein Unix Editor (auf PC oder Macintosh ist er mir nicht bekannt).
Inzwischen gibt es ihn mit Menüsteuerung (Maus) − er kann aber auch noch mit den
praktischen Tastenkombinationen benutzt werden; z.B. Ctrl+x Ctrl+s zum Speichern −
es sind also nur vier Tasten zu drücken! Na gut drei, Ctrl kann man festhalten. Der
Editor ist sehr mächtig und bestens für be−stimmte Anwendungen, wie z.B.
Programmiersprachen, geeignet. Für E−Mail ist dies eigentlich nicht nötig, wenn man
ihn aber sowieso be−nutzt, erhält man sich die gewohnte Umgebung.
pine, elm, mail
Alle drei sind bekannte E−Mail−Programme auf Unix−Rechnern. Spätestens wenn man
via Telnet ein E−Mail−Programm benutzen muß, kommt man an einem der Drei (leider)
nicht vorbei. Die Programme sind textorientiert und haben keinerlei Grafik. Befehle
werden mit den Buchstabentasten ausgelöst. Wesentliche Unterschiede zwi−schen
diesen Programmen sind die Anzeige der möglichen Befehle und der verwendete Editor.
1. Unterschied:
Welche Buchstaben für welchen Befehl?
1.1. pine:
Bei pine stehen die Tasten−Befehl−Kombinationen unten auf dem Bildschirm. Wenn der
Platz nicht ausreicht, gibt es für Other Cmds den Befehl O. Man muß wissen, daß ^C die
8
Tastenkombination Ctrl+C bzw. Strg+C bedeutet
1.2. elm:
elm verrät auf ähnlicher Weise ei−nige Befehle, abhängig vom User Mode. Anfänger
bekommen nur wenige Befehle mit mehr Kommentar angezeigt, Experten alle Befeh−le,
aber mit sehr knappen Bezeichnungen. Immerhin steht dort der Hinweis "? = help"
1.3. mail:
Das Programm mail zeigt die eingegangene E−Mail an oder meldet: no mail for ...
E−Mail verschicken können Sie nur, wenn Sie die Adresse gleich beim Programmaufruf
mit angeben. Hilfe erhalten Sie mit "~?" Verlassen wird das Programm, ohne Schaden
anzurichten, mit "~q"
2. Unterschied:
Der Editor
2.1. pine:
pine hat den Editor pico. Er hat nicht viele Funktionen, aber genügend, um E−Mail
schreiben zu können. Die Enter−Taste beginnt eine neue Zeile und wenn man
Buchstabentasten drückt, tippt man diese als Text, genau das funktioniert bei den
beiden anderen Programmen nicht!
2.2. elm:
elm arbeitet mit dem Editor vi. Falls Sie in diesen (für Systemprogramierer
unverzichtbaren, mächtigen und genialen) Editor geraten, können Sie ihn ohne Schaden
anzurichten verlassen, indem Sie die Escape−Taste (Esc) drücken und dann ":q!"
eingeben. Sie können nicht einfach Text eintippen. Zum Üben laden Sie eine unwichtige
Textdatei in den Editor vi (gibt es auf jedem Unix−Recher). Versuchen Sie ein Wort
einzufügen oder eine Leerzeile. Viel Spaß! elm kann aber jeden beliebigen Editor
anbieten, die beiden anderen Programme können das vielleicht auch. Leider habe ich
noch nirgendwo eine Installation mit einem anderen Editor vorgefunden. Ob Anfänger
sich allerdings trauen, das Mailprogramm zuerst einmal umzukonfigurieren? Für die
Mutigen: Kommando: o (für Options). Im dann auftauchenden Menü bei "E)ditor" und
"V)isual Editor" den gewünschten Editor eintragen, pico −t zum Beispiel. Mit dem Befehl
">" speichern. Tippen Sie einfach "e" oder "v" und gehen Sie nicht mit dem Cursor in die
Zeilen!
mail
Das Programm mail hat den Editor ex, der noch mehr Spaß (?) und Frust bereitet als der
Editor vi. Er ist für Anfänger indiskutabel. Wer dennoch an diesen Editor gerät, kann
sich mit folgenden Befehlen helfen:
· ~? für Hilfe
· ~q zum Verlassen ohne Speichern/Senden
· . (soll heißen am Zeilenanfang Punkt und Enter) verläßt den Editor und versendet die
9
Mail!
Konkrete Empfehlung
Wer als Arbeitsplatz einen PC oder Macintosh hat, dem würde ich zu Eudora raten. Es
läuft auf dem PC unter Windows, aber das ist ja inzwischen schon Standard.
Auf Unix−Rechnern oder bei Telnet−Verbindungen ist pine wegen seines Editors pico zu
empfehlen. Wenn elm auf einen anderen Editor, z.B. pico, umgestellt wird, ist es
genauso zu empfehlen. Vielleicht hilft jemand beim Konfigurieren?
Kleine Tips
für die Anfänge mit E−Mail
1. Falls Sie noch keine Erfahrung mit E−Mail haben, beginnen Sie einfach damit sich
selbst eine E−Mail zu schicken. So können Sie alle Funktionen in Ruhe ausprobieren
und sehen sofort das Ergebnis.
2. Die Umlaute, ß und einige Sonderzeichen sollten Sie vermeiden. Es gibt Verfahren
diese Zeichen problemlos zu übertragen. Leider muß der Empfänger sich auch an dieses
Verfahren halten. Oft ist das aber nicht der Fall und dann wird "für" zu f}r, fr oder
anderen Verstümmelungen. Falls Ihre Partner die Umlaute richtig erhalten, kann man
sie natürlich auch benutzen.
Hinweise
auf Dokumentationen
Neben vielen Büchern gibt es auch einige Stellen im WWW, an denen Sie bestimmte
Informationen finden. An den Universitäten sind diese oft auf die spezielle Situation an
der jeweiligen Hochschule abgestimmt. An jeder Universität gibt es eine Reihe von
Hinweisen, die sich oft ergänzen.
Hier einige Beispiele aus Heidelberg:
http://www.urz.uni−heidelberg.de/anleitung:
Hier finden Sie einige Hinweise, unter anderem:
· Eine Anleitung für pine:
http://www.urz.uni−heidelberg.de/anleitung/pine.html
· Die Netiquette, also die Benimmregeln.
Sie sind ursprünglich für News geschrieben worden, treffen aber auch im wesentlichen
für E−Mail zu:
http://www.urz.uni−heidelberg.de/zentral/urz/netz/Netiquette.html
Weitere Informationen unter:
http://www.urz.uni−heidelberg.de/internet
10
· Häufig gestellte Fragen zu Electronic Mail:
gopher://gopher.urz.uni−heidelberg.de/00/zentral/urz/netz/mailfaq
· FAQ "How to find people’s E−Mail addresses":
http://www.boku.ac.at:1080/Ch.mail−adr
Hartmuth Heldt
Rechenzentrum Universität Heidelberg
[email protected]−heidelberg.de
Flieg, Pferdchen, flieg...
Der Mail Client Pegasus
Roland Hofmann
"Wir befinden uns im Jahre 50 v. Chr., ganz Gallien ist von den Römern besetzt...
Ganz Gallien? Nein! Ein von unbeugsamen Galliern bevölkertes Dorf hört nicht auf, dem
Eindringling Widerstand zu leisten. Und das Leben ist nicht leicht für die römischen
Le−gionäre, die als Besatzung in den befestigten Lagern Babaorum, Aquarium,
Laudanum und Kleinbonum liegen..."
In Abwandlung dieser bekannten Präambel soll in diesem Artikel ein vielseitig
verwendbarer Mail Client vorgestellt werden, der wohl ähnlich seinen gallischen
Vorfahren dank seines Zaubers den Großen der (Software−) Welt erfolgreichreich die
Stirn bietet.
Die Rede ist von Pegasus Mail des Neuseeländers David Harris. Er gehört der alten
Riege von (Internet−) Idealisten an, die sich für wenig Geld und vielleicht etwas mehr
Ehre dem Dienst an der Allgemeinheit verpflichtet fühlen. Pegasus ist ebenfalls ein
Paradebeispiel für internationale Zusammenarbeit: Das rege Betatester−Team verteilt
sich über den ganzen Globus, die weltweite Anwendergemeinde kann zu diesem und
zum Autor in direkten Kontakt treten, was sich durchweg positiv auf die Qualität des
Programms auswirkt: Keine überladenen Feature Lists, aber viele kleine Schönheiten
machen es trotz einiger Schwächen zu einem kleinen Juwel.
Pegasus ist für die Plattformen DOS, Windows−16bit und Macintosh verfügbar, eine
Windows−32bit−Version ist in Vorbereitung. In diesem Artikel wird vorwiegend auf die
Windows−16bit−Version (WinPMail), die neben der DOS am weites−ten entwickelte,
Bezug genommen. Einige der Möglichkeiten sind auf den anderen Plattformen nur
eingeschränkt bzw. überhaupt nicht gegeben. Als Transportsysteme werden Novells
NetWare (bindery−basierend), MHS sowie SMTP/POP3 unterstützt. Eine NDS−fähige
Version (NetWare 4.x) ist im Betatest.
Einem geschenkten Gaul
schaut man wohl ins Maul...
Welche Möglichkeiten bietet Pegasus? Die folgende Aufzählung beschreibt die unseres
11
Erachtens wichtigsten Funktionen und erhebt keinen Anspruch auf Objektivität oder
Vollständigkeit:
· Übersichtliche und einfach zu
bedienende Oberfläche (mehrsprachig):
Nach unserer Erfahrung kommen auch Windows−Neulinge sofort mit den wichtigsten
Funktionen zurecht. Dinge wie ENCODING/DECODING, MIME usw. werden
normalerweise vollständig von Pegasus kontrolliert und erfordern keinerlei
Benutzereingriff. Gleichwohl kann der erfahrenere Anwender durchaus viele
Einstellungen seinen Wünschen gemäß anpassen. Pegasus ist mit vielen Sprachmodulen
erhältlich. Die Sprach−auswahl kann über DOS Environment−Variablen oder
Kommandozeilenparameter ge−steuert werden. Zumindest bei der deutschen
Übersetzung hat ein bundesweites Betatest−Team (meine Wenigkeit war ebenfalls
beteiligt) die Güte geprüft und durch Vorschläge verbessert. Der Philosophie des
Entwicklers folgend beruht die Internationalisierung ebenfalls auf der Arbeit einiger
engagierter Mitarbeiter, die mit dem Autor in enger Kooperation die Lokalisierung
vornehmen.
· Hierarchisches,
funktionelles Ordnerkonzept:
Pegasus kann Ordner (Folder) bzw. Schubladen (Trays) in beliebiger Tiefe benutzen.
Drag & Drop zwischen Ordnern wird unterstützt, ebenso eine einfache Umsortierung
durch Klicken auf die Ordnerspaltenleiste. Pflegefunktionen (Komprimierung,
Reindizierung, Konsistenzprüfung) laufen automatisch ab bzw. sind durch Auswahl in
der Menüleiste leicht durchführbar.
· Definition von Filterregeln:
Sowohl neue Mail als auch Copy−to−Self Mails können nach verschiedenen Kriterien
gefiltert werden und damit mehrere Aktionen auslösen (Löschen, Verschieben, Drucken,
externer Programmaufruf, Mail senden und noch viele weitere). Filterregeln lassen sich
ebenfalls nachträglich auf ganze Ordner anwenden und unterstützen so die
Neuorganisation der Ab−lage. Die Definition der Regeln erfolgt per Mausklick,
notwendige Angaben werden in Eingabefeldern abgefragt.
· MIME−fähig, Automatisierung
der Attachment−Behandlung:
Wie bereits erwähnt, bietet Pegasus eine sehr benutzerfreundliche Handhabung von
Attachments und Multipurpose Internet Mail Extensions. Neben
UUENCODE/DECODE wird BIN−HEX 4.0, Basic MIME und diverse weitere
MIME−Standards angeboten. Die Dekodierung empfangener Mail startet beim Öffnen
automatisch bzw. es kann entschieden werden, welche Aktion erfolgen soll. Dies kann
soweit getrieben werden, daß z.B. ein WordPerfect−Dokument als Attachment oder
MIME Mail automatisch den Aufruf der Applikation mit dem Laden des decodierten
Textes herbeiführt. Sicher sollte hier mit Bedacht vorgegangen werden −
Virusinfektionen über Word−Dokumente oder gar durch den Start von ausführbaren
Binaries könnten sonst die Folge sein.
· Schnittstelle für Erweiterungen:
12
Seit Version 2.1 von WinPMail wird ebenfalls eine Schnittstelle für eigene
Erweiterungen zur Verfügung gestellt, die über 80 Pegasus−spezifische Aufrufe enthält.
Dadurch sind be−liebige Erweiterungen in der Funktionalität er−möglicht. Die
Serienbrief−Funktion ist damit vom Autor selbst realisiert worden, weiterhin gibt es ein
Open Encryptor Interface for PGP von John Navas, das zwar, bedingt durch die
Funktionsweise der Pegasus−Schnittstelle, noch einige Security−Probleme aufweist,
aber das Prinzip und die Flexibilität dieses Mechanismus aufzeigt.
· Ausführliche und verständliche
Online−Hilfe:
Der Mail−Einsteiger wird wohl schnell an der kontextsensitiven Online−Hilfe Gefallen
finden. Neben einer detaillierten Beschreibung zu wichtigen Vorgehensweisen finden
sich ausführliche und gut verständliche Hintergrundinformationen rund um das Thema
E−Mail. Hier wurde bei der Übersetzung mit be−sonderer Sorgfalt gearbeitet und einige
Er−gänzungen und Verbesserungen gegenüber dem englischen Original eingefügt.
· Adreßbücher, Verteilerlisten, Glossar, Rechtschreibprüfung:
Nichts außergewöhnliches für einen Mail Client, wären da nicht die eingangs erwähnten
kleinen Schönheiten. So genügen z.B. einige Mausklicks oder eine Filterregel, um den
Ab−sender einer Mail einer Verteilerliste hinzuzufügen. Praktisch: Ein Doppelklick auf
einen Adreßbucheintrag/Verteilerliste erzeugt ein leeres, fertig adressiertes
Mail−Fenster (na ja, das können andere sicher auch). Oft verwendete Begriffe oder
Floskeln können als Abkürzungen definiert werden und stehen nach Tastendruck
(STRG+W) als expandierter Text im Editorfenster (mfg mutiert zu Mit freundlichen
Grüßen). Die enthaltene Rechtschreibprüfung ist nur in englischer Sprache, aber wer
braucht das bei Mail schon...
· Notizbrett−Funktionen:
In LAN−Umgebungen lassen sich Pegasus−spezifische, öffentliche Notice Boards
einrichten, die News−ähnliche Funktionalität im LAN gewähren − für LAN−basierende
Arbeitsgruppen ein nettes Merkmal.
Einsatzgebiete
NetWare
NetWare Server stellen die historische Plattform für Pegasus Mail dar. David Harris
entwickelte damit eines der ersten Mail−Programme, die in der Lage waren, die
Bindery−Information (NetWare−Verwaltungsdatenbank) für ihre Zwecke direkt zu
verwenden. Der verwendete File Sharing−Mechanismus auf dem Server ist in den Net−
Ware−Versionen 3.x vorbereitet, da jeder Be−nutzer ein Mail−Verzeichnis
(SYS:MAIL\<ID−#>) mit Referenzierung in eben dieser Bindery be−sitzt. Damit
erfreute sich Pegasus zuerst bei den Novell−Administratoren einer ungemeinen
Be−liebtheit, fielen doch alle mühseligen Konfigurationspielchen a’ la CC:mail und
MS−Mail zuerst einmal weg. Darüber hinaus ist das Verhalten durch
NetWare−GROUP−Zuweisungen einfach steuerbar. Mit der Freigabe der
NetWare−Version 4.x wurde die serverorientierte Bindery durch die NetWare Directory
Services (NDS), ei−ne im Netz verteilte, hierarchische Verwaltungsdatenbank, abgelöst.
13
Auch in dieser Umgebung bleibt David Harris dem Prinzip der leichten
Ad−ministierbarkeit treu und entwicklt mit der NDS−fähigen Variante ein sehr gut
eingepaßtes Mail−Programm. Sämtliche wichtigen Parameter werden ebenfalls in der
NDS abgelegt und sind da−her leicht zu verwalten.
Durch Virtualisierung der Pegasus−Funktionen gelang es die Schnittstelle zum
jeweiligen LAN flexibel zu gestalten. Die als NICA (Network In−dependant Calls
Architecture) getauften DLLs sind inzwischen für NetWare 3.x (Bindery) und demnächst
für 4.x (NDS) verfügbar. Weitere sind in Planung bzw. in Entwicklung. Nicht unerwähnt
bleiben darf in diesem Kontext ein weiteres Produkt aus gleichem Hause, das im
Zu−sammenspiel mit Pegasus NetWare−Umgebungen den Anschluß an die
IP−Mail−Welt sichert: Gemeint ist Mercury, ein SMTP/POP3 Gateway, welches als
NLM (NetWare Loadable Modul) zentral auf einem NetWare Server abläuft und Mail
aus dem LAN an einen Smart Mailer (Mail Relay) weitergibt bzw. diese von einem
beliebigen Host empfängt. Mercury kann, wie Pegasus, direkt auf die Bindery bzw. NDS
zugreifen und erfordert daher nur geringen Pflegeaufwand. Voraussetzung ist ein
TCP/IP Stack auf dem NetWare Server (Software im Lieferumfang enthalten) und ein
Relay Host für die Mail−Weiterleitung. Letztere Einschränkung ist in erster Linie nicht
durch Mercury, sondern durch den i.d. R. fehlenden DNS−Mechanismus bei
NetWare−IP gegeben. Mercury entspricht dem RFC 1425 und bietet daher ESMTP
Support (s.a. Technische Details, S. 13).
Standalone
Für zahlreiche BelWü−Anwender dürfte ein weiteres Einsatzgebiet bedeutender sein.
Pegasus läßt sich im Standalone−Modus betreiben und nutzt dann die bekannten
TCP/IP−Protokolle POP3 (Post Office Protocol) und SMTP (Simple Mail Transfer
Protocol) zum Mail−Austausch.
Folgende Voraussetzungen müssen erfüllt sein:
· TCP/IP−Transportschnittstelle:
Die von WinPMail unterstützte Schnittstelle sind die sogenannte Windows Sockets oder
kurz WinSock. In diesem Fall benötigen Sie eine Laufzeitbibliothek namens WINSOCK.
DLL auf Ihrem System. Produkte der Firma FTP oder Shareware (z.B. Trumpet
Winsock) bieten beispielsweise diese Funktionalität an.
· Ein per SMTP/POP3
ansprechbarer Mail Host:
Die POP3−Dienste erlauben Ihnen, sich neue Post von einem Server abzuholen
(üblicherweise von einem Unix/NetWare Server). Via SMTP können Sie Nachrichten in
das Internet (oder in ein Novell−Netz mit SMTP Gateway) verschicken. WinPMail
verwendet dazu ei−nen Relais Service − es übergibt die Nachrichten zum Versand an
einen Server, der über eine vollständige SMTP−Implementierung verfügt.
Alle weiteren Einstellungen sind wahlfrei und dienen nur der Anpassung an die
persönlichen Bedürfnisse des jeweiligen Benutzers.
Einige Bonbons sind nachfolgend aufgeführt:
14
· Option Nur ungelesene Mail abholen:
Sie können diese Option verwenden, um neue Nachrichten von außen über POP3 zu
lesen, sie aber gleichzeitig auf dem Server zu belassen. Pegasus Mail verwaltet die
zuletzt abgeholten Nachrichten in Ihrem Mail−Verzeichnis in der Datei MEMORY. PM;
die dort eingetragenen Daten werden mit den am Server anliegenden Nachrichten
verglichen und anschließend werden nur die Nachrichten abgeholt, die noch nicht in
dieser Datei vermerkt sind. Sie können durch Aktivierung dieser Option Ihre neuen
Nachrichten jederzeit von außerhalb über POP3 lesen und trotzdem noch am Server
angezeigt bekommen, um Sie anschließend dort in Ihre Ordner einzusortieren. Wenn der
Server ein NetWare Server mit SMTP Gateway Mercury ist, werden diese neuen
Nachrichten im Netz ein Häkch−en tragen, um zu zeigen, daß sie bereits über POP3
gelesen wurden.
· Offline−Modus:
Wenn Sie den Offline−Modus aktivieren, wird Pegasus Mail alle
POP3/SMTP−Verbindungen abbrechen und keine weiteren Verbindungen mehr öffnen.
Während Sie sich im Offline−Modus befinden, können Sie beliebig viele Nachrichten
editieren und in die Warteschlange einreihen − die einzigen jetzt deaktivierten
Funktionen sind die eigentlichen Ver−bindungen zu den Servern. Der Offline−Mo−dus
ist dann sinnvoll, wenn Sie keine Netzwerkverbindung haben (z.B. während Sie
un−terwegs sind), aber trotzdem mit Ihrer Mail ar−beiten wollen. Wenn Sie dann den
Offline−Mo−dus verlassen, wird die normale Netzwerkaktivität wieder aufgenommen.
Sie können Pegasus Mail zwingen, immer im Offline−Modus zu starten, indem Sie den
Befehlszeilenparameter −O (ein "oh", keine Null) als Befehlszeilenparameter eintragen.
Standalone mit verschiedenen Benutzern
Kurz sei noch darauf hingewiesen, daß WinP− Mail auf einem PC nicht nur für einen,
sondern für beliebig viele verschiedene Benutzer konfiguriert werden kann. Teilen sich
also mehrere Anwender einen Rechner, können sie trotzdem Ihre Mails in völlig
getrennten Verzeichnissen ablegen und natürlich unterschiedliche Einstellungen
vornehmen. Schutz vor der Neugierde anderer Mitmenschen ist in so einer Umgebung
nicht gegeben − das DOS−Filesystem öffnet hier Tür und Tor für eigentlich jedermann.
Nimmt mensch diese Einschränkung aber bewußt in Kauf, erschließen sich doch
sinnvolle Möglichkeiten für Einrichtungen, die nicht mit üppiger
Hardware−Ausstattung gesegnet sind. Findige Leser werden an dieser Stelle bemerken,
daß diese Konfiguration die Anpassung an LANs wie Windows NT oder
Peer−to−Peer−Netze ermöglicht, solange dafür noch kein NICA−Modul existiert: Die
Verlegung des Mail−Verzeichnisses in das eines nur dem entsprechenden Benutzer
zugänglichen auf einem Server bietet wiederum den erforderlichen Zugriffsschutz, der
auf DOS−Ebene fehlt.
Landung
Diese gestaltet sich nach unseren Erfahrungen recht sanft. Im Novell−Umfeld wird
mensch wohl kein einfacher zu administrierenderes Produkt finden, vor allem unter der
Prämisse, daß Mail das sein soll, was es bisher immer gewesen ist: Ein einfaches
Hilfsmittel, um schnell und unkonventionell zu kommunizieren. Natürlich hat Pe−gasus
15
auch Schwachpunkte: Es verfügt über keine der vielgelobten Mechanismen wie OLE,
unterstützt bisher kein MAPI und die Editorfunktionen sind etwas simpel. Mehrmals
wurde einiges davon an David Harris herangetragen, aber auch da bleibt er was er
hoffentlich noch länger ist − unabhängig und idealistisch, ein richtiger unbeugsamer
Gallier...
Technische Details
WinPMail Version 2.23 vom 22.11.95
Extension Manager Version 1.02,
Deutsches Sprachmodul von Henning Stams, 02.12.95
Alle Implementationen erfordern mindestens:
· 286 PC, 386 PC empfohlen (s.u.)
· Microsoft Windows 3.1
· 4MB RAM empfohlen
(WinPMail benötigt normalerweise ca. 700K).
· VGA (640x480) 16−color Grafikkarte, Mono−VGA/EGA/Hercules werden nicht
unterstützt
Für Benutzung
unter Novell NetWare:
· Alle Versionen von NetWare höher als 2.12 NetWare Client−Version höher als 3.26
· NetWare Windows−Unterstützung
properly installed :−)
Empfehlung aus der Praxis:
· Windows 3.1
Enhanced Mode (386−Modus)
· VLM Requester 1.20 für DOS
NETWARE. DRV 3.03 für Windows
· NICA Module−Version 1.02, 14.06.95 (deutsch)
Für Benutzung
mit Windows Sockets−Implementationen:
· TCP/IP stack
16
properly installed :−)
· WINSOCK.DLL
entsprechend Spezifikation WinSock v1.1
Empfehlung aus der Praxis:
· Windows 3.1
Enhanced Mode (386−Modus)
· Getestete WinSock−Implementationen:
− Novell LAN Workplace, Trumpet,
Microsoft (3.1/95), OS/2 Warp 3.0,
FTP (ab PC/TCP 3.1)
Bei Pegasus verwendete RFCs:
· RFC822: Message Format
· RFC1522: Header Encoding
· RFC1725: Newest POP3 Revision
with UIDL Command
SMTP Gateway Mercury Version 1.21
vom 09.02.95
Erfordert mindestens:
· NetWare 3.11
mit NetWare TCP/IP Transport
· ca. 70KB RAM im Server
bei durchschnittlichem Betrieb
· 2 BSD Sockets
· Should not significantly slow
the Performance of the Server
· unter NetWare 4.x:
Bindery Emulation Mode
· Bei Mercury verwendete RFCs:
· RFC821:
17
"received" Headers for Loop Detection
· RFC822: Message Format
· RFC1425: EHLO Command
· RFC1426: 8BITMIME Keyword
· RFC1427: SMTP SIZE Extension
· RFC1725:
newest POP3 Revision with UIDL Command
Quellen
· BelWü
ftp.rz.uni−hohenheim.de in
/ftp/pub/novell/pegasus bzw. mercury
· Offizielle Pegasus Sides
− North America:
risc.ua.edu in /pub/network/pegasus
− Europe:
ftp.let.rug.nl in /pub/pmail
Informationen
· [email protected]
· Phone (+64) 3 453 6880
but PLEASE remember
New Zealand is GMT+1200...
· Fax (+64) 3 453 6612
· Pegasus Mail
c/o David Harris
P.O. Box 5451
Dunedin
New Zealand
· Mailing Lists
(behandeln auch Mercury−Themen):
18
− [email protected]
SUBSCRIBE PMAIL
firstname lastname
− [email protected]
SUBSCRIBE PM−NEWS
firstname lastname
− [email protected]−mannheim.de
SUBSCRIBE PMAIL−DE
(deutschsprachig)
· News (mirror der PMAIL−DE)
de.comm.software.pmail
Roland Hofmann
Rechenzentrum Universität Hohenheim
hofmann@uni−hohenheim.de
MIME
Multipurpose Internet Mail Extension
Edith Petermann
Die Motivation
Internet Mail, definiert im RFC822 (SMTP), er−laubt nur US−ASCII−Text als Mail
Body. Wünschenswert ist, daß auch andere Arten der Da−ten mit dem vorhandenen
Mailprogramm versendet und empfangen werden können.
Zum Beispiel:
· Texte mit Umlauten oder strukturierte Texte (EDI−Dokumente)
· Binaries, Bilder, Grafiken, Audio, Video
· Zusammengesetzte Dokumente mit unterschiedlichen Elementen.
Außerdem wäre es schön, wenn zukünftige Entwicklungen, ohne daß dafür wiederum
neue Standards entwickelt werden müßten, ebenfalls eingebunden werden könnten. Der
OSI Mail−Standard X.400 sieht solche multimedialen In−halte von Anfang an vor und
sie sind teilweise auch schon in den Implementierungen realisiert. Dadurch entstehen
natürlich Probleme beim Übergang zur Internet−Mail; denn solange hier keine adäquate
Entsprechung existiert, kann auch in den Gateways die jeweilige Umsetzung nicht
durchgeführt werden.
Das Resultat dieser Anforderungen ist der MIME−Standard (RFC 1521), der kompatibel
19
zu RFC 822 ist. Die Erweiterungen betreffen lediglich den Mail Body:
· Es sind mehrere Teile unterschiedlichen Typs möglich
· es gibt keine Längenbeschränkung bei
Zeilen/Gesamt−Mail und
· der Zeichensatz ist nicht mehr auf US−ASCII beschränkt.
MIME erlaubt eine große Anzahl unterschiedlicher Datentypen. Alle registrierten
Datentypen sind auf einem ftp−Server niedergelegt (siehe S. 10 Weitere Informationen
zu MIME).
Nachfolgend eine kleine Auswahl der gebräuchlichsten Typen mit Angabe von möglichen
Untertypen in Klammern:
· Text mit verschiedenen Character Sets (plain, richtext)
· multipart: Der Body ist aus mehreren Teilen zusammengesetzt (mixed, alternative,
digest, parallel, appledouble, header−set)
· message: Der Body enthält wiederum eine vollständige Mail (rfc822, partial, external,
news)
· audio: Für Sprache, Musik und Geräusche (basic)
· video: Bewegte Bilder (mpeg, quicktime)
· application: Zeigt an, daß der Inhalt erst von einem Programm bearbeitet werden muß,
be−vor der Empfänger es ansehen oder weiterverarbeiten kann. Hier gibt es die meisten
Sub−types (octet−stream, postscript, oda, msword, wordperfect 5.1 usw.)
· experimental: Ist vorgesehen für private
Typdefinitionen; die Typangabe beginnt mit
X− und ist auch für Subtypes und eventuelle
Parameter möglich. Inzwischen gibt es schon
eine stattliche Anzahl solcher privater Typen.
Aus diesem vielfältigen Angebot von Datentypen folgen Erweiterungen im Mail Header,
die angeben, was jeweils im Mail Body enthalten ist.
Zusätzlich zu den bekannten RFC822 Header−Feldern kommen hinzu:
· Der MIME Versions−Header
· Der Content Type Header, der den Typ und eventuell Subtyp des Mail Bodies angibt
20
· Der Content Transfer Encoding Header, der die Kodierungsart angibt, die verwendet
wurde, um die Kompatibilität zu RFC822 zu gewährleisten. Denn Binärdaten oder
8−bit−Character oder Sätze länger als 1000 Zeichen werden für den Transport
automatisch umkodiert mit z.B. base64 oder quoted printable
· Der Content ID Header, der eine Bezugnahme zwischen verschiedenen Bodies
ermöglicht
· Der Content Description Header, der eine Be−schreibung des Inhalts enthält, analog
dem bekannten Subject Header.
Bei dieser großen Anzahl von Datentypen war es notwendig, ähnlich wie man auch beim
OSI−Standard X.400 vorgegangen ist, ein Minimal−Set zu definieren, das User Agents
erfüllen müssen, um als MIME−konform zu gelten.
Die MIME−Datentypen finden nicht nur Anwendung bei E−Mail, sondern haben sich
ebenso nützlich erwiesen für Gopher, WWW und News Reader.
Um die Datentypen auf dem Rechner darstellen zu können, müssen natürlich
systemspezifische Angaben gemacht werden, welches Tool/Programm die Darstellung
durchführt. Das kann entweder im Client integriert sein oder über eine spezielle Datei
"mailcap" organisiert werden. Die mailcap enthält Informationen, welche Viewer,
Audiotools oder Text− und Dokumentverarbeitungsprogramme bei den jeweiligen
Datentypen aufgerufen werden sollen. Die mailcap hat sich als Quasi−Standard
etabliert und weite Verbreitung gefunden.
Eine mailcap als Beispiel:
audio/*; audiotool %s image/*; imagetool %s application/postscript; ghostview %s
Die Einträge besagen, daß alles vom Typ audio vom audiotool bearbeitet werden soll
(das in diesem Fall in der Lage ist, alle Subtypes abhandeln zu können), entsprechendes
gilt beim Datentyp image. Der Datentyp application und dann speziell der Subtyp
postscript kann vom Programm ghostview dargestellt werden. Im Normalfall wird eine
mailcap natürlich mehr Informationen als in diesem Beispiel beinhalten, je nach
Kapazität und Software des jeweiligen Rechners.
Weitere Informationen
zu MIME
· Vollständige Beschreibung des Standards im RFC1521:
ftp://ftp.nic.de/pub/doc/rfc (Karlsruhe)
http://www.cis.ohio−state.edu/hypertext/information/rfc.html
· Aufzählung aller registrierten Datentypen:
ftp://ftp.isi.edu/in−notes/iana/assignments/media−types/media−types
· News−Gruppe: comp.mail.mime
21
· FAQs: Regelmäßig in der angegebenen News−Gruppe oder:
http://www.cs.ruu.nl/wais/html/na−dir/mail/mime−faq/.html
ftp://ftp.uu.net/usenet/news.answers/mail/mime−faq
· MIME−Produkte werden umfassend in den FAQs Part2 angegeben. Ebenso
Literaturhinweise in FAQs Part1.
Ausblick
Im Forschungs− und Wissenschaftsbereich ist MIME schon relativ weit verbreitet,
allerdings noch längst nicht in dem Ausmaß, in dem es wünschenswert wäre.
Kommerzielle Anwender bevorzugen X.400.
Es gibt einige Internet Drafts zum Problem MIME und Security, die zum Datentyp
Application Subtypes vorschlagen, so daß PGP und PEM erkannt und entsprechend
bearbeitet werden kann.
Edith Petermann
Rechenzentrum Universität Mannheim
[email protected]−mannheim.de
Sicherheit bei Kommunikations−
Anwendungen, insbesondere bei E−Mail
Edith Petermann
Kontext und Allgemeines
Bei der Mail−Anwendung im Internet (SMTP/RfC822) gibt es einige bekannte Lücken
bezüglich der Anforderungen an die Sicherheit. Es ist relativ einfach, Absender und
Inhalt einer Mail zu fälschen, denn die Mail ist während des Transportes über Netz und
Relays kaum geschützt vor neugierigen Blicken. Das gilt nicht nur für Mail, sondern für
alle Kommunikationsanwendungen über das Internet. Beispiele für die offensichtliche
Notwendigkeit von mehr Sicherheit sind:
· Elektronische Zahlungsvorgänge und elektronisches Shopping
· Austausch von Dokumenten in Verwaltung und Kommerz
· Austausch von Forschungsunterlagen
· Vertraulicher Informationsaustausch
· Sicherung von Datenbeständen vor Veränderung und fremder Einsichtnahme
22
· Und last not least ein generelles Bedürfnis nach Schutz der persönlichen Sphäre bei
der elektronischen Kommunikation.
Daraus ergeben sich folgende Anforderungen an die Sicherheit bei Anwendungen zum
Datenaustausch, insbesondere bei E−Mail:
− Der Absender muß authentisch sein, d.h. es muß Sicherheit geben, daß der Absender
nicht gefälscht ist
− Der Mail−Inhalt muß unverfälscht übertragen werden
− Die Mail darf nur von Befugten lesbar sein (Vertraulichkeit)
− Der Absender kann von ihm versendete Mail weder vom Inhalt her verleugnen noch
seine Urheberschaft (Unleugbarkeit des Ursprungs).
Eine Lösung dieses Problemfeldes bieten asymmetrische
Verschlüsselungsmechanismen. Die besten Verfahren sind so mächtig, daß es mit den
zur Zeit verfügbaren Rechnerkapazitäten Jahrzehnte dauern würde, solche
verschlüsselten Daten zu entziffern. Man sollte allerdings immer im Kopf behalten:
Neue Entwicklungen im Rechnerbereich oder die Entdeckung effizienter Algorithmen
zum Knacken von Verschlüsselungen, könnten schlagartig heute sichere Verfahren
wirkungslos werden lassen. Andererseits, sichere Verschlüsselungen schützen nicht nur
den Bürger mit seinem legalen Bedürfnis nach Privatsphäre sondern auch Kriminelle
oder Verfassungsfeinde bei illegalen Machenschaften. In manchen Ländern ist deshalb
Verschlüsseln ge−nerell verboten (z.B. Frankreich), andere Länder versuchen, ihren
entsprechenden Instanzen Zu−gang zu den Schlüsseln zu gewähren, vielleicht unter
vergleichbaren Bedingungen wie bei ei−nem Durchsuchungsbefehl. In der BRD ist bis
jetzt noch kein einschlägiger Beschluß gefaßt worden, allerdings wird darüber
diskutiert.
Verschlüsselungen
Verschlüsselungen sind Transformationen von Texten (allgemeinen Daten) in eine
Form, die ohne die entsprechende Rücktransformation nicht lesbar (verarbeitbar) ist. Im
Spionagebereich gibt es dafür schon eine lange Tradition. Mit der fortschreitenden
Durchdringung von DV in allen Be−reichen (Forschung, Wirtschaft, Verwaltung,
Privatbereich s.o.) ergibt sich der Bedarf für Verschlüsselungsmöglichkeiten auch hier.
Im wesentlichen gibt es zwei Arten:
1. Die konventionelle bzw. symmetrische Verschlüsselung (Secret Key). Es wird ein
einziger Schlüssel zum Ver− und Entschlüsseln verwendet. Das heißt, mindestens zwei
Leute kennen diesen Schlüs−sel. Zum Verschlüsseln werden zwei Komponenten
eingesetzt, der eigentliche Schlüssel (eine geheime Zeichenfolge) und der Algorithmus
der i.a. bekannt ist und aus Substitutionen und Permutationen besteht. Bekannte
Verfahren sind DES (Data Encryption Standard), IDEA (International Data Encryption
Algorithm) und SKIPJACK, dieser Algorithmus ist geheim, verwendet wird er im
Clipper−Chip. Diese Verfahren gelten als sicher.
23
2. Die asymmetrische Verschlüsselung (Public Key). Hier wird ein Schlüsselpaar
(privater und öffentlicher Schlüssel) eingesetzt. 1976 gab es das erste Verfahren dieser
Art von Diffie und Hellmann. Der öffentlicher Schlüssel wird bekanntgegeben und zum
Verschlüsseln verwendet, der private bleibt nur dem Eigentümer bekannt, und dient
dem Entschlüsseln. Der Algorithmus ist wieder i.a. bekannt.
RSA ist wohl der bekannteste Algorithmus; er wurde 1977 von Rivest, Shamir und
Adleman vom MIT entwickelt, das auch das Patent dafür hält. Seine Schlüssellänge ist
unterschiedlich wählbar. Der Algorithmus erlaubt Verschlüsselungen sowohl mit dem
Private, wie auch dem Public Key. Mit dieser Eigenschaft können Da−ten nicht nur
verschlüsselt werden, also vor un−befugter Einsicht geschützt werden, sondern es ist
auch möglich, digitale Unterschriften zu er−zeugen und die Anforderungen nach
Authentizität und Unleugbarkeit des Ursprungs, und die Unveränderbarkeit der Daten
zu erfüllen. Einzelheiten dazu bei der Beschreibung von PGP und PEM weiter unten.
Zur Sicherheit diese Verfahrens: Zwar läßt sich theoretisch der private aus dem public
Schlüssel ermitteln, entweder durch Ausprobieren aller möglichen Schlüssel oder durch
Faktorisierungsverfahren um die Komponenten, mit denen sich der private Schlüssel
berechnen ließe, zu ermitteln. Beide Ansätze sind bei den bis jetzt vorhandenen
Rechnerkapazitäten so zeitaufwendig, daß man sagen kann, praktisch sind die
Verfahren sicher. Allerdings: Vor etwa einem Jahr wurde ein Schlüssel mit 512 bit mit
1600 Rechnern in−nerhalb von acht Monaten geknackt. Als sicher gilt zur Zeit eine
Schlüssellänge mit 1024 bit (ca. 300 Dezimalstellen). Wo liegen nun die wesentlichen
Unterschiede zwischen symmetrischen und asymmetrischen Verschlüsselungen?
· Der Vorteile beim symmetrischen Schlüssel:
− Schnellere Verschlüsselungsvorgänge.
· Die Vorteile beim asymmetrischen Schlüssel:
− Er ermöglicht digitale Unterschriften
− Durch die digitale Unterschrift ist die An−forderung nach Unleugbarkeit von
Do−kumenten erfüllbar
− Der Austausch des öffentlichen Schlüssels ist etwas sicherer (allerdings nur, solange
der Kreis der Kommunikationspartner begrenzt ist).
Bei PGP und PEM werden deshalb beide Verfahren kombiniert, um optimale
Verschlüsselungsvorgänge zu erhalten.
PGP −
Pretty Good Privacy
PGP ist ein Programm, das Sicherheit in erster Linie für E−Mail bietet, aber auch für
weitere An−wendungen. PGP wurde von Phil Zimmermann entwickelt (erstes Release
24
1991), verwendet die zur Zeit als beste Verschlüsselungsalgorithmen beurteilten
Verfahren RSA und IDEA, bietet eine einfache Nutzerschnittstelle auf fast allen
Rechnerplattformen und hat inzwischen eine beachtlich wachsende Verbreitung im
Internet. Es ist sowohl als Public Domain−Programm für die private Nutzung, als auch
als kommerzielle Version erhältlich.
Die Entwicklungsgeschichte von PGP ist sehr bewegt. So gab es Lizenzprobleme und bei
der Verbreitung im Internet ist gegen herrschende Ausfuhrbeschränkungen für
Verschlüsselungsverfahren, die in den USA unter die Waffengesetze fallen, verstoßen
worden.
Der aktuelle Stand ist:
· PGP Version 2.6 ist legal in den USA und Kanada, darf aber nicht exportiert werden
· PGP Version 2.6.ui entspricht der Version 2.6 und ist außerhalb der USA und Kanada
legal. Beide Versionen sind nicht kompatibel zu Vorgängerversionen
· PGP Version 2.6.i verstößt gegen Lizenzgesetze innerhalb der USA, aber es ist
kompatibel zu Vorgängerversionen.
P
>PEM −
Privacy Enhancement
for Internet Electronic Mail
Dabei handelt es sich im Gegensatz zu PGP nicht um ein Programm, sondern einen
Internet−Standard, beschrieben in den RFCs 1421, 1422, 1423 und 1424. Programme
nach diesem Standard sind bisher im wesentlichen nur in Projekten, z.B. SecuDE bei
GMD Darmstadt im Auftrag von DFN, realisiert worden. DES und RSA werden als
Verschlüsselungsalgorithmen eingesetzt. Sie sind längst nicht so verbreitet wie PGP.
Ein Grund dafür ist die Art der Schlüsselvergabe und −verwaltung, die Bestandteil des
Standards ist. Dazu müssen Zertifizierungsinstanzen aufgebaut werden, denen dann
vertraut wird. SecuDE hat sich auch dieser Problematik angenommen.
Gemeinsamkeiten
von PGP und PEM
1. PGP und PEM betreffen bei der Anwendung durch E−Mail nur die Nutzerschnittstelle
und sind kompatibel zu den be−stehenden Mailsystemen.
2. Die Verschlüsselung von E−Mail, die die Vertraulichkeit sichert, läuft im Prinzip
gleich ab: Zuerst wird ein Session Key er−zeugt und damit per IDEA oder DES der Text
verschlüsselt. Dieser Session Key wird dann mit dem Public Key des Empfängers
verschlüsselt und zusammen mit dem verschlüsselten Text versendet. Dadurch wird die
schnellere symmetrische mit der sicheren asymmetrischen Verschlüsselung kombiniert.
25
Der Partner entschlüsselt zuerst mit seinem Private Key den Session Key und dann
damit den Text.
3. Die digitale Unterschrift (Signatur) erfolgt in drei Schritten:
− Aus dem Text wird ein Digest−Wert er−zeugt, der eindeutig ist. Sollte der Text
verändert werden, hat das einen anderen Digest−Wert zur Folge
− Dieser Digest wird mit dem Private Key des Senders verschlüsselt
− Das Ergebnis wird unten an den Text ge−fügt und bildet die digitale Unterschrift. Sie
ist eindeutig, weil nur dem Sender der Pivate Key bekannt ist, und da der Digest−Wert
eindeutig ist, ist der Text auch vor unbemerkten Veränderungen geschützt.
Beim Verifizieren der Signatur sind wieder drei Schritte erforderlich:
1. Wieder wird der Digest aus dem Text erzeugt
2. Die digitale Unterschrift wird mit dem Public Key des Senders entschlüsselt
3. Das Ergebnis wird mit dem erzeugten Digest verglichen.
Die Verfahren können nun noch kombiniert werden. Das heißt sowohl PGP als auch
PEM erfüllen die anfänglich aufgestellten Anforderungen an sichere E−Mail. PGP ist in
der Kombination der einzelnen Schritte etwas variabler als PEM, hat die
Schlüsselverwaltung in das Programm integriert. NutzerInnen erzeugen ihre
Schlüsselpaare selbst und verwalten sie in Dateien.
Sie haben die Auswahl zwischen verschiedenen Schlüssellängen, gebräuchlich und
ausreichend ist zur Zeit 1024 bit, aber auch 2048 ist möglich.
Die Schlüssel werden in Dateien gespeichert:
· Der secring enthält private(n) Schlüssel, die ihrerseits wieder durch symmetrische
Verschlüsselung geschützt sind
· Der pubring enthält dann die Sammlung der öffentlichen Schlüssel von
KommunikationspartnerInnen. Mit weiteren Kommando−Parametern kann man die
Schlüssel ansehen, neue hinzufügen, vorhandene herauskopieren, sie löschen und
editieren.
Sehr wichtig beim Hinzufügen eines neuen Schlüssels ist, daß der Schlüssel mittels der
digitalen Unterschrift zertifiziert werden kann. Damit versichert man, daß dies wirklich
der Schlüssel des angegebenen Nutzers ist. Hier ist also ganz be−sondere Sorgfalt
notwendig! Darüber hinaus gibt man unmittelbar nach Schritt A an, wie weit man
selber den Schlüsselzertifizierungen des jeweiligen Partners vertraut. Dabei sind vier
Stufen möglich: Von null bis zu absolutem Vertrauen. Mittels dieser
Zertifizierungsverfahren entsteht das sogenannte Web of Trust, das auf persönlichem
26
Vertrauen beruht, im Gegensatz zum Ansatz bei PEM, der Vertrauen in Instanzen
voraussetzt.
Weitere Informationen
· News−Gruppen:
alt.security.pgp, alt.security, alt.privacy, comp.security.misc, info.pem−dev,
alt.security.ripem
· FAQs:
In Abständen in der News−Gruppe
alt.security.pgp
· User Guide:
von Phil Zimmermann, ist beim Programmpaket PGP dabei
· Buch:
Simson Garfinkel, PGP, O’Reilly & Associates, Inc.
· ftp−Server, die das Programm PGP bereitstellen (in Deutschland):
ftp://ftp.informatik.tu−muenchen.de/pub/comp/os/os2/crypt
ftp://ftp.informatik.uni−hamburg.de/pub/virus/crypt/pgp
ftp://ftp.tu−clausthal.de/pub/atari/misc/pgp
ftp://ftp.uni−paderborn.de/pub/aminet/util/crypt
Meist stehen auf den Servern auch Scripte für die Einbindung in gängige Mail−Produkte
bereit (Es gibt noch viele weitere Quellen, die teilweise auch in den FAQs aufgelistet
sind). Der ftp−Server der Universität Hamburg stellt auch Informationen zu PEM
bereit.
Ausblick
Verschlüsselungsverfahren werden in Zukunft noch verstärkt eingesetzt werden.
Welche Verfahren/Produkte sich auf dem Markt durchsetzen werden, ist zum einen
abhängig von politischen Entscheidungen, zum anderen auch von der Art, wie
komfortabel sie für den Endnutzer sind. PGP hat zur Zeit zumindest in der
nichtkommerziellen DV−Welt die größte Verbreitung. Großen Anteil daran hat die
unkonventionelle Propagierung von Phil Zimmermann.
Edith Petermann
Rechenzentrum Universität Mannheim
[email protected]−mannheim.de
Contents [IMAGE]
27
E−Mail im Unix−Workstationpool
Jürgen Georgi
Electronic Mail hat einen festen Platz in der Pa−lette der modernen rechnergestützten
Kommunkationsformen eingenommen. Als eine der ersten Nutzungsmöglichkeiten des
einstigen ARPANnet gehört E−Mail gewissermaßen zur Großvatergeneration der
Netzdienste. Seitdem die University of Berkeley das Unix−Betriebssystem mit
TCP/IP−Netzwerkfähigkeit ausrüstete, ist E−Mail−Software Bestandteil von nahezu
jedem Unix−Betriebsystem. Sie gehört ebenso selbstverständlich zu Unix wie der
legendäre Editor vi.
Im Verlauf der kurzen Geschichte des Internets haben sich viele revolutionäre
technische Veränderungen ereignet. War früher ein Unix−Rechner ein teurer und von
vielen Personen gemeinsam genutzter Computer, so haben heute nicht ge−rade Wenige
eine eigene Workstation auf ihrem Schreibtisch stehen. Vernetzte Workstationpools
ersetzen die einstigen Multi User−Rechner, sie stellen den Benutzern volle
Rechnerleistung und arbeitsplatzunabhängigen Datenzugriff zur Verfügung.
Workstationpools stellen an E−Mail Software besondere Anforderungen, die oftmals die
Standardsoftware heutiger Unix−Betriebssysteme überfordert. In diesem Artikel sollen
die Probleme des E−Mail−Managements in Workstationpools genauer untersucht und
einige Lösungsvorschläge präsentiert werden.
E−Mail−Agenten
Über den Aufbau und die Funktionsweise des weltweiten E−Mail−Verbundes soll hier
nicht näher eingegangen werden. Nur kurz wird daran erinnert, daß die wesentlichen
Elemente der E−Mail−Verarbeitung sogenannte Mail Transport Agents (MTA) und Mail
User Agents (MUA) sind. Im In−ternet geschieht der Austausch von Nachrichten
zwischen den MTAs nach den Regeln des Simple Mail Transport Protocol [1] (SMTP).
Ein Benutzer selbst hat jedoch mit einem MTA keinen direkten Kontakt. Sie/er benutzt
einen User Agent, um eine E−Mail zu verfassen bzw. um empfangene Nachrichten zu
lesen.
Es gibt allerdings nur wenige Funktionsmerkmale des SMTP, die ein Nutzer wissen
sollte. Nachdem sie/er die Nachricht verfaßt und mit einer Zieladresse versehen hat,
übergibt sie das MUA−Programm an das Mailtransportprogramm, das für die
anschließende Auslieferung verantwortlich ist. Von nun an hat ein Benutzer keinen
Einfluß mehr auf das weitere Schicksal seiner Nachricht. Der lokale Transport Agent
wird zunächst einmal versuchen, eine Netzverbindung zum Transport Agent des
Zielsystems aufzubauen. Ist dieser empfangsbereit, wird die Nachricht sofort
übertragen. Der Zielrechner legt die Nachricht in einer strukturierten Mailboxdatei ab,
die der Adressat mit einem Mail User Agent lesen kann. Ist jedoch der Ziel−MTA nicht
empfangsbereit oder ist die Netzwerkverbindung gestört, wird der lokale MTA die
Nachricht zwischenspeichern (Queueing) und nach einer Zeitspanne − in der Regel
spätestens nach 30 Minuten − den Verbindungsaufbau er−neut versuchen. MTAs sind
sehr geduldig und wiederholen diesen Vorgang, bis der Zielrechner endlich erreichbar
ist. Alle Geduld hat aber auch ein Ende: Im Internet ist es üblich, daß nach etwa drei bis
28
fünf Tagen die Auslieferungsversuche abgebrochen werden, und der Absender
entsprechend benachrichtigt wird. Es muß zudem eingeräumt werden, daß der
Mailtransportvorgang hier sehr vereinfacht dargestellt wurde. In manchen Fällen liegen
zwischen dem sendenden MTA und dem Ziel−MTA weitere Zwischen−MTAs, die
ihrerseits ein Queueing durchführen können.
Das digitale Postamt
Der Leser wird sich vielleicht schon gefragt ha−ben, wie ein Mailtransportprogramm
funktioniert. Man kann einen MTA wohl am ehesten mit einem Postamt vergleichen:
Aus mehreren Orten können Briefe eintreffen, die anhand der Zieladresse sortiert und
eventuell weitertransportiert werden. Hat ein Brief mit dem Eingang den eigentlichen
Bestimmungsort erreicht, wird er entweder in ei−nem Kundenpostfach abgelegt, oder
einem Briefträger übergeben, der ihn am nächsten Morgen in den Hausbriefkasten des
Adressaten steckt, so−fern ihn nicht ein bissiger Hund davon abhält...
Der Vergleich mit einem Postamt hinkt ein we−nig. Vor allem die Funktion des
Briefträgers ist bei den meisten Mailtransportsystemen nicht zu−friedenstellend
ausgefüllt. Man kann sogar sa−gen, daß die Rolle des elektronische Briefträgers − der
Transport der Briefe vom Postamt zum persönlichen Briefkasten des Kunden − bei den
gängigen MTAs einfach nicht vorhanden ist: Der Kun−de muß zum Postamt gehen, um
die Post aus seinem Postfach zu holen. Die erfahrenen E−Mail−Nutzer unter uns werden
jetzt sicherlich entgegnen, daß bei ihnen die Sache schon richtig organisiert sei: Auf
ihrer Workstation läuft der MTA sendmail, und um ihre E−Mail zu lesen und
abzuschicken, benutzen sie einen User Agent wie z.B. elm oder mailx und vom Fehlen
eines Briefträgerprogrammes kann schon garnicht die Rede sein. Stimmt. In diesem Fall
gibt es tatsächlich ein Briefträgerprogramm. sendmail ruft beim Empfangen einer
Nachricht einen Delivery Agenten (DA), in der Regel /bin/mail, kurz binmail ge−nannt,
auf, der die Nachricht in eine Mailboxdatei ablegt, auf die Programme wie elm oder
mailx direkt zugreifen können. Dies ist der einfachste Fall: Das Postamt, um bei
unserem Bild zu bleiben, ist gleich im Haus. Das Kundenpostfach ist gleichzeitig der
Hausbriefkasten.
Nun sind wir beim Kernpunkt dieses Artikels an−gekommen. Wir stellten nämlich die
Behauptung auf, daß das Konzept \xe3 In jedem Haus ein Postamt" bzw. \xe3 Auf
jedem Rechner ein vollwertiger MTA" ein Anachronismus ist. Es stammt aus den alten
Zeiten, als Unix−Rechner in der Regel Dutzende von Benutzern über Terminals
bedienten. Für einen zentral organisierten Computer genügt das primitive
Briefträgerprogramm binmail vollauf.
Unsere heutigen Workstations dagegen sind de−zentral organisiert. Sie sind mit
schnellen LANs vernetzt, die Nutzerdaten werden in verteilten Filesystemen gehalten.
Datenspeicherung, Programmverarbeitung und Bildschirm−Ein/Ausgabe sind nicht auf
einen einzigen Rechner bezogen: Ich sitze vor der Workstation X und benutze ein
Programm, das auf der CPU des Rechners Y läuft, das die Daten verarbeitet, die auf der
Festplatte des Rechners Z gespeichert werden. Da−bei fällt es mir überhaupt nicht auf,
daß hier drei Workstations am Werk sind, ja oftmals weiß ich überhaupt nicht einmal,
auf welchem Rechner was passiert. Die Grenzen zwischen den Rechnern sind
29
verschwunden, sind transparent ge−worden: The Network is the Computer.
Netzwerktransparenz für E−Mail
Mit einem vollständigen Unix−Betriebssystem ist eine Workstation von heute mit einen
vollfunktionalen SMTP Transport Agent ausgerüstet, hat also stets das \xe3 Postamt im
eigenen Haus". In ei−nem Workstationpool gibt es deshalb ebenso vie−le Postämter wie
es Workstations gibt, ein Benutzer hat folglich ebenso viele unterschiedliche Briefkästen
und damit E−Mail−Adressen, wie es Workstations gibt. Die Bindung einer
Mailbox/E−Mail−Adresse an einen ganz bestimmten Rechner im Workstationpool
verletzt das Prinzip der Netzwerktransparenz, welches hinsichtlich der
Datenspeicherung im Workstationpool sonst selbstverständlich ist.
Ein wirklich netzwerktransparentes E−Mail−Man−agement dagegen verlangt, daß die
folgenden Merkmale und Funktionen unabhängig vom ge−wählten Arbeitsplatz
innerhalb eines Workstationpools sind:
· Eindeutige und feste E−Mail−Adressierung
· Verschicken, Empfang und Bearbeitung von elektronischer Post
· Verwaltung des Mailarchivs
· Benachrichtigung über neu eingetroffene Nachrichten
· Benutzerbestimmte Umleitung von Mail, Nutzung von Filterprogrammen.
Mit anderen Worten: In einem Workstationpool muß gleichgültig sein, mit welchem
Rechner ge−rade gearbeitet wird, es steht einem überall die gleiche E−Mail−Umgebung
zur Verfügung.
Mit etwas zusätzlichem Aufwand läßt sich für ei−nen Workstationpool eine
netzwerktransparente E−Mail−Konfiguration herstellen. In diesem Artikel werden
einige Installationskonzepte vorgestellt. Es gibt hierbei kein bestes Konzept, die
Entscheidung darüber hängt von den Anforderungen der Nutzer ab − und von dem
Aufwand, den ein Netzwerk−Administrator leisten möchte.
Zentraler Mailserver
Das Rezept ist ganz einfach: Das Abschicken von Briefen wird nur auf einem einzigen
Rechner zugelassen, der als zentraler Mailserver für alle Nutzer des Workstationpools
dient. Damit ist die E−Mail−Adresse eines Benutzers festgelegt. Alle Nachrichten
kommen nur auf diesem Rechner an. Muß auf einer anderen Workstation gearbeitet
werden, ist eine telnet/rlogin−Sitzung zum Mailserver notwendig. In unserer
Postamt−Analogie betreibt der Mailserver das Hauptpostamt, es gibt weder
Nebenpostämter, noch einen Briefträger. Wer Post erwartet, muß sich zum
30
Hauptpostamt begeben, um sein Postfach zu leeren. Ein Brief kann auch nur beim
Hauptpostamt aufgegeben werden, es werden keine Briefe automatisch vom
Kundenstandort zum Postamt transportiert − ausgenommen vom Kunden selbst.
Dieses Konzept erfüllt fast alle obigen Anforderungen, mutet den Benutzern jedoch
einige Ab−striche im Bedienungskomfort zu.
Die einsetzbaren Mail User Agents sind durch die Darstellungsmöglichkeiten der
telnet−Terminal−emulation eingeschränkt. Viele der derzeit populären Mail User
Agents können ohne Einschrän−kung an Komfort über eine telnet−Terminalverbindung
betrieben werden. Wer jedoch ohne Point−&−Click und Multimedia−Mail nicht leben
kann, wird an X−Windows MUAs nicht vorbeikommen. Diese können auf dem
Mailserver betrieben werden und auf dem X−Window Display der gerade genutzten
Workstation dargestellt werden. Leider bietet das X−Windows−Protokoll noch keine
Netzwerktransparenz hinsichtlich der Ausgabe von Audiodaten. Wenn der kalifornische
Freund in seiner E−Mail eine Kostprobe seines Mitschnitts des letzten Grateful
Dead−Konzerts als Audio Attatchment schickt, wird die integrierte Wiedergabefunktion
des X−Windows MUAs höchstens den Operator vor der Konsole des Mailservers
erfreuen. Zur Wiedergabe auf der eigenen Workstation muß die Audiodatei erst einmal
übertragen und mit einem Player abgespielt werden, der auf der Workstation selbst
gestartet wird.
Eine weitere Komforteinbuße: Die Einbindung von Dateien in einen elektronischen Brief
erfordert einen expliziten Dateitransfer von der Workstation zum Mailserver. Auch
hiergegen gibt es ein Hilfsmittel: Mailserver und Workstation können zu−sammen in ein
netzwerktransparentes Filesystem wie z.B. NFS eingebunden werden. Es empfiehlt sich,
die Funktion des Mail− mit der des NFS−Fileservers auf einem Rechner zu vereinigen,
sodaß das $HOME des Benutzers auf einem lokalen Speicherbereich des Mailservers
residiert.
Das Konzept Zentraler Mailserver besticht durch seine Einfachheit, es ist zudem ohne
zusätzliche Softwareinstallation realisierbar. Die beschriebenen Mängel im
Benutzerkomfort lassen sich aber durch andere Netzwerktechnologien (NFS,
X−Windows) weitgehend ausgleichen. Ein Schön−heitsfehler bleibt: Der Mailserver wird
bei Versorgung vieler Nutzer − besonders bei Anwendung von speicherhungrigen
X−Windows MUAs − stark belastet und muß hinsichtlich seiner Rechenleistung und
RAM−Ausstattung entsprechend di−mensioniert werden. Es findet gewissermaßen
ei−ne Konzentration von CPU/RAM−Ressourcen auf dem Mailserver statt, der verteilt
im Workstationverbund eigentlich ausreichend vorhanden wäre.
NFS−Shared Mailbox
Der Gedanke liegt nahe: Wenn schon der Mailserver als NFS−Fileserver die
Workstations be−dient, kann er doch allen anderen Workstations im Pool den
Festplattenbereich /var/spool/mail bzw. /var/mail mit den Eingangsmailboxen aller
Benutzer über NFS zur Verfügung stellen. Wir wollen ihn in dieser Funktion auch als
Mailboxserver bezeichnen. Auf diese Weise wird jedem Workstation−MTA vorgegaukelt,
die Eingangsmailboxen der Benutzer seien lokal vorhanden. Die Benutzer sind folglich
31
frei in der Wahl ihrer Mail User Agents, deren Betrieb auch nicht den Mailboxserver
belastet. Ein Mailboxserver wird durch den Mailverkehr nicht sonderlich beansprucht,
er muß nur ausreichend Festplattenkapazität für die Speicherung der Mailboxen
auf−weisen. Eine rechnerunabhängige Archivierung der E−Mail−Korrespondenz
geschieht im $HOME der Benutzer, auf das von allen Rechnern im Verbund über NFS
zugegriffen werden kann.
NFS ermöglicht elegant den netzwerktransparenten Zugriff auf die Eingangsmailbox.
Die Realisierung einer einheitlichen Mailadresse erfordert eine besondere Konfiguration
der beteiligten MTAs, es muß eine Umschreibung der Absenderadresse in eine
rechnerunabhängige Form vorgenommen werden. Im Gegensatz zu dem oben
beschriebenen zentralen Mailserver werden Briefe von den einzelnen Workstations aus
verschickt. Der ausgehende Mailtransport erfolgt jedoch stets über den Mailboxserver,
der die weitere Auslieferung übernimmt. Er ist allein zuständig für den Empfang von
E−Mail, die MTAs der Workstations sind nicht für die Ablage von Briefen in die
Eingangsmailbox eingerichtet.
Das Konzept NFS−Shared Mailbox funktioniert in der Tat in den meisten Fällen. Es hat
jedoch seine dunklen Seiten. Man muß sich im Klaren sein, daß eine Eingangsmailbox in
bestimmten Situationen von verschiedenen Programmen zu gleichen Zeit mit
Schreibzugriff geöffnet wird: Der Delivery Agent des Mailboxservers legt neu
eingetroffene Mail in der Eingangsmailbox ab, während der Benutzer gerade in seiner
Mailbox mit einem UA einige schon gelesene Nachrichten löscht. Die Synchronisation
von Prozessen, die gemeinsam schreibend auf eine Datei zugreifen wollen, funktioniert
bei Unix−Betriebsystemen durch verschiedene Arten von Sperrmechanismen (File
Locking) sehr sicher, wenn die Datei auf einem lokalen Dateisystem liegt. Wenn die
Prozesse auf die Datei über NFS zugreifen, funktioniert sie meist nicht mehr
zuverlässigt. Besonders anfällig gegen Locking−Probleme sind Workstationpools, in
denen Rechner unterschiedlicher Hersteller betrieben werden. Die Probleme zeigen sich
oftmals darin, daß Briefe auf mysteriöse Weise verloren gehen, User Agenten ihren
Dienst ganz verweigern, oder der sendmail−Prozeß regelrecht hängenbleibt.
Doch zurück zum Briefträger. Die beiden gezeigten Techniken, um innerhalb eines
vernetzten Workstationpools eine einheitliche Mailadresse und netzwerktransparenten
Mailboxzugriff für die Benutzer bereitzustellen, sind nichts anderes als ungenügende
Substitute für das oben geforderte Briefträgerprogramm. Im ersten Fall kann der
Briefträger binmail das Postamt nicht verlassen, der Kunde begibt sich selbst auf das
Postamt. Im weiten Fall ist der Briefträger ebenso beschränkt, dafür übernimmt das
verteilte Dateisystem den Transport der Briefe zum Kunden.
Nicht nur für PCs: POP und IMAP
Es lohnt sich, einmal über den Zaun zu schauen und Softwarelösungen für Internet Mail
aus der bunten Welt der Personal Computer zu betrachten. PCs haben sehr schlechte
Voraussetzungen für den Betrieb eines SMTP MTAs, da sich ers−tens die übliche
Systemsoftware nicht gut für den Betrieb von SMTP−Serverprogrammen eignet und sie
zweitens − im Gegensatz zu Workstations − bei Nichtbenutzung häufig ausgeschaltet
werden. Was liegt hier näher, als auf einen MTA ganz zu verzichten und einen User
32
Agent mit eingebauter Briefträgerfunktion zu betreiben. Ganz ohne einen MTA kommen
PCs natürlich nicht aus, so sind sie auf einen Mailboxserver mit MTA angewiesen, mit
dem sie über das Netz kommunizieren können. Üblicherweise übernimmt ein
Unix−Rechner diese Rolle. Dieser empfängt alle E−Mail für den PC−Benutzer und
speichert sie in seiner Unix−Eingangsmailbox ab. Der Mailboxserver muß
darüberhinaus ein Programm betreiben, das vom PC User−Agenten aus über das Netz
ferngesteuert werden kann und die üblichen Mailboxoperationen wie Lesen, Löschen
einer Nachricht etc. durchführt und bei Bedarf Nachrichten an den PC zur lokalen
Speicherung überträgt. Man beachte, daß hierbei kein verteiltes Filesystem im Spiel ist.
Für die beschriebene Briefträgerfunktionalität von Mail User Agents wurden zwei
Verfahren für TCP/IP−Protokollwelt standardisiert und in eigenen Request for
Comments beschrieben.
Das Post Office Protocol [2] (POP) ist das ältere und deshalb auch am weitest verbreitete
der beiden Protokolle.
Die wichtigsten POP−Funktionen sind:
· Anmeldung beim Mailboxserver mit Paßwort−Überprüfung
· Erstellung und Übertragung einer Inhalts−liste der Eingangsmailbox
· Vollständige/partielle Übertragung von Nachrichten aus der Eingangsmailbox
· Löschen einer Nachricht aus der Eingangsmailbox
· Abmeldung beim Mailboxserver.
Das Internet Message Access Protocol [4], [5] (IMAP) hingegen erweitert die
Mailbox−Operationen in der Weise, daß auf dem Mailboxserver nicht nur eine einzige
Mailbox − die Eingangsmailbox − gespeichert und vom User Agent manipuliert werden
kann, sondern derer beliebig viele. Die Eingangsmailbox nimmt insofern eine
Sonderrolle ein, da nur in ihr neu eintreffende Mail abgelegt wird. Man kann die
zusätzlichen Mailboxen als Archivmailboxen ansehen, in denen eingegangene
Nachrichten nach beliebigem Ord−nungsprinzip zur weiteren Speicherung abgelegt
werden können. IMAP erlaubt es zudem, daß in einer Mailbox gezielt nach Textmustern
gesucht werden kann, ohne daß der ganze Mailboxinhalt zum Klienten−Rechner
übertragen werden muß.
Sowohl POP als auch IMAP legen nicht fest, auf welche Weise E−Mail vom User
Agenten abgeschickt wird. Fast alle POP/IMAP User Agents verfügen deshalb über eine
minimale SMTP−Sendefunktion, die ausgehende Mail an einen SMTP−MTA überträgt −
meist ist dies der Mailboxserver.
Was für PCs gut ist, kann auch für Workstations ganz nützlich sein. POP oder IMAP
würden auf elegante Weise ein verteiltes E−Mail−System er−möglichen, bei dem es
prinzipiell egal ist, von welchem Rechner man gerade auf seine Mailbox(en) zugreifen
33
möchte. Während mit IMAP ei−ne vollständige Rechnerunabhängigkeit der
Mailboxverwaltung erreicht wird − es findet garkeine Speicherung von Nachrichten auf
der Workstation statt − muß bei POP der netzwerktransparente Zugriff auf
Archivmailboxen über den NFS−Zugriff auf $HOME realisiert werden.
Leider führen POP und IMAP auf Unix−Rechnern ein regelrechtes Schattendasein. Die
Mehrzahl aller Hersteller rüsten ihre Workstations mit Mail User Agents aus, die direkt
auf die Eingangsmailboxdatei zugreifen. POP− oder IMAP−Server sind in der Regel
nicht Bestandteil der Systemsoftware. Auch die Palette POP/IMAP−fähiger
3rd−Partysoftware läßt sich an einer Hand abzählen. Eine Alternative zu
POP/IMAP−fähigen Mail User Agents stellt Carl Harris‘ popclient dar: Ein POP
Transport Agent, der den Inhalt der Eingangsmailbox auf dem Mailboxserver zur
Workstation transportiert und dann dort in eine lokale Mailbox ablegt. Das Lesen der
Nachrichten erfolgt auf der Workstation mit Hilfe eines beliebigen herkömmlichen User
Agent. popclient ist also eine Implementation des eingangs geforderten Briefträgers, der
vom Kunden zum Postamt geschickt wird, dort aus dem Postfach die Post abholt und sie
zu Hause in den normalen Hausbriefkasten steckt.
Mit popclient wird der Benutzer sogar über eingetroffene Mail benachrichtigt, da die
Ablage der Briefe mit dem Delivery Agent binmail auf der Workstation gemacht wird,
welcher den biff/comsat−Mechanismus verwendet. Sogar die Einbindung von
Filterprogrammen ist mit popclient möglich, z.B. über den Aufruf popclient | filterprog,
wobei filterprog die Filterfunktionen ausübt.
Der Mailboxzugriff mit popclient hat auch seine Schönheitsfehler. Da die Zustellung der
Briefe von der Workstation aus angestoßen wird, und nicht von einem lokalen MTA,
bekommt ein Be−nutzer seine Post nicht unmittelbar nach Eintreffen, sondern erst beim
Aufruf von popclient. Falls keine sofortige Benachrichtigung über neu eingekommende
Mail stattfindet, werden neugierige oder ungeduldige Zeitgenossen die Spanne zwischen
den Aufrufen von popclient sehr kurz wählen. Das wiederum kann bei einer großen
Anzahl vom Benutzern den Mailboxserver stark bean−spruchen − eine Zeitspanne von
mindestens 10 Minuten zwischen den Aufrufen sollte deshalb eingehalten werden.
Hiermit haben wir bei POP und IMAP eine empfindlichen Stelle berührt: Sie verlangen
nämlich, daß sich Benutzer beim Mailboxserver über ein Paßwort ausweisen. Dieses
Paßwort geht im einfachsten Fall im Klartext über das Netz. Wird in einem LAN der
Kontakt zum Mailboxserver periodisch mit kurzen Check−Intervallen hergestellt, erhöht
sich die Wahrscheinlichkeit, daß das Paßwort mit geeigneter Schnüf−felsoftware
abgehört werden kann. Ausreichenden Schutz vor solchen Attacken bieten
Authentisierungsverfahren wie beispielsweise Kerberos oder Authenticated POP [3]
(APOP), bei denen Paßworte nur verschlüsselt auf dem Netz er−scheinen. popclient
unterstützt optional die APOP−Authentisierung, bei der POP−Server/−Client ein
Geheimnis kennen, das bei einer Transaktion zusammen mit einem vom Server
generierten Zeitstempel verschlüsselt übertragen wird.
E−Mail unter Unix − Plug and Play?
So vielseitig und leistungsfähig Unix−Workstations auch sind − der Aufbau einer
komfortablen und robusten netzwerktransparenten Mail−Konfiguration für einen
34
Workstationpool ist alles an−dere als trivial. Die E−Mail−Softwareausstattung heutiger
Workstations stellt die geforderte Funkti−onalität meist nur ansatzweise zur Verfügung.
Die standardisierten netzwerkbasierten Mailboxzugriffsverfahren wie POP und IMAP
haben leider bisher nur wenig Unterstützung in den Unix−Softwareschmieden erfahren.
Die Techniken für netzwerktransparentes E−Mail−Management sind be−kannt, ja es ist
Software frei verfügbar, mittels der dies realisierbar ist. Die Software muß
allerdingsnachträglich installiert werden, das Zusammenspiel der Komponenten unter
erheblichen Zeitauf−wand getestet werden. Auf Plug and Play werden wir wohl noch
einige Jahre warten müssen.
Anhang
Im folgenden werden Musterkonfigurationen für zwei der oben vorgestellten
netzwerktransparenten Mailkonzepte genauer beschrieben: Mailboxserver/NFS−Shared
Mailbox und Mailboxserver/POP. In beiden Fällen soll der Mailboxserver den
Phantasienamen donald.disneyland.com tragen, die beteiligten Workstations
tick.disneyland.com, trick.disneyland.com und track.disneyland.com heißen. Die
rechnerunabhängige E−Mailadresse soll lauten <loginname>@disneyland.com. In al−len
Fällen wird vorausgesetzt, daß der Login−Na−me eines Benutzers auf allen
Workstations einschließlich Mailboxserver der gleiche ist. Auf al−len Rechnern wird der
zum Lieferumfang des Betriebssystems − in den Beispielen durchweg SunOS 4.1 −
gehörende sendmail MTA durch die frei verfügbare UCB sendmail Version 8 − derzeit
aktuelles Release 8.7.3 − ersetzt. UCB sendmail−V8 vereinfacht die
sendmail−Konfiguration − d.h. die Erzeugung einer sendmail.cf−Datei − erheblich. Es
erfüllt darüberhinaus, im Vergleich zu dem meist veralteten sendmail des
Rechnerherstellers, sehr hohe Anforderungen an die Unix−Systemsicherheit.
Szenario A: NFS−Shared Mailbox
donald.disneyland.com exportiert /var/spool/mail per NFS an tick, trick und track.
Außerdem ist er Fileserver für die Homedirectories der Benutzer und exportiert /home
per NFS an tick, trick und track. Da aus der Sicht von donald alle Dateisysteme lokal
sind, wird einer Faustregel Rechnung getragen, der zufolge der sendmail−Dämonprozeß
und sein Delivery Agent binmail nie auf NFS−Dateisysteme zugreifen sollten. Dies gilt
sowohl für die Mailablage in /var/spool/mail/$USER als auch für den Zugriff auf
$HOME/.forward.
A.1 Domain Name System
Der Mailboxserver ist exklusiv für den Mailempfang zuständig. Folgende MX−Einträge
sind hierfür in der DNS−Zone disneyland.com erforderlich:
$ORIGIN disneyland.com.
@ MX 10 donald
donald MX 10 donald
tick MX 10 donald
trick MX 10 donald
track MX 10 donald
35
Obwohl für die Benutzeradressierung des Disneyland−Pools die generische Adresse
<loginname>@disneyland.com verwendet wird, ist da−mit auch für den Fall Sorge
getragen, daß aus Versehen eine Nachricht an eine rechnerbezogene Adresse verschickt
wird.
A.2 Mailboxserver − sendmail−Konfiguration
Die Konfigurationsdatei sendmail.cf wird mit Hilfe der Unix M4−Makrosprache
generiert. Näheres hierzu ist in der Datei cf/README der sendmail−V8 Source
Distribution zu entnehmen.
Hier die M4−Makrodefinitionen für die sendmail− Konfiguration des Mailboxservers:
OSTYPE(sunos4.1)
MAILER(local)
MAILER(smtp)
MASQUERADE_AS(disneyland.com)
FEATURE(masquerade_envelope)
FEATURE(use_cw_file)
In der Datei /etc/sendmail.cw (\xe3 use_cw_file") werden alle Domainnamen genannt,
für die do−nald Mail akzeptiert und ausliefert, d.h.
disneyland.com
tick.disneyland.com
trick.disneyland.com
track.disneyland.com
Die Rechnernamen in /etc/sendmail.cw werden bei ausgehender Mail durch den
generischen Namen disneyland.com in der Absenderadresse maskiert.
A.3 Mailboxserver − DA−Konfiguration
Für die Ablage von neuen Nachrichten in /var/spool/mail ruft sendmail den Delivery
Agent binmail. Dem Delivery Agenten kommt die Aufgabe zu, die Eingangsmailbox
während des schreibenden Zugriffs gegenüber anderen Prozessen, z.B. MUAs, zu
sperren. Bei einem Workstationpool mit NFS−Zugriff auf Mailboxen empfiehlt sich die
Installation des Delivery Agent procmail von Stephen van den Berg. Seine
herausragenden Ei−genschaften: procmail respektiert sämtliche auf der verwendeten
Plattform verfügbaren Kernel Locking−Verfahren und implementiert den Um−gang mit
Lock−Dateien (dot locking) in einer für NFS angemesse Weise. Als Beigabe stellt
procmail den Benutzern sehr mächtige Filterfunktionen zur Verfügung, die in der Datei
$HOME/.procmailrc spezifiziert werden. Beim Einsatz von procmail muß bei der
M4−Generierung von sendmail.cf FEATURE (local_procmail) hinzugefügt werden.
A.4 Workstations − sendmail−Konfiguration
Der Funktionsumfang des sendmail−MTAs der Workstations beschränkt sich darauf,
36
alle auszuliefernde Mail sofort an den Mailboxserver zu schicken. Es gibt keine lokale
Alias−Unterstützung. Die M4−Makrodefinitionen für eine so reduzierte
sendmail−Konfiguration (nullclient) lauten:
OSTYPE(sunos4.1)
FEATURE(nullclient, donald.disneyland.com)
FEATURE(nocanonify)
A.5 New Mail Notification
Für New Mail Notification gibt es zwei Ansätze:
A.5.1 Notification über biff/comsat
Beim Eingang einer neuen Mail schickt der Delivery Agent des Mailboxservers ein
Datagramm an den im Hintergrund laufenden comsat−Dä−mon, der seinerseits eine
Meldung New mail for... und den Mail−Anfangsteilauf dem Terminal des Benutzers
anzeigt, falls diese/r vorher mit dem biff−Programm vom comsat−Dämon eine
Benachrichtigung angefordert hat (biff y). Da die Benutzer der Workstations in der
Regel nicht auf dem Mailboxserver eingeloggt sind, haben Sie keinen Nutzen von der
Meldung des comsat−Dämons. Die biff/comsat−Implementation von Steve Grimm (rbiff)
ermöglicht die New Mail−Benachrichtigung auch über Rechnergrenzen hinweg, indem
beim biff−Aufruf von den Workstations aus als zusätzlicher Parameter der
Mailboxserver angegeben wird, z.B. mit dem Befehl
biff a @donald.disneyland.com
Natürlich erfordert dieser Komfort den Austausch der biff− und comsat−Binaries auf
allen beteiligten Rechnern.
A.5.2 Mailbox−Monitore bei MUAs und Shells oder als Stand Alone−Programme
Viele MUAs schauen periodisch in der Eingangsmailbox nach, ob neue Nachrichten
eingetroffen sind und verkünden dies durch visuelle oder akustische Signale. Die
Funktion steht natürlich nur dann zur Verfügung, wenn der MUA in Betrieb ist. Die
gleiche Funktionalität wird auch von einigen Unix Shells angeboten, wobei über eine
Shell−Variable der Name der zu überwachenden Eingangsmailbox angegeben wird.
Mailbox−Mo−nitore sind aber auch als eigenständige Applikationen verfügbar und
werden vorwiegend unter X−Windows eingesetzt, wo sie als geduldige Helferlein ihr
ständiges Plätzchen auf dem Desktop zugewiesen bekommen, beliebt sind hierfür Xbiff
bzw. Xmultibiff.
A.6 Workstations − MUA−Konfiguration
Durch den netzwerkweiten Zugriff der Mail User Agents auf die Eingangsmailbox
besteht die Ge−fahr, daß ein Benutzer von mehreren Workstati−ons aus gleichzeitig
seine Post bearbeitet. Dies sollte natürlich vermieden werden, ist aber prinzipiell nicht
zu verhindern. MUAs, die temporäre Dateien anlegen, sollten dies, falls konfigurierbar,
in Filesystemen tun, die netzwerkweit verfügbar sind, z.B. /var/spool/mail oder
37
$HOME/tmp. Ein MUA kann durch die Existenz von Temporärdateien erkennen, ob die
Mailbox von anderer Seite aus schon geöffnet wurde.
A.7 NFS−Konfiguration des Mailboxservers
Der Mailboxserver exportiert das Mailboxverzeichnis /var/spool/mail via NFS an die
Workstations tick, trick und track mit Zugriffsmodus Read−Write (rw).
A.8 NFS−Konfiguration der Workstations
Die Workstations tick, trick und track importieren das Mailboxverzeichnis von donald
via NFS. Ob−ligatorische Parameter für den mount−Befehl sind rw und hard, optional
intr, bg und noac (no attribute caching). noac erhöht die Zuverlässigkeit des Zugriff auf
Lockdateien über NFS.
Szenario B: POP Mailbox Access
donald.disneyland.com betreibt als Mailboxserver einen POP−Dämon, der die
Workstations tick, trick und track bedient. Die Homedirectories der Benutzer auf tick,
trick und track stehen dann wie in Szenario A per NFS zur Verfügung an. Es ist jedoch
nicht erforderlich, daß donald auch NFS−Fileserver für $HOME ist.
B.1 Domain Name System
Wie in A.1.
B.2 Mailboxserver − sendmail−Konfiguration
Die sendmail−Konfiguration unterscheidet sich nur unwesentlich von der aus A.2: Der
Austausch von binmail durch procmail ist nicht notwendig, das M4−Makro
FEATURE(local_procmail) entfällt deshalb. Falls der Mailboxserver $HOME der
Be−nutzer via NFS importiert, sollte sendmail davon abgehalten werden, auf Per User
Forward−Datei−en (.forward) unter $HOME zuzugreifen, da bei Ausfall des
NFS−Servers die Auslieferung verzögert oder gar gestört werden könnte. sendmail− V8
erlaubt über die sendmail.cf−Option J die An−gabe eines zentralen, lokalen
Verzeichnisses für Per User Forward−Dateien. In der Musterkonfiguration wurde
hierfür /var/forward gewählt, die Forward−Dateien heißen /var/forward/$USER. Aus
Sicherheitsgründen schreiben die Benutzer nicht selbst in das Forward Directory, ein
Shell Script kopiert dafür einmal in der Nacht für jeden Benutzer $HOME/.forward nach
/var/forward/$USER.
Die M4−Makrodefinitionen für die sendmail−Konfiguration des
Mailboxservers/POP−Servers lauten:
OSTYPE(sunos4.1)
MAILER(local)
MAILER(smtp)
MASQUERADE_AS(disneyland.com)
38
FEATURE(masquerade_envelope)
FEATURE(use_cw_file)
define(‘confFORWARD_PATH‘, /var/forward/$u)
Alles weitere wie in A.2.
B.3 Mailboxserver − DA−Konfiguration
Entfällt.
B.4 Workstations − SMTP−Konfiguration
Wie in A4.
B.5 New Mail Notification
Für Ungeduldige, die ohne sofortige Benachrichtigung über neue Mail nicht leben
können, empfiehlt sich die Konfiguration aus A.5.1. Wem die Installation von rbiff zu
aufwendig ist, der kann sich auch mit dem herkömmlichen lokalen
biff/comsat−Mechanismus oder mit einer der Methoden aus A.5.2 begnügen. Die
Ankunft neuer Nachrichten wird dann aber erst nach dem Aufruf des POP−Client
signalisiert.
B.6 Workstations − MUA−Konfiguration
Falls der Mail User Agent selbst das POP−Protokoll beherrscht, muß dem MUA der
Name bzw. die IP−Adresse des POP−Servers, in diesem Fall donald.disneyland.com,
mitgeteilt werden, aus−serdem das Paßwort für die Mailbox−Zugriffsberechtigung.
In unserer Musterkonfiguration gehen wir davon aus, daß die verwendeten MUAs nicht
POP−fähig sind und deshalb als Eingangsmailbox eine Datei in /var/spool/mail
erwarten. Den Transfer der Eingangsmailbox vom Mailboxserver zur Workstation
bewerkstelligt der POP Transport Agent pop−client (Version 3). popclient muß also vor
dem Aufruf des MUAs seine Arbeit schon getan ha−ben. Diese Arbeitsteilung könnte
durch die Verwendung eines Wrapper Scripts realisiert werden, z.B. mit
#!/bin/sh
donald.disneyland.com popclient && exec elm
Andere, raffiniertere Methoden sind denkbar, z.B. der periodische Aufruf von popclient
durch cron, dies jedoch abhängig von der Existenz einer vom MUA beim Aufruf
angelegten Temporärdatei. Da popclient für die Mailablage in das lokale /var/spool/mail
den gleichen DA wie sendmail verwendet, ist die Synchronisation des schreibenden
Zugriffs von popclient und MUA auf die Ein−gangsmailbox gewährleistet. popclient
kann also auch nach dem Start des MUAs Post abholen, der MUA wird die Ankunft
neuer Nachrichten auf die übliche Art und Weise erkennen.
39
B.7 Mailboxserver − POP Server−Konfiguration
Auf dem Mailboxserver muß ein POP−Serverprozess betrieben werden. Die gängigen
Implementationen von POP−Servern unterscheiden sich im Wesentlichen nur in der
Methode der Benutzerauthorisierung. Eine Gruppe greift auf das Unix Password File zu,
die andere verwendet eine ei−gene Tabelle für die Authorisierung. Der Betrieb eines
POP−Servers mit eigener Paßwortdatei ermöglicht den POP−Service für Nutzer ohne
ei−ne Login−Berechtigung auf dem Mailboxserver, erfordert jedoch eine besondere
sendmail−Konfiguration mit einem speziellen Delivery Agent für POP−Mailboxen. Um
die netzwerktransparente New Mail Notification mit rbiff nutzen zu können, wurde für
die Musterkonfiguration mit qpopper 2.1.4 ein Server aus der ersten Gruppe gewählt.
qpopper unterstützt die APOP−Authentisierung, die − falls bei Clients verfügbar − in
einen Workstationpool mit regelmäßigen POP−Transaktionen aus bekannten Gründen
bevorzugt einge−setzt werden sollte. Bei APOP−Authentisierung muß eine Unix−dbm−
bzw. db−Datenbank mit den APOP Secrets der POP−Benutzer angelegt werden. Die
APOP−Datenbank wird mit dem mitgelieferten Programm popauth auf dem
POP−Server verwaltet.
Falls APOP nicht möglich ist, z.B. weil auf den Workstations ein POP−fähiger MUA
ohne APOP−Unterstützung eingesetzt wird, empfiehlt sich folgende
Sicherheitsvorkehrung:
· Keine Login Shell im Paßworteintrag auf dem Mailboxserver
· Kein ftp−Zugang auf dem Mailbox−Server, d.h. ein Eintrag des POP Users in
/etc/ftpusers
· Das POP−Paßwort muß sich vom Login−Paßwort auf den Workstations unterscheiden.
Kommt ein POP−Paßwort durch das Abhören des LAN−Datenverkehrs in falsche
Hände, ist nur der Zugriff auf die Mailbox des Benutzers davon be−troffen, nicht aber
seine anderen Daten.
B.8 Workstations − POP Client−Konfiguration
Wie bereits in B.5 erwähnt, greifen die Benutzer der Workstations mit Hilfe des
Programms popclient auf ihre Eingangsmailboxen zu. In der Konfigurationsdatei
$HOME/.poprc werden die not−wendigen Betriebsparameter abgelegt. Der Be−nutzer
jsmith in unserem Workstationpool hat in seinem .poprc folgendes eingetragen:
server donald.disneyland.com \
protocol apop \
username jsmith \
password dontellya
Natürlich muß die Datei .poprc mit Modus 600 vor unbefugter Einsicht geschützt
werden, da sie das APOP−Geheimnis im Klartext enthält.
40
B.9 Workstations − DA−Konfiguration
Prinzipiell erfordert der Delivery Agent, den popclient verwendet, keine besondere
Aufmerksamkeit. Der übliche binmail−DA reicht für die reine Ablage völlig aus. Falls
die Benutzer jedoch ge−wöhnt sind, mit Hilfe des Per User Forward File Mail Filter zu
verwenden, bietet sich wiederum procmail als Delivery Agent auf den Workstations an.
Die gewünschten Filterfunktionen werden dann im $HOME/.procmail angegeben.
Literatur
[1] J. Postel, Simple Mail Transport Protocol, RFC 821, 1982
[2] J. Myers, M. Rose, Post Office Protocol, Version 3, RFC 1725, 1994
[3] J. Myers, POP3 AUTHentication command, RFC 1734, 1994
[4] M. Crispin, Interactive Mail Access Protocol, Version 2, RFC 1176, 1990
[5] M. Crispin, Internet Message Access Protocol, Version 4, RFC 1730, 1994
[6] J. Wobus, LAN Mail Protocols, 1995,
http://web.syr.edu/~jmwobus/comfaqs/
lan−mail−protocols.
Quellen
Die im Text erwähnten Programme sendmail, popclient, qpopper, procmail und rbiff sind
in der Quellform zu finden unter
ftp://ftp.belwue.de/pub/unix/
Jürgen Georgi
BelWü−Koordination
[email protected]
Contents [IMAGE]
VBN in BelWü 1988 − 1995
Paul Christ
Nach mehr als sieben Jahren Produktion wurde am 18. Juli 1995 die
FDDI/VBN−Strecke Karlsru−he−Stuttgart als letzte BelWü−VBN−Verbindungen(1)
außer Betrieb genommen: Feierlich eingeweiht von Minister Schwarz−Schilling,
Minister−präsident Späth und Wissenschaftsprominenz am 22. Februar 1988, war das
Ende eher still:
From:Joseph Michl <[email protected]>
41
To: <belwue−[email protected]>
Subject:VBN tatsaechlich abgeschaltet
Liebe Kolleginnen und Kollegen,
offensichtlich wurde die VBN Strecke Stuttgart − Karlsruhe heute um 14:05 Uhr von der
Telekom tatsaechlich ab−geschaltet.
Gruss,
Joseph Michl
B−ISDN, VBN und ATM
Das VBN − das Akronym zunächst zu Vorläufer Breitbandnetz, später zu Vermittelndes
Breitbandnetz expandiert − repräsentierte das historische Credo(2) Vieler in der Welt
des Breitband−, des B−ISDN, daß dieses nichts sei als ein − etwa 140 Mbit/s − schnelles
Schmalband−ISDN: Der Nutzer sieht eine feste, kleine Anzahl von Kanälen für Sprache,
Video, Daten plus einen Signalisierungskanal − das Ganze leitungsvermittelt [1].
Die Telekom hatte entsprechend seit Mitte der 80er Jahre verschiedene Pilotvorhaben
etabliert: In Berlin BERKOM, in der Fläche zunächst BIGFON und danach das VBN.
Für BERKOM lieferten SEL und Philips
Leitungsvermittlungskno−ten,Teilnehmer−Anschluß−Einrichtungen (TAE) und
Systemsoftware − für das VBN entsprechend ANT und Nixdorf. Im selben Monat
Februar 1988, in dem in Stuttgart die Minister feierlich eröffneten, akzeptierte der
CCITT in Seoul ATM als Basistechnologie für B−ISDN. Siemens lieferte zeitgemäß
einen experimentellen ATM−Switch an BERKOM.
HORNET, VBN und BelWü
Wohl 1986 hatten Ministerpräsident Späth und die Spitze der auch im Lande
ansässigen vormaligen DFVLR − jetzt DLR − vereinbart, in Kooperation mit der
Telekom auf VBN−Basis ein Netz für Wissenschaft und Forschung zunächst im Lande
zu errichten. Angesiedelt beim Wirtschaftsministerium wurde unter der Leitung der
DLR eine Ar−beitsgemeinschaft aus Industrievertretern und den Universitäten
Karlsruhe und Stuttgart gebildet. Der Arbeitstitel für das Vorhaben war HORNET:
High−speed Open Research Network. Die−sem Vorhaben war kein Erfolg beschieden. Im
Ergebnis hat das Wissenschaftsministerium die−se Aktivität übernommen: Vor der
Sommerpause 1987 wurde in einer Presseerklärung das heute als BelWü bekannte
Vorhaben angekündigt; die Nutzung von VBN−Strecken war dabei eines der
Anfangsziele. Das Institut für Nachrichtenübertragung der Universität Stuttgart (INÜ),
Prof. Kaiser, und das RUS haben in Kooperation mit der Firma Hirschmann zur oben
genannten Eröffnungsdemonstration jene VBN−Elemente fertiggestellt, die eigentlich
einen Teil von HORNET hätten bilden sollen/können: Einen Multiplexer Ethernet−VBN
(E−MUX) und eine Ethernet Remote Bridge.
42
Weitere VBN−Vorhaben
In der Folge wurden von verschiedenen Projektträgern in Einzelabkommen mit der
Telekom weitere VBN−Vorhaben vereinbart. Das INÜ hat dem E−MUX einen F−MUX
folgen lassen: VBN konnte damit zur Übertragung von FDDI−, TAXI−artigen
Datenströmen verwendet werden − also etwa für FDDI selbst, UltraNet Links und
TAXI−basiertes ATM. Alle drei Einsatzarten wurden demonstriert. Die schon 1990
vorgeführte UltraNet−Verbindung zwischen der CeBIT und dem RUS mit 95 Mbit/s auf
Benutzerebene dürfte damals ein Weltrekord für ein \xe3 irdisches" Produkt
Bandbreite*Entfernung gewesen und noch heute in Deutschland unübertroffen sein.
Was gelernt, erreicht wurde
Die VBN−Projekte waren zweifelsohne ein Teil der weltweiten Bewegung \xe3 Nicht
alles geht mit 2Mbit/s oder gar mit n*64 Kbit/s, für \xb2 30"; SuperJANET, das vBNS,
das neue ESnet, die europäischen ATM−Piloten, die DFN RTBs und absehbar B−WIN
und vielleicht BelWü selbst belegen den Erfolg dieser Bewegung.
Die BelWü−VBN−Projekte haben deutlich die Notwendigkeit einer engen Verknüpfung
teurer Netzwerk−Ressourcen mit konkreten Anwendungs−projekten aufgezeigt, wie sie
etwa in den EU−Vorhaben des RUS PAGEIN, ADONNIS oder MICE erreicht wurde: Die
VBN−Projektberichte an die Telekom hatten teilweise Schwierigkeiten Auslastung und
Notwendigkeit der Verbindungen darzutun. Andere \xe3 Schulen" haben hier z.T.
weniger allgemeine oder effiziente Datenvorhaben über das VBN abgewickelt − gingen
aber von spezifizierten Anwendungen aus. Zu nennen sind etwa die Remote
Publishing−Vorhaben der DeTeBerkom und die Telemedizin−Vorhaben ULKOM und
ZELLKOM.
Das RUS selbst hat auf die VBN−Arbeiten bei der Akquisition von
EU−Anwendungs/Netzprojekten erfolgreich verweisen können (z.B. RACE 2031
PAGEIN); im Lande wurde die Ethernet− zu einer Multiport−Brücke mit
ATM−Übergang ausgebaut (Projekt HiATM); das Vorhaben USPS ist ein Versuch, die
VBN−Arbeiten in den ATM−HIPPI−Gigabit−Bereich zu transferieren.
Danksagung
Professor Kaiser, Institut für Nachrichtenübertragung der Universität Stuttgart (INÜ),
ist der politische und auch technische Vater der geschilder−ten VBN−Vorhaben.
Die 1. Generation der VBN−Multiplexer wurde von den Herrn Riede und Widmann des
INÜ entworfen und erstellt. Das o.a. Redesign der Multiplexer wurde von den Herren
Hofbauer und Milow, RUS, und der Firma Hirschmann durchgeführt.
Ethernet−Brückenarchitektur, Schaltungsdesign, Systemsoftware wurden von den
Herrn Haas und Copplestone, RUS, in Zusammenarbeit mit der Firma Hirschmann
designed und implementiert.
43
Die Herren Feil und Fahner, RUS, haben mit den Projektpartnern die
VBN−(Pilot−)Betriebsszenarien realisiert.
Herr Michl, BelWü−RUS, Herr Bannas, Frau Gol−ka, RUS, Herr Lortz, Karlsruhe, Herr
Hipp,Tübingen, u.a. haben mit den Schwächen der Geräte managementmäßig leben
müssen.
Das Wissenschaftsministerium hat die Vorhaben politisch und finanziell unterstützt,
der DFN−Verein dieselben aus Mitteln des BMFT unter den Kennzeichen TK 558 −
HD001 (DFN CXLX) und TK 558 HD 010 (DFN CXLXplus) gefördert. Das
MUX−Redesign wurde teilweise durch das Vorhaben RACE 2031 PAGEIN getragen.
Wir danken unseren Projektpartnern in Berlin, Bremerhaven, Freiburg, Hamburg,
Kaiserslautern, Karlsruhe, München, Tübingen und andernorts.
Besonderer Dank gilt der Deutschen Telekom AG hier speziell den Herren Wabbels und
Kercher von der Projektgruppe IKAT bei der Direktion Stuttgart.
Literatur
[1] G. Doman, A. Engel, H.−J. Matt, R. Stannard, B−ISDN Field Trial Concept, ISDN
Europe 86, November 5 − 7, 1986, Basel
Paul Christ
BelWü−Entwicklung
[email protected]−stuttgart.de
ATM − RUS, urbi et orbi
Paul Christ
Der Artikel − ursprünglich im Herbst 1995 verfaßt − gibt einen gleitenden
ATM−Statusbericht aus der Sicht des RUS. Nach einer kurzen historischen Übersicht
wird der Titel von rechts nach links jeweils unter den Aspekten Produktion und
Pilotierung/F&E behandelt.
Zur ATM−Technologie
ATM zwischen den Kulturen
ATM − Asynchroner Transfer Mode − wurde im Februar 1988 in Seoul vom damaligen
CCITT als Basis−Technologie für das kommende Breitband−ISDN akzeptiert: Auf der
Basis kleiner, Adressen tragender Datenpakete(1) fester Länge − eventually cells of 48
plus 5 bytes − soll es möglich sein, von hier nach Australien zu telefonieren,
Bewegtbilder zu übertragen, LANs miteinander zu verbinden und schließlich auch
44
Fernsehprogramme zu verteilen.
Der Grund zur damit erfolgten Abkehr vom Leitungsvermittlungsprinzip á la Telefon
oder ISDN war die Forderung nach Flexibilität: Ein fester Ka−nalmix beim Teilnehmer
erschien bei unbekanntem Zukunftsbedarf zu rigide; die festen Kanäle wurden durch
virtuelle − gebildet aus Zellströmen mit verhandelbarer Quality of Service − ersetzt.
Mit dieser Entscheidung ist der CCITT − jetzt ITU T − bis heute weder bei den
Videobroadcastern noch den Internet−Freaks sonderlich beliebt: Viele \xe3
Leitungsvermittlungs− oder Verteil−Leute" glauben heute noch nicht, daß bei den
Zeitanforderungen von Sprache und Video ein nennenswerter Multiplex−Gewinn − die
Summe der Teilkanalraten kann statistisch größer sein als die physikalische
Ge−samtrate der Übertragungsstrecke − zu erzielen sei. Den Datenleuten erscheinen die
ATM−Zellen ge−messen an den eigenen Riesendatenpaketen − z.B. 64 KBytes − doch
sehr klein; Internetter lieben zu−dem das Prinzip der virtuellen Kanäle/Verbindungen
beim ATM nicht.
Internet über ATM
Für das Internet erscheinen die ATM−Netze zu−nächst nur als weitere Infrastruktur,
über die das universelle IP plus TCP etc. transportiert werden kann; die Aufgabe heißt
dann IP on top of ATM. Probleme, die sich hierbei für das heutige TCP/IP ergeben, sind
etwa:
· Erhalt typischer LAN−zu−LAN−Eigenschaft: Ein typischer LAN− und
Internet−Nutzer er−wartet beispielsweise von einem Ethernet−Anschluß, daß er
möglichst einen hohen Prozentsatz der Medienbandbreite von 10 Mbit/s erreicht. Er ist
es nicht gewohnt zu − und könnte es auch üblicherweise gar nicht vor einem
Sendevorgang sagen: \xe3 Meine Workstation sendet jetzt mit 6 Mbit/s Daten"
· Schutz von TCP vor Cell−Verlusten:
Das moderne TCP − etwa mit Slow Start und Congestion Avoidance−Mechanismen −
reagiert empfindlich auf Cell− und damit Paketverluste − und Wiederholungen
· Management von virtuellen Kanälen
und Bandbreitenmanagement:
Virtuelle Kanäle, VCs, können in heutigen ATM−Netzen nicht dynamisch bei Bedarf
er−zeugt werden − das ergibt dann bei großen Netzen einen entsprechenden
Management− Aufwand; entsprechend muß ggf. auch die Bandbreite der
Übertragungsstrecke, z.Z. noch meist statisch, verteilt werden. Ließen sich VCs durch
Signalisierung dynamisch etablieren, hätte man ein neues Problem: Wofür lebten sie
wielange?
· Architektur−Modell −
Routing und/versus Switching:
Da bis auf weiteres die übergroße Mehrzahl der Rechner keinen direkten
ATM−Anschluß besitzt, und da für so gebildete Netze Router die Strukturen bestimmen,
45
ergibt sich die Fra−ge: Wie verhalten sich Internet Router zu ATM−Switchen?
· Security:
Von grundlegender Bedeutung sind desweiteren die heute in Routern auf IP− und
höherer Ebene implementierten Sicherheitsmechanismen, die z. Z. keine Entsprechung
in ATM−Switchen haben.
Nimmt man künftig die Bereitstellung von integrierten Diensten − Sprache und
Bewegtbilder − auch im Internet im großen Stil an, ergeben sich auch hier Fragen der
Garantien von Qualität durch Ressource−Reservierung. Dies soll künftig auf der Basis
von IPv6−Paketen(2) mit QoS−Feld zu lösen sein, die über ATM−Wege geführt werden,
die in einem integrierten Routing−Be−triebsmittel−Reservierungs−Vorgang auf
Cell−Ba−sis etabliert wurden. Dadurch erhält man eine
· Verdoppelte QoS Architektur:
ATM−Produktionsnetze
ATM in den USA und Europa
In den USA sind seit Anfang 1995 mindestens zwei für den deutschen
Wissenschaftsbereich wichtige Netze in ATM−Technologie in Betrieb genommen
worden: ESnet, das Netz des Department of Energy, hat nach mehrjähriger Verzögerung
− verursacht durch Klagen nicht zum Zuge gekommener Anbieter − endlich seinen
Betrieb als 155 Mbit/s ATM−Netz aufnehmen können. Das Netz umfaßt u.a. alle großen
Labs des DoE. ESnet ist langjähriger Partner des DFN−Vereins und nimmt in Princeton
deutschen Verkehr auf.
Das zweite im Kontext wesentliche Netz in den USA ist das vBNS, der very high speed
Backbone Network Service. Es ist in der Funktion \xe3 Verbindung der National
Supercomputer Centers"(3) Nachfolger des NSFnet Backbones; neben Cornell, NCSA,
San Diego, Pittsburgh umfaßt es auch NCAR, Boulder Colorado, das National Center für
Atmospheric Research. Es ist noch relativ stark forschungsorientiert und hat als
konstituierenden Bestandteil ein Programm von netzgestützten Projekten. Die
derzeitige Übertragungsrate im Netz beträgt 155 Mbit/s. Betrachtet man einen
typischen Teilnehmeranschluß, er−scheint der Plan, 1996 auf 622 Mbit/s zu gehen,
plausibel.(4)
In Europa sind derzeit z.B. die Forschungsnetze in Großbritannien − SuperJANET −
und in Frankreich − RENATER − im Kern oder weitgehend ATM−Infrastrukturen. Die
Verbindung der nationalen Forschungsnetze durch ein europäisches ATM−Back−bone
ist Gegenstand des TEN34−Proposals der in TERENA vereinigten entsprechenden
nationalen Institute (s. u.).
46
ATM in der Republik und im Land
In der Bundesrepublik hat der DFN−Verein den Aufbau von
Hochgeschwindigkeitsnetzen − nicht zuletzt aus Kostengründen − zunächst auf
regionaler Basis im Rahmen der sogenannten RTBs, der Regionalen Testbeds, verfolgt.
Im Rahmen des DFN−NOC am Rechenzentrum der Universität Stuttgart wurden seit
Februar 1995 die beiden Regionalen Testbeds NORD (AWI Bremerhaven, DKRZ
Hamburg, Universität Hannover, Universität Braunschweig) und NRW (DLR Köln,
GMD Birlinghoven, KFA Jülich, Universität Aachen, Universität Bonn und Universität
Köln) hinsichtlich des IP−Managements betrieben.
versitäten beim DFN−Verein Anschlüsse an das kommende B−WiN beantragt.
Parallel dazu hat die mit dem Aufbau des BelWü−ATM−Netzes beauftragte Firma CNS
und die Universität Karlsruhe am 12. März diesen Jahres − testweise und als erste − die
Strecke Karlsruhe − Stuttgart in 155 Mbit/s ATM− Technologie in Betrieb nehmen
können.
ATM an der Universität Stuttgart
ATM−Produktionsnetze werden an der Universität Stuttgart evolutionär erscheinen −
etwa mit neuen Gebäudeverkabelungen oder der Verstärkung zu schwacher
Netzelemente − d.h. i.A. unsichtbar für den typischen derzeitigen Netznutzer. In dieser
Absicht wurde inzwischen eine 622 Mbit/s ATM− Verbindung zwischen dem Campus
Pfaffenwald und Untertürkheim(5) getestet.
Inzwischen hat der DFN−Verein die Aufbauplanung für ein flächendeckendes
Breitbandnetz, das dann auch die derzeitigen RTBs umfassen wird, erfolgreich
weitergeführt, und auf der CeBIT ‘96 konnte bekanntlich das Breitband−WiN feierlich
eröffnet werden. IP über ATM ist dabei der erste wesentliche B−WiN Dienst. Auch er
wird von Stuttgart aus gemanaged.
Seit Frühjahr 1993 betreibt das Land Baden−Württemberg ein Vorhaben zur
Aufrüstung des BelWü−Kernnetzes auf ATM. Die anlaufenden
Liberalisierungsbewegungen haben dieses Vorhaben sowohl befördert als auch
erschwert. Das Ministerium für Wissenschaft und Forschung hat nun kürzlich als
Eingangsstufe für die Landesuni
ATM bis zum Endteilnehmer wird wegen der eingangs genannten Problematik im
Management− und Sicherheitsbereich wohl lange Zeit vorwiegend in experimentellen
oder projektorientierten Infrastrukturen vertreten sein.
ATM−Pilot−Infrastrukturen
für nationale & internationale Projekte
47
SMDS über ATM im 3. Rahmenprogramm der EU−RACE
und ESPRIT
Wir verweisen hier zunächst auf das Angebot aus unserer Benutzer Information BI. 2
95, S. 7, allen potentiellen Projektplanern bei der Herstellung von \xe3
Pilot−Netzverbindungen jeglicher Art" − insbesondere aber solchen in ATM−Technologie
− beratend zur Verfügung zu stehen.
ATM im 4. Rahmenprogramm der EU−ACTS, ESPRIT,
Telematics und das G7−Thema
Der europäische ATM−Pilot endete formal am 31. Dezember 1995. Derzeit gibt es unter
den Na−men JAMES, NICE und TEN34 drei Projektvorschläge der jeweiligen
natürlichen Klientel von DG IIIF (ESPRIT IT), DG XIIIB (RACE/ACTS) und DG XIIIF
(Telematics), die auf die Aufrechterhaltung einer ATM−Pilot− und Test−Infrastruktur,
auf ein Produktionsnetz (Verbindung der nationalen Forschungsnetze) oder auf eine
Kombination von beidem zielen. TEN34 wurde inzwischen un−terschrieben. Das RUS
arbeitet in einer entsprechenden TERENA Arbeitsgruppe zu Service−Tests im TEN34
Rahmen mit.
Schon zur Frühjahrskonferenz der G7(6) 1995 in Brüssel wurde als Thema II von XI−en
die Global Interoperability for Broadband Networks als Aufgabe formuliert und gleich
praktisch vorgeführt.(7) Von Berlin über Hamburg−Helgoland−usw. de−monstrierte
Kanada mit der Deutschen Telekom/DeTeBerkom über den 155 Mbit/s−ATM−Link der
Firma TELEGLOBE Videoanwendungen und Te−lemedizin.
Diese Verbindung wird innerhalb der ACTS−Vorhaben AC039, CASHMAN und AC089,
DVP u.a. zwischen Deutschland (u.a. GMD), Kanada und den USA (NCSA, UCB)
verwendet werden. Deutscher Kontaktmann für das Thema II ist Herr Ullmann vom
DFN−Verein. Aus der Sicht von ACTS sind dabei alle Infrastrukturen unter dem
Stichwort Nationaler Host zu betrachten.
Das RUS hat den TELEGLOBE Link am 29. Feb−ruar bei der Einweihung des Bremer
Landesnetzes zusammen mit der Daimler−Benz Aerospace Airbus und dem kanadischen
BADLAB in Ottawa zu einer Demonstration in Collaborativer Simulation und
Visualisierung (System COVISE) ge−nutzt.
Das RUS ist in einem der drei deutschen und zwei US−amerikanischen (PSC, Sandia)
GIBN−Demonstrationsproposals vertreten. Diese werden z.Z. auf der laufenden
G7−Conference in Süd−Afrika verhandelt.
ATM in der Republik
Auch in der Republik endete die Pilotphase des Telekom−ATM−Netzes am 31. Dezember
1995. Es wird davon ausgegangen, daß das Netz ab 1996 zu kommerziellen Bedingungen
zur Verfügung stehen wird. Diese werden voraussichtlich stark dadurch beeinflußt
48
werden, daß nach der jetzt erfolgten Genehmigung der deutsch−französischen
Telekom−Kooperation ATLAS durch die EU, Deutschland verpflichtet wurde, schon ab
dem 1. Juli 1996 anderen Netzanbietern (Bahn, Energieversorger etc.) Netzlizenzen zu
verleihen. Neben der Telekom und dem DFN−Verein, für den die Verleihung praktisch
erfolgt ist, werden also voraussichtlich bald weitere Anbieter auf dem Netzmarkt
auftreten.
Schließlich wird auch der DFN−Verein nach einer Eingangsphase im B−WIN neben dem
Produktions−IP/ATM−Netz schrittweise reine ATM−Verbindungen − vorzugsweise für
Projektvorhaben − an−bieten.
An das Telekom−ATM unterhält das RUS seit September letzten Jahres einen 155
Mbit/s−Pilot−Anschluß. Er wird/wurde in den an− und auslaufenden RACE, Telematics,
ACTS und ESPRIT−Vorhaben sowie zur RACE/ACTS National Host− Konferenz in Wien
in der zweiten Novemberwoche 1995 und der TELEGLOBE−Demonstration eingesetzt.
Mit der gebotenen Vorsicht wiederholen wir hier unser Angebot bezüglich der
Etablierung von Pilot−Netzverbindungen.
ATM im Land
Das ATM−basierte Landesforschungsnetz BelWü als Teil des o.a. B−WIN wird in erster
Linie ein Produktionsnetz sein − gleichwohl sollte es u.E. für Projekte möglich sein,
dieses Netz nach ge−eigneter Absprache auch als Projektinfrastruktur zu nutzen −
vielfach wird das ohnehin kein Widerspruch sein.
ATM an der Universität
Seit Ende 1992 betreibt das Rechenzentrum ein lokales ATM−Pilotnetz, das schon zur
CeBIT ‘93 im Rahmen der RACE−Vorhaben CIO und PAGEIN über das VBN
demonstriert wurde.
Dieses Netz wurde im Februar 1995 mit dem des IPVR verknüpft. Im September war
dieser Komplex dann über die o.a. 155 Mbit/s−Verbindung zum Feuerbacher
ATM−Knoten der Telekom mit Partnern des RACE CIO−Projektes in Darmstadt, Berlin
und Zürich verbunden. Gegen Ende 1995 fanden weitere Einsätze in EU−Vorhaben
statt. Für gemeinsame Vorhaben mit Universität und RUS in
Sonderforschungsbereichen und EU−Projekten wird als nächstes das ausgedehnte
ATM−Netz verschiedener Institute der Fraunhofer Ge−sellschaft in Stuttgart in die
Pilot−ATM−Infrastruktur einbezogen werden.
Für das Remote−Microscopy−Vorhaben ZELLKOM des Instituts für Physikalische
Elektronik, IPE, wird derzeit nach dem Aufbau eines ein zu−nächst lokalen
ATM−Testbeds eine Wide Area−ATM−Verbindung zum Projektpartner in
Karlsruhe−Rüppur realisiert. Diese Arbeit wird auf der Karlsruher Seite auch vom
dortigen Rechenzentrum unterstützt.
49
Innerhalb des Umweltinformationssystems Ba−den−Württemberg (Umweltministerium,
Institut für Kernenergie und Energiesysteme) soll in Absprache mit der Stabsstelle I &
K des Innenministeriums eine schnelle Verbindung zur Universität ebenfalls in
ATM−Technologie realisiert werden. Entsprechend wird die Stuttgarter mit der Zürcher
Architektur über das internationale ATM kooperieren.
Insgesamt werden in diesem Jahr für bereits be−willigte oder neu zu beantragende
EU−Vorhaben ATM−(Pilot−)Verbindungen für Partner in fünf bis zehn internationalen
Projekten benötigt werden.
ATM F&E
Das RUS hat sich in Fortsetzung seiner seit 1984 bestehenden Kooperation mit der
Firma Hirschmann(8) an der Entwicklung einer Ethernet−zu−ATM−Box beteiligt,
HiATM. Die Hardware des ATM−Subsystems − eine Shared Memory−Konstruktion − ist
fertiggestellt. Derzeit wird das Sys−tem mit Software ausgestattet: Betriebssystem,
Signalisierung (Dritthersteller) etc. Im Landes−Forschungsschwerpunkt−Programm
wurde im Rahmen des Vorhabens USPS der Übergang von Gigabit−LANs zu ATM
untersucht (IND, INÜ, IPVR, IMS, RUS). Über das IND ist das RUS Mitglied im
ATM−Forum. Für den DFN−Verein hat das RUS eine Eingangskonfiguration erarbeitet.
Ausblick
Nach vielen Jahren direkter und vielfach indirekter Vorarbeit des Forschungsbereiches,
globalen Entwicklungen wie der Deregulierung und Liberalisierung der
Telekommunikationsmärkte verspricht 1996 wirklich den Beginn globaler
Breit−bandkommunikation − auf der Basis von ATM.
Literatur
[1] Anthony Alles: ATM Internetworking,
May 1995.
http://cio.cisco.com/warp/public/614/12.html
Informationen zu
· B−WiN: Peter Merdian
· Campus−ATM: Horst Bannas
· HiATM: Chris Copplestone
· USPS: Peter Haas
· Internationales/Telekom ATM: Peter Feil
50
· ATM Traffic Management etc.: Robert Stoy
Paul Christ
Kommunikationssysteme &
BelWü−Entwicklung
[email protected]−stuttgart.de
The University of Stuttgart −−
A Future−Oriented Place of
Research and Teaching
Compared with Germany’s traditional univer−sities, the University of Stuttgart is
rather young: founded in 1829, the former Technical College has integrated the social
sciences and the humanities and has developed to become an internationally renowned
future−oriented place of research. The close interconnection of re−search and teaching
makes it possible both to provide a very good education for students who aim for
positions in business, government and science, and to hold a top position in basic and
applied research. Furthermore, the university with its 140 institutes distributed over 14
faculties, 5,000 employees (about 1,700 of them paid by external sponsors), and about
21,000 students −− among them 2,900 young men and women from all over the world −−
is an important influence in Baden−Württemberg, Germany’s traditional high−tech
region.
Every year about 1,800 students graduate from the University of Stuttgart. Apart from
that, some 150 apprentices in 30 trades are trained in the workshops, laboratories and
the computer centre of the university.
The annual budget of the university in 1994 amounts to DM 513 million −− not counting
construction costs. DM 200 million of this amount are provided by public and private
sponsors for research projects. 40 per cent are provided by industry, about 20 per cent by
the Ministry of Research and Technology, 12 per cent by the "Deutsche
Forschungsgemeinschaft", and special research projects take up 10 per cent. The
remaining funds are brought in through the European Union, the Government of
Baden−Württemberg, the Federal Government, and others. In terms of contract−based
research, the University of Stuttgart holds a top position among German universities −−
a consequence of efficient research and management of science.
The University of Stuttgart is divided into two campuses linked by a speedy
underground train: Stadtmitte (downtown) and Stuttgart−Vaihingen. In the vicinity
there are also a number of Institutes of the Max−Planck− and Fraunhofer−Societies, and
the German Research Institute of Aerospace Engineering. The university’s openness and
interest in cooperation can also be seen in the close interrelation with about 20
additional institutes. Many companies take advantage of the facilities of the university
as clients: examples are the wind tunnel for the testing of automobiles in which the
aerodynamics of new models is tested 1:1 at velocities of 255 km/h, or the super
computers of the regional computing centre (RUS) for the simulation of crash tests,
51
meteorological data or the spread−ing of toxic materials in the atmosphere.
An important feature of the University of Stuttgart is its combination of a primarily
applied and theoretical−experimental orientation. Excellent conditions exist for both
areas of activity. The foremost aim in research and teaching lies in the fields of
engineering and the natural sciences. Personalities like the philosopher Friedrich
Theodor Vischer, literary scholar Fritz Martini, philosopher of science Max Bense or
literary scholar Käte Hamburger were responsi−ble for the formation of the social
sciences and the humanities at Stuttgart.
There are many interconnections with the city of Stuttgart and the surrounding area:
the university is an important economic factor, since it employs 5,000 men and women
and provides innovative impulses to research and technology. In addition, graduates of
the university contribute to the economy and industry of the middle−Neckar−region.
The following pages will give you an overview of the different areas and services at RUS,
which are:
· Belwü Coordination
· Information Services
· High−Performance Computing
· Server & Networks
· Basic Services
· Projects of RUS
BelWü Coordination
In the context of the BelWü Coordination the following services are provided through
TCP/IP: the wide area network access to the University of Stuttgart, the wide area
network access of more than 70 members of the regional network BelWü
(Baden−Württembergs extended LAN), and the wide area network access of german
members of DFN−IP by order of DFN through the DFN NOC.
The following lines are currently used at the University of Stuttgart for WAN access:
· 34MBit/s BWiN (ATM) to reach the german and international IP networks
· several 2 MBit/s and 64 KBit/s leased lines to directly connected BelWü members in
Stuttgart region.
Currently over 70 members are connected via BelWü to each other. The switched IP
traffic amounts to more than 1700 GByte per month (see figure). The BelWü backbone
52
consists of about 70 Cisco routers (see figure) which are managed centrally from
Stuttgart but in close cooperation with the local BelWü contact of each member.
This implies that fault and performance status of the network is monitored all the time,
respon−sible people for the management at the network are available, and network
services are centrally offered and coordinated. Besides the man−agement of the IP level
the second crucial point of networking is the support of the BelWü mem−bers with
essential network services. This in−cludes the operation and control of primary and
secondary name−servers for about 900 domains of more than 40 BelWü members as well
as the X.500 DSA for the University of Stuttgart, the operation of a mail−host (with
about 4 GByte mail traffic per month), and a SMTP/X.400 mail gate−way, the operation
of a stratum 1 time−server, the operation of a gateway into the civil service net−work
(Landesverwaltungsnetz LVN), the oper−ation of a telnet/X.29 gateway, the operation of
a news−server as well as the distribution of news feeds in BelWü, the provision of a
WWW and ftp server, the provision of teaching software, hand−books and a user
magazine, the provision of lectures for end−user, the guidance of network administrators
of new BelWü members, and the assignment of IP network addresses.
Since late 1993 the DFN NOC is located at the BelWü Coordination. The DFN NOC
provides basic IP services for the german scientific and research community.
For more information please contact:
Peter Merdian
Tel. 0711/685−5804
Fax 0711/6787626
E−Mail: [email protected]−stuttgart.de
Tab.\x11 1:\x14
Belwü Traffic Matrix December 1994 (IP
Traffic in MByte)
−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−
Freiburg Heidelberg Hohenheim Karlsruhe Konstanz Mannheim Stuttgart Tübingen
Freiburg
875
72
2177
3201
133
66273
896
Heidelberg
875
180
14591
487
5503
16550
1203
Hohenheim
72
180
472
206
17
16086
100
Karlsruhe
2177
14591
472
738
12204
49093
1331
Konstanz
3201
487
206
738
365
15070
1026
Mannheim
133
5503
17
12204
365
22941
137
Stuttgart
66273
16550
16086
49093
15070
22941
32849
Tübingen
896
1203
100
1331
1026
137
32849
Ulm
226
710
51
15167
176
168
30327
321
FH/BA/etc.
582
1866
265
17284
1041
15771
64034
2745
Kaiserslautern 375
1012
137
10444
210
432
5132
153
Rest BRD
15227
75209
3193
131475
5753
20599
349617
23988
Europa
1710
8495
727
4470
848
1465
71133
1332
Oversea
30074
47594
7959
56969
9640
16282
171052
25310
Total
121841
174849
29486
316758
38795
106555
912220
91616
−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−
53
Information Services
The complexity of computing environment and the network as well as the variety of
services require appropriate information management.
Main Tasks
The information services of the RUS cover four main areas
· Systematic distribution of information and know how
· Support the users to exploit the information resources in the net
· Distribution of software
· Costumer feedback and evaluation of critics.
Due to the number of users, massive electronic support is necessary to deal with the
need for information.
Beside electronic information traditional channels are maintained and further
developed.
Information Channels
From the needs of our users result three differ−ent information channels:
· Training and consulting
− Courses (40/year − 1200 part.)
− Mini courses(120/year − 2500 part.)
− Helpdesk (40 hours per week)
− Online helpdesk (project)
− Support and develop communication between RUS and costumers
− Learning systems
· Print media
− BI. − User magazine (10 issues)
54
− Posters
− Publications (handouts, etc.)
· Computer based information
− Information and software server
WWW (25.000 users/M)
gopher, telnet
aftp (120000 Acc./M, 130 GB transfer)
− News, mailing lists.
The various information channels are coordinat−ed to bring best results.
Software Distribution
Beside the distribution of public domain software via aftp we took over in 1993 the
distribution and of licensed software at large scale.
Fig.\x11 1:\x14 WWW−Page: BI.
A student’s project for distribution of ready to use installed software became the base for
the software installation concept of RUS. In meantime this project was funded by the
Ministry of Research to make available software at large scale in the country of
Baden−Württemberg. The project will be funded from DFN−Verein for two years.
Multimedia Services
Multimedia services as e.g. learning systems or multimedia labs are provided or
planned.
Marketing
One of our biggest challenges is to inform our costumers about the existence and quality
of our services.
In this context it is necessary to treat information as a product. The evaluation of
costumer needs and the adaptation of our services to the needs a highly important point
as well as the public relations for our products.
Projects and Research
Projects and research help us to reach the objective to support costumers a our best.
55
Two PHD thesises with the following subjects will be finished in 1994/95:
· Feature structures for unification based generation of navigation structures in
document space
· Multimedia learning in an object oriented simulation environment.
The following proposals are accepted by DFN−Verein:
· /sw − Software installation concept
(1 MY + 1 MY for University of Tübingen)
· Distributed scientific network publishing (2 MY + 2 MY for Library University of
Stuttgart)
· Online helpdesk (2 MY + 1 MY for Universities of Mannheim and Konstanz).
Access
· http://www.uni−stuttgart.de
· ftp.uni−stuttgart.de
· gopher.uni−stuttgart.de
· news.uni−stuttgart.de
· Modem connection: ++49−711−685−7712
· Win Datex−P: NUA 0262 45050 966911
· EuropaNet: NUA 0204 3623 966911
For more information please contact:
Barbara Burr
Tel. 0711/1319−111
Fax 0711/6787626
E−Mail: [email protected]−stuttgart.de
HIGH−PERFORMANCE COMPUTING
Numerical Mathematics
56
Development
of Algebraic Multigrid Techniques
Uwe Küster, Manuela Zürn
Algebraic Multigrid techniques are useful if there exist not enough information on the
underlying problem. They also give insight in the problems arising in conventional
multigrid approaches in sense of construction of restriction, prolongation and coarse grid
operator.
The techniques used by Stüben and Ruge in calculation of these operators make the
assumption that the given matrix is a M−Matrix. We replace this by analysing SPD
matrices which are a sum of some smaller SPD matrices like element matrices for the
stiffness matrix in the Finite Element context. Based on this we formulate a theory for
the two grid algorithm which covers also shell elements stiffness matrices.
Coding these algorithms is a difficult task caus−ed by the dynamic behaviour of the
generated data objects. Our Fortran 90 object oriented implementation allows handling
objects like sparse sum of matrices, dense matrices, partial sums of matrices, sparse
matrices with methods like *, +, Schur Complements. LAPACK routines can be called
via operators.
In distributed interactive graphical interface based on Tcl/Tk shows matrix properties of
se−lectable parts of stiffness matrices.
Numerical Simulation
of Blood Flow on Supercomputers
Michael Resch
Simulation of blood flow in large arteries is a tool for risk assessment in atherosclerosis
and for assessment of flow behaviour in artificial vessels or an artificial heart. So far it
was based on simple Navier−Stokes models assuming a constant viscosity. More
sophisticated models have taken into account a shear−rate dependent viscosity, which
only slightly changed the Navier−Stokes model.
The project under development is based on models and data gathered from rheological
measurements. Such investigations show that blood exhibits more complex properties
(like shear−thinning and elasticity). To take into ac−count such effects a model from
theory of viscoelastic fluids (modified Maxwell model) is chosen. Such models are
characterised by the Weissenberg number which describes the in−fluence of elasticity.
So far classical methods fail to work for increasing Weissenberg numbers. The challenge
of the project is to partially overcome this problem and solve for increasing Weissenberg
numbers.
This requires more complex solution methods as used in aerodynamics and increases the
number of Ps per gridpoint by a factor of 2 for 2D−problems and 2.5 for 3D cases.
57
Nu−merical simulation of blood flow thus requires supercomputing performance both in
terms of MFLOPs and in terms of main memory.
Solution of Conservative Equations on Unstructured
Grids with Arbitrarly Complex Cells
Clemens Helf
Today, the bottleneck of industrial flow simulation for complex technical geometries is
grid generation and grid adaption. In the same time flow solvers require high quality
grids to compute accurate solutions.
The project CEQ (Conservative EQuation solver) gives a new approach by completely
gener−ating the grid during the flow calculation on the base of a single multiply
connected cell. The description of the problem geometry serves as an initial grid.
Self−adaptive refinement divides arbitrary cells along arbitrary hyper−planes. Special
techniques fit existing nodes and limit the complexity of resulting cells. Multiple flow
features are captured by controlling refinement by location and direction. The numerical
technique is a second order ENO like explicit Finite Volume scheme and is capable of
producing accurate solutions on these complex grids. Formulas for computation of
volume, centroid and all others moments of arbitrary polyhedra are implemented.
The object oriented implementation allows handling of 2D as well as 3D problems. The
code is written in C++. The grid database part can be used for other time dependent
conservative equations. The data structures allow vec−torization of the computationally
intensive parts in principle. The complete code including refinement is parallelized on
base of DDD. Automatic dynamic load balancing will be provided. Visualization will be
done by a special project.
The program is now working in 2D. 3D refinement is in progress. Navier Stokes
equations will be implemented in the near future. Parallelized multi grid techniques will
be implemented.
Dynamic Distributed Data:
An Efficient Programming Model for Parallel and
Adaptive Algorithms
Klaus Birken
Parallelizing computational intensive algorithms based on dynamic data structures (e.g.
adaptive PDE solvers) will often be doomed to failure if one does heavily rely on pure
message−passing layers as the basic access point to the parallel hardware.
Various problems as for data redundancy, con−sistency and load balancing can only be
tackled using an appropriate level of abstraction. With Dynamic Distributed Data (DDD)
this abstraction is available on a fine−grain object level. DDD provides a dynamic
58
representation of data graphs, transfer operations of any set of objects and abstract
interfaces across local−memory borders.
Usage of DDD will result in parallel applications, which are efficient and portable. The
changes of the sequential code are minimal; complex real−world examples could be
parallelized within a few days.
Distributed Visualization
of Arbitrary Unstructured Grids
Thomas Schmidt
Computational simulations for complex geometries nowadays often deal with
unstructured grids. That’s why scientific visualization must also be extended to these
grid types. A visualization system is presented which works with any type of
unstructured grids, i.e. arbitrary polygonal and polyhedral grids. Results from finite
volume (cell centered) and finite element methods can be visualized. Additionally
time−dependent data can be processed and interpolation between timesteps is possible.
This data may be transferred directly from a simulation program and therefore on−line
visual−ized. To integrate this task into a computational simulation an object−oriented
interface is presented which allows easy connection from simulation to visualization.
This interface also provi−des a connection to the technical database sys−tem RSYST.
Therefore it is possible to read grids and initial data from the database and write results
back to it. Preprocessing, CAD and other moduls can be accessed on this way.
Esprit Project
Parallel Aero of Europort 1
Uwe Küster, Manuela Zürn
In this Esprit project a Multi Block Navier Stokes Solver has to be parallelized and
tested on differ−ent platforms. CERFACS/France, KTH/Sweden, Cira/Italy,
EPFL/Switzerland, SAAB/Sweden, Aerospatiale/France, and RUS/Germany are the
partners.
For more information please contact:
Uwe Küster
Tel. 0711/685−5984
Fax 0711/6788363
E−Mail: [email protected]−stuttgart.de
59
Parallel Computing
Although RUS started not before 1992 in offer−ing MPP services, activities in this area
go back into the mid−80s, mainly based on workstation−clusters. The reason for a start
at that time was, that earlier there were no systems available, which had the flexibility
to serve a large user−community with very heterogeneous interests. As a first platform,
a workstation−cluster (PARIS) dedicated to parallel computing was offered to a
restricted user−group in aero−thermodynamics. This was followed soon by an intel
Paragon XP/S−5 as representative of a new generation of MPPs with a very flexible
model of operation and usage. In 1994 a Cray T3D joined the other two platforms,
expanding the services especially in the area of novel programming−paradigms and of
more fine−grain parallelism. Already from the beginning it was obvious, that
user−support in the area of parallel computing must by far exceed the classical services
of a computing centre and must in most cases have the form of a project−partnership. In
consequence the in−stalled systems up to now were also acquired in the framework of
cooperation between several institutions:
· intel Paragon: RUS, ICA II, IPVR
72 Compute−nodes
Peak−Performance 5 GFLOP/s
Memory 2GB
− Software:
NX, PVM, MPI, PARMACS, APR−HPF, PGI−HPF, ProSolver, Paragraph
· PARIS: RUS, SFB 259, DLR, IBM
Cluster of 6 RS/6000−550
Peak−Performance 0.5GFLOP/s
Interconnected via SOCC, FDDI, Ethernet
− Software:
PVM, PVM/6000, NXlib, MPI, FORGE90, Paragraph
· Cray T3D: RUS, ICA III, Cray Research
32 PEs DEC 21064
Peak−Performance 5GFLOP/s
Memory 2GB
− Software:
PVM, CRAYPVM, CRAFT, TotalView, Apprentice.
An additional step for the embedding of projects was the foundation of the Stuttgart
competence centre for high−performance computing which was established in 1993. All
central−institutes of Stuttgart University in the field of supercomput−ing are
participating in this organisation.
The parallel−computing activities in the beginn−ing primarily dealt with
code−development. This means first of all the development of new meth−ods for parallel
60
computers and second porting of existing sequential codes. Today we are one step
further. First production−codes are running on MPPs. With one relevant commercial
code, LS DYNA3D, we had already a reasonable initial success, as well concerning pure
power, but also the economical solution of problems. The following diagram illustrates
for a car crash example, which additional efforts between system−manufacturer,
software−provider and end−user is still needed for the successful use of parallel systems.
Over a timeframe of half a year the diagram explains which actions led to which gain in
performance and cost−effective−ness. As can obviously be seen, the initial parallel code
was neither efficient from the pure calculation times, nor from the economic perspective.
Especially it was not at all competitive with the Cray C90 as representative of the
classical vector−supercomputers. Through optimization and further development on the
system − as well as on the application − code side however a much more cost−effective
solution (factor 3) than on the vector−machine could be achieved.
As consequence of the results of the last years, the next step will be the establishment of
a powerful MPP−service for production. The de−partment for parallel computing consists
actually of 2.5 scientists (1 staff, 1.5 paid from projects) and 5 students. Apart from the
projects, which are all coming from the field of computational fluid dynamics, the main
task is user−support and, together with onsite engineers from intel and Cray, keeping
the machines running.
For more information please contact:
Dr. Alfred Geiger
Tel. 0711/685−5391
Fax 0711/6788363
E−Mail: [email protected]−stuttgart.de
Visualization
The Visualization Department of RUS provides services to convert and visualize results
of simulations and experiments for the understanding of scientific models and content.
These services cover the operation of high end graphics workstations, video equipment,
plotters, printers, slide recorders, etc.. Currently a visualization and a video lab are
maintained, which comprise centralized equipment that is too expensive or specialized to
be established at an institute.
A broad variety of software packages is support−ed and used by the visualization
department.
Fixed staff members are involved in these services, 3 for video production, 2 for
plot/print equipment operation and graphics software. 1 for coordination of the
visualization based support tasks, handled by student support workers, as well as the
operation of the visualization equipment.
61
Video
Fig.\x11 1:\x14 Video Lab
For video production purposes Wavefront Advanced Visualizer, Wavefront Composer,
Xaos nTitle, Utah Raster Toolkit, SDSC tools, etc. are used.
The video group operates a Broadcast Quality Studio based on Betacam devices to
produce video animations with story board production planning, titling, narration and
sound. An important service is consulting in video production ranging from timing of
scenes, attribute se−lections (e.g. font type/size, line thickness, etc.), colour selection and
balancing, scene propor−tions, usage of edit suite capabilities (cut, fad−ing, zoom,
overlay, colour/chroma key usage, etc.). Video cameras and lighting are used to record
live experiment at institute or industrial partner sites. These scenes are typically
com−bined with computer generated visualization to compare simulation and
experiment.
Visualization
Fig.\x11 2:\x14 Visualization Lab
For high end visualization purposes supported packages are IBM Data Explorer, SGI
Iris Explorer, Application Visualization System AVS, Ensight (previously Cray MPGS),
and Wavefront Data Visualizer). For plot oriented output generation Uniras, Tecplot and
IDL are used.
Support based on these packages ranges from the conduction of courses, individual
consulting and support in the usage of visualization pack−ages to the establishment of
small projects to−gether with users to help them handle their tasks. Typical cooperation
with users range from days to months. In longer projects user algorithms are embedded
in specialized modules which are included in module networks also produced in
cooperation with the user. Part of such projects are the production of sequences of single
video frames for video production.
In addition Users can bring their graphics orient−ed software on the workstations of the
visualization lab either to make use of graphics hardware for better interactivity or for
online video record−ing of workstation sessions.
Additional support is provided via the relocation of a member of the State Material
Testing Institute into the visualization department. He pro−vides expertise and support
in the usage of AVS. The support for AVS based on a state wide licence agreement will
be done by the RUS visualization department for all Baden−Württemberg Universities.
62
Projects
To introduce new developments from scientific visualization research and development a
close cooperation with the Institute for Computer Applications Department of Computer
Simu−lation and Visualization (ICA/CVS) has been established. One staff member of
ICA/CSV is permanently allocated to the RUS visualization department.
Research covers the development and implementation of algorithms and visualization
meth−ods with a special aim to make optimal use of the available parallel/vectorizing
hardware together with the high speed network infrastructure.
Publication of papers, participation to conferences and teaching of visualization lectures
as well as the cooperation with other partners in projects adds to the effort to bring the
leading visualization developments into RUS. Via these efforts additional stuff members
are sponsored from different project frameworks. The projects and their research and
development efforts are:
· Participation to the RACE project PAGEIN. RUS has the leading role in the
development of COVISE (Collaborative Visual Simulation Environment). Currently
PAGEIN developments are introduced at industrial partner−sites (Dassault/France,
Alenia/Italy, CASA/Spain)
· Participation to ESPRIT’s project ADONNIS. Cooperation on a European scale using
high speed network infrastructures. Our part of experiments consists of a cooperation
with Daimler Benz Aerospace Airbus to integrate their CFD code MELINA into COVISE
to perform collaborative simulation and visualization
· Participation in a collaborative research project of the Universities of Stuttgart and
Tübingen "Methods and Algorithms for the Simulation of physical Processes on High
Performance Computers". RUS−VIS is in−volved in 2 subprojects "Interactive
Visualization of 3D−Data on adaptive Grids using Parallel Computers" and
"Visualization of four dimensional bended Space Time"
· Participation in a collaborative research project of the University of Stuttgart "Rapid
Prototyping in new Product Developments" with a project on "Development and Test of
innovative Products − Rapid Prototyping". RUS−VIS is involved in 2 sub−projects
"Visualization and Simulation of physical and technical Processes"
· One PHD student on a research grant work−ing on "Design and Implementation of a
parallel Volume and Surface oriented Renderer"
· One PHD student on a research grant work−ing on "Multimedia Functionalities for the
Comparison of experimental Data and Simulation Visualizations".
The German Research Network Organization (DFN−Verein) sponsors regional testbed
activities. In this framework 2 projects will start in April with a 2 years duration. These
are:
63
· "Distributed Virtual Reality Laboratory Ba−den−Württemberg". A cooperation with the
Max−Planck−Institute for biological Cybernetics and the Institute for Theoretical
Astrophysics both in Tübingen
· "Distributed Numerics Lab Baden−Württemberg". A cooperation with the Institute for
Nu−merical Mathematics of the University of Freiburg.
Thus, based on external funding the Visualization department currently has 6 additional
staff members.
The involvement in education leads to semester and diploma works done by students.
These works are supervised by staff members.
The participation to steering committees, conference programme committees, etc. is part
of the activity to establish close relationships and co−operations with scientists and
developers in the fields relevant to scientific visualization.
For more information please contact:
Dr. Ulrich Lang
Tel. 0711/685−5995
Fax 0711/6787626
E−Mail: [email protected]−stuttgart.de
Communication Systems
BelWü Development
The Department CS−BD
Communication Systems and BelWü Development of RUS is a project oriented group
pursu−ing − in close cooperation with the LAN−department and the BelWü−operations −
the following three major tasks:
LAN − WAN
Acquiring and running communication oriented leading edge projects − especially at the
border between public wide area and local area network infrastructures.
Since 1984 LAN−WAN does co−operate with the Hirschmann company and has
participated in the development of the first electro−optical Ethernet worldwide providing
then for the early campus backbone.
Local high−speed network infrastructures have been pioneered in Europe such as
HYPER−channel, UltraNet and real FDDI.
64
At present a medium−size HiPPI production network is researched.
An experimental ATM−LAN was established.
Since 1987 Remote Ethernet Bridges and Mappers 140Mbit/s PDH−to−Ethernet/FDDI
data streams have been developed − used in nu−merous demonstrations and pilot
productions: An FDDI−ring Stuttgart−Karlsruhe is still based upon these developments.
At present, HiPPI−to−ATM and Ethernet−to−ATM systems are under development.
In 1991 one of the two Metropolitan Area Network trials of DBP Telekom was brought to
Stutt−gart − together with the Porsche AG and Daimler−Benz AG. 1993 wide area ATM
was demonstrated between Stuttgart and the CeBIT in Hannover. Since 1994
international ATM connections have been established and used within European
projects − in co−operation with DBP Telekom and international PNOs.
BelWü − Development
This function subsidizes the operation groups of the State Science Network BelWü −
Baden−Württemberg’s extended LAN.
Ethernet Bridges and PDH−to−Ethernet/FDDI mappers developed by LAN−WAN have
been used from the very beginning in BelWü.
New application types have been pioneered for future use in BelWü − examples are the
ESPRIT MICE project (Multimedia Integrated Conferencing for Researchers in Europe)
making intensive use of the multicast overlay of the Internet (MBONE) and RACE CIO
(Co−ordination, Implementation and Operation of Multimedia Teleservices.
At present, a technical framework document for the upgrade of BelWü to 155 Mbit/s
ATM is under development.
Projects
This function deals with project creation and coordination in general − both externally
and internally.
Projects maintains close relations to all relevant funding bodies − within the University,
the State, the Federation and the European Union. Special treatment is also given to
DBP Telekom.
RUS projects are typically vertically integrated ones − technology is always sold by
end−user applications. Typical of this approach is the co−operation between networkers
and visualization people in RUS projects − exemplified within the ongoing RACE
PAGEIN and ESPRIT ADONNIS (collaborative distributed simulation/visualization).
65
It was within these projects, that for the first time a European border was crossed by a
more than 2 Mbit/s link!
At present − January 1995 − the next European and German DFN projects are under
preparation. Within this context, Projects has success−fully urged other State
infrastructure projects − a Video−on−Demand and a Digital Audio Broadcast project −
jointly to become part of the German National Host for ACTS within the 4th Framework
Programme of the European Union.
For more information please contact:
Tel. 0711/685−2515
Fax 0711/6787626
Web: http://www.uni−stuttgart.de
Application Support
Dr. Heinz W. Pöhlmann
Scientific computing has a long history at the University of Stuttgart. Since 1986, RUS
is providing extensive application support to its academic and commercial customers.
A team of specialists provides subject−specific consulting, licensing, installing and
maintaining software packages on various hardware plat−forms, with a focus on
supercomputers.
RUS consulting staff consists of scientists all having a university degree. Related to their
subject, they understand the research problems of the users and are also skilled in the
right selection and effective usage of the appropriate software and hardware platforms.
The scientific staff also provides efficient support in perform−ing scientific and technical
computer simula−tions. Furtheron, they support users from differ−ent application areas
to adapt their own programs to vector and parallel machines, to find right numerical
algorithms, to make use of par−allel architectures and to visualize their simulation
results.
Fig.\x11 1:\x14 Model based Analyses of Dispersion over complex Terrain, Institut für
Kernenergetik
This work often leads to close cooperation and common research projects with academic
and commercial customers. License contracts with commercial software vendors
normally include free access to those packages for academic users, but often charge
license fees for commercial customers using the software.
Major support areas include:
· Computer Aided Engineering
66
· Computational chemistry
· Integration of data, methods and models for scientific computing
· Computational Fluid Dynamics
· Graphics
· Mathematical libraries
· Numerical methods
· Optimization, vectorization, parallelization
· Structure mechanics
· Distributed applications using
DFN−Remote Procedure Call
· Visualization.
Fig.\x11 2:\x14 Velocity Distribution over the Surface of a Helicopter‘s Rotor Blades,
Institut für Aero− und Gasdynamik
Please find out more about these areas on special leaflets.
Computational Chemistry
The use of supercomputers in the area of computational chemistry has a long tradition
at the University of Stuttgart. Since 1986, one of the major application support areas of
RUS is computational chemistry.
Our Ph.D. chemist supports research chemists from university institutes and from
industry, understanding their specific research problems and their needs in scientific
computing. Often this leads to close cooperation and common research projects with the
partners.
Computational chemistry has very high demands in computer power, especially in the
number of cpu cycles, memory size and IO bandwidth. Currently, this can be provided
only to a several degree even with todays fastest supercom−puters. Since the
computational effort needed to do exact calculations out of theory scales to about N times
4, while N is the problem size, being direct proportional to the number of atoms in the
system under review, so called ab initio calculations are limited to relatively small
mole−cular systems with up to about 100 atoms.
Fig.\x11 3:\x14 Buckminsterfullerene
67
To overcome this situation, scientists early de−veloped algorithms which incorporate
more or less simplifications. Semiempirical molecular orbital and force field methods
normally lead to good approximative results, depending on the system under review.
With these methods, calculations on bigger molecular systems can be done. Force field
calculations only scale to about N squared, so that even huge biomolecules, like peptides,
proteins and enzymes can be simulated together with their dynamical behaviour.
All those areas are covered by computational chemistry codes supported directly by RUS
on the existing supercomputer platforms:
· CHARMm
· DISCOVER
· GAMESS
· GAUSSIAN 92
· GAUSSIAN 94
· MOLPRO
· MOPAC
· PATSEE
· SHELXS−86
· UNICHEM, including CADPAC, DGauss
and MNDO93
· X−PLOR
· XRAY−76.
For more information please contact:
Dr. Heinz W. Pöhlmann
Tel. 0711/685−5992
Fax 0711/6787626
E−Mail: [email protected]−stuttgart.de
Computer Aided Engineering
Norbert Ibold
68
Computer Aided Engineering (CAE) is the application of computerized methods during
the de−sign process of technical systems. The problem areas are diverse and demand the
use of com−prehensive and high−priced software packages that, depending upon their
hardware requirements, are either installed on the CRAY C94 or on workstations.
Typical supercomputer CAE applications are identified with the difficult areas of
accuracy, stability and convergence that characterize a solution to a multidimensional
and complex system.
Accuracy:
Even in studying the linear behav−iour of materials with small geometrical
deformations, the desired solution often appears with local high gradients. This requires
a fine−mesh network with many computational points to fully capture.
Convergence:
With existing nonlinearities e.g., elastic behaviour of materials, creep effects,
progressive crack damage, large geometric deformations or contact with frictional
processes, the desired answer is usually found with iterative and incremental
mathematical meth−ods. Convergence often only appears by using small load increments
and therefore requires much more computation power.
Stability:
Following a static analysis, there is often the wish to determine how a system’s
be−haviour will react under time−dependent loads. In order to arrive at numerically
stable solutions, in which the computational inaccu−racies must be diminished with
time, a small integration−time−step resulting in higher processing effort can be decisive.
Complexity:
The coupling of systems e.g., the interaction of a structure with its surrounding field, can
be described by the introduction of extra system matrices and/or an increase in the
dimensionality of the computational task.
Our commitments to the CAE supercomputing area embrace the provision and
maintenance of software, advice and execution of test computations for the planned
computation projects to be run on the CRAY. Access to the CAE packages for all our
users including the commercial users only requires a simple application to RUS.
Fig.\x11 4:\x14 Postprocessing of a Pump Body under internal Pressure, KSB AG
The following software packages are available on the CRAY C94 for mechanical CAE:
· ABAQUS: FEM package for mainly non−linear computations
69
· ANSYS: FEM package for universal problem areas
· LS−DYNA3D: FEM package for non−linear short−time dynamics (crash testing, metal
forming, airbags)
· MARC: FEM package for mainly non−linear computations.
Electromagnetic CAE computations can show many aspects of the field behaviour within
the limits set by the software’s ability to model the initial and boundary conditions,
within the limits given by the difficult areas indicated above and the available computer
performance.
Typical practical application domains are the design of electric motors, transformers and
micro−wave devices as well as computations relating to EMI, EMC and antenna
analysis.
Computations involving electromagnetic fields use the package:
· MSC/EMAS: FEM package for solutions to time−dependent 3D−Maxwell equations.
The generation of the input data for the pack−ages on the C94 as well as the display of
the resultant output data is carried out on workstations located at the users’ desks’.
They are fitted with powerful graphics hardware and are linked to the CRAY
supercomputer over a high performance network.
CAE Pre/Postprocessing is done using the following software packages:
· PATRAN: Pre/postprocessing for ABAQUS, ANSYS and MARC installed on the C94
· I−DEAS: Pre/postprocessing, analysis of linear static and dynamics
· CATIA: CAD/CAE/CAM package with many modules (e.g., robotics)
· MSC/ARIES: Pre/postprocessing for
MSC/EMAS on the C94.
The interface between the different Pre/postprocessing programs on the workstations
and the analysis tools on the supercomputer is currently realized via file translators.
Since the CAE workstation software is very ex−pensive, the Computer Centre tries to
obtain campus licenses in order to keep the costs down for the numerous academic users.
The software packages are procured and administered by the Computer Centre and only
made available to university institutions to which the RUS offers a central supporting
role.
In the postprocessing area there is comprehensive video equipment, in our visualization
de−partment, available. It can be used by all our commercial customers also, to provide
70
animations from the output data of the CRAY.
For more information please contact:
Norbert Ibold
Tel. 0711/685−5803
Fax 0711/6787626
E−Mail: [email protected]−stuttgart.de
Computational Fluid Dynamics
Martin F. Winter
The numerical fluid dynamics is one of the most computer−bound disciplines. Using the
funda−mental set of partial differential equations (the Navier−Stokes−Equations often
supplemented by turbulence models and the energy equation) general problems of fluid
flow are solved.
The solvable problem size is until these days really small with respect to the requests.
Never−theless the program development is pushed in an intense manner. The programs
are expanded in the direction of chemical reaction, combus−tion, interface problems
between fluid and solid, and more. The advantages of the numerical simulation
compared with the experiment are evident. For example, difficult or impossible
measurements can be replaced by computation.
Fig.\x11 5:\x14 Fluid Flow Simulation with FIDAP:
Vortex Pairing in free Shear Layer
For the solution of numerical simulation prob−lems in fluid dynamics together with their
various border regions, the computer centre offers different commercial simulation
programs.
The institutes of the university develop adapted simulation programs for special
purposes, as long as no commercial program is able to solve the problem. Some of these
developments are based on commercial programs.
While applying the simulation programs the computer centre offers intensive user
support. This support includes:
· Analysis of the physical problem
· Development of the mathematical model
· Description of the material properties
· Development of the mesh
71
· Adaption of the program
· Handling of the program
· Postprocessing
· Interpretation of the results.
Fig.\x11 6:\x14 Combustion in a Gas Motor/Flame Propagation, AVL GmbH
Moreover projects and tight cooperations with industry and institutes of the university
are carried out in numerical simulation.
The following commercial programs for fluid flow simulations are available:
Finite Volume Method:
· CFDS−Flow3D
· FIRE.
Finite Element Method:
· FIDAP
· FluxExpert.
For more information please contact:
Martin F. Winter
Tel. 0711/685−5532
Fax 0711/6788363
E−Mail: [email protected]−stuttgart.de
SERVER & NETWORKS
Workstation Concepts
The data processing concept of the University of Stuttgart is committed to a
heterogeneous open systems environment for scientific and educa−tional applications
based on Unix, in which certain well−known Unix workstation vendors should be
represented and hopefully also be supported.
Within this frame, the department for workstation concepts has the job to find, work on
and test computer− and operating systems, additional necessary and helpful software
subsystems or products as well as methods in distributed processing, networking, etc..
Interoperability is an important point herein. The gained knowledge will surely enable
72
RUS, to give campuswide information and support in selecting, installing, configuring,
operating and managing Unix workstations and subsystems for various vendors. An
important topic is the interaction between high performance computers and user
workstations in a highly distributed processing environment; one goal is here to achieve
an optimal working with supercomputers by client/server concepts.
This knowledge on different Unix workstations should lead to a standardization of
general and wide−spread Unix software, products, methods and services in the campus
and will allow an uniform, lean and economical management and maintenance of
workstations, which can be used at RUS and can be offered to other users. In this
context RUS operates reference/server systems on various workstation platforms as for
example DEC, HP, IBM (in SERVus cluster), SGI and SUN. Therefore RUS should be
able to give basic system support and other informations concerning those Unix
workstation platforms.
The reference systems are typical workstations as used in an university environment
and will users help to test and compare different hard− and software in general, to make
special user−de−pendent functional tests, to check performance on user programs, to get
a feeling with a certain Unix system and its components. These refer−ence systems
should enable users to test and evaluate a workstation, check for their own needs and
try to compile, link and (performance−) test their own software for making an optimal
selec−tion and investment.
The department also operates some heteroge−neous compute server systems, based on
typic−al Unix−workstation architectures. Within the open systems concept, users on
campus should have the possibility, to get access and make use of sys−tem platforms of
well−known Unix vendors usually not available in their own working environment.
Reasons for using such system platforms may be:
· Having binary programs and data which are not suitable for the own environment
· Using special bounded software products (licensed/available on a certain platform)
· Project cooperations needing other platforms
· Porting of software on other vendor platforms.
The security of Unix workstations is another task, but only in a more technical sense.
This means having a general look on security features of the hard/software components
of Unix workstations and to pay attention to security problems in these fields, especially
in networking subsystems.
Staff
The department consists of about 4 1/2 co−work−ers, whereof one person is full−time
concerned with the support, evaluation and checking of proposals for computer
investments of the institutes.
73
Equipment
There are reference systems for the following vendors: DEC (Ultrix: VAX, RISC; OSF/1:
AXP), HP (UX: PA730), SGI (IRIX: Indy) and SUN (Solaris: Sparcstation20), IBM is on
SERVus. There are universal compute server systems for SUN: Sparcstation 1000 (6
cpus, 256 MB memory) and DEC: DEC AXP 2100 Server (2 cpus, 256 me−mory), IBM is
on SERVus. Other vendor systems have to be added.
For more information please contact:
Dr.Lothar Ehnis
Tel. 0711/685−5985
Fax 0711/6787626
E−Mail: [email protected]−stuttgart.de
SERVER & NETWORKS
Workstation Concepts
Systems
The Systems Department plans, installs, maintains, supports and develops Unix−based
operat−ing systems and their components. Maintenance and support for the production
backbone includ−ing its servers is a key focus. We are striving for a single−system image
and also for mainframe quality of services.
Responsibilities
· Unicos system maintenance
· SERVus−cluster operation and development
· AIX support for users on and off campus
· Operation and maintenance of a campuswide AFS−cells
· Support and development of campuswide distributed batch systems
· Maintenance and operation of the in−house backbone network
· DCE project−leadership
74
Cooperations
· IBM: Several betatests
· CRAY: Unicos and OSI beta−tests
· CRAY & PSC: AFS on Cray
· IBM & CRAY: DCE prototypes and betatests
· BULL: Betatest SMP−system
History
· 1968 CD6600, scope, NOS/BE
· 1975 Cyber 174, first inter−active usage
· 1983 CRAY−1M, COS
· 1983 IBM 3083, VM/CMS
· 1984 EARN Network
· 1986 CRAY−2, first UNIX− system in production
· 1991 CRAY Y−MP, fileserver
· 1991 first timeserver
· 1991 first AFS−cell in Germany
· 1992 SERVus servicecluster
· 1992 prototype DCE
· 1994 CRAY−C94 replaces CRAY−2
· 1994 CRAY T3D.
Since the introduction of the CRAY−1 in 1983, computing at RUS has two major
components:
· vector− and more recently parallel−supercomputing for numerically intensive
applications,
75
· interactive systems for post− and preprocess−ing of application−runs as well as scalar
batch processing. Necessary technologies of distributed computing evolved from
prototype to production in the service environment.
Conception
Today’s system environment consists of a number of servers interconnected and
accessible via a hierarchical network topology. Increasing compute power of the
workstations on campus led to a decrease in usage of the traditional general−purpose
services. At the same time the demand of the workstation users for better system− and
software−support in their decentralized environment has increased constantly.
The answer appears to be a centralized and consistent management of users, data,
networks and systems in a heterogeneous environment.
The idea of a RISC−based server cluster at RUS (aka SERVus) as the technology−carrier
and base for the streamlined offer of numerous dif−ferent centralized services, was
supported financially and conceptually by the advisory commission of the DFG
(Deutsche Forschungsgemeinschaft, German Research Foundation). The cluster were to
replace a COMPAREX mainframe (IBM compatible) which had provid−ed general
services to the user community for many years.
Integration into the Environment
After the migration of all RUS−services onto Unix−based platforms, the RISC−cluster
SERVus is integrated homogeneously into the surrounding Unix environment. It
constitutes a transparent front−end interface between user−machines or terminals on
campus and the high−performance servers of the Computer Centre. The homo−genous
integration directly and transparently supplies the following services:
· High−performance vector−computeserver CRAY−C94 (including a T3D MPP system)
via direct NQS−queues
· High−performance fileserver CRAY−Y/MP as a mass storage system for large amounts
of data. Storage into StorageTek tapesilos through automatic DataMigration of NFS
mounted filesystems
· Other services like print, plot, info, news etc.
RUS−Services for Cluster and Workstations on Campus
The SERVus−cluster in its current conception not only replaces the former mainframe
functionality, but also serves as a reference platform for the development and test of
support−methods for external systems on campus. Today we offer the following services
to our outside customers:
76
· Operating system installation and mainten−ance (AIX)
· Readily standardized operating−system images to install or upgrade workstations over
the net
· Administration of distributed resources (i.e. AFS−cells)
· Distribution and maintenance of AIX−software under campus licenses
· Distribution of centrally maintained software via AFS
· User management.
Filesystem
In building a Single System Image, the file−system is of greatest importance. The view
onto user’s data shall be completely transparent and independent of the location. The
state−of−the−art distributed Andrew−File−System is very success−fully used, not only
in the cluster but also in the campus community.
ACLs are administered by the owners them−selves. For the users the pathnames to their
directories on all machines in the AFS−cell are identical! All homedirectories as well as
application packages, compilers and other software reside in AFS, resulting in
centralized installation and maintenance capabilities. A huge software offering (i.e.
public domain software etc.) is available on all machines in and outside the cell.
For more information please contact:
Walter Wehinger
Tel. 0711/685−2513
Fax 0711/682357
E−Mail: [email protected]−stuttgart.de
Data Management
In the context of growing computer power and a fast emerging distributed computing
environment, data storage becomes more and more a focal point.
Networked computer systems are to be considered as being only a tool for the users to
pursue their profession. Data should be processed on the most appropriate servers,
whether they are PVPs, MPPs, graphic workstations or simp−le PCs. The tasks to locate
and store the data, sometimes up to several gigabytes in size, and, if required, to
transfer this data are not of any primary concern. Those actions should be carried out by
the computer systems, in order that the user can work more effectively.
The scope of the Data Management Section includes:
77
· local file systems for permanent and tempo−rary data storage on the Centre’s compute
servers,
· distributed file systems,
· a mass storage system,
· a backup service,
· and support for user data exchange.
Responsibilities cover the areas of planning, configuration, maintenance, software
customization and tools development, resource usage collection, and problem tracking.
The mass storage file service runs on a dedicat−ed CRAY Y−MP M92. UNICOS Data
Migration Facility (DMF) is used for hierarchical storage management on 50 GB disk
space and about seven terabyte of tape capacity housed in a StorageTek Automated
Cartridge System.
Data access is either explicit − ftp, rcp − or implicit via NFS. The mass storage file
system has some 1.85 million files and a data volume of 1.45 TB.
The backup service, in its current state, is a distinct file system on the CRAY Y−MP
M92, where the user targets his backups to disk files and the movement of those copies
onto tapes is up to DMF. This "backup" file system contains a data volume of 1.2 TB in
52 500 files. Scheduled to be available this year is a RISC computer based backup
service, sharing the back−end storage with the mass storage system. It will provide more
end−user functionality, such as a GUI−based user interface for user−initiated backups
and selective file restores as well as more man−agement capabilities for the Centre as
the service provider.
For the local file systems special attention is to provide highly reliable, properly
managed data storage for effective use on the high perform−ance computers with many
users, varying their workload over time. The temporary, more accu−rate
semi−permanent working space is subject to similar rules on all the compute servers,
providing data availability across system restarts and beyond job or session termination.
On all the central servers a directory tree struc−ture has been defined and implemented,
which establishes a global uniform name space, wheth−er access is via NFS or AFS. In
conformance with the DCE project at RUS, provisions are made to achieve a smooth
integration of the Distributed File Service (DFS).
For more information please contact:
Uwe Fischer
Tel. 0711/685−5800
Fax 0711/682357
E−Mail: [email protected]−stuttgart.de
78
Workstation Maintenance
The Workstation Maintenance group offers services for workstation (WS) users in the
campus and maintains WS− and PC−pools, offered by RUS for students.
This group has been established in 1993 within a cooperate project between RUS and
Staatliche Materialprüfungsanstalt (MPA). The project’s intend is a turning away from a
local maintenance approach and strives for setting up a RUS service, to achieve a more
cost−efficient workstation maintenance by increasing synergy. This service will be
offered by costs to other institutions. Therefore, MPA’s computer maintenance staff (6
persons) has been integrated within the RUS, still paid by MPA and primarily engaged
in supporting the MPA.
In accordance with the project’s goals, these concepts and techniques for workstation
main−tenance (WS−M) at MPA should be considered as typical for WS support in the
campus. In principal, the WS−M group is endeavoured to apply concepts, which are
evaluated by the RUS department Workstation Concepts.
For all supported WS platforms (DEC, HP, IBM, SGI, SUN) the following services will
be offered:
· Installation of the hardware
· Installation and update of operating systems
· User and resource management
· Supervision of system integrity.
All kinds of advisory support is free of charge.
Fields of Activities: Workstation Pool
Students have free access to a WS pool maintained by RUS. For their accounts a full
range of UIDs is separately maintained by a specific kerberos server. Filespace is located
within an own AFS−cell. Both services are offered to other pools in the campus.
To simplify the pool management, each client is replicated from a reference system
image. All services are server based, e.g. mail is available via POP−mail from the central
studbox.
Each day the pool is used by about 400 users.
79
PC−Pool
The PC−Pool for students is DOS based and available without an user account. This pool
will be renewed to offer additional services like: DOS/Windows, OS/2, Linux, which will
be user selectable during startup. For a reliable pool availability it is necessary, that
each user starts with a well defined environment, downloaded from a server.
For all PC platforms software will be installed to enable users with an Unix account to
use all Unix services offered by RUS.
DECathena
Advanced WS management concepts are stud−ied in a common project (DEC, RUS,
MPA).
MIT−Athena and DEC−Athena are evaluated for their suitability for future cluster
management.
PC Support
Support for PCs in the campus is done by a group of students. They evaluate software
solutions to integrate PCs into Internet. Though RUS services can be used by all PC
user, e.g. back−up, archiving. Support is given by courses, publications and a mailbox
helpline.
MPA / RUS Project
MPA is a representative of a big institute (about 280 empl.), working mainly on
experimental and numerical analyses in the area of material science and testing. Its
computer equipment is heavily heterogeneous, data processing pre−dominantly
applications oriented.
Support for MPA is based on RUS concepts and covers the management of:
· Unix−WS (25 systems)
· Server (4 systems)
· VAX/VMS (11 systems)
· Peripherals (25 X−terminals,
120 VT−terminals, 30 printers, etc.)
· Network infrastructure (Ethernet, FDDI)
80
· Internet services for Personal Computers (about 110 systems). This includes a full site
support of planning, purchasing, hardware/ software installation, maintenance and
oper−ation of those systems with application
orientated user support.
Server and workstation management as well as all aspects of service offering is strictly
orientated to the conceptional framework of RUS:
· RUS services are used wherever possible:
− User and account management
− Compute services (CRAY, SERVus)
− AFS and CRAY−YMP mass storage
− Software distribution via RUS’s software
− Installation concept (/sw)
− Visualisation services
− Communication and information services
· Client/Server computing is based mainly on RUS services and assisted by local servers.
They improve central service availability and efficiency by local service replication (/sw)
or local subservers (AFS)
· Workstations are organized in clusters and each WS is treated as a client with the
same software configurations. System images are replications of a site specific reference
system. Services are generally realized by servers. In case of local requirements,
filesystems for spe−cific software are always implemented on a separate disk to
minimize interferences with system management. MPA uses the following Unix systems:
− AIX
− IRIX
− ULTRIX
− OSF/1e.
The workstation maintenance group is formed by 3 scientific and 3 technical employees
with up to 20 years experience in data processing and system maintenance.
For more information please contact:
81
Dietmar Kießling
Tel. 0711/685−4519
Fax 0711/6854519
E−Mail: [email protected]−stuttgart.de
BASIC SERVICES
Operations
The Computer Centre of the University of Stuttgart affords its users various modern
supercomputing platforms with numerous application packages. It provides services in
all the im−portant areas of computing and supports its users by offering solutions to
their technical and scientific problems.
In the areas of education and research, the Computing Centre users include not only the
vast majority of the disciplines within the University, but other universities and colleges
within the state of Baden−Württemberg.
Further users include a number of public, state and national institutions as well as
medium to large industrial companies.
Networking, both within the Computer Centre and to the University, use modern
technologies to allow flexible machine access. Basically, all the services offered by the
Computing Centre are charged.
The Operations Department of the Computing Centre provides an important interface to
the user community. It is responsible for the management of the users, including the
central UID server for the University. It also organizes the resources and issues the
invoices for all pro−cessing performed on any of the available ma−chines. Users are
offered advice on the use of a machine and those users requiring larger re−sources are
especially catered for. The database knowledge, existing within the department, led to
the establishment of a service to provide and maintain database software systems.
The department is also responsible for the trouble−free running of the machines and to
ensure their high availability. Any problems including interruptions outside normal
working hours are solved using the cooperation of other departments where necessary.
Additional tasks involve controlling and maintaining the ancillary equipment such as
power supplies, air con−ditioning and cooling water as well as fire protection and other
alarm systems. The department is also responsible for the planning and installation of
new machines.
The classic tasks of the department, such as machine operation, production planning
and controlling have altered over time. Today, ma−chine operators are only required to
run complex video and graphic equipment.
More important and significant nowadays is the support for servers and workstations,
video and visualization services and network management. These tasks, together with
the necessary software development and maintenance, de−mand qualified and skilled
82
personnel.
For more information please contact:
Erika Fischer
Tel. 0711/685−4515
Fax 0711/682357
E−Mail: [email protected]−stuttgart.de
BASIC SERVICES
Operations
PROJECTS OF RUS
[email protected].−stuttgart.de
Title:
ACTS INFOWIN
Category:
Information infrastructure
Subject:
Provision of ACTS project information infrastructure
Partners:
DeTeBerkom
Source:
ACTS
Duration:
status: negotiating
Contact:
Barbara Burr (prime contractor)
Title:
ACTS National Sub−Host
Category:
Project support infrastructure
Subject:
Provision of infrastructure for ACTS projects
Partners:
State Science Ministry, DeTeBerkom
Source:
State of Baden−Württemberg’s provision of network and computing infrastructures
Duration:
ongoing
Contact:
Barbara Burr / Paul Christ
Title:
ADONNIS
83
Category:
HPCN, simulation, visualization, CSCW
Subject:
Collaborative distributed simulation/visualzation in aerospace pre−design (CFD) trials
using the European ATM field trial
Partners:
ONERA, NLR, Dassault, Deutsche Airbus, DLR, CIRA, Alenia, CASA
Source:
ESPRIT 9033
Duration:
11/93 − 12/95
Contact:
Ulrich Lang
Title:
ATHOC
Category:
ATM over CATV networks, HPCN, simulation, visualization, CSCW
Subject:
Collaborative distributed simulation/visualzation, CSCW, ATM over CATV networks,
interworking
Partners:
ALCATEL SEL CRC, ETHZ, INTEGAN, Bell Antwerp, CET Portugal, NTU Athens,
Verbraucherzentrale Baden−Württemberg
Source:
ACTS 0037
Duration:
09/95 − 08/98
Contact:
Paul Christ
Title:
BelWü4M
Category:
HPCN, CSCW, visualization, application projects
Subject:
Co−ordination of 10 network−oriented application projects proposed to the DFN RTB
framework
Partners:
Universities of Tübingen, Heidelberg, Mannheim, Karlsruhe
Source:
DFN
Duration:
2 years (status: delayed)
Contact:
Peter Feil
Title:
BelWü4M infrastructure
Category:
Network development/deployment
Subject:
84
Upgrade of the state science network BelWü to 155 Mbit/s ATM
Partners:
State Science Ministry, DBP Telekom
Source:
State of Baden−Württemberg
Duration:
status: pending
Contact:
Paul Christ
Title:
CAESAR
Category:
HPC
Subject:
Euler solver using unstructured meshes on MPP
Partners:
intel SSD, DASA
Source:
ESPRIT
Duration:
09/94 − 1.5 years
Contact:
Alfred Geiger
Title:
CIO
Category:
CSCW, multimedia, QoS in networks
Subject:
CSCW, joint editing, multimedia mail, advanced transport systems on top of ATM etc.
Partners:
DeTeBerkom, ETHZ, University of Ulm, TUB, CET, NTR, DBP FTZ
Source:
RACE 2060
Duration:
01/92 − 12/95
Contact:
Andreas Rozek
Title:
Development and test of innvovative products − Rapid prototyping
Category:
Simulation, visualization, HPC
Subject:
Integrated software environment for simulation and visualization, user interfaces in
motorcar industries
Partners:
Mercedes−Benz, FHG − IAO/IPA
Source:
German SRA (SFB)
Duration:
85
07/94 − 3 years
Contact:
Ulrich Lang
Title:
DFN−NOC
Category:
Network operations
Subject:
Management of the German and international IP
Partners:
DFN
Source:
DFN
Duration:
08/93 − 12/96
Contact:
Peter Merdian
Title:
DFN−NOC (Timeserver)
Category:
Network management/time service provision
Subject:
Time service provision
Partners:
DFN
Source:
DFN
Duration:
01/95 − 12/96
Contact:
Peter Merdian
Title:
DFN RTB−NOC
Category:
Network management
Subject:
Management of the evolving so−called Regional Testbeds (RTB) of the DFN
Partners:
DFN
Source:
DFN
Duration:
01/95 − 12/97
Contact:
Peter Merdian
Title:
DFN RPC
Category:
RPC, distributed computing environment, DCE
86
Subject:
Development of a versatile, performant Fortran oriented RPC in co−operation with a
user group
Partners:
University of Tübingen, ISD, IKE University of Stuttgart, AWI Bremen etc.
Source:
DFN
Duration:
ongoing − 12/96
Contact:
Rolf Rabenseifner
Title:
Europort 1
Category:
HPC
Subject:
Porting the multiblock Navier−Stokes solver NSMB to parallel platforms
Partners:
CERFACS
Source:
ESPRIT
Duration:
09/94 − 2 years
Contact:
Uwe Küster
Title:
HiATM
Category:
Network system
Subject:
Ethernet−to−ATM box
Partners:
Hirschmann GmbH
Source: Hirschmann GmbH
Duration:
ongoing
Contact:
Christopher Copplestone
Title:
High−temperature problems of re−entrant space transport systems
Category:
HPC
Subject:
Modelling and validation of thermo−physical effects of re−entry. 3D URANUS−code,
parallelization
Partners:
IRS University of Stuttgart
Source:
German SRA (SFB)
87
Duration:
(06/93 − )10/95 − 09/98
Contact:
Alfred Geiger
Title:
HPC ISE
Category:
Visualization, parallelization, HPC
Subject:
Load balancing, dynamic distributed data structures, distributed and parallel
visualization
Partners:
Daimler Benz, Renault, Computational Dynamics Ltd.
Source:
ESPRIT/IT
Duration:
01/96 − 3 years
Contact:
Alfred Geiger / Ulrich Lang
Title:
MERCI
Category:
CSCW, desktop video conferencing
Subject:
CSCW, seminars, teaching over MBONE/Internet, interworking H.261/ISDN − packet
video
Partners:
UCL, INRIA, KTH, GMD, UoO, TELES
Source:
TELEMATICS for Research, 1644
Duration:
11/95 − 10/97
Contact:
C.−D. Schulz / Paul Christ
Title:
Methods and algorithms to simulate physical processes on high performance computers
Category:
Visualization, parallelization, HPC
Subject:
Development of parallel volume visualization methods on parallel computers
Partners:
ICA University of Stuttgart, TAT University of Tübingen
Source:
German SRA (SFB)
Duration:
07/94 − 3 years
Contact:
Ulrich Lang
Title:
88
MICE
Category:
CSCW, desktop video conferencing
Subject:
CSCW, seminars, teaching over MBONE/Internet
Partners:
UCL, INRIA, NTR, SICS, KTH, GMD, ULB
Source:
ESPRIT 7602
Duration:
11/92 − 10/95
Contact:
C.−D. Schulz
Title:
MKS
Category:
Multi−body system, simulation, animation, visualization, software integration, RSYST
Subject:
Modular integrative multi−body system
Partners:
14 German universities
Source:
DFG Focus (DFG Schwerpunkt)
Duration:
finished
Contact:
Roland Rühle
Title:
OPTIMA
Category:
Thermal simulation (software integration)
Subject:
Optimization of heating, airconditioning and cooling of buildings
Partners:
IKE, IPVR, IVD, IBK University of Stuttgart
Source:
State Science Ministry
Duration:
04/93 − 12/94
Contact:
Carsten Volle
Title:
PAGEIN
Category:
HPCN, simulation, visualization, CSCW
Subject:
Collaborative distributed simulation/visualzation in aerospace pre−design (CFD)
Partners:
ONERA, NLR, Dassault, Deutsche Airbus, DLR, CIRA, Alenia, CASA
89
Source:
RACE 2031
Duration:
01/92 − 12/95
Contact:
Ulrich Lang
Title:
PARIS
Category:
HPC
Subject:
Parallel RISC cluster based CFD and structural mechanics
Partners:
DLR, IBM, SFB 259
Source:
IBM
Duration:
1992 − ongoing
Contact:
Alfred Geiger
Title:
PROMENVIR
Category:
Software engineering, object oriented design, software integration, probabilistic
simulation for variance reduction, mechanical engineering
Subject:
Multibody sytems, finite element systems
Partners:
CASA, CEIT, UPC, PAC, ITALDESIGN, Blue Engineering, IKOSS
Source:
ESPRIT/IT
Duration:
01/96 − 2 years
Contact:
Jochen Seybold
Title:
Software labor
Category:
Software integration
Subject:
Integrated computerized development of automobiles
Partners:
Daimler Benz AG, Dornier GmbH
Source:
State Science Ministry
Duration:
since 01/95
Contact:
Carsten Volle
90
Title:
SONAH
Category:
Information infrastructure
Subject:
Information infrastructure for the RACE/ ACTS transition phase
Partners:
DeTeBerkom et al.
Source:
RACE
Duration:
03/95 − 02/96
Contact:
Barbara Burr
Title:
USPS
Category:
Network system
Subject:
High−performance interconnection network, HIPPI−to−ATM transition
Partners:
INü, IND, IPVR, IMS University of Stuttgart
Source:
State Science Fokus (Schwerpunkt)
Duration:
01/92 − 03/95
Contact:
Peter Haas
Title:
Visualization in scientific computing
Category:
Visualization, bio−mechanics
Subject:
Visualization in human bio−mechanics and astro−physics, students education
Partners:
TAT, IGS University of Tübingen
Source:
State Science Focus
Duration:
09/94 − 2 years
Contact:
Ulrich Lang
Title:
WIN shuttle
Category:
Internet access via POTS/ISDN
Subject:
Estasblish and run a German−wide internet DFN−WIN access infrastructure via
POTS/ISDN
91
Partners:
−
Source:
DFN
Duration:
09/95 − 3 years
Contact:
Barbara Burr
For more information please see:
Web: http://www.uni−stuttgart.de
Project: ADONNIS ESPRIT 9033
Engineers can perform a simulation on the supercomputer at RUS. Results of
simulations are visualized e.g. as coloured pressure distributions or particle flow around
the aircraft body or wing (see screen snapshot). Simultaneous display on the workstation
of all cooperating partners allow to discuss and analyse the simulations.
Audio−/videoconferencing functionalities are closely integrated into the software
environment to enable the discussion.
Fig.\x11 1:\x14 Network Configuration of INTEROP ’94
The ESPRIT project ADONNIS consists of a set of experiments conducted by the
European Aerospace Industry. An aim of the experiments is to evaluate the benefits of
european high speed network infrastructure usage for different aerospace application
cases.
The application case selected for the INTEROP ’94 demonstrates the cooperative
analysis of an airflow simulation around a new aircraft. An engineer located at the
INTEROP ’94 stand co−operates with engineers at the Deutsche Aerospace Airbus DA,
Bremen/Germany, at the University of Stuttgart Computer Centre RUS,
Stutt−gart/Germany, and the ONERA, Chatillon/France.
Fig.\x11 2:\x14 Particle Flow around the Aircraft Wing
For more information please contact:
Harald Nebel
Tel. 0711/685−5790
Fax 0711/6787626
E−Mail: [email protected]−stuttgart.de
92
Project: RACE 2060 CIO
Coordination, Implementation and
Operation of Multimedia Teleservices
Joint Viewing and Tele Operation Service
Talk to each other, see each other, work to−gether on one computer program − but not at
the same location!
Systems
· Sun SPARCstation
· SGI Indigo
· Apple Macintosh
Networks
· LANs
· ATM
· ISDN
Protocols
· TCP/IP, UDP/IP
· XTPX
CIO Teleservices for Computer Supported
Collaborative Work
Use your current programs in a distributed enviroment:
· Do not change anything!
· Do not recompile!
· Do not link again!
93
Just start your application when JVTOS is running...
... and be prepared for
· Upcoming network technologies
· Advanced transport protocols
· Support for quality of service!
Project Partners
Operators
Centro de Estudos de Telecommunicações (P)
Deutsche Bundespost Telekom (D)
DeTeBerkom GmbH (D)
Norwegian Telecom Research (N)
Royal PTT Nederland NV (NL)
TELEFÓNICA (E)
User Interface
Media Port Berlin GmbH (D)
Software Houses & Manufacturers
Ascom Tech Ltd. (CH)
ACOTEC GmbH (D)
INTERSIS Automação, s.a. (P)
Online Park GmbH (D)
Siemens AG (D)
94
Research Institutes
Eidgenössische TH Zürich (CH)
Ges. für Mathematik und Datenverarbeitung (D)
Technische Universität Berlin (D)
Universität Stuttgart (D)
Universität Ulm (D)
Université de Liège (B)
For more information please contact:
Paul Christ/Andreas Rozek
Tel. 0711/685−2515
Fax 0711/6787626
E−Mail: [email protected]−stuttgart.de
Project: DFN NOC
Since late 1993 the DFN Network Operation Center (DFN NOC) is located at the BelWü
Coordination. The DFN NOC is run by order of the "Association for the promotion of a
German research network" (Deutsches Forschungsnetz, DFN). It provides basic IP
services to the German scientific and research community.
This includes operation of
· the ATM based high−speed IP network
· the X.25 based WiN−IP backbone
· international IP connections for the DFN−IP service
Connectivity within the scientific and research community of Germany is provided by
the Wissenschaftsnetz (WiN) which is based upon ATM and X.25 and offers access
bandwidths of 9.6 KBit/s, 64 KBit/s, 128 KBit/s, 2 MBit/s and 34 MBit/s to its members.
The ATM based B−WiN consists of ten central backbone routers with about 30 customer
access points using an access speed of 34 MBit/s (155 MBit/s in autumn ‘96). At the
customer sides the ATM switches are managed by the Deutsche Telekom and the WiN
routers are managed by the DFN NOC. Currently the only service is IP − X.25 and ATM
is planned for late ‘96.
95
The DFN NOC organises the IP service within the X.25 WiN by managing a connectivity
database. It contains the X.25 access data of the 300 WiN members. This includes
approximately 170 members which are connected to the X.25 WiN−IP backbone.
The X.25 WiN−IP backbone consists of Cisco routers at ten different sites across
Germany and are managed by the DFN NOC. They are fully meshed via 2 MBit/s X.25
lines.
The international IP connections for the DFN−IP service are located at Düsseldorf. DFN
cus−tomers normally reach this foreign access point via WiN.
At Düsseldorf various lines run to foreign partner organisations allowing European, US,
and worldwide IP connectivity. These are 6 MBit/s to DANTE/BT (Europe through
Amsterdam), 4MBit/s to MCI (oversea) ,2 MBit/s to DANTE (Europe, US, and worldwide
through Amsterdam via Aachen), 1.5 MBit/s to ESnet (US and worldwide through
Princeton), and 512 KBit/s to Moscow. The DANTE and ESnet lines are set up for
mutual backup in case of failure. These lines give international IP connectivity to nearly
300 DFN−IP members with more than 1200 IP networks and way beyond 200,000 hosts
(nameservice count) which covers approximately half of the hosts connected to the
Internet in Germany. The IP traffic on all foreign access lines now amounts to more than
2 TBytes per month.
All routers of the DFN−IP service and the WiN−IP backbone though located at different
sites in Germany are centrally managed by the DFN NOC at Stuttgart.
The network is permanently monitored regard−ing performance and faults.
Automatic tools generate alerts also outside regular business hours.
Although no general round−the−clock service is offered members of the DFN NOC are
normally available at least on the weekends resulting in a high service level. The
management of the IP network also includes support and advice to members of DFN−IP
and WiN−IP on installing and maintaining IP connectivity, and on perform−ance and
fault management. Moreover, two mailing lists, an ftp server, and a WWW server are
available presenting user reports, handbooks, trouble tickets, and current monitoring
information online from the network.
For more information please contact:
Dr. Joachim Schmitz
Tel. 0711/685−5576
Fax 0711/6787626
E−Mail: [email protected]
Project: HiATM
The Computer Centre has worked in close co−operation with the company Richard
96
Hirsch−mann GmbH for many years. In 1984, the world’s first fibre−optic Ethernet LAN
was installed at the university. Since 1987, the Computer Centre has been closely
involved in the design and subsequent development of a full−speed remote Ethernet
bridge, the MultiLAN Switch MR8−03. This cooperation has now been extended to the
design and development of an ATM−Ethernet inter−working unit based upon the
MR8−03. The first prototypes are expected early in the summer of 1995. They will be
used to allow the university’s LANs to be connected to ATM backbones (both public and
private) and to provide platforms for the development of software by researchers
(including students) e.g., in the areas of traffic management and policing.
Fig.\x11 1:\x14 Multiport Bridge
For more information please contact:
Christopher J. Copplestone
Tel. 0711/685−5987
Fax 0711/6787626
E−Mail: [email protected]−stuttgart.de
Project: HSL−MUX
110 Mb/s via VBN (Telekom)
The HSLMUX (High−Speed−LAN Multiplexer) converts 100 Mb/s and/or 10 Mb/s data
streams to the 140 Mb/s VBN−Frame (VBN, Public Broadband Network, Telekom).
Depending upon the LANs connected, the HSLMUX has to be equipped with either 100
Mb/s coaxial or fibre−optic interface or with a 10 Mb/s Thick−Wire−Ethernet interface.
Possible configurations are shown in the following table:
Tab.\x11 1:\x14 HSLMUX−Interface Configurations
−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−
100 Mb/s−fibre 100 Mb/s−coax 10 Mb/s Thick−Wire
−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−
1
−
1
−
1
1
−
−
5
−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−
Using the HSLMUX it is possible to connect LANs over the VBN as shown in figure 1.
This may be done using dial−up or permanent VBN connections.
Fig.\x11 1:\x14 HSLMUX−VBN Connections
The largest FDDI−Ring worldwide?
In October 1991, the two Super Computer Centres in Stuttgart and Karlsruhe were
connected using HLSMUXs’ over a permanent VBN−Connection. This is the largest
97
FDDI−Ring worldwide (150 km). At each centre, the HSLMUXs’, being the only
participants in the WAN−FDDI−Ring, are each connected to a router.
Fig.\x11 2:\x14 FDDI−Ring Stuttgart−Karlsruhe
The longest UltraNet
In the autumn of 1992, the UltraNet LANs in Bremerhaven (Alfred−Wegener−Institute)
and Tübingen (University) were connected to Stuttgart, using HSLMUX with 100 Mb/s
coaxial interfaces. UltraNet’s special Link−Layer Protocol allows long distances to be
spanned with a lower performance loss.
Tab.\x11 2:\x14 UltraNet Performance via VBN
−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−
Sites
Performance
−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−
Stuttgart<−>Tübingen
90 Mb/s
Stuttgart<−>Bremerhaven 70 Mb/s
−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−
Fig.\x11 3:\x14 UltraNet and VBN
Both locations were connected to Stuttgart with automatic dial−up connections.
The first public ATM LAN/WAN
During CeBIT ’93, several institutions set up a LAN at a booth in Hannover.
This ATM−LAN and the ATM−LAN at RUS were connected using HSLMUXs’ (AMUX)
equipped with fibre−optic interfaces. Over this ATM−VBN dialup connection transfer
rates of up to 80 Mb/s were recorded.
Fig.\x11 4:\x14 CeBIT ’93 ATM Configuration
Interop ’93 Paris
For Interop ’93, three ATM−LANs (Munich, Berlin, and Stuttgart) were connected using
the HSLMUXs’ and VBN. The connection to the Paris booth network and the three ATM
LANs was accomplished at Stuttgart using the Deutsche Telekom’s SMDS Datex−M
Service.
For more information please contact:
Wilfried Milow
Tel. 0711/685−5988
Fax 0711/6787626
98
E−Mail: [email protected]−stuttgart.de
Fig.\x11 5:\x14 Interop ’93 ATM Configuration
Project: InfoWin Multimedia
Information Window for ACTS
The InfoWin project will create and maintain the ACTS Information Window. This will
allow the ACTS projects to see the information world surrounding them, and provide to
the world a view of all aspects of the work in ACTS.
The project involves the National Hosts in ACTS which provide the distributed platform
on which the information services can be built. It works at the service layer to provide
information and services to ACTS projects.
We offer to
· Operate WWW information services
· Provide distributed archive and retrieval
services
· Provide project areas on servers to promote collaborative work amongst ACTS projects
· Gather, edit and electronically publish information from projects
· Gather, edit and publish filtered external information relevant to ACTS activities
The Partners:
· RUS / D
· Analysiys Ltd / GB
· DeTeBerkom GmbH / D
· CP2i / F
· CSELT / I
· NCSR Demokritos / GR
· Telefonica + ID / E
· BBN − Burger Breedband Net / B
99
· BIT − Bureau for International Research
and Technology Cooperation / A
· INRIA / F
· C&C − KTH Center for Computing &
Communinication Systems / S
· Post and Telecom Iceland / ICE
· UNI−C / DK
· Telenor / N
· Open University / GB
· Fernuniversität Hagen / D
· IENM − Institute for Information Economy
and New Media / A
· IGD − Fraunhofer Institute for Computer
Graphics / D
· Intracom / GR
· Swiss Telecom / CH
For more information please contact:
Barbara Burr
Tel.: 0711/685−5811
Fax 0711/6787626
E−Mail: [email protected]−stuttgart.de
http://www.rus.uni−stuttgart.de/infowin/
Project: ESPRIT 7602 MICE
In 1992, the CEC agreed to finance a one−year project called The Piloting of Multimedia
Inte−grated Conferencing for Europe (MICE). This ESPRIT project completed Phase I in
early 1994, but work is continuing within the initial collaborating group.
The consortium, with UCL (University College London) as the coordinating partner,
consists of:
· Belgium Free University of Brussels (ULB)
100
· France INRIA Sophia Antipolis
· Germany GMD Darmstadt, RUS Stuttgart
· Norway University of Oslo (UiO), Norwegian Telecom Research (NTR)
· Sweden KTH, Swedish Institute of Computer Science (SICS)
· UK University College London (UCL).
The goal of the MICE project is to pilot inter−working between european researchers,
and also to connect them to sites in the US, using existing network facilities. The MICE
system currently allows multimedia conferencing (audio, video, and shared workspace)
between con−ference rooms and workstation−based facilities, hardware and software
codecs, packet−switched networks and ISDN, using both unicast (point−to−point) and
multicast (multi−point) technology.
In 1993 the project had 3 overlapping phases: definition, trial and evaluation. During the
definition phase, a multimedia conferencing reference architecture was defined. The
facilities required, such as conference rooms, workstations and the Conference
Management and Multiplexing Centre (CMMC) at UCL, have been specified.
During the trial phase in 1993, the facilities of all three areas were continuously
improved. In this phase interworking between the MICE partners, and sites in the US,
were demonstrated successfully in public events at the following confer−ences:
· Joint European Networking Conference (JENC) in Trondheim/Norway
· Internet Engineering Task Force (27th IETF) in Amsterdam/Dutch
· Interop ’93 in Paris/France
· JENC5/INET ’94 in Prague/Czech Republic.
In October 1993, the MICE project started the MICE International Seminar Series on
Multi−media, Communications and Networks, Distributed Systems and CSCW, with
UCL and SICS as the principal transmitting sites, along with GMD, INRIA and LBL.
The strengths (and weaknesses) of the MICE facilities were detailed in the evaluation
phase, in the light of experience drawn from these seminars together with the weekly
MICE project multicast meetings.
MICE partners are working to improve the exist−ing software tools for audio, video and
shared workspace. To allow better use of both workstations and conference rooms.
Current investiga−tions are focusing on:
· Interworking with multimedia servers
101
· Security
· Traffic monitoring, modelling, management
· Moving to high−speed networks.
MICE continues to help with events which demonstrate how the available technology
allows national or international collaboration. Diverse user groups, such as medical staff
and physicists are beginning to use the MICE approach. A new series of International
seminars is scheduled for 1994/95.
National support centres exist, or are in the process of being established, throughout
Europe. Another document in this series describes their objectives and functions.
For more information please contact:
Paul Christ
Tel. 0711/685−2515
Fax 0711/6787626
E−Mail: [email protected]−stuttgart.de
Web: http://www−ks.rus.uni−stuttgart.de/mice/
Project: Multibody Systems
Analysis and Design of Multibody Systems with Database
Integration using an Object−Oriented Data Model
In the nationwide German research project "Dynamic of Multibody System" a
parameterized object−oriented data model was developed to define the geometric and
dynamic properties of multibody systems. The object−oriented data model describes
engineering applications, such as multibody systems are, in a natural and efficient way.
This object−oriented data model is implemented within RSYST. With this data mod−el
and RSYST as an interface and integration technology of data and modules with an
object−oriented database, 15 Universities in Germany built up a common multibody
system software package. RSYST provides 15 application mod−ules to treat with
multibody systems:
· Define and modify the objects describing the dynamic and geometric properties:
MBSEDIT, GEOEDIT, MBSGET, GEOGET, MBSPARAM
· List and print all objects multibody system: MBSLIST, MBSPRINT
· Determine the topology of multibody systems: MBSTOPO
· Compute consistent position and velocity of a multibody system with closed kinematic
loops: MBSPOSI, MBSVEL
102
· Kinematic analysis of a multibody system with and without closed kinematic loops and
online visualization: MBSKINE
· Compute the input files for the DYMOLA multibody system library: MBSDYM
· Online and off−line visualization of multibody systems with the module MBSVIS.
Fig.\x11 1:\x14 Pedestrian Bridge in Kiel−Hörn
Fig.\x11 2:\x14 Visualization of a Trajectory Optimization
Since the DFG multibody system package is based on RSYST his modules can easily
used in conjunction with other RSYST modules. In particular the modules of the
ANDECS(1)−project are a very useful addition to the multibody sys−tem modules,
because a broad range of analysis and design methods become available for multibody
systems. Especially it is possible to compute multi−objective parameter and trajectory
optimization and the user is enabled to visualize every optimization step. To define the
properties of a light weight robot following steps are necessary:
· Definition of the multibody system dynamic and geometric data by an editor or by
inter−active input with the modules MBSEDIT and GEOEDIT
· Generating the input file for the general dynamic modelling language DYMOLA(2) by
the module MBSDYM. Dymola generates parameterized symbolic equations of motion
where the code grows only linear with the number of degrees of freedom of the multibody
system
· Definition of parameterized input signals and initial conditions for simulation module
DSSIM. Simulation results, initial conditions and actual parameters of the simulation
run could be stored on the database
· Multi−objective optimization with the module MOPS in ANDECS. Every optimization
step consists of a lot of simulation runs of DSSIM3 and the corresponding DSblock.
For more information please contact:
Jochen Seybold
Tel. 0711/685−2047
Fax 0711/6787626
E−Mail: [email protected]−stuttgart.de
Projects: Numerical Mathematics
103
Solution of Conservative Equations on Unstructured
Grids
with Arbitrarily Complex Cells
Clemens Helf
Today, the bottleneck of industrial flow simulation for complex technical geometries is
grid generation and grid adaption. In the same time flow solvers require high quality
grids to compute accurate solutions.
The project CEQ (Conservative EQuation solv−er) gives a new approach by completely
gene−rating the grid during the flow calculation on the base of a single multiply
connected cell. The description of the problem geometry serves as an initial grid.
Self−adaptive refinement divides arbitrary cells along arbitrary hyperplanes. Special
techniques fit existing nodes and limit the complexity of resulting cells. Multiple flow
features are captured by controlling refinement by location and direction. The numerical
technique is a second order ENO like explicit Finite Volume scheme and is capable of
producing accurate solutions on these complex grids. Formulas for computation of
volume, centroid and all others moments of arbitrary polyhedra are implemented.
The object oriented implementation allows handling of 2D as well as 3D problems. The
code is written in C++. The grid database part can be used for other time dependent
conser−vative equations. The data structures allow vec−torization of the computationally
intensive parts in principle. The complete code including refinement is parallelized on
base of DDD. Automatic dynamic load balancing will be provided. Visual−ization will be
done by a special project.
The program is now working in 2D. 3D refine−ment is in progress. Navier Stokes
equations will be implemented in the near future. Parallelized multi grid techniques will
be implemented.
Dynamic Distributed Data:
An Efficient Programming Model
for Parallel and Adaptive Algorithms
Klaus Birken
Parallelizing computational intensive algorithms based on dynamic data structures (e.g.
adaptive PDE solvers) will often be doomed to failure if one does heavily rely on pure
message−passing layers as the basic access point to the parallel hardware.
Various problems as for data redundancy, con−sistency and load balancing can only be
tackled using an appropriate level of abstraction. With Dynamic Distributed Data (DDD)
this abstraction is available on a fine−grain object level. DDD provides a dynamic
representation of data graphs, transfer operations of any set of objects and abstract
interfaces across local−memory borders.
104
Usage of DDD will result in parallel applications, which are efficient and portable. The
changes of the sequential code are minimal; complex real−world examples could be
parallelized within a few days.
Distributed Visualization
of Arbitrary Unstructured Grids
Thomas Schmidt
Computational simulations for complex geo−metries nowadays often deal with
unstructured grids. That’s why scientific visualization must also be extended to these
grid types. A visualization system is presented which works with any type of
unstructured grids, i.e. arbitrary polygonal and polyhedral grids. Results from finite
volume (cell centred) and finite element me−thods can be visualized. Additionally
time−de−pendent data can be processed and inter−polation between timesteps is
possible.
This data may be transferred directly from a simulation program and therefore online
visualized. To integrate this task into a computational simulation an object−oriented
interface is presented which allows easy connection from simulation to visualization.
This interface also pro−vides a connection to the technical database system RSYST.
Therefore it is possible to read grids and initial data from the database and write results
back to it. Preprocessing, CAD and other modules can be accessed on this way.
Esprit Project
Parallel Aero of Europort 1
Uwe Küster, Manuela Zürn
In this Esprit project a Multi Block Navier Stokes Solver has to be parallelized and
tested on dif−ferent platforms. CERFACS/France, KTH/Sweden, Cira/Italy,
EPFL/Switzerland, SAAB/Sweden, Aerospatiale/France, and RUS/Germany are the
partners.
For more information please contact:
Uwe Küster
Tel. 0711/685−5984
Fax 0711/6788363
E−Mail: [email protected]−stuttgart.de
Contents IMG
Project: OPTIMA
The main goal of the OPTIMA project is op−timizing HVAC systems (heating,
105
ventilation and air−conditioning systems) and building structures with respect to energy
consumption. The main focus is on the development of an integrated computerized
system for thermal simulation pur−poses. A central data repository defined by a data
model provides data persisency. The resulting data model considers object−oriented
philoso−phies and provides a simple and clear solution for the specific needs of thermal
simulations for buildings and HVAC systems.
Various tools will operate on a central database to optimize building and technical
equipment in design, construction, and building management through the whole
life−cycle. The data structure underlying the database is formulated with the data
description language EXPRESS created in the STEP project (STandard for the Exchange
of Product model data). EXPRESS−G as a graphical subset of EXPRESS is used to
visualize essential parts of the data structure. This graphical notation depicting the
classes as rectangles is independ−ent of any programming language. The classes can be
implemented using C++, Small−talk or any other object−oriented language.
In OPTIMA project, the data model will be mapped as a first approach on a relational
database (Ingres), other database systems (especially ob−ject−oriented systems) are
considered later on.
Fig.\x11 1:\x14 Populating the Data Model by CAD
In an early stage of a building design the architect determines roughly the dimensions,
floors and zones. Architectural zones describe spaces of the same usage, e.g. business
offices or rooms for HVAC appliances. To capture these seman−tics the datatype space is
introduced in the data model. Space is an important notion for a volume which is
bounded on all sides by enclosing structures. This can be the whole building space with
an internal structure of walls or a zone or only a single room. An important task of the
system is the possibility of rough simulations based on an incomplete data set. This
feature provides a powerful tool for the architect to compare different concepts in early
phases of the building design.
Fig.\x11 2:\x14 Classes and Objects of Enclosures
Detailed thermal simulations based on a refined data set is possible with an interface to
CAD systems (Fig.1). In correspondence to prefab−ricated walls and windows an
enclosure with its attributes can be instantiated independent of any space information
(and vice versa). The different enclosure types are ordered hierarchically in an
inheritance tree realizing the concept of generali−zation and specialization (Fig. 2). The
connec−tions between spaces and enclosures can be reduced to a topological graph of
vertices and edges (Fig.1). With this approach the rules of topology theory can be
applied. In this manner a vertex corresponds to a space and an edge com−plies to an
enclosure and the air and heat−flow through the enclosure. This abstract view helps
detecting heat losses as a start for thermal optimi−zation. A very compact and efficient
data descrip−tion was found in the OPTIMA data model in accordance with
object−oriented principles.
For more information please contact:
106
Carsten Volle
Tel. 0711/685−5927
Fax 0711/6787626
E−Mail: volle.uni−stuttgart.de
IMG Contents IMG
Project: Parallel Computing
CAESAR
Clusters of computational intensive Applications for Engineering Design and Simulation
on scal−able parallel Architectures.
CAESAR focuses on computational methods to improve industrial competitiveness. It
aims at demonstrating the scope for broader and effective exploitation of the emerging
parallel hardware technology.
RUS is working in one part of this project together with Intel ESDC (European
Supercomput−ing Development Centre) and Daimler Benz Aerospace (DASA). The aim
of the subproject is to port an existing solver to heterogeneous computing environments
and demonstrate portability on different parallel hardware platforms.
Starting from an existing prototype version of the flow solver for a shared memory
parallel architecture, the code will be analysed with respect to further parallelization on
distributed memory multicomputers. The major result will be a parallelization strategy
(either data parallel−ism like available using HPF or message pass−ing which could be
based on the newly developed standard MPI). Based on this strat−egy the flow solver
will be parallelized.
Portability of the resulting code as well as scal−ability will be the major goals. Thus in a
last step verification of the code for different hardware platforms will be done. In this
last step RUS will serve as the demo−site making available its wide range of different
MPP platforms.
PARIS
The PARIS (PArallel RISc) Project was initiated at the University of Stuttgart in the
year 1992 as a cooperation between
· IBM
107
· DLR − German Aerospace Research Institute
· RUS − Computing Centre of the University of Stuttgart
· CRP 259 − Collaborative Research Project "High Temperature Problems of Re−Usable
Space Transportation Systems".
Major items of the project are:
· Using a RISC−cluster for solving complex problems of computational fluid dynamics
and structural mechanics
· Investigating various numerical algorithms and parallel techniques for their use on
workstation clusters, including comparisons with massively parallel machines and
vector computers
· Comparing different network techniques in the cluster (Ethernet, FDDI, SOCC)
· Developing strategies for the use of clusters as parallel computers
· Testing programming and development tools (MPI, PVM, FORGE90, ParaGraph, etc.)
with large engineering problems
· Teaching students and scientific personal how to use workstation clusters for parallel
jobs.
One aim for the future is the participation of industrial users.
CRP 259 −
High Temperature Problems of
Re−Usable Space Transportation Systems
In this Collaborative Research Project (CRP) the Computing Centre of the University of
Stuttgart (RUS) participates − joined with the Institute for Space Flight Systems of the
University of Stuttgart (IRS) − in the subproject "Numerical Re−En−trance Aero
Thermodynamics". The second fi−nancing period of this project part began in the
summer of 1993 for a duration of 3 years.
The first period of the IRS URANUS−Project consisted of developing a fluid dynamics
program with a consistent thermo−physical multi−temperature−modelling for the gas
phase and an exact efficient solver for the conservation equations of non−equilibrium
fluxes.
The goal of the second period is improving and validating the modelling of
thermo−physical effects in re−entrance problems, extending the URANUS−code to
three−dimensional calcula−tions and developing parallel algorithms.
108
Due to the expected very high computing efforts in three−dimensional non−equilibrium
calcula−tions, the task of the RUS consists of working out efficient parallel concepts in
order to achieve an optimal use of parallel architectures, considering especially the
problems of complex data dependencies and the (not necessarily constant) granularity.
The needed analysis of the sequential and parallel program, the program development
and further investigations are taking place on various platforms, such as the
PARIS−cluster which was installed together with the CRP (see also PARIS−Project).
For more information please contact:
Dr. Alfred Geiger
Tel. 0711/685−5719
Fax 0711/6788363
E−Mail: [email protected]−stuttgart.de
IMG Contents IMG
Project: RSYST
Integration of Data and Programs using an
Object−Oriented Database System to Simulate
Technical−Scientific Applications
Data during a simulation run are enormously growing with the size and complexity of
prob−lems. To simulate, optimize and visualize such problems in an efficient way or to
validate the simulation results with measures of a real sys−tem, database systems are
needed to store and manage this huge amount of data. The data model describes the
data in a formal way.
The development of a parameterized object−oriented data model for multibody systems
en−ables to map this data on a database system. This data model defines the dynamic
and geo−metric properties of a multibody system. In order to use the data model, it must
be implemented by an object−oriented database system. The data model is independent
from the implemen−tation and suitable for symbolic and numeric multibody formalisms.
This DFG data model is implemented with RSYST. RSYST is a software system, which
integrates data, methods and models in a con−sistent environment. It is mainly used for
the simulation and design of engineering systems. The core of RSYST is an
object−oriented database to store and manage the application data as data objects. It is
also the interface for the integration of application programs into RSYST. The
development of integrated systems is supported by the user interface, the memory
man−agement system, the error−handling system, the output system and by the graphic
modules.
109
Fig.\x11 1:\x14 Cooperative Research via RSYST Integration
Computational modules and graphic modules are realized in RSYST as function
modules. A function module is an encapsulated program unit with interfaces to the user,
database, output system and system parameters. Since function modules are
independent units, modules can be removed and new modules can be added with−out
affecting other modules. This provides a reliable shell of service functionalities,
especially for the application programmer. This open architecture of RSYST is
extendable and adaptable to every problem.
Modules in RSYST are executed by a control program, called the control monitor. The
monitor provides a command language and can be used in interactive or in batch mode.
Complex prob−lems are solved by the execution of a sequence of modules, defined by a
macro, which is written with the command language and executed under control of the
monitor. The command language allows sequences of modules, conditional branches and
loops, e.g. to perform iterations. Between the modules, no direct communication is
allowed, instead data exchange is done via the database system. Complex computations
such as optimization loops and long−time simulations, may cause frequent modules
transitions. To speed−up the computation, RSYST provides a database version, which is
resident in main memory.
Because of this system architecture it is possible to integrate other modules from other
users and partners. The DLR Oberpfaffenhofen de−velop a commercial software
package, called ANDECS. ANDECS stands for Analysis and Design of Controlled
Systems and includes modules for simulation, multi−objective parameter optimization
and it is a flexible environment for the analysis and design of controlled dy−namic
systems.
For more information please contact:
Jochen Seybold
Tel. 0711/685−2047
Fax 0711/6787626
E−Mail: [email protected]−stuttgart.de
IMG Contents IMG
Project: RUS−DCE
A Pilot Project
in distributed Computing
In summer 1991, in cooperation and with some support from IBM, RUS initiated a
project to investigate the technologies of distributed computing.
110
At this time OSF−DCE was but an interesting blue print, but promised to offer the right
features and functionality. Hence we decided to evaluate the available ingredient
technologies, and to eventually offer these as new services to the users.
Fig.\x11 1:\x14 OSF − Distributed Computing Environment: Architecture
The first manifest result of the project was the introduction of xntp, which today is used
to synchronize all production machines and an un−known number of machines on and
out of campus.
By mid November 1991 we installed the first AFS cell in Germany. AFS is a secure and
truly distributed file system. Today AFS is widely used at the university, and it is an
important and integral part of the current production environment at RUS. The SERVus
cluster could not have been conceived in its present form and functionality without the
use of AFS.
Fig.\x11 2:\x14 CDS Name Space for the Stuttgart University Cell
Fig.\x11 3:\x14 DCE Security Space for the Stuttgart University Cell
Despite its lack of finer administrative granu−larity, AFS is the mature and widely used
production distributed computing environment available today.
It was our aim to get hold of OSF−DCE at an early stage. RUS participated in IBM’s
EPP (be−ta test) program for the AIX implementation of OSF−DCE. The DCE test cell
was configured in November 1992, and DFS was introduced in summer 1993. This by
now heterogeneous en−vironment has since stabilized and is in daily use by members of
the project team. Since summer 1994, when we participated in Cray’s field test for the
Unicos implementation of DCE/DFS, the Cray C94 is part of this scenario and exports
two file systems to the DFS file space.
We are now in the process of establishing a campus wide DCE production cell. This cell
will originally encompass five server machines to cater for the DCE core services and for
extend−ed−DFS. The two Crays will as well act as DFS servers, enabling the export of
their user file systems in an efficient and secure manner.
In defining the structure of this cell the sur−mounting goal is to allow the individual
uni−versity departments as much administrative freedom and autonomy as is possible
within the restraints of security. To this end, the fact that the whole DCE name space,
including even the security name space, is a tree structure, in com−bination with ACL’s,
will be utilized. One of the important consequences of this approach is, that the
university departments may thus man−age their own users. They may do so within a
campus wide environment, but in a secure manner, because they will manage them on a
central security service (Kerberos), which is run on servers maintained by the Computer
Centre.
This will realize the vision of one user having one username, one password, being able to
access all resources, machines, and data he is entitled to, while not being able to access
111
any re−source he is not entitled to. DCE will provide us with a secure and seamless
environment for scientific computing at the University.
Participants:
· Rechenzentrum der Universität Stuttgart
· IBM Stuttgart, Dept. Lehre und Forschung.
Collaboration with:
· Cray Research
· Fakultät Informatik der Universität Stuttgart
· Rechenzentrum der Universität Karlsruhe
· Regionales Rechenzentrum der Universität Köln
· Konrad Zuse Zentrum für Informationsverarbeitung, Berlin
· Computing Centre, Helsinki University of Technology.
For more information please contact:
Dr. Dieter Mack
Tel. 0711/685−5788
Fax 0711/682357
E−Mail: [email protected]−stuttgart.de
IMG Contents IMG
Project: Software Labor
After a proposal of the University of Stuttgart has been granted, a software laboratory
will be set up. Main tasks of the software lab are:
· Cooperation between industry and university to develop modern software solutions
· Transfer of software technology and software engineering knowledge from university to
industry
· Improving education at the university with ex−periences and results gaining in the
projects.
112
The software laboratory includes several projects concerning workflow management,
telecommunication, parallel processing, graphical user interfaces, reusability of software
and si−mulation. Within the simulation project RUS/ICA cooperates with Daimler−Benz
AG and DASA Dornier. The scope of the subproject is the integration of vehicle
simulation packages using object−oriented design principles.
In the last decades various software tools have been implemented to calculate special
aspects of a product. In vehicle design and development you will find tools for drawings
(CAD), kinematic calculations, structure analysis and optimization (FEM), aerodynamics
and chassis dynamics (MBS). To avoid multiple data input couplings between two
software−applications are realized with data converters. The fast alteration in
software−technology and the rapid growing software−market leads to a great effort in
imple−menting processors for this data conversion. A recent tendency is the integration
of tools in the CAD environment, e.g. kinematical simulations. Underlying these systems
databases provide data persistency and enable data sharing in network computing.
Fig.\x11 1:\x14 Technical Scientific Integration Platform for Methods and Data
(Graphical User Interface)
Project: Software Labor
At RUS/ICA there is a lot of experience to integrate application systems. Over many
years RSYST as a scientific−technical data management system together with software
integration interfaces was developed. Within the software laboratory modern
technologies to integrate application software based on RSYST have to be evaluated.
Future development efforts will be spent in storing classes and objects. New
stand−ardized programming interfaces to manipulate data are considered (STEP/SDAI,
CORBA).
The resulting object−oriented features of RSYST must be validated with the prototypical
integration of tools in the domain of computer aided vehicle design.
For more information please contact:
Carsten Volle
Tel. 0711/685−5927
Fax 0711/6787626
E−Mail: [email protected]−stuttgart.de
IMG Contents IMG
Project: /sw
/sw − Software Installation Concept
113
A student’s project for distribution of ready to use installed software became the base for
the software installation concept of RUS. In meantime this project was funded by the
Ministry of Research to make available software at large scale in the country of
Baden−Württemberg. The project will be funded from DFN−Verein for two years.
/sw represents a network based concept, to manage the distribution of software
independent from:
· Hardware platform
· Operating system versions
· Provider and
· Software versions.
It has been realized at the RUS in 1992. To achieve this independence a directory tree is
created as a name room, which contains all this different components. All one has to do
for using /sw, is to mount the appropriate part of the tree via the network. Beyond the
executables the tree contains, documentation, libraries and man−pages.
The used file−networking software is AFS (Andrew File System) or NFS (Network File
System). Installation on the provider’s side is done by userfriendly installationscripts.
The conceptual simplicity is liked with a certain but af−fordable organizational effort.
One of the biggest challenges in this project is the coordination of all
Baden−Württemberg universities, who are willing to provide software for /sw and the
information of users how to get easily access to the software. In the meantime even users
in the US are using the software offered via afs in /sw.
In January 1995 the RUS provided on 13 architectures altogether 403 programs in 974
differ−ent installations.
· Architectures in /sw
· axp_osf1 DEC/Alpha running OSF/1 T2.0
· c90_uni8 Cray−C90 running Unicos 8.0.x
· hp700_ux90 Hewlett Packard 9000 Series 700 running HP−UX 9.0.x
· linux_1 Intel PC x86 running Linux 1.0.x
· paragon_12 Intel Paragon XP/S 5 running OSF/1 1.2
· pmax_ul43 DECstation 2100, 3100 or 5000 (single processor) Ultrix 4.3
114
· rs_aix32 IBM RS/6000 running AIX 3.2.5
· sgi_40 Silicon Graphics running IRIX 4.0.x
· sgi_52 Silicon Graphics running IRIX 5.2
· sun4_411 Sun SparcStations running Sun OS sun4_52 Sun SparcStations running
Solaris 2.3
· vax_ul4 VAX systems running Ultrix 4.2 and 4.3.
A list of available programmes and architectures can be found on our WWW Server:
http://www.uni−stuttgart.de/afs/rus/sw/doc/Soft.html/software_homepage.html
For more information please contact:
Barbara Burr
Tel. 0711/1319−111
Fax 0711/6787626
E−Mail: [email protected]−stuttgart.de
IMG Contents IMG
Project: TWIST
Multimedia Training integrated into the Object−Oriented
Simulation
Environment RSYST
Integrated concepts are necessary to handle entirely complex interrelations between
techni−cal components. These concepts lead to shorter innovation cycles and better
products. By this, the approach to solve a technical problem in its entirety requires the
further understanding of adjoined sciences, a good knowledge about the used tools and
some experiences in the be−haviour of complex technical systems. Therefore, the usage
of multimedia tools is of out−standing importance for the necessary teaching, training
and documentation system. Integrated into an object−oriented simulation environment
the hypermedia network offers some flexible and steerable possibilities of analysing
prob−lems. By separating link and information units it’s possible to get an
user−adaptive representation of the information space.
Some of the systems main characteristics are:
· User−adaptive structures
115
· Interactive linking without modification of the information sources
· Complete integration in a professional simulation environment
· Linking of semantic multimedia objects
(e.g. of different databases)
· Possibility to link external objects (outside the simulation environment)
· Integrated object−oriented data models for defining dynamic systems
· Interactive steering of parameterized simulations of dynamic systems.
Fig.\x11 1:\x14 Multimedia Object Set
For more information please contact:
Martin Noack
Tel. 0711/685−5934
Fax 0711/6787626
E−Mail: [email protected]−stuttgart.de
Project: TWIST
IMG Contents IMG
Project: USPS
Forschungsschwerpunktprogramm des Landes
Baden−Württemberg
Fig.\x11 1:\x14 USPS − Universelle System Plattform Stuttgart
Programmable Gateway System
· Transitions between public & private networks
· Scalable multiprocessor supports protocol offloading
· Fixed and variable length packets or cells
· Custom−designed hardware:
e.g. 200−Mbyte/s SBus interface
116
· Uses standard operating kernels, network protocols and bus systems
Systems
· Sun SPARCstation
· CRAY C94D
· intel Paragon XP/S
Networks
· HIPPI, FCS
· ATM (STS−4)
· Optical WDM
Protocols
· TCP/IP, UDP/IP
· ATM Forum UNI
· Public ATM NNI
Fig.\x11 2:\x14 Module Demonstrator (HIPPI/ATM−Gateway)
For more information please contact:
Peter Haas
Tel. 0711/121−3647
Fax 0711/6787626
E−Mail: [email protected]−stuttgart.de
IMG Contents IMG
Project: WiNShuttle
The Computer Center of University of Stuttgart RUS has got the assignment from the
DFN−Verein to build up an user−friendly access to the Scientific Network (WiN) over
dial−up lines in about twenty different places in Germany. The WiNShuttle project is
financed by the Federal Department of Education, Research, and Technology (BMBF).
117
The Idea
Electronic mail, information interchange, data transfer and dialogue − computer
communication over networks has become one of the most important forms of
communication of national and international research and scientific areas. It is s easier
for the user to offer and get scientific information by using multimedia data. WiN−
Shuttle offers the technical conditions to access these communications and information
facilities for people, who are interested in science and education. Small and average
science oriented business as well as cultural and social institu−tions or single scientists
can use WiNShuttle to get a large amount of Internet Services − even from home. The
educational field is of prime importance: Every school, every adult education school,
every teacher and student gets the possibility to use this electronic information. This
should guarantee the public duty of education, especially the preparation for the
sophisticated information society.
At the same time it is possible for all users to offer their own informations: information
about research results, library data and museum exhibits, about consulting offers,
colleagues, specific know−how etc.
The Technology
The so called "large shuttles" (internet access points) form the backbone of the service.
Small shuttles distribute the service to more towns. A large shuttle is equiped with a
server, a 2MBit/s WiN−connection, 60 dial−up−lines over ISDN and/or modems. A small
shuttle has 30 dial−up lines. All WiNShuttles offers different internet services like
World Wide Web (WWW), News, File Transfer Protocol (ftp) and electronic mail. Every
user of WiNShuttle will get a starter kit − a software packet, which is easy to install and
offers a simple and fast access to the network.
The Locations and the Time Plan
· Locations for large shuttles:
Berlin, Cologne, Munich, Stuttgart
· Small shuttles are planned in:
Augsburg, Bremen, Chemnitz, Dortmund, Dresden, Erfurt, Essen, Frankfurt/M.,
Hamburg, Hannover, Kiel, Leipzig, Mannheim, Münster, Nürnberg, Rostock.
The first Shuttle started up in December 1995 in Stuttgart. The other large shuttles will
start at the beginning of 1996. The small shuttles will start in the first quarter of 1996 −
according to demand.
The Offer
The fees are split into three groups:
118
1. Single persons, e.g. students, journalists or members of scientific−technical
institutions pay DM 39,95 for 20 hours access time each month
2. Public Institutions of the educational field, e.g. schools, librarys pay DM 49,95 for 40
hours each month
3. Technology transfer institutions, chambers and research−oriented companies pay DM
199,75 for 20 hours each month.
Detailed price informations and a booklet are available at the RUS, Department of
Information Services:
Barbara Burr
Allmandring 30
D−70550 Stuttgart
Germany
Fax 0711/1319203
E−Mail: [email protected]
IMG Contents IMG
Project: DFN Remote Procedure Call
DFN−RPC, a Remote Procedure Call tool, was designed to distribute scientific
applications across workstations and compute servers. DFN−RPC provides a uniform
platform for programm−ing communications interfaces in an easily learnable form in
order to allow the developers of distributed applications to concentrate on the technical
and scientific responsibilities of their disciplines. The DFN−RPC simplifies the most
important methods of distributed and parallel computing.
With Remote Procedure Calls (RPC’s), applications may be distributed without changing
the program model. Asynchronous, buffered asynchronous and parallel RPC’s allow an
efficient and easily programmable parallelization. Data pipes facilitate the forwarding of
messages. If the computers involved use different numbering systems, the data is
automatically converted during the transfer to that representing the destination system.
With automated process starting, parallel process structures can easily be built.
A configurative interconnection network can be established between the server
processes. Additionally the parallel application can be controlled from a graphics
monitor.
This provides the applications’ programmer with an uniform remote procedure call and
message passing tool for developing distributed applica−tions which makes transparent
not only the complexity of communication networks but also the differences in hardware
119
platforms.
Performance was enhanced through con−sequently minimizing the number of operating
system calls. The DFN is drafted for Fortran applications, but may also be used for C
applications. It was developed by order of the German Research Network (Deutsches
Forschungsnetz, DFN) under the project No. TK 558 VA 005.3. Sources and
documentation are available under the terms of the GNU (Library) General Public
License from
ftp://ftp.uni−stuttgart.de/pub/rus/dfn_rpc/ README_dfnrpc.html or.txt.
For more information please contact:
Rolf Rabenseifner
Tel. 0711/685−5530
Fax 0711/6787626
E−Mail: [email protected]−stuttgart.de
IMG
Contents IMG
Fachhochschule Isny der
Naturwissenschaftlich−Technischen
Akademie Prof. Dr. Grübler, gemeinnützige
GmbH
Friedrich Bergler
Hochschulort
Isny liegt in Baden−Württemberg unmittelbar an der Grenze zu Bayern. Isny ist
heilklimatischer Kurort und ein weithin bekannter Wintersportort, eingebettet in eine
herrliche Voralpenlandschaft. Zum Bodensee sowie in die Alpen benötigt man nur etwa
eine halbe Stunde mit dem Auto. Isny zählt ca. 10 000 Einwohner, darunter zur Zeit ca.
800 Studenten und Schüler der Akademie.
Die Akademie
Die Naturwissenschaftlich−Technische Akademie Prof. Dr. Grübler GmbH ist eine der
größten privaten Ausbildungsstätten im berufsbildenden Be−reich in der
Bundesrepublik Deutschland. Zu ihr gehören eine Fachhochschule mit den
Fachbereichen Chemie, Physik und Informatik sowie 6 Berufskollegs zur Ausbildung
120
von technischen Assistenten in den Bereichen Chemie, Datentechnik, Medizin,
Pharmazie, Physik und Um−weltschutz.
Die Akademie kann inzwischen auf eine 50−jährige Ausbildungstradition zurückblicken
und ist wegen ihrer praxisnahen Ausbildung sowie ihrer guten Kontakte zur Industrie
weithin bekannt.
Die Studiengänge an der staatlich anerkannten Fachhochschule
An der Fachhochschule gibt es die Studiengänge
· Allgemeine Physik
· Physikalische Elektronik
· Informatik mit den Schwerpunkten Softwaretechnik, Kommunikationstechnik und
Automationstechnik
· Chemie mit den Schwerpunkten Allgemeine Chemie und Lebensmittelchemie und
· Pharmazeutische Chemie
Die Studiengänge Pharmazeutische Chemie und
Phyikalische Elektronik sind in der Bundesrepublik
einzigartig.
An der FH Isny studieren derzeit ca. 350 Studenten und Studentinnen.
Einen Numerus Clausus gibt es nicht; die Aufnahme erfolgt in der Reihenfolge der
Anmeldungen. Der Studienbeginn ist jeweils nur im Winter−semester möglich.
Rechnerinstallationen
Das Kernstück der Rechnerausstattung bildet ein Ethernet−Verbund aus 30
IBM−RS/6000−Workstations (Modelle 220 und Power−PC 250), Unix−Systemen von
SUN und NEXT sowie 15 486er−PCs. Als Server dienen eine RS/6000−340, eine
RS6000−3AT sowie ein PC mit Pentium−Prozessor und 1GB−Platte.
In das Netz sind verschiedene Druckermedien −Laser−, Tintenstrahl− und
Nadeldrucker − sowie externe Platten, CD−ROM− und Streamer−Laufwerke integriert.
Anbindungen bestehen ferner an ein Token−Ring−Netz mit IBM−PS/2−Modellen, das
unter Novell betrieben wird, sowie an ein Unix−System der Firma BULL mit weiteren
16 a−synchron angeschlossenen PC−Arbeitsplätzen.
Seit Oktober 95 hat die FH Zugang zum BelWü.
121
Anschrift
Fachhochschule Isny
Naturwiss.−Technische Akademie
Prof. Dr. Grübler, gemeinnützige GmbH
Seidenstraße 12−35
D−88316 Isny
Tel.: 07562/97070
Fax: 07562/970771
Ansprechpartner
Rektor
Prof. Dr. Willy Dilger
Tel.: 07562/9707−12
Bereich Chemie/Umweltschutz
Prof. Dr. Wolf Dammertz
Tel.: 07562/9707−55
Bereich Pharmazie/Medizin
Prof. Dr. Wolfgang Ilg
Tel.: 07562/9707−48
Bereich Physik/Informatik
Prof. Dr. Friedrich Bergler
Tel.: 07562/9707−52
Contents IMG Contents IMG
Der Südwestdeutsche Bibliotheksverbund
Wolfgang Heymans
122
Der Südwestdeutsche Bibliotheksverbund (SWB) ist eine
kooperative Einrichtung der Universitäten
Baden−Württembergs, der Träger ist das Ministerium für
Wissenschaft und Forschung
Er wurde 1983 gegründet für die wissenschaftlichen Bibliotheken der Leihregion
Baden−Württemberg, südlicher Teil von Rheinland−Pfalz und Saarland, die Zentrale
wurde an der Universität Konstanz eingerichtet.
Die Aufgaben des Verbund sind
· Bereitstellung einer Online−Datenbank für die kooperative Katalogisierung von
Monographien und anderer Medien der Teilnehmerbibliotheken
· Nachweis der so zentral erfaßten Materialien für die Auskunft in Bibliotheken, den
Leihverkehr zwischen den Bibliotheken sowie für den Wissenschaftler direkt an seinem
Arbeitsplatz
· Zeitschriftennachweis der Bibliotheken aus der Südwestregion und Sachsen sowie
weiterer Verbundbibliotheken aus anderen Regionen (Auszug aus der beim DBI
betriebenen Zeitschriftendatenbank)
· Bereitstellung von Normdateien / Fremdkatalogisaten zur Unterstützung der
Katalogisierung
· Periodische Rücklieferung der Katalogdaten an die Teilnehmerbibliotheken zum
Aufbau und zur Aktualisierung ihrer Lokalsysteme (OPACs).
1986 begann der Routinebetrieb mit fünf katalogisierenden Bibliotheken, 1991 traten
die wissenschaftlichen Bibliotheken Sachsens auf−grund eines Kooperationsvertrages
dem SWB bei. Die saarländischen Bibliotheken nutzen den Verbund derzeit nur zur
Recherche.
Der SWB wird 1996 in das neu zu errichtende Bibliotheksservicezentrum
Baden−Württemberg, eine unselbständige Anstalt des öffentlichen Rechts, integriert.
Teilnehmer (Stand: Januar 1995)
471 aktive Teilnehmerbibliotheken
(mit eigenen Monographien− und Zeitschriftennachweisen) und zwar
4 Landesbibliotheken
Dresden, Karlsruhe, Speyer, Stuttgart
14 Universitätsbibliotheken mit
123
352 Institutsbibliotheken
Chemnitz, Dresden, Freiberg, Freiburg, Heidelberg, Kaiserslautern, Karlsruhe,
Konstanz, Leipzig, Mannheim, Stuttgart, Stuttgart−Hohenheim, Tübingen, Ulm
101 weitere Bibliotheken
25 Fachhochschulen, 5 Pädagogische Hochschulen, 3 Berufsakademien,
7 Max−Planck−Institute, 4 Bundesbehörden, 7 Kirchliche Einrichtungen,
8 Museen, 3 Kommunale Bibliotheken, 5 Gymnasial− und Schulbibliotheken,
4 Archive, 30 sonstige Bibliotheken
515 weitere Bibliotheken
von denen ausschließlich die Zeitschriftenbestände im Verbund nachgewiesen sind
104 passive Teilnehmer
Institutionen, Bibliotheken und Firmen des In− und Auslands, die recherchieren, aber
nicht katalogisieren.
Datenbanken
Die Daten (siehe Tab. 1) werden in zwei Datenbanken bereitgehalten,
· in der Katalogisierungs−Datenbank für die aktive Katalogisierung und
· in der Recherche−Datenbank für Auskunft und Fernleihe.
Tab.\x11 1:\x14 Der gesamte Datenbestand des Verbundes
−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−
Stand 01.01.1995 Zuwachs 1994
−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−
Titelaufnahmen
4.060.000
578.000
davon:
Monographien
3.755.000
562.000
Zeitschriften 305.000
16.000
Bestandsnachweise
9.196.000
1.890.000
davon:
Monographien
8.443.000
1.830.000
Zeitschriften 753.000
60.000
Autorenansetzungen
1.360.000
160.000
Körperschaften (GKD)
503.000
39.000
Schlagwortsätze (SWD+lokal)
443.000
131.000
Fremddaten
3.492.000
329.000
−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−
Der SWB wiederum beliefert neben den Lokalsystemen seiner Teilnehmer den
überregionalen Verbundkatalog (VK) des Deutschen Bibliotheksinstitut (DBI), das
GEROMM/EROMM−Projekt in Göttingen, sowie weitere Institutionen.
Die SWB−Datenbanken werden auf einer Siemens−Nixdorf−Anlage H90−A2 unter
BS2000 im Rechenzentrum der Universität Konstanz bereitgehalten, das für das
Operating des Rechners verantwortlich ist.
124
Die Verbunddatenbank läuft unter dem Softwaresystem BIS der Firma DABIS, mit
anwendungsspezifischen Erweiterungen und Anpas−sungen der Verbundzentrale.
Dieses System stellt eine klassische Großrechnerlösung dar, als Endgeräte beim
Benutzer wurden zunächst \xe3 dumme" Terminals eingesetzt. Inzwischen haben sich
weitgehend PCs mit Terminalemulationen als Endgeräte durchgesetzt.
Für den Dienstgebrauch der Bibliothekare stehen spezielle Terminal−Emulationen zur
Verfügung, Endbenutzer können mit einer VT100−Emulation zeilenorientiert
recherchieren.
1994 hat die Verbundzentrale mit der Entwicklung einer Recherche−Oberfläche für
WWW−Browser nach dem Vorbild des WWW−Gateway im norwegischen
BIBSYS−System begonnen. Dieser WWW−OPAC ist inzwischen freigegeben und
entwickelt sich zum bevorzugten Zugang für den Endnutzer, den Wissenschaftler am
Ar−beitsplatz.
Weitere Informationssysteme
Informationen über Bibliotheken (BIBINFO)
BIBINFO ist ein neu entwickeltes Informationssystem des SWB mit Auskünften wie
Adresse, Telefonnummer, Öffnungszeiten, Fernleihinformationen usw. von Bibliotheken
aus dem In− und Ausland.
BIBINFO ist eine WAIS−Datenbank und wird im WWW mit Links zu lokalen
Informationssystemen und OPACs angeboten, sowie ohne Suchmaschine per FTP als
Verzeichnis der Teilneh−merbibliotheken.
FTP−Server
Auf dem FTP−Server der Verbundzentrale stehen sämtliche Informationen und
Dokumentationen des SWB (z.B. Merkblätter, SWB−Format,
SINDBAD2−Dokumentation) als Text− und PostScript−Dateien zur Verfügung.
WWW−Server
Neben Informationen zum SWB und dem WWW−Zugang zur Recherchedatenbank bietet
der WWW−Server des SWB in erster Linie Navigationshilfen im Internet zu Themen
aus dem Bibliotheksbereich. Ein zweiter Schwerpunkt ist der Kulturraum EUREGIO
Bodensee mit Kulturinformationen rund um den Bodensee.
Für diese Informationssysteme betreibt der SWB einen Internet−Server (SUN
SPARCserver 20).
125
Datennetze
WiN / DATEX−P
Der SWB ist über zwei eigene 64KBit/s−Anschlüsse mit zusammen 400 logischen
Kanälen an das WiN−Netz des DFN−Verein angeschlossen. Diese Leitungen sind
ausschließlich für den Terminaldialog reserviert. Der Zugang zum BS2000−Host erfolgt
über einen X.25−Vorrechner.
BelWü
Über das LAN der Universität Konstanz ist der SWB an das BelWü angeschlossen, alle
IP/Internet−Anwendungen laufen über diese Verbindung. Das RZ der Universität
Konstanz stellt hierzu die Netz−Infrastruktur zur Verfügung. Durch die starke
Unterstützung des Landes für das BelWü−Netz steigt auch der Dialogverkehr mit der
Datenbank über diese Verbindung weiter an. Die BIS−Datenbank ist jedoch nur über
X.25 erreichbar, daher betreibt der SWB zwei TELNET/X.29−Gateways mit je 128
Kanälen. IP−Anwender können auch das Stuttgarter Gateway des DFN−Verein nutzen.
Insgesamt sind in Spitzenzeiten über 500 logische Verbindungen zur Datenbank aktiv.
Die Verbundzentrale selbst ist seit Mai 1995 nicht mehr auf dem Campus der
Universität, sondern etwa 4 km entfernt im Konstanzer Industriegebiet untergebracht
und mit dem Campus über eine digitale 2MBit/s−Festverbindung der Telekom
verbunden.
Diese Verbindung wird für Sprache, Fax und Daten genutzt, an die Multiplexer SIMUX
3638 (OEM Fa. SIEMENS, Hersteller NEWBRIDGE) auf beiden Seiten sind jeweils
Telefonnebenstellenanlage, X.25−Switch und CISCO−IP−Router angeschlossen.
Unsere Netzadressen
Recherche und Katalogisierung mit BibWork oder SINDBAD2/ANSINET
WIN, Datex−P:
45050263000,45050060017, 45050262300
Internet (Telnet/X.29):
gw1.swbv.uni−konstanz.de,
(Login: swb1)
x29.swbv.uni−konstanz.de,
Port 2340
Recherche mit WWW−Browser
WWW:
http://www.swbv.uni−konstanz.de/CGI/cgi−bin/opacform.cgi
126
Linemode−Recherche mit VT100−Terminal (Emulation), Kermit etc.
WIN, Datex−P:
45050262357
Internet (Telnet/X.29):
gw1.swbv.uni−konstanz.de,
(Login: swb3)
Info im Störungsfall
WIN, Datex−P:
45050262355
Internet (Finger):
finger [email protected]−
konstanz.de
Internet (E−Mail):
[email protected]−konstanz.de
Allgemeine Informationsangebote
WWW:
http://www.swbv.uni−konstanz.de/homepage.html
FTP:
ftp.swbv.uni−konstanz.de
Ausblick
In den nächsten Jahren wird das jetzige Verbundsystem auf Großrechnerbasis durch
eine Client−Server−Architektur auf Unix−Systemen ab−gelöst werden. Als erster
Schritt wird Ende 1995 das System BIS2000 der Fa. DABIS beim SWB auf einem
Unix−Server installiert. Im Rahmen des DBV−OSI−Projekts wird dieses System mit
einem Z39.50−Zugang ausgestattet. Ein entsprechender PC−Client mit grafischer
Oberfläche, der den Zu−gang zum SWB, den DBV−OSI−Partnern und an−deren
Z39.50−Datenbanken weltweit gestattet, wird dann ebenfalls zur Verfügung stehen. Im
ersten Halbjahr 1996 wird dieses System die Re−cherchedatenbank übernehmen, das
BIS−Sy−stem unter BS2000 ist dann ausschließlich für die Katalogisierung reserviert.
Parallel dazu ar−beitet der SWB mit dem Nordrhein−Westfälischen und dem
Bayerischen Verbund sowie mit dem Deutschen Bibliotheksinstitut in Berlin zusammen,
um gemeinsam ein zukunftsorientiertes Verbundsystem zu erwerben.
Contents IMG Contents [IMAGE] Die obige Tabelle führt die Rechner im BelWü auf, von
127
denen Sie Informationen bzw. Software erhalten können.
Für den Zugang per ftp lautet der Loginname anonymous oder ftp; als Passwort sollten
Sie Ihre eigene Mailadresse verwenden. Bitte achten Sie beim Gebrauch von ftp darauf,
möglichst nahegelegene bzw. lokale FTP−Server zu verwenden, um die Wide
Area−Leitungen und insbesondere die internationalen Zugänge zu ent−lasten. Ein
Werkzeug zum Auffinden von per anonymous ftp verfügbaren Dateien ist der
Archie−Server (z.B. archie.belwue.de). Als Zu−gangsmöglichkeit gibt es telnet (login:
archie), Mail ([email protected]) mit \xe3 prog <Dateiname>" als Subject (ohne
Anführungszeichen und spitzen Klammern), oder am besten ein lokales
Abfrageprogramm wie archie oder xarchie (erhältlich z.B. auf ftp.uni−stuttgart.de unter
/pub/unix/comm/infosystems/archie). Der Archie−Server läuft an der Universität
Heidelberg (archie.th−darmstadt.de).
Für den Zugang mit WWW benötigen Sie eine entsprechende Zugangssoftware
(Browser) auf Ihrem Rechner (z.B. netscape, mosaic oder lynx), erhältlich z.B. auf
ftp.uni−stuttgart.de unter /pub/comm/infosystems/www/clients
Den Stuttgarter Infoserver können sie zusätzlich mit pad/x29 erreichen: 45050066911
lautet hierfür die X.25−Adresse. Der Karlsruher Infoserver ist zusätzlich per Modem mit
7 Bit, Even Parity anwählbar: 0721/358733, 358734, 60451, 60453 lauten hierfür die
Telefonnummern.
Auf dem Stuttgarter Infoserver finden Sie im Verzeichnis /pub/org/belwue bzw. den
entsprechenden Unterverzeichnissen Benutzerhandbücher (Rechnernetze, Nameserver,
Nutzerinformation), BelWü−relevante Dienste (Dienste−Liste, sendmail.cf) und weitere
Dokumente (BelWü−Spots). Hardkopien können Sie über Herrn Klank beziehen
(0711/685−2506, [email protected]−stuttgart.de).
Aktuelle Informationen (insbesondere Netzstörungen) werden auch über die
News−Gruppe BelWü verteilt.
BelWü−Teilnehmer, die keinen eigenen News−Server besitzen, können die
new.belwue.de (129.143.4.4) als News−Server für den Newsreader benutzen.
Newsreader für Unix, MS−DOS und VMS im Sourcecode können Sie beispielsweise auf
ftp.uni−stuttgart.de im Verzeichnis pub/comm/news/beginner/software finden.
Für verschiedene Unix−Rechnerplattformen fertig kompilierte Public Domain Software
erhalten Sie über das /sw−Projekt, das von den Universitäten Stuttgart und Tübingen
betreut wird. Zugriffsmethoden sind ftp, AFS oder NFS. Näheres finden Sie auf
ftp.uni−stuttgart.de in /sw/doc/sw−*
−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−
BelWü−Beauftragte
Willibald Meyer
Universität Freiburg Rechenzentrum
Hermann−Herder−Str. 10
79104 Freiburg
0761/203−4622
[email protected]−freiburg.de Hartmuth Heldt
Universität Heidelberg Rechenzentrum
Im Neuenheimer Feld 293
69120 Heidelberg
128
06221/54−5451, Fax: −5581
[email protected]−heidelberg.de Andreas Tabbert
Universität Hohenheim Rechenzentrum
Schloß Westhof−Süd
70593 Stuttgart
0711/459−2838
tabbert@uni−hohenheim.de Brian Worden
Regionales Hochschulrechenzentrum
Postfach 3049
Paul−Ehrlich−Straße
67653 Kaiserslautern
0631/205−2448
worden@uni−kl.de Dr. Bruno Lortz
Universität Karlsruhe Rechenzentrum
Zirkel 2
Postfach 6980
76128 Karlsruhe
0721/608−4030
[email protected]−karlsruhe.de Jörg Vreemann
Universität Konstanz Rechenzentrum
Postfach 5560
78434 Konstanz
07531/88−3893
joerg.vreemann@uni−konstanz.de Ralf−Peter Winkens
Universität Mannheim Rechenzentrum
L15,16
68131 Mannheim
0621/292−5781, Fax: −5012
[email protected]−mannheim.de Dr. Lisa Golka
Rechenzentrum der Universität Stuttgart
Allmandring 30
0550 Stuttgart
0711/685−5983
[email protected]−stuttgart.de Dr. Heinz Hipp
Universität Tübingen
Zentrum für Datenverarbeitung
Brunnenstr. 27
72074 Tübingen
07071/29−6967, Fax: −5912
[email protected]−tuebingen.d400.de Karl Gaissmeier
Universität Ulm Rechenzentrum
Albert−Einstein−Allee 11
89069 Ulm
0731/502−2499
[email protected]−ulm.de BelWü−Koordination Rechenzentrum der Universität
Stuttgart
Allmandring 30
70550 Stuttgart
belwue−[email protected] Betrieb und Dienste
129
Peter Merdian
0711/1319−129
[email protected]−stuttgart.de
Jürgen Georgi
0711/685−5739
[email protected]
Joseph Michl
0711/1319−131
[email protected] Entwicklung und Projekte Paul Christ
0711/685−2515
[email protected]−stuttgart.de hris Copplestone
0711/685−5987
[email protected]−stuttgart.de Peter W. Haas
0711/121−3647
[email protected]−stuttgart.de BelWü−Maillisten
[email protected]
[email protected]
[email protected]
[email protected]
[email protected]
[email protected]
[email protected]
netz−[email protected]
−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−
Inhaltsverzeichnisse aller BelWü−Spots
Die Ausgaben der BelWü−Spots können Sie über die BelWü−Koordination
(Rechenzentrum der Universität Stuttgart, Allmandring 30, 70550 Stuttgart, Tel.:
0711/685−5804, belwue−[email protected]) beziehen. Im übrigen sind die
Ausgaben in verschiedenen Formaten (TeX, PostScript, HP) auf dem Stuttgarter
Infoserver (Verzeichnis pub/org/belwue/spots) erhältlich.
Seite
Ausgabe 1/91:
Landesforschungsnetz BelWü (Kurzinfo)
GENIUS: Ein Dienst für Biologen und Mediziner,
DKFZ Heidelberg 2−12
FH Esslingen/FH Heilbronn 13−15
Seite
Ausgabe 2/91:
Netzgraphik und "NetCentral Station" 1/2
Anwendersoftware im BelWü 4−46
KOALA: Die UB im Netz, Uni Konstanz 47−52
130
FH Aalen/FH Mannheim 53−56
Seite
Ausgabe 3/91:
BelWü−Verkehrsmatrix 1−5
BelWü AK tagt in Heidelberg 6/7
Fachinformationszentrum Karlsruhe (FIZ) 8−11
Akademische Software Kooperation (ASK) 12−18
FH Reutlingen/Uni Hohenheim 19−27
Seite
Ausgabe 4/91:
In aller Kürze.... 2
Anfragen an die WHOIS−Datenbank 3−7
Das Projekt HD−NET an der Uni Heidelberg 8−19
Ergänzungen der Dienste−Liste der Spots Nr. 2 20−25
FH Furtwangen/FHT Stuttgart 26−29
Seite
Ausgabe 1/92:
In aller Kürze.... 2
Infoserver 3−11
News im BelWü 12−16
X.500 − Directory im BelWü 17−28
Universität Tübingen 29−43
Seite
Ausgabe 1/94:
In aller Kürze.... 2
Mosaic:
Alles unter einem Dach 3
Mosaic Kurzreferenz 8
UDINE: Universal Document Information an Navigation Entry 11
Das Informationssystem Gopher 16
Filetransfer 19
VILLA BelWü 23
Universität Karlsruhe 27
Berufsakademie Mannheim 78
Berufsakademie Ravensburg 81
131

Documentos relacionados