5 Mathematisch-Naturwissenschaftliche Fakultät

Transcrição

5 Mathematisch-Naturwissenschaftliche Fakultät
Berichte der Institute und Fachbereiche
5
85
Mathematisch-Naturwissenschaftliche Fakultät
Auszug aus der Homepage der Mathematisch-Naturwissenschaftlichen Fakultät:
http://www.uni-koeln.de/math-nat-fak/
Jahresbericht 2003
86
5.1
Berichte der Institute und Fachbereiche
Mathematisches Institut
Homepage Mathematisches Institut: http://www.mi.uni-koeln.de/
5.1.1
Bericht über die Kooperative Informationsverarbeitung
Die Datenverarbeitung im Mathematischen Institut basiert einerseits auf mehreren zentralen Sun
Solaris-Servern (Sparc-CPUs), einem Itanium 2-basierten HP Integrity Server sowie andererseits
auf zentralen Microsoft Windows 2000/NT-Terminalservern (Intel-CPUs), die als File-, Anwendungs- und Compute-Server für die im Haus vorhandenen Arbeitsplatzrechner eingesetzt werden.
Die großen Systeme stehen in einem klimatisierten Maschinenraum, in dem auch die BackupSysteme, eine USV sowie die zentralen Netzwerkkomponenten (Cisco-Switch Catalyst 4006) untergebracht sind. Die wichtigsten Server des Instituts sind durch diesen Switch mit Gigabit-Ethernet
auf Lichtwellenleiter-Basis versorgt. Die UKLAN-Anbindung erfolgt zurzeit über einen Router im
Philosophikum (newphil-gw). Die Einrichtung einer zweiten redundanten Verbindung zum UKLAN
ist geplant.
Als Arbeitsplatz-/Client-Rechner werden in den Mitarbeiterzimmern überwiegend PCs eingesetzt,
des Weiteren existiert ein zwei Bildschirmräume umfassender PC-Pool für Studenten und Diplomanden. Auf den als Dual-Boot-Systeme eingerichteten Klienten stehen den Anwendern Windows
2000 und Linux zur Verfügung. Außerdem werden an einigen Lehrstühlen Macintosh-Rechner und
X-Terminals eingesetzt. Die Windows 2000- und Unix-Server werden zum Teil auch dem ZAIK im
Rahmen der gemeinsamen Zusammenarbeit zur Verfügung gestellt. Auf den Unix-Workstations
erfolgt eine Mitbenutzung des vom ZAIK/RRZK exportierten /vol-Dateibaums.
Ausbildungsschwerpunkte mit starkem EDV-Anteil im Institut sind Numerik-Programmierung in
den Sprachen C++, Fortran und Matlab, des Weiteren symbolische Formelmanipulation und
Behandlung von Problemen aus der Computeralgebra mit Maple und Mathematica sowie Statistik
mit S-PLUS. In der Forschung werden vorrangig Fragestellungen aus den Gebieten Numerische
Mathematik, Differentialgleichungen, Differentialgeometrie, Zahlentheorie, Algebra, Kombinatorik, Topologie, Stochastik, Versicherungsmathematik, Kommunikationsnetze und Kombinatorische Optimierung bearbeitet.
Die personelle Betreuung erfolgt durch die u.a. Autoren.
(Dr. Jörg Behrend, E-Mail: [email protected],
Dipl.-Ing. Holger Körber, E-Mail: [email protected])
5.1.2
Beispielhaftes Projekt des MI:
Mathematische Bildverarbeitung
Mathematische Bildverarbeitung macht beispielsweise aus unscharfen Satellitenaufnahmen oder
aus verrauschten Ultraschallaufnahmen relativ klare Bilder mit deutlichen Konturen. Die dabei
benutzten Verfahren sind bisher mathematisch wenig fundiert. Sitzt der Tumor oder der Marsbrocken wirklich dort, wo man ihn zu erkennen glaubt, oder hat er bei seiner Berechnung eine
Veränderung erfahren? Das möchte man gerne mit mathematischer Gewissheit beweisen.
Eine der verwendeten Methoden benutzt Diffusionsfilter und Analogien aus der mathematischen
Beschreibung von Ausbreitungsvorgängen. Man denkt sich dazu (im einfachsten Fall eines
Schwarzweißbildes) die Graustufenwerte als Höhen eines Gebirges, wobei der Wert für Schwarz
Jahresbericht 2003
Berichte der Institute und Fachbereiche
87
hoch und der für Weiß niedrig ist. Diese Höhenverteilung u0(x) interpretiert man als Temperaturverteilung im zugrundeliegenden Gebiet. Wärmeleitung hat die Tendenz, räumliche Temperaturschwankungen im Laufe der Zeit abzubauen. Wenn ich daher das vorliegende Graustufenprofil der
Wärmeleitung unterwerfe, und das kann man mit gewissem Knowhow am Rechner, dann sollten
erratische Oszillationen in den Graustufenwerten sozusagen „abgeschmolzen“ werden. Dies ist
das Prinzip der Diffusionsfilter. Unter Abschmelzen werden aus deutlichen Helligkeitskonturen
allerdings auch verschwommene Bilder, daher werden diese Verfahren nur bis zu einer gewissen
Stopzeit gerechnet. Durch Wahl der Stopzeit lässt sich die Qualität des Bildes wie beim Fokussieren eines Fernglases beeinflussen. Außerdem wird der Diffusionseffekt an solchen Stellen herabgesetzt, wo das Helligkeitsprofil echte Unstetigkeiten aufzuweisen scheint. Dabei kommt es zu
sogenannter Vorwärts-Rückwärts-Diffusion nach Perona-Malik. Diese Art der Diffusion ist ein
mathematisch „schlecht gestelltes Problem“, denn kleine Änderungen in den Anfangsdaten können (wie der inzwischen legendäre und umfallende Sack Reis in China) im Laufe der Zeit große
Änderungen im globalen Lösungsverhalten nach sich ziehen.
Eine andere Methode geht von Optimierungsverfahren und sog. Variationsmethoden aus. Dabei
soll das gestörte Bild durch eine Helligkeitsverteilung ersetzt werden, die einerseits einfachere
Gestalt hat, andererseits aber Ähnlichkeiten mit dem gestörten Bild u0(x) aufweist. Man sucht also
eine Graustufenfunktion u(x), welche eine Art Kostenfunktional, konkret das sogenannte MumfordShah Funktional, minimiert. Dieses Kostenfunktional hat seinerseits mathematisch unschöne Eigenschaften. Es enthält einen Term, der die Länge von Unstetigkeitsstellen misst, und letztere ist
numerisch auf einem strukturierten Gitter gar nicht zu ermitteln, geschweige denn neben anderen
Kriterien zu minimieren. Daher approximiert man das ursprüngliche Funktional durch ein besser
handhabbares. Die Approximation geschieht dabei im Sinne der sogenannten Gamma-Konvergenz
von Funktionalen. Wenn eine Folge En von Funktionalen gegen ein Grenzfunktional E Gammakonvergiert, dann konvergieren auch die Minimierer un der Funktionale En gegen einen (von
möglicherweise mehreren) Minimierern u(x) des Grenzfunktionals. Das Wort Konvergenz muss
dabei jeweils durch Festlegung der richtigen Topologien konkretisiert werden.
Es ist gelungen nachzuweisen, dass beide Verfahren auf diskretem Niveau, d.h. bei ihrer Verarbeitung durch Rechner, im wesentlichen dasselbe leisten und dass wesentliche Charakteristika des
Ausgangsbildes trotz Rauschens und ähnlicher Störungen erhalten bleiben.
In der ersten gezeigten Bildsequenz ist eine fiktive Graustufenfunktion u0(x,y) = sin(x) sin(y) und
deren Evolution unter der Perona-Malik Diffusion abgebildet. Man sieht eine deutliche Kantenbildung. Die zweite Bildsequenz startet mit einer realistischen, aber verrauschten Schwarzweißaufnahme des Kölner Doms. Der Diffusionsfilter führt zunächst zu einer Kantenverschärfung, später
zu einer Segmentierung oder Vergröberung des Bildes. Dies illustriert die Bedeutung der richtigen
Stopzeit. In der dritten Bildsequenz sind die vom „edge-detector“ ermittelten Kanten dargestellt.
Bei zu vielen Kanten wirkt das Bild unruhig, und bei zuwenig Kanten gehen wesentliche Informationen verloren.
Jahresbericht 2003
88
Berichte der Institute und Fachbereiche
Bildsequenz 1 (oben): eine fiktive Graustufenfunktion u0(x,y) = sin(x) sin(y) und deren
Evolution unter der Perona-Malik Diffusion. Man sieht eine deutliche Kantenbildung.
Bildsequenz 2 (nächste Seite): eine realistische, aber verrauschte Schwarzweißaufnahme des
Kölner Doms. Der Diffusionsfilter führt zunächst zu einer Kantenverschärfung, später zu einer
Segmentierung oder Vergröberung des Bildes.
Bildsequenz 3 (übernächste Seite): es sind die vom „edge-detector“ ermittelten Kanten
dargestellt. Bei zu vielen Kanten wirkt das Bild unruhig, und bei zuwenig Kanten gehen
wesentliche Informationen verloren.
Jahresbericht 2003
Berichte der Institute und Fachbereiche
89
Jahresbericht 2003
90
Jahresbericht 2003
Berichte der Institute und Fachbereiche
Berichte der Institute und Fachbereiche
91
Literatur
•
B. Kawohl, From Mumford-Shah to Perona-Malik in image processing, Math. Methods
Appl. Sci, 15 p., erscheint demnächst. Ein Preprint ist erhältlich unter http://www.mi.unikoeln.de/~kawohl/)
•
B. Kawohl & N. Kutev, Image processing and anisotropic diffusion, in: Progress in partial
differential equations, Pont à Mousson 1997, Volume I, eds.: H. Amann, C. Bandle, M.
Chipot, F. Conrad & I. Shafrir, Pitman Res. Notes in Math. Sci. 383, Addison Wesley
Longman, Essex (1998) p. 191–199.
•
M. Mester, Mathematische Methoden zur Bildverarbeitung, Dissertation, Universität zu
Köln (2004)
(Prof. Dr. Bernd Kawohl, E-mail [email protected],
Dr. Markus Mester, E-mail [email protected])
5.2
Zentrum für Angewandte Informatik:
Arbeitsgruppe Faigle/Schrader
Homepage: http://www.zaik.uni-koeln.de/AFS/
(Hinweis: Die Arbeitsgruppe ist sowohl im Institut für Informatik als auch im Mathematischen
Institut angesiedelt.)
Bericht über die kooperative, verteilte Datenverarbeitung
Hardware-Ausstattung
Server
1
Sun Enterprise 4000 (8 Proz.)
1
Sun Enterprise 3500 (2 Proz.)
1
Sun Enterprise 450 (4 Proz.)
1
Compaq AlphaStation ES40 (4 Proz.) mit RAID Array 3000
2
PCs als Windows 2000 Server
1
PC als Linux-Server
Arbeitsplatzrechner und Terminals
ca. 10 Sun Workstations (von Classic bis Ultra 10)
ca. 40 PCs als Arbeitsplatzrechner
ca. 15 X-Terminals
Jahresbericht 2003
92
Berichte der Institute und Fachbereiche
Netzwerk
1
Cisco Catalyst 5500 RSM Workgroup Switch/Router
(Gigabit-Ethernet, FastEthernet, Ethernet)
1
Cisco Catalyst 2924 Fast Ethernet Switch
2
Magnum/Synoptics Ethernet Hubs
Backup, Unterbrechungsfreie Stromversorgung, Sonstiges
1
ATL ACL 2640 Tape Roboter
1
Datapower 330 USV (30 kVA, 15 Min.)
1
Marquec 9000 Video-Projektor
Art der Vernetzung
Gigabit-Ethernet:
Anschluss zum Universitäts-Backbone
Ethernet, Fast-Ethernet:
Workstations, lokale Arbeitsplätze, PC-Server
Räume
Maschinenraum 1:
Workstation-Cluster, Netzwerkinfrastruktur (Router, Switches), Datapower USV
Maschinenraum 2:
Sun Enterprise 450 & 3500 & 4000, Tape-Roboter, Compaq ES40
Personelle Betreuung
Koordination:
Dipl.-Inform. Martin Olschewski
Anzahl der Nutzer
Server
Workstations
PCs
Studierende
ca. 150
ca. 50
ca. 50
Wissenschaftler
ca. 100
ca. 50
ca. 50
Zusammenarbeit
Interdisziplinäre Nutzung (Mathematik, Informatik, Physik, Meteorologie, Chemie,
Wirtschaftsinformatik, Linguistik und DLR) der Sun Compute-Server sowie des Workstation-Clusters.
Jahresbericht 2003
Berichte der Institute und Fachbereiche
93
Ausbildungsschwerpunkte
Kombinatorische Optimierung:
Entwurf und Implementierung effizienter Algorithmen
Forschungsschwerpunkte
Allgemein:
Kombinatorik, Fachinformation, Kommunikationsnetze, Kombinatorische Optimierung, Bioinformatik, Simulation
Sun Enterprise 4000:
Multimediale Anwendungen in der Hochschullehre, Stauforschung, Kryptographie, Simulation (Bausparkollektive)
Compaq AlphaStation ES 40:
Entwicklung von Verfahren zur Genomanalyse
Workstations:
Multimediale Anwendungen in der Hochschullehre, Drittmittelprojekte im Banken- und
Versicherungsbereich, Tourenplanung
PCs:
Multimediale Anwendungen in der Hochschullehre, Anwendungsprogramme im Rahmen von
Drittmittelprojekten im Banken- und Versicherungsbereich, Tourenplanung
Engpässe, Probleme und Schwierigkeiten
Personelle Unterbesetzung
Die personelle Unterbesetzung im Infrastrukturbereich führt leider immer wieder zu erheblichen
Verzögerungen bei der praktischen Umsetzung der Projekte.
Rechenkapazität
Speicher (Plattenplatz und RAM)
Es gibt insbesondere Engpässe bei den Data-Mining-Applikationen im Bereich der Landesbausparkassen.
(Martin Olschewski, E-Mail: [email protected])
Jahresbericht 2003
94
Berichte der Institute und Fachbereiche
5.3
Institut für Informatik
5.3.1
Bericht über die Kooperative Informationsverarbeitung
Homepage: http://www.informatik.uni-koeln.de/
Neuanschaffungen in 2003
Pentium IV Celeron 2.6 Ghz, 512 MB RAM, Linux
2 Pentium IV 2.8Ghz, 1GB RAM, Linux
CPU Upgrade für Linux Server
8-Port Gbit Switch
Notebook Dell Latitude D600, Pentium-M 1.7Ghz, 1GB RAM
Pentium IV 2.6Ghz, 1GB RAM
Software: Vampir 4.0 für Linux x86
Ausstattung (nur Workstation)
1
Sparc-Server Ultra Enterprise 450, 4 CPU's 300Mhz, 1 GB RAM, 50GB Platte
6
Sun Ultra 5/10
11
Ultra 1/170E Creator3D, 128 RAM
1
Sparcstation 10
3
Sparcstation 4/110
1
Sparcstation 5/70
1
Linux Server AMD Athlon 2.0 Ghz, 1.5GB RAM
1
Linux Cluster, bestehend aus:
8
Dual-Prozessor Pentium II-400 MHz Rechnern mit je 256 MB RAM,
8
Dual-Prozessor Athlon MP1800 mit je 256 MB RAM
1
Cisco 24 Port Switch
Die Systembetreuung wird von einem hauptamtlichen Techniker und zwei halben SHKs übernommen. Das Linux-Cluster wird von SHKs betreut.
Benutzer unserer Workstations:
ca. 30 Wissenschaftliche Mitarbeiter
ca. 40 Studenten
Kooperation mit dem Rechenzentrum
Die Lehrstühle kooperieren wie folgt mit dem ZAIK/RRZK:
- Möglichkeit, Meldungen über interne Mailinglisten an verschiedene Benutzer einer Gruppe
simultan versenden zu können, wobei die gesamte Verwaltung vom ZAIK/RRZK übernommen
wird. Dies wird genutzt für Graduiertenkolleg, Vorlesungen, Praktika und einige Softwarepakete.
Jahresbericht 2003
Berichte der Institute und Fachbereiche
95
Weiterhin wird die Möglichkeit genutzt, archivierte Mailinglisten über das WWW lesen zu
können.
- Anbindung an das Internet und Unterstützung aller dazugehörenden Dienste (Mail, News,
WWW, DNS, Proxy).
- Bereitstellung von großen nicht kommerziellen (z.B gnu, X11R5, tex, graphic) und auch kommerziellen Softwarepaketen via AFS als Quelltext oder Binary. Dies ist ein nicht zu unterschätzender
Dienst. Dadurch entfällt die zeitraubende Arbeit, neue Versionen von vielen Programmen immer
wieder zu installieren. Somit kann sich der für die Systembetreuung verantwortliche Mitarbeiter
auf wichtigere Aufgaben konzentrieren.
- Unterstützung bei der Beschaffung von kommerziellen Softwarepaketen, Betriebssystemupdates
und Patches, insbesondere durch kostengünstige Campusverträge.
- Sicherung von Benutzerdaten mit TSM, ein sehr guter Service des Rechenzentrums.
- Hilfe bei Soft- und Hardwareproblemen. Mit dem Know-How, das die Mitarbeiter des Rechenzentrums haben, werden die Administratoren vor Ort unterstützt.
- Die Pflege der Software im Vol-Baum hat sich im Laufe des Jahres verbessert, nachdem sie einige
Jahre sehr vernachlässigt wurde. Es ist zu hoffen, dass dieser Dienst noch verbessert wird und
dann auf Dauer gut gepflegt wird.
Die WWW-Seiten der Lehrstühle sind zu finden unter:
http://www.informatik.uni-koeln.de/ls_juenger
http://www.informatik.uni-koeln.de/ls_speckenmeyer
(Thomas Lange, E-Mail: [email protected])
5.3.2
Fahrplanoptimierung und -simulation im ÖPNV
Der Fahrplan bildet ein zentrales Element der Verkehrsplanung. Er legt die Ankunfts- und Abfahrtszeiten der einzelnen Linien im Streckennetz fest. Die bislang verwendete Software hilft bei der
manuellen Erstellung am Bildschirm und ermöglicht die Visualisierung und Simulation von Fahrplänen. Zur besseren Unterstützung des Planers fehlen jedoch Systeme zur automatischen
Generierung zulässiger und in Hinblick auf die Zielvorstellung optimierter Fahrpläne.
Das Projekt "Computer Aided Tram Scheduling“ verfolgt das Ziel, die computerunterstützte Erstellung von Fahrplänen zu ermöglichen, um so schnell viele gute Fahrplanalternativen erzeugen
zu können, sie in Simulationen zu testen - um unterschiedliche Störungsszenarien zu analysieren und schließlich einen geeigneten Fahrplan auswählen zu können.
Das der Fahrplangestaltung zu Grunde liegende Streckennetzwerk besteht aus einer Menge von
Stationen und Linien, denen Takte zugeordnet sind. Den Streckenabschnitten zwischen den Stationen sind Fahrzeiten zugeordnet. Das Ziel der Fahrplanoptimierung, die betrachtet wurde, besteht
darin, die Abfahrtszeiten der Linien an den Anfangsstationen so festzulegen, dass die Ankunftszeiten an den einzelnen Stationen möglichst gleichmäßig verteilt sind. Damit soll erreicht werden,
dass kleine Störungen, wie sie häufig bei Nahverkehrssystemen auftreten, nur geringe, zeitlich
begrenzte Auswirkungen auf den Linienverkehr haben.
Um das Fahrplan-Problem exakt zu lösen, wurde ein Branch-and-Bound-Algorithmus entwickelt.
Insgesamt liefert der Branch-and-Bound-Ansatz bereits nach kurzer Zeit gute Fahrpläne für die
Jahresbericht 2003
96
Berichte der Institute und Fachbereiche
untersuchten Instanzen der KVB. Im Weiteren wurden Zerlegungen und Reduktionen des Streckennetzes untersucht, um optimale Fahrpläne für größere Streckennetze schneller berechnen zu
können.
Dieser neue Ansatz der Fahrplanoptimierung ermöglicht es, zuverlässigere Fahrpläne zu erzeugen.
Die Pünktlichkeit spielt eine herausragende Rolle, da Unpünktlichkeit von den Fahrgästen nur
begrenzt akzeptiert wird.
Ein Simulationssystem für Fahrpläne des ÖPNV bestehend aus den drei Komponenten standardisiertes Datenmodul, Simulationsmodul und browsergestützte grafische Benutzeroberfläche (GUI)
wird seit einiger Zeit am Lehrstuhl Prof. Dr. Speckenmeyer entwickelt. Im Zentrum der Betrachtungen steht hierbei die Robustheit untersuchter Fahrplanalternativen, gemessen als Summe aller
Verspätungen von Bahnen, die aus in den Tagesablauf eingebrachten Störungen des Betriebsablaufs resultieren.
Die ursprüngliche Simulation mittels Zellularautomaten wurde verfeinert auf eine Auflösung von
10 Metern pro Zelle. Ferner wurden die Wahrscheinlichkeitsverteilungen für Haltezeiten an Haltepunkten und Ampeln realitätsnäher modelliert, wodurch der relative Einfluss der unterschiedlichen Störgrößen realistischere Resultate liefert. Genauere Erkenntnisse über Staubildung und auflösung, Auswirkungen erhöhten Fahrgastaufkommens und Konsequenzen von in Szenarien
zusammengefassten Störungen können bis auf die Ebene einzelner Linien und Haltepunkte analysiert werden.
Durch Performance-Tuning konnte die Rechenzeit trotz einer wesentlich erhöhten Anzahl von zu
protokollierenden Ereignissen teilweise sogar gesenkt werden. Ferner wurden die Datenbasis
verfeinert und die neuen Angaben automatisiert auf Konsistenz geprüft und bereinigt.
Eine detailliertere Simulationsmethodik, die Geschwindigkeitsvergleiche mehrerer Implementationen
von Priority Queues in einem realen Anwendungsszenario gestattet, wird derzeit programmiert.
(Zülfükar Genc, E-Mail: [email protected],
Gero Lückemeyer, E-Mail: [email protected])
5.3.3
Das Satisfiability Problem (SAT)
Im Rahmen unserer Forschungsarbeiten beschäftigen wir uns mit verschiedenen Varianten eines
zentralen Problems der Informatik - dem Satisfiability Problem (SAT): zu einer gegebenen Booleschen
Formel eine erfüllende Belegung zu finden. Das SAT-Problem hat viele praktische Anwendungen,
beispielsweise beim Schaltkreisentwurf, der Testmustergenerierung, im Bereich der Künstlichen
Intelligenz und der logischen Programmierung. Darüber hinaus ist das SAT-Problem von signifikanter Bedeutung für die Klasse der NP-vollständigen Probleme. Es war das erste Problem, dessen
NP-Vollständigkeit gezeigt wurde.
Ein NP-vollständiger Spezialfall von SAT ist NAESAT: man betrachtet Boolesche Formeln, für die
sowohl die Formel als auch deren komplementäre Formel eine erfüllende Belegung haben. Für SAT
kann man, indem man die Anzahl vorkommender Klauseln zu der Anzahl vorkommender Variablen
in Beziehung setzt, eine Wahrscheinlichkeit für die Existenz einer erfüllenden Belegung angeben.
In ähnlicher Weise haben wir experimentell Schranken für die Erfüllbarkeit von NAESAT-Formeln
bestätigen können.
Weiterhin haben wir das Problem der Kreuzungsminimierung in Levelgraphen mit Hilfe von SAT
untersucht: Ein Graph wird in eine äquivalente SAT-Formel überführt, wobei jede Kreuzung im
Graphen einer Klausel in der SAT-Formel entspricht. Durch Berechnung einer maximalen erfüllenJahresbericht 2003
Berichte der Institute und Fachbereiche
97
den Belegung der Formel (MaxSAT) wird die Anzahl der Kreuzungen minimiert. Als Verfahren
wurden das bewährte, komplett randomisierte WalkSat-Verfahren und das neuere, komplett deterministische TabuSat-Verfahren untersucht. Durch experimentelle Studien ermittelten wir Parameter
für diese Problemklasse, mit denen TabuSat schneller und bessere Ergebnisse liefert als WalkSat.
Die experimentellen Studien wurden auf Rechnern des Lehrstuhls, insbesondere einem PC-Cluster
mit 8 Athlon-MP 1800+ Dual-Prozessoren und 2 GB Hauptspeicher je Knoten, durchgeführt. Eine
Benutzung der Sun-Server des RRZK (z.B. suns15k), um speicheraufwändigere Tests durchzuführen, ist beabsichtigt.
(Mattias Gärtner, E-Mail: [email protected],
Jens Rühmkorf, E-Mail: [email protected],
Ewald Speckenmeyer, E-Mail: [email protected])
5.3.4
Weitere Berichte
Ein weiterer Bericht über Bestimmung exakter Grundzustände von Spingläsern im Isingmodell
ist in Kapitel C Abschnitt 3 nachzulesen.
5.4
I. Physikalisches Institut
Homepage: http://www.ph1.uni-koeln.de
5.4.1
Bericht über die Kooperative Informationsverarbeitung
Spezielle Rechner- und Netzwerksysteme am I. Physikalischen Institut:
•
lokale AFS Zelle ph1.uni-koeln.de:
- 4 AFS Datenbank- / Fileserver mit insgesamt 28 registrierten Benutzern und 1,25 TB OnlineFestplattenkapazität, wovon 720 GB als Raid Level 1 realisiert sind
- vollautomatisches wöchentliches Datenbackup auf die TSM Bandroboter des ZAIK/RRZK
- 18 AFS Client Workstations
- lokales DVD und DDS-4 DAT Laufwerk
•
Rechnersystem für numerische Simulationen von astrophysikalischen Fragestellungen:
- Intel Xeon Doppelprozessor-System
3,06 GHz Taktfrequenz
6 GB Hauptspeicher
70 GB SCSI Ultra-160 Festplattenkapazität
- Intel Xeon 4-Prozessor-System
2,8 GHz Taktfrequenz
16 GB Hauptspeicher
60 GB Festplattenkapazität
Jahresbericht 2003
98
Berichte der Institute und Fachbereiche
Wartung und Administration des Netzwerks und der Rechnerhardware:
Die Administration und Betreuung der Netzwerkdienste (IP, WWW, FTP, AFS), sowie der zentralen Server und Drucker des I. Physikalischen Instituts wird von einer Gruppe aus Post-Docs und
Doktoranden durchgeführt.
(Ansprechpartner: Dr. C. Straubmeier, E-Mail: [email protected])
5.4.2
Projekt zur Visualisierung von Galaxiensimulationen in
Kooperation mit dem ZAIK/RRZK:
Astrophysikalische Forschung mit Galaxiensimulationen
Seltsam geformte Galaxien sind ein häufig beobachtetes Phänomen im Universum. In vielen Fällen
lässt die ungewöhnliche Form auf Wechselwirkungen mit Nachbargalaxien schließen. Derartige
Kollisionen und Verschmelzungen von Galaxien haben weitreichende Auswirkungen auf die Gasund Sternkomponenten der Galaxien und werden als Ursache für die Entstehung von Quasaren
diskutiert.
Am I. Physikalischen Institut werden numerische Simulationen zu Galaxienkollisionen durchgeführt. Diese stellen ein wichtiges Hilfsmittel bei der Interpretation von Beobachtungsdaten dar, die
lediglich ein unvollständiges Bild von Galaxien vermitteln können. So liefern Teleskopaufnahmen
nur Informationen über die zweidimensionale Himmelsprojektion einer Galaxie und - falls Spektrallinien messbar sind - über die eindimensionale Geschwindigkeitsverteilung im Galaxiengas oder in
den Galaxiensternen entlang der Beobachtungssichtlinie. Erschwerend kommt hinzu, dass Galaxien aufgrund ihrer langen Entwicklungszeiten nur in Momentaufnahmen beobachtet werden können. Die dreidimensionale Struktur und die Entwicklungsgeschichte von Galaxien kann in Computersimulationen rekonstruiert und damit die Frage nach vergangenen Wechselwirkungen untersucht werden.
Visualisierung der Simulationsdaten mit dem Open Data Explorer
Da die Strukturen, die bei Wechselwirkungen oder sogar Verschmelzungen einzelner Galaxien
entstehen, sehr komplex sind, ist eine räumliche visuelle Darstellung der Simulationsergebnisse
von großem Vorteil. Der IBM Research Open Visualization Data Explorer (OpenDX) liefert einfache
Lösungen, um Simulationsdaten zu importieren, räumlich drehbar und farbkodiert darzustellen
sowie Zeitreihen wiederzugeben (http://www.uni-koeln.de/themen/Graphik/Visualization/
DataExplorer). Der Open Data Explorer bietet zahlreiche Module mit festgelegten Aufgaben von
der Datenmanipulation bis hin zur Visualisierung. Die Programmierung erfolgt durch den interaktiven Entwurf von Datenablaufplänen (so genannten Netzwerken) unter Verwendung jener Module.
Ist das Netzwerk einmal aufgebaut, kann die Steuerung der Visualisierung in graphische Benutzeroberflächen (Abb. 1) eingebaut werden, so dass beim Anwender keine Kenntnis der Skript- und
Modulsprache vorausgesetzt werden muss.
Jahresbericht 2003
Berichte der Institute und Fachbereiche
99
Abbildung 1: Beispiel einer graphischen Benutzeroberfläche zum Einlesen und Darstellen der
Daten aus Galaxiensimulationen
Im Rahmen der Visualisierung von Galaxiensimulationen hat sich eine effiziente Kooperation zwischen dem I. Physikalischen Institut und dem ZAIK/RRZK herausgebildet. Gemäß den speziellen
Anforderungen bei den Galaxiendaten stellte Herr Volker Winkelmann vom ZAIK/RRZK
Visualisierungsnetzwerke zusammen, die im I. Physikalischen Institut anhand der graphischen
Oberflächen bequem verwendet werden können.
Visualisierungsmöglichkeiten am Beispiel jüngster wissenschaftlicher Ergebnisse
Die Ergebnisse des Visualisierungsprojekts lassen sich am Beispiel der Simulationen für die Wirtsgalaxie des Quasars 3C 48 verdeutlichen. Für diese Galaxie konnte erfolgreich gezeigt werden, wie
sich bisherige Vorbehalte gegen die Theorie einer vorangegangenen Wechselwirkung ausräumen
Jahresbericht 2003
100
Berichte der Institute und Fachbereiche
lassen. Um das momentane Aussehen der 3C 48 Galaxie zu reproduzieren, wurde im Computer eine
Verschmelzung zweier gegeneinander gekippter Scheibengalaxien simuliert (Abb. 2).
Abbildung 2: Zeitreihe einer Verschmelzung von zwei Scheibengalaxien dargestellt mit dem
Open Data Explorer. Während der Kollision bilden sich durch Gezeitenkräfte zwei starke
Spiralarme.
Die Simulationen basieren auf einer numerischen Methode, bei der Galaxien entsprechend ihrer
Massenverteilung durch eine Vielzahl von Teilchen modelliert werden. In Form von Listen werden
bei dieser Vielteilchenmethode jedem einzelnen Teilchen eine Masse, eine Position und ein
Geschwindigkeitsvektor zugeordnet. Da Galaxien in erster Näherung als stoßfreies System aus
Sternen betrachtet werden können, ist ihre Dynamik hauptsächlich durch die Gravitationskraft
zwischen den einzelnen Sternen bestimmt. Dementsprechend ergibt sich die zeitliche Entwicklung
der Vielteilchensimulation aus der Beschleunigung, die jedes Teilchen aufgrund der Massenanziehung aller anderen Teilchen erfährt. In regelmäßigen Zeitabständen werden Momentaufnahmen
der Simulation wiederum als Teilchenlisten mit Massen, Positionen und Geschwindigkeiten ausgegeben. Zur Klärung der Frage, ob die angenommene Startsituation zweier kollidierender Scheibengalaxien tatsächlich zum beobachteten Aussehen der 3C 48 Galaxie führen kann, muss jede Momentaufnahme unter allen Projektionswinkeln untersucht werden. Das von Herrn Winkelmann
programmierte Netzwerk erlaubt, die Momentaufnahmen in den Data Explorer einzulesen und die
verschmelzenden Galaxien mit Hilfe der graphischen Benutzeroberfläche in beliebige Richtungen
zu drehen. Um die Entwicklung der ursprünglichen Einzelgalaxien nachzuvollziehen, können Intervalle der Teilchenlisten einzeln angesprochen werden und mit unterschiedlichen Farben versehen
werden. Zudem kann per Benutzeroberfläche eine Darstellung mit Bildzeichen („Glyphs“) gewählt
werden, in der die Teilchen entweder als Kugeln oder entsprechend ihrer Geschwindigkeit als
Vektorpfeile repräsentiert werden (Abb. 3, Abb. 4).
Alternativ erlaubt „Volumen-Rendering“ eine Visualisierung der Teilchendichte. Werden statt der
Positionsdaten der Teilchen die Geschwindigkeitsdaten weiter verarbeitet, können Absolutgeschwindigkeiten berechnet und in Intervallen dargestellt werden, um einen ersten Eindruck über
die Gesamtdynamik der verschmelzenden Galaxien zu gewinnen. Mit Hilfe des programminternen
Sequenzer-Moduls können Rotationen um vorgegebene Achsen abgespielt und als Bildreihe aufgenommen werden. Der Sequenzer kann ebenfalls benutzt werden, um Serien aufeinander folgender Momentaufnahmen zu importieren und in einem Film über den Ablauf der Galaxienkollision
abzuspeichern.
Jahresbericht 2003
Berichte der Institute und Fachbereiche
101
Abbildung 3: Glyph-Darstellung der Galaxien unter Verwendung von Kugelbildzeichen
Abbildung 4: Glyph-Darstellung mit Vektorpfeilen für das Geschwindigkeitsfeld. Die Farbkodierung gibt die Absolutgeschwindigkeit wieder.
Anwendung bei der Präsentation wissenschaftlicher Ergebnisse
Die Möglichkeiten der Visualisierung mit dem Data Explorer wurden bisher vor allem für einen
Workshop-Vortrag genutzt, in dem die Simulationen zur 3C 48 Galaxie in einer Powerpoint-Präsentation vorgestellt wurden. Insbesondere liefern die Simulationen neue Ergebnisse in Bezug auf
einen zweiten Spiralarm, der bei der Verschmelzung zweier Galaxien zu erwarten ist (Abb. 2) und
dessen Fehlen bei 3C 48 als ein Argument gegen die Verschmelzungstheorie gewertet wird. Wie
sich nun zeigt, kann dieser Arm aber durch die entsprechende Projektion vor die Hauptgalaxie
gedreht werden, so dass er in Teleskopaufnahmen unsichtbar ist. Die komplexe räumliche Struktur,
die diesen Effekt möglich macht, lässt sich schnell und instruktiv in einem Film vermitteln, der die
räumliche Drehung der verschmolzenen Galaxien zeigt.
Die eindrucksvollen Bilder aus Galaxiensimulationen eignen sich insbesondere zur Präsentation
vor fachfremdem Publikum. Am Tag der offenen Tür der Physikalischen Institute am 14. Februar
Jahresbericht 2003
102
Berichte der Institute und Fachbereiche
2004 wurden Bilder von Simulationen gezeigt, und es bestand für Besucher die Möglichkeit, am
Bildschirm simulierte Galaxien zu drehen. Zunehmend soll die neue Visualisierungsmethode auch
zur Präsentation der Galaxiensimulationen im Internet genutzt werden.
(Ansprechpartnerin: Julia Scharwächter, E-Mail: [email protected],
Dr. C. Straubmeier, E-Mail: [email protected])
5.5
II. Physikalisches Institut
Homepage: http://www.ph2.uni-koeln.de
Einleitung
Der Forschungsschwerpunkt des II. Physikalischen Instituts liegt auf dem Gebiet der experimentellen Festkörperphysik. EDV wird vor allem für die Erfassung und Auswertung von Messdaten
eingesetzt, daneben zum Erstellen von Publikationen, Postern und sonstigen Präsentationen. Dafür
steht ein heterogener Cluster aus Windows- und Linux-Arbeitsplatz- und Messrechnern, NT/
W2003-Servern und 2 Sun-Ultra Servern, einer unter Solaris, der andere unter Linux, zur Verfügung. Das System ist durch Glasfaserkabel vernetzt.
Der Solaris-Server ist mit einem RAID-Festplattensystem ausgestattet und dient als Mailserver
und zur zentralen Ablage und Sicherung von Messdaten. Er erlaubt Mitgliedern des Instituts, die
z.B. an Großgeräten außerhalb der Universität Messungen durchführen, die dort gewonnenen
Messdaten nach Köln zu übertragen und auf die dort abgelegten Daten zuzugreifen. Der Linux
Server beherbergt die Webseite des Instituts. Zusätzlich zu den Rechnern in den Büros und
Labors stehen Arbeitsplätze in zwei Computerräumen zur Nutzung durch Studenten und Gäste zur
Verfügung; in diesen Räumen befinden sich auch zentral genutzte Geräte wie Drucker und Scanner.
Für die Textverarbeitung werden TeX/LaTeX und Office-Programme (Microsoft, StarOffice) eingesetzt. Zur Datenauswertung werden neben selbst geschriebener Software Standard-Pakete wie
Origin, Maple und Matlab verwendet. Besonders rechenintensiv ist die Auswertung von Röntgenbeugungs-Experimenten, bei der sehr umfangreiche Datenmengen verarbeitet werden müssen
(siehe unten Beispiel 1).
Begleitend zu der experimentellen Arbeit werden im Institut auch theoretisch/numerische Arbeiten
durchgeführt (siehe unten Beispiel 2); dafür wird ein eigener unter Linux laufender PC genutzt. Für
umfangreiche und speicherintensive Berechnungen wird zusätzlich die Kapazität des Rechenzentrums genutzt.
Im Sommersemester 2004 wird zum ersten Mal eine Lehrveranstaltung zur Simulation der elektronischen Struktur von Festkörpern stattfinden. Für das Praktikum zu dieser Vorlesung steht ein weiterer Rechner unter Linux zur Verfügung, auf den die Teilnehmer an der Lehrveranstaltung zugreifen können um ihre selbst geschriebenen Simulationen auszuführen und zu testen.
In dem vom II. Physikalischen Institut angebotenen Praktikum für Fortgeschrittene werden mehrere PCs und eine digitale Kamera zur Messdaten-Erfassung eingesetzt. Für das Praktikum wird auch
die Homepage des Instituts genutzt, auf der Informationen zu den Versuchen abgerufen werden
können. In der feinmechanischen Werkstatt des Instituts wird AutoCAD zur Konstruktion von
Werkstücken und Messapparaturen genutzt und für die Ausbildung eingesetzt.
Jahresbericht 2003
Berichte der Institute und Fachbereiche
103
Abb. 1: Röntgenbild von einem LaTiO3 Einkristall.
Oben: Graustufendarstellung des Kamerabildes, unten 3D Darstellung der Intensitäten.
Beispiel 1: Kristallstrukturbestimmung
Die meisten Experimente im II. Physikalischen Institut werden an Kristallen durchgeführt. Viele der
untersuchten Kristalle sind im Institut gezüchtet worden. Die im Institut vor allem untersuchten
Übergangsmetall-Oxide haben aufgrund ihrer Struktur eine große Anzahl von Möglichkeiten, von
der idealen Kristallstruktur durch Verzerrung oder Verkippung abzuweichen. Diese Abweichungen
haben einen direkten Einfluss auf wichtige physikalische Eigenschaften und werden daher sehr
sorgfältig mit Röntgenbeugung untersucht. Bei dieser Methode macht man sich zu Nutze, dass die
Wellenlänge von Röntgenlicht in etwa dem Abstand von zwei Atomen in einem Kristall entspricht.
Deshalb wirkt ein Kristall auf Röntgenlicht wie ein optisches Gitter auf sichtbares Licht: die Lichtintensität wird in bestimmte Richtungen in so genannte Röntgenreflexe gebündelt. Aus der Lage
dieser Reflexe lässt sich die Kristallstruktur bestimmen. Für eine zuverlässige Strukturuntersuchung
müssen viele hundert, oft mehrere tausend dieser Reflexe vermessen werden. Dafür stehen eine
Reihe von Röntgendiffraktometern zur Verfügung, von denen das leistungsfähigste, ein Bruker X8
Apex, ein komplexes Messprogramm im wesentlichen automatisiert durchführen kann. Als Detektor für die Röntgenreflexe dient eine Röntgen-CCD Kamera, die einen großen Winkelbereich erfasst. Abb. 1 zeigt ein Beispiel für eine einzelne Kameraaufnahme von einem LaTiO3 Einkristall. Der
obere Teil der Abbildung zeigt direkt das Kamerabild in Graustufen, die schwarzen Flecken sind die
einzelnen Röntgenreflexe. Im unteren Teil von Abb. 1 ist die Intensität der Reflexe als Höhe aufgetragen.
Jahresbericht 2003
104
Berichte der Institute und Fachbereiche
Abb. 2: Aus den Daten in Abb. 1 bestimmte Kristallstruktur von LaTiO3.
Intensity (arb. units)
CoO L2-edge
T= 400K
T= 300K
T= 200K
T= 150K
T= 100K
T= 77K
theory
experiment
793 794 795 796 797 798
Photon energy (eV)
Abb. 3: Berechnete und gemessene Röntgenabsorptions-Spektren von CoO.
Die Gesamtmessung eines Kristalls besteht aus einigen tausend solcher Aufnahmen und dauert
mehrere Tage. Dabei fallen etwa 1 GB Rohdaten an, die dann von der Software des Diffraktometers
reduziert und integriert werden. Diese Prozedur dauert auf einem Pentium 4 mit 2,8 GHz und 1 GB
Arbeitsspeicher etwa 30 Minuten. Darauf folgt die wesentlich zeitaufwändigere interaktive StrukturJahresbericht 2003
Berichte der Institute und Fachbereiche
105
verfeinerung, die schließlich zur Aufklärung der Struktur führt. In Abb. 2 ist die Kristallstruktur
gezeigt, wie sie aus den oben gezeigten Daten ermittelt wurde. Blau sind die Sauerstoff-Ionen,
grün die Titan-Ionen. Lanthan sitzt in der Mitte der Ti-Würfel und ist hier nicht zu sehen. Gut zu
erkennen ist das komplizierte Verkippungs-Muster der Sauerstoff-Oktaeder.
(M. Cwik, W.-D. Stein, M. Braden)
Beispiel 2: Simulation von Röntgenabsorptions-Spektroskopie
Röntgenabsorptions-Spektroskopie ist eine besonders leistungsfähige Methode, um die elektronische Struktur von Übergangsmetall-Oxiden zu untersuchen. Man misst dabei, wie stark Röntgenlicht unterschiedlicher Energie in einer Probe absorbiert wird. An modernen Synchrotronstrahlungsquellen wie der ESRF in Grenoble, BESSY in Berlin oder NSRRC in Hsinchu, Taiwan, die intensive
Röntgenstrahlung mit variabler Energie zur Verfügung stellen, können solche Messungen durchgeführt werden. Die Stärke der Absorption ändert sich dramatisch, wenn die Energie des Röntgenlichts gerade eine elektronische Anregung in der Probe verursacht. Man erhält ein kompliziert
aussehendes Spektrum, das eine Fülle an Informationen über die magnetischen Eigenschaften der
Probe, die Wertigkeit der Ionen, die Besetzung einzelner Orbitale usw. enthält.
Zur quantitativen Auswertung der Spektren wird eine Cluster-Rechnung verwendet, deren theoretische Grundlagen zwar schon länger bekannt sind, die aber erst mit der Rechenleistung moderner
Computer effektiv zur Simulation von Spektren nutzbar ist. Typischerweise muss für eine einzelne
dieser Berechnungen eine Matrix von 200.000 mal 200.000 Werten diagonalisiert werden, was für
moderne PCs aber kein besonderes Problem darstellt.
Ein Beispiel für ein so gewonnenes Ergebnis ist die in Abbildung 3 gezeigte Temperaturabhängigkeit
der 2p1/2 nach 3d Anregung von CoO. Die unteren Kurven sind die Messdaten, die oberen Kurven
sind berechnet und reproduzieren das experimentell beobachtete Verhalten sehr gut. Aus den
Modellparametern, die die beste Übereinstimmung mit dem Experiment liefern, kann man z.B. erkennen, dass die Eigenschaften von CoO stark von Spin-Bahn-Kopplung beeinflusst werden.
(M. Haverkort, Z. Hu, L. H. Tjeng)
Hardwareausstattung
1 Sun Ultra Enterprise (Solaris; Fileserver, Mailserver)
1 Sun Ultra 60 (Linux; Apache Webserver)
diverse PCs mit Windows NT 4.0 Domänenserver, Clients: Windows 95/98/NT/2000/2003/XP, Linux
3 Netzwerk-Laserdrucker (ca. 6000 Seiten pro Monat)
4 Tintenstrahldrucker
Art der Vernetzung
Glasfasernetzwerk, TCP/IP Protokoll.
Räumliche Unterbringung der Geräte
Überwiegend in Arbeitsräumen und Büros, zwei zentrale Rechnerräume mit einigen Arbeitsplätzen,
Druckern, Scannern.
Jahresbericht 2003
106
Berichte der Institute und Fachbereiche
Personelle Betreuung
3 Teilzeit-Administratoren.
(Dr. Christian Schüßler-Langeheine, E-mail: [email protected])
5.6
Institut für Theoretische Physik
Homepage: http://www.thp.uni-koeln.de/
5.6.1
Weltrekord bei Perkolations-Theorie
„Perkolation“ ist nicht ein „obscure branch of applied mathematics“, wie es das amerikanische
Nachrichtenmagazin „Newsweek“ zum Jahreswechsel 2003/4 behauptete, sondern wurde 1941
vom späteren Chemie-Nobelpreisträger Paul Flory erfunden, um Gelierung von Polymeren und
Vulkanisierung von Gummi zu erklären. Computersimulationen macht man am besten auf einem
regulären Gitter: Jeder Gitterplatz ist zufällig entweder besetzt oder frei. Cluster sind Mengen
benachbarter besetzter Plätze. Wieviele Cluster gibt es, die von einem Ende des Gitters bis zum
anderen reichen?
Bis 2003 war der Konsens, dass für sechs und mehr Dimensionen die Zahl dieser durchreichenden
Cluster gegen unendlich geht, wenn die Gittergröße gegen unendlich geht. In fünf und weniger
Dimensionen war dagegen nur eine endliche Zahl solcher Cluster erwartet. Neue Simulationen
zeigen aber bereits in fünf Dimensionen einen Anstieg der Zahl der durchreichenden Cluster
proportional zu log (L), wenn L die Kantenlänge des simulierten Würfels ist.
Die Kantenlänge L ging bis 201, was wohl die bisher größten fünfdimensionalen Systeme darstellt,
die Platz für Platz simuliert wurden: 328 Milliarden Plätze. Kölner Computer wurden dabei durch
größere in Jülich und Haifa unterstützt. Das Beispiel macht auch klar den Vorteil von ComputerExperimenten gegenüber Labor-Experimenten: Im Labor können ein, zwei und drei Raumdimensionen
untersucht werden, nicht aber fünf. Damit können Computer einen größeren Bereich von Theorien
überprüfen als Labors. Und wenn eine Theorie in fünf Dimensionen nicht stimmt, kann man sie
auch für drei Dimensionen bezweifeln.
(Prof. D. Stauffer, Theoretische Physik, E-Mail:[email protected])
5.6.2
Weitere Berichte
Ein weiterer Bericht über Untersuchungen stark korrelierter Systeme mittels Flussgleichungen
ist in Kapitel C Abschnitt 4 nachzulesen.
5.7
Institut für Anorganische Chemie
Homepage: http://www.uni-koeln.de/math-nat-fak/anorgchem/
Drei Berichte über Einfluss elektronenziehender Substituenten auf die Chemie des Phosphors,
Theoretische Untersuchung zur Bildung von Oxadisulfan (HSOH) bzw. Mikrowellenspektroskopische Charakterisierung unbekannter Moleküle sind in Kapitel C Abschnitt 5 nachzulesen.
Jahresbericht 2003
Berichte der Institute und Fachbereiche
5.8
107
Institut für Organische Chemie
Homepage: http://www.oc.uni-koeln.de
5.8.1
Bericht über die Kooperative Informationsverarbeitung
Allgemeines
Das Institut für Organische Chemie arbeitet in sieben Forschungsgruppen hauptsächlich auf dem
Gebiet der synthetischen Organischen Chemie. Darüber hinaus sind drei größere analytische
Servicezentren (Massenspektrometrie, Kernresonanzspektroskopie und Röntgenstrukturanalyse) vorhanden, die sowohl mit ihren spezifischen Dienstleistungen die synthetisch arbeitenden
Gruppen unterstützen, als auch eigene Forschung betreiben.
Zahlreiche typische Arbeitsabläufe in der heutigen chemischen Forschung sind in vielfältiger
Weise auf die "IT-Technologie" angewiesen, wobei insbesondere die Bereiche Gerätesteuerung,
Meßwerterfassung und -auswertung, Datenbankanwendungen, Literaturbeschaffung ("elektronische Zeitschriften"), "Computational Chemistry" (vgl. hierzu auch Beitrag in Teil C), Kommunikation, Antragsstellung und Berichtserstattung sowie Verwaltung zu nennen sind.
All diese Aufgabenbereiche sind in besonderer Weise auf eine Vernetzung angewiesen, die teilweise
über das Institutsnetzwerk oder, insbesondere im Bereich der Meßtechnik, über kleine lokale Netzwerke realisiert wird.
Im Bereich der Datenbanknutzung sind im wesentlichen SciFinder Scholar, MDL CrossFire (Beilstein), ISI Web of Science und die Cambridge Structural Database zu nennen. Da diese Produkte,
ebenso wie die sehr wichtigen elektronischen Zeitschriften ("Online Journals"), extern bereitgestellt werden, ist damit auch eine hochverfügbare Internetanbindung unverzichtbar. Ohne Zugriffsmöglichkeit auf diese und weitere Datenbanken ist eine hochwertige, international konkurrenzfähige chemische Forschung heute nicht mehr realisierbar.
Neben ihrem unverzichtbaren Einsatz in der Forschung wird die IT-Technologie auch maßgeblich
im Bereich der Lehre in unserem Institut eingesetzt. Diesbezüglich sind vor allem die Projektion in
den Hörsälen, die direkte Nutzung neuer Medien (z.B. ECTN: http://www.cpe.fr/ectn) und die
Ausbildung der Studenten in den oben genannten forschungsbezogenen Anwendungen zu nennen.
Hardwareausstattung
Die eingesetzte Hardware ist durch das vielfältige Aufgabenspektrum sehr heterogen. Neben
zahlreichen PCs (Windows XP, 2000 und NT) werden verschiedene Linux-Rechner (teilweise als
Cluster), Silicon Graphics Computer (Octane, O2 und Indy) sowie DEC-Computer verwendet.
Netzwerk
Das Netzwerk ist im gesamten Gebäude zu den zentralen Switches auf Twisted-Pair-Basis ausgeführt, der Uplink ist über Glasfaser (1 GBit/s) realisiert. Insgesamt werden ca. 300 Maschinen in
zwei Class C Subnetzen betrieben.
Jahresbericht 2003
108
Berichte der Institute und Fachbereiche
Kooperation mit dem Rechenzentrum
Das Institut für Organische Chemie kooperiert mit dem RRZK in verschiedenen Bereichen.
Insbesondere nutzen wir stark die Compute-Server des RRZK, hauptsächlich zur quantenchemischen (QC) Berechnung von Molekülen (vgl. dazu auch Beitrag in Teil C). Eng damit verbunden, aber nicht nur auf die QC-Programme beschränkt, ist die Beschaffung und Bereitstellung von
Programmen und Datenbanken, an der sich das Institut auf unterschiedliche Weise beteiligt.
In diesem gesamten Zusammenhang ist insbesondere die sehr wichtige Funktion des RRZKFachbereichsbetreuers Chemie (Dr. Lars Packschies) hervorzuheben, dessen Tätigkeit sowohl bei
der Koordinierung der Beschaffungen sowie der Bereitstellung und dem effizienten Einsatz der
Software unverzichtbar ist. Neben diesem engen Kontakt, der über die genannten technischen
Belange hinaus auch wissenschaftliche Aspekte betrifft, sind die in jedem Semester von Dr.
Packschies angebotenen Chemiesoftware-Kurse im CIP-Raum der Chemischen Institute für Studenten, Diplomanden und beginnende Doktoranden eine wertvolle Einstiegshilfe für spätere wissenschaftliche Arbeiten.
Eine enge Zusammenarbeit zwischen unserem Institut und dem RRZK besteht darüber hinaus im
Bereich der Internetanbindung und -sicherheit.
(Dr. Dirk Blunk, E-Mail: [email protected])
5.8.2
Weitere Berichte
Zwei weitere Berichte über Quantenchemische Studien zu Diels-Alder-Reaktionen bzw. Theoretische Untersuchungen zur Arsonsäure-katalysierten Epoxidierung terminaler Olefine mit Wasserstoffperoxid sind in Kapitel C Abschnitt 6 nachzulesen.
5.9
Institut für Physikalische Chemie
Professur für Statistische Thermodynamik
Homepage: http://www.uni-koeln.de/math-nat-fak/phchem/
Arbeitsgruppe Prof. Dr. Deiters — Homepages:
http: //www.uni-koeln.de/math-nat-fak/fgchemie/group/deiters.htm
http: //www.uni-koeln.de/math-nat-fak/phchem/deiters/index.html
5.9.1
Bericht über die Kooperative Informationsverarbeitung
Austattung:
• 7 Hewlett-Packard RISC-Workstations (verschiedene Modelle von 715/64 bis zu C3000)
• 3 Linux-Rackserver (Dual Xeon 2,4 GHz), über Gigabit-Switch verbunden
• diverse Peripherie: Scanner, mehrere Laserdrucker, Backup-Systeme (DDS- und MO-Laufwerke), Switches, USV
Jahresbericht 2003
Berichte der Institute und Fachbereiche
109
Administration
Die Administration der Rechner wird von den Benutzern wahrgenommen.
Besonderheiten
Die Workstation stthd0.pc.uni-koeln.de dient als sekundärer Nameserver für das Institut.
Nutzung der Rechner
Quantenmechanische Rechnungen werden wegen ihrer speziellen Anforderungen auf den LinuxServern der Arbeitsgruppe sowie auf den großen Servern des Rechenzentrums durchgeführt (z.B.
Sunfire). Für die Computersimulationen werden im wesentlichen die Linux-Server und die neueren
HP-Workstations verwendet; die anderen Maschinen dienen als Benutzer-Arbeitsplätze bzw. steuern Peripheriegeräte.
Auf den Linux-Servern wird ferner das Computeralgebra-Programm Maple zur Verfügung gestellt.
Alle Rechner der Arbeitsgruppe können untereinander Dateien per NFS austauschen. AFS ist nur
auf einigen Workstations installiert, weil es sehr oft Anlass zu Störungen gibt. Backups werden
lokal erzeugt.
Da die Arbeitsgruppe aktiv Computerprogramme für Simulationen und Mischphasenthermodynamik
entwickelt, ist es wichtig, dass auf den Servern des Rechenzentrums eine geeignete Programmierumgebung zur Verfügung steht.
5.9.2
Projekt: Globale Simulation unpolarer Flüssigkeiten
Warum sammelt sich Wasser normalerweise spontan am Boden eines Gefäßes und bildet einen
zusammenhängenden Körper, eine sogenannte flüssige Phase? Offensichtlich wirken zwischen
den Molekülen von Flüssigkeiten Kräfte, die für einen Zusammenhalt sorgen. Durch genügend
große Energiezufuhr in Form von Wärme kann man sie überwinden: Die Flüssigkeit verdunstet
oder siedet, und der Dampf verbreitet sich — ohne einen erkennbaren Zusammenhalt — im ganzen
zur Verfügung stehenden Raum.
Die Stärke dieser Kräfte kann von Substanz zu Substanz stark variieren, und entsprechend unterschiedlich sind die Siedetemperaturen. So findet man z.B. für Heptan (Bestandteil von Benzin)
unter Normaldruck eine Siedetemperatur von 98,3 °C, für Butan (Bestandteil von sog. Flüssiggas,
Arbeitsmedium in modernen Kühlanlagen) -0,5 °C, für Stickstoff -195,8 °C, oder für das Edelgas
Neon -246,1 °C.
Warum eigentlich?
Und welche Kräfte sind hier am Werk?
Wenn unser derzeitiges Weltbild richtig ist, lassen sich alle Naturphänomene auf vier Wechselwirkungen zurückführen: Gravitation, starke und schwache Kraft, elektromagnetische Wechselwirkung. Von diesen ist aber nur die letztere für Kräfte zwischen Atomen oder Molekülen von
Bedeutung. Das physikalische Gesetz, das die elektromagnetische Wechselwirkung charakterisiert (genauer: die elektrostatische Wechselwirkung; magnetische Phänomene spielen hier keine
Rolle) wurde bereits im 19. Jahrhundert von Coulomb gefunden.
Damit ist eigentlich schon alles Wesentliche bekannt, und man sollte einzig und allein aus den
Werten einiger Naturkonstanten (Vakuum-Dielektrizitätskonstante ε0, Ladungen und Massen der
Jahresbericht 2003
110
Berichte der Institute und Fachbereiche
Elektronen und der Atomkerne, usw.) z.B. den Siedepunkt von Stickstoff berechnen können!
Diese Erkenntnis ist schon mindestens 50 Jahre alt. Ihre Umsetzung erweist sich aber als extrem
schwierig.
Zunächst einmal ist festzustellen, dass die Berechnung der Elektronenbewegungen um die Atomkerne nach den Gesetzen der Quantenmechanik erfolgen muss, was schon in sich eine erhebliche
Komplikation bedeutet.
Wenn man auf diese Weise die Gestalt und Ladungsverteilung der eingangs genannten Moleküle
berechnet, stellt man fest, dass sie keine oder nur sehr schwach ausgeprägte elektrische Partialladungen tragen, die auf keinen Fall die beobachteten intermolekularen Anziehungskräfte erklären
können.
Das Geheimnis der Wechselwirkungen zwischen diesen unpolaren Molekülen sind Dispersionskräfte — Kräfte, die auf Kopplungen zwischen zufälligen Fluktuationen der Ladungsverteilungen
der Moleküle zurückzuführen sind.
Die quantitative Ab-initio-Berechnung solcher Dispersionskräfte ist erst seit kurzem möglich. Wir
verwenden hierfür die coupled cluster-Methode, die u.a. im Quantenmechanik-Programm Gaussian®
implementiert ist, in Verbindung mit sehr diffusen Basissätzen. Die Rechnungen erfordern extrem
viel Rechenzeit sowie Speicherplatz für Zwischenergebnisse in der Größenordnung von einigen
Dutzend GB. Sie müssen für eine große Zahl von Molekülabständen und -orientierungen durchgeführt werden.
Ein erster Test für die Qualität berechneter Paarpotentiale ist die Voraussage des 2. Virialkoeffizienten.
Für die von uns untersuchten Edelgase liegen die Abweichungen der Voraussagen nahe an den
experimentellen Fehlerschranken, wie Abb. 2 zeigt.
Die so gewonnenen Tabellen der Wechselwirkungsenergien (eine graphische Darstellung bietet
Abb. 1) werden dann mit geeigneten analytischen Funktionen interpoliert. Diese Funktionen können dann in klassischen Monte-Carlo-Computersimulationen verwendet werden, um thermodynamische Daten zu berechnen. Hierbei werden Proben von einigen hundert oder tausend Molekülen
betrachtet; die Teilchen werden nach bestimmten Regeln zufällig bewegt (daher der Name Monte
Carlo), um möglichst viele repräsentative Konfigurationen zu erhalten, aus denen dann die makroskopischen Eigenschaften hochgerechnet werden. Wir setzen speziell die sog. Gibbs-EnsembleMonte-Carlo-Technik [1] ein, um direkt Dampf–Flüssigkeit-Phasengleichgewichte zu bestimmen
und damit schließlich Siedepunkte sowie die Dichten und inneren Energien von Dampf und Flüssigkeit zu erhalten.
Die Interpolationsfunktion beschreibt nur Wechselwirkungen zwischen Molekülpaaren. Es stellt
sich aber heraus, dass diese Wechselwirkungen nicht exakt additiv sind; man muss also sog.
Dreikörper-Korrekturen berücksichtigen.
Die hier angewandte Methode der Globalen Simulation, d.h. einer Kombination von Ab-initioBerechnungen von Wechselwirkungspotentialen mit thermodynamischen Computersimulationen,
lässt sich auch auf Mischungen erweitern. Abb. 3 zeigt ein Hochdruck-Siedediagramm für das
Mischsystem (Argon + Krypton). Es handelt sich um die weltweit erste quantitativ gelungene
Voraussage eines solchen Mischungs-Phasendiagramms ohne die Verwendung experimenteller
thermodynamischer Daten. Es wurden lediglich die Werte der universellen Konstanten benötigt
(Plancksches Wirkungsquantum, Lichtgeschwindigkeit, Elementarladung, Vakuum-Dielektrizitätskonstante usw.) [2-6].
Jahresbericht 2003
Berichte der Institute und Fachbereiche
111
106φ(r)/Eh
Ar–Ar
800
Ar–Kr
Kr–Kr
400
0
–400
–800
0
0.2
0.4
0.6
0.8
r/nm
Abb. 1: Paarpotentiale der Dimere Argon–Argon, Argon–Krypton und Krypton–Krypton,
angegeben in Hartree-Energieeinheiten.
—: experimentelle Ergebnisse,
°, ∆ : Ab-initio-Berechnung.
Die beiden äußeren Paarpotentiale wurden der besseren Übersichtlichkeit wegen um 0,2 nm
verschoben. Für das Argon–Krypton-Potential konnten experimentelle Werte nur für die
Lagen des Minimums und des Nulldurchgangs gefunden werden.
Die Computersimulationen der hier verwendeten Art werden bei Annäherung an den kritischen
Punkt (das Maximum in Abb. 3) systematisch ungenauer. Auch lassen sich nicht alle thermodynamischen Funktionen gleich gut allein durch Simulationen ermitteln. Als Abhilfe kann man eine
thermische Zustandsgleichung an die Simulationsdaten anpassen und mit ihr die Zustandsbereiche
berechnen, in denen die Computersimulationen unzuverlässig oder zu zeitaufwendig werden [7].
Das Ergebnis ist sehr ermutigend.
Nun mag man sich fragen, warum man sich die Mühe machen sollte, ein solches Phasendiagramm
zu berechnen, wenn es doch offensichtlich schon gute Messdaten gibt. Aber hier kann man zwei
Gründe anführen:
• Ob unsere Hypothesen stimmen — alleinige Berücksichtigung elektrostatischer Kräfte, quantenmechanischer Ansatz, coupled cluster-Theorie, usw. — kann man ja nicht a priori wissen; man
muss sie überprüfen. Wir können erst jetzt, nach der Beendigung der Rechnungen, feststellen,
dass unsere Ergebnisse im Rahmen der derzeit erzielbaren Rechengenauigkeit mit den experimentellen Daten übereinstimmen und daher nichts gegen unsere Annahmen spricht.
• Es gibt viele, sehr viele Substanzen und Substanzgemische, für die es keine Messdaten gibt, weil
sie z.B. toxisch, korrosiv, explosiv oder chemisch instabil sind. In solchen Fällen könnte sich die
Globale Simulation als die Methode der Wahl erweisen, um thermodynamische Daten dieser
Systeme zu ermitteln.
Jahresbericht 2003
112
Berichte der Institute und Fachbereiche
B/cm3mol−1
0
Kr
–100
Ar–Kr
–200
Ar
–300
–400
–500
0
100
200
300
400
500
600
700
T/K
Abb. 2: Virialkoeffizienten von Argon und Krypton sowie Kreuz-Virialkoeffizienten der beiden
Gase. —: Ab-initio-Voraussage, °: exp. Daten.
Noch vor wenigen Jahren war uns ein Antrag auf Rechenzeit für Globale Simulationen am VonNeumann-Institut in Jülich mit der Begründung abgelehnt worden, so etwas sei aussichtslos.
Dass wir diese und noch weitere Rechnungen trotzdem erfolgreich durchführen konnten, verdanken wir der großzügigen Bewilligung von Rechenzeit durch das RRZK/ZAIK sowie dem exzellenten Support.
Entscheidend für den Erfolg des Projekts waren der Ideenreichtum, der Enthusiasmus und die
Ausdauer der daran beteiligten Mitarbeiter: Matthias Hloucha, Kai Leonhard, Afshin Eskandari
Nasrabad und Rozita Laghaei.
Jahresbericht 2003
Berichte der Institute und Fachbereiche
113
p/MPa
7
6
5
4
3
2
1
0
0
0.2
0.4
xAr
0.6
0.8
Abb. 3: Siedediagramm des Mischsystems (Argon + Krypton) bei 158 K.
+:
°:
•:
—:
exp. Daten,
Globale Simulation ohne Berücksichtigung von Dreikörper-Kräften,
mit Dreikörper-Kräften,
Extrapolation der Simulationsdaten mit einer Zustandsgleichung.
Literatur
[1]
A. Z. Panagiotopoulos, J. Phys. Condensed Matter 12, R25–52 (2000).
[2]
U. K. Deiters, M. Hloucha, and K. Leonhard, Experiments? — no, thank you! , in T. M.
Letcher, editor, Chemistry for the 21st Century: Chemical Thermodynamics, IUPAC Monograph Series, pages 187–195. Blackwell Science, Oxford, 1999.
[3]
K. Leonhard and U. K. Deiters, Mol. Phys. 98, 1603–1616 (2000).
[4]
K. Leonhard and U. K. Deiters, Mol. Phys. 100, 2571–2585 (2002).
[5]
A. E. Nasrabad and U. K. Deiters, J. Chem. Phys. 119, 947–952 (2003).
[6]
A. E. Nasrabad, Global simulation of noble gases and their binary mixtures, PhD thesis,
University of Cologne, 2003.
[7]
U. K. Deiters, Chem. Eng. Technol. 23, 581–584 (2000).
(Prof. Dr. U. K. Deiters; E-Mail: [email protected])
Jahresbericht 2003
114
5.10
Berichte der Institute und Fachbereiche
Institut für Theoretische Chemie
Ein Bericht über Quantum Chemical Calculation for Organometallic Template ist in Kapitel C
Abschnitt 7 nachzulesen.
5.11
Institut für Biochemie
Homepage: http://www.uni-koeln.de/math-nat-fak/biochemie/
Datenbank BRENDA: Enzyme und Metabolismus
BRENDA (BRaunschweig ENzyme DAtabase) ist die weltweit größte Sammlung von Daten zu
Enzymen und Stoffwechselwegen. Sie wird am Institut für Biochemie der Universität zu Köln in der
Arbeitsgruppe von Prof. Dietmar Schomburg in Kooperation mit der Enzymeta GmbH geführt und
weiterentwickelt. Zu den Nutzern der Datenbank gehören Biologen, Bioinformatiker, Pharmakologen, Mediziner und Chemiker. Die Datenbank ist für nicht-kommerzielle Anwender frei zugänglich
(www.brenda.uni-koeln.de), hat mehr als 10.000 registrierte akademische Nutzer und bearbeitet
jeden Monat mehr als 350.000 Anfragen.
Enzyme sind Eiweißmoleküle, die sich in allen Zellen des Körpers finden lassen. Dort bewirken sie
als Biokatalysatoren eine Beschleunigung der chemischen Reaktionen. Enzyme sind für den Stoffwechsel unverzichtbar, da ohne sie viele Reaktionen gar nicht oder nur in geringem Umfang ablaufen würden. Für verschiedene Ausgangsstoffe (Substrate) und verschiedene chemische Reaktionen gibt es jeweils verschiedene Enzyme. In den meisten Zellen werden weit über tausend Reaktionen durch verschiedene Enzyme katalysiert.
Startseite der Enzymdatenbank BRENDA und Übersicht der verfügbarer Module
Die BRENDA-Datenbank beinhaltet umfangreiche Daten zu allen bisher klassifizierten Enzymen.
Beispielsweise findet man Informationen zu katalysierten Reaktionen, Funktion, Spezifität, Struktur, Stabilität, sowie zu ihren technischen oder medizinischen Anwendungen, aber auch zu Krankheiten, die durch Enzymdefekte ausgelöst werden.
Jahresbericht 2003
Berichte der Institute und Fachbereiche
115
oben: Quick Search bietet einen einfachen und übersichtlichen Zugang zur Enzymdatenbank
BRENDA, unten: Das Ergebnis einer Suche in der Ligandendatenbank zeigt einen Link zu
einem Bild sowie die Funktion des entsprechenden Liganden an.
Jahresbericht 2003
116
Berichte der Institute und Fachbereiche
oben: Eine Suche in allen chemischen Strukturen kleiner Moleküle erlaubt es, die Struktur,
nach der gesucht wird, als Teilstruktur anderer Moleküle zu finden.
mitte: Das Ergebnis der Sequenzsuche zeigt die Enzyme, welche die gesuchte Abfolge an
Aminosäuren enthält. Aminosäuren sind die Bausteine alle Enzyme.
unten: Das Reaktionsdiagramm zeigt die Reaktion, die von einer Enzymklasse katalysiert
wird.
Jahresbericht 2003
Berichte der Institute und Fachbereiche
117
Die benutzerfreundliche Oberfläche ermöglicht eine gezielte Suche nach den gewünschten Details. Man kann nach einzelnen Begriffen suchen, oder auch mehrere Begriffe miteinander kombinieren.
Ein völlig neues Werkzeug für die Recherche ist die interaktive Suche nach chemischen Verbindungen. Hiermit kann der Nutzer auf dem Bildschirm ein Molekül zeichnen und in der Datenbank
nach Enzymen suchen, die mit diesem Molekül in Wechselwirkung treten können. Auf diese Weise
lassen sich zum Beispiel Substrate, Hemmstoffe oder Cofaktoren (z.B. Vitamine) suchen.
(Prof. Dr. Dietmar Schomburg, E-Mail: [email protected])
5.12
CIP-Raum der Chemischen Institute
Hardwareausstattung
Arbeitsplätze
2
Windows-NT Server
:
Dual Pentium, 450 Mhz, 256 MB RAM, 30/50 GB Festplatte
27 Arbeitsplätze
:
Pentium, 400 Mhz, 128 MB, 8 GB Festplatte, ZIP-Drive
davon 25 unter Windows2000
2 unter Linux Suse 8.2
1
:
Toshiba tecra T8000DVD/8,2
3 Drucker
:
1 Hewlett Packard 4000, 20 MB, s/w
1 Hewlett Packard 8000 N, 32 MB, s/w
1 Hewlett Packard 4550 N 64 MB, Farbe
2
:
Hewlett Packard 6200C
Notebook
Peripherie
Scanner
Netzwerk
1 Switch vom Typ Catalyst 5505 mit 2x24 Ports 10/100 MBit
Präsentation
Beamer NEC MultiSync MT1030, Auflösung : 1024 x 768
Software
Textverarbeitung
Compiler
: MSOFFICE 2000, WordPerfect Suite, TeXLive
: Visual C++
Jahresbericht 2003
118
Berichte der Institute und Fachbereiche
Grafik
Desk-Top-Publishing
Mathematische Anwendungssoftware
Chemische Editoren, etc.
X-Terminal Emulator
Chemische Anwendungssoftware
Datenbanken
:
:
:
:
:
:
CorelDraw
PageMaker, FrameMaker, Photoshop
Mathematica, Maple
ChemOffice Ultra
HCL-Exceed, WinaXe
Origin,HyperChem, Diamond
Gaussian98W, GaussView
SpartanPlus,
Bruker XWIN-NMR, TopSpin
ACD/HNMR /ACD/CNMR Predictor 3.5
: Beilstein, SCI-Finder Scholar
Der zu Beginn des Jahres 1999 neu konzipierte CIP-Raum basiert auf zwei Windows-NT Servern, an
die 25 Windows2000 PCs angeschlossen sind. Diese werden ergänzt durch zwei Linux-PCs (SUSE
8.2), so dass die StudentInnen praktische Erfahrungen mit 2 wichtigen Betriebssystemen sammeln
können.
Die beiden Server dienen als Netzwerk- und Software-Server, wobei der Netzwerk-Server als Primärer Domänen Controller (PDC) und der Software-Server als Backup-Domänen-Controller (BDC)
eingerichtet wurde. Auf dem Netzwerk-Server liegen die Server-basierten Accounts, die individuellen Profiles und die Home-Directories der User, sowie ein großer tmp-Bereich.
Vernetzung
Der CIP-Raum verfügt über ein eigenes Sub-Netz innerhalb des Universitäts-Netzes (UKLAN).
Alle Rechner, Server und Drucker sind über FastEthernet an den Switch angeschlossen.
Räumliche Unterbringung der Geräte
Seit Oktober 2001 ist der CIP-Pool in die Fachbibliothek Chemie integriert, jedoch abgetrennt durch
eine verglaste Wand, so dass einerseits die Benutzer der Bibliothek nicht gestört werden und der
CIP-Raum andererseits auch für Lehrveranstaltungen genutzt werden kann. Die Öffnungszeiten
des CIP-Pools entsprechen denen der Bibliothek. Der CIP-Pool steht somit den StudentInnen
täglich von 9.00 - 18.45 Uhr zur Verfügung und wird intensiv genutzt.
Anzahl der Nutzer
Der CIP-Raum hat momentan ca. 300 studentische Nutzer. Hinzu kommen ca. 50 Mitarbeiter aus
den einzelnen Instituten, die auf den CIP-Rechnern Übungen und Seminare vorbereiten und die
chemische Anwendungssoftware pflegen.
Ausbildungsschwerpunkte der genannten Geräte
Schwerpunkt im Ausbildungsprogramm ist die Vorstellung von und die Einführung in vielgenutzte
und teilweise aufwendige Chemische Anwendungen aus den Bereichen
Jahresbericht 2003
Berichte der Institute und Fachbereiche
119
• der Quantenchemie
(z. B. GAMESS, Gaussian, Gaussview, Mopac93, Spartan (dieses
versehen mit einem graphischen Interface)),
• der Strukturanalyse
(z. B. IREFL, SHELX97, XTAL) für die Röntgenstrukturanalyse,
• der Spektrensimulation (z.B. XWIN-NMR, DNMR5 für die Simulation von NMR Spektren),
• Datenbankrecherchen
(z.B. CSD, ICSD, Beilstein, SciFinder Scholar).
Die verwendeten Programmpakete sind teilweise lokal auf den Rechnern des CIP-Raumes selber
installiert, zum anderen stehen sie über das Netz der Universität zu Köln auf den zentralen Servern
zur Verfügung. Hierbei sind die zentrale Beschaffung über Campuslizenzen und die kompetente
Unterstützung des RRZK bei der Installation und Pflege von großem Nutzen für die Chemischen
Institute. Die im Frühjahr und im Herbst abgehaltenen mehrtägigen Kurse eines am Rechenzentrum angestellten Chemikers zur Vorstellung sowohl der lokal installierten Anwendungssoftware
als auch der auf den Servern des RRZK zur Verfügung stehenden Software sind gut besucht und
fester Bestandteil des Kursprogramms.
Die während der Seminare und Übungen im CIP-Raum erlangten Kenntnisse über die verfügbaren
Programmpakete bilden eine gute Grundlage, auf der die Studenten im Verlaufe Ihrer Diplom- und
Doktorarbeiten aufbauen können. Dies bringt einen erheblichen Zeitgewinn für den weiteren Ausbildungsweg.
Weiterhin eröffnet die Ausstattung des CIP-Raumes jedem Studierenden den Zugriff auf internationale Datenbanken und bietet die Möglichkeit zur computergestützten Literaturrecherche.
Ausblick
Der im Jahre 1999 installierte CIP-Pool erreicht mittlerweile zunehmend die Grenzen seiner Einsatzfähigkeit. Dies gilt sowohl für die Hardware als auch für die Software. Die Rechner laufen nicht
mehr stabil und werden immer reparaturanfälliger, Ersatzteile sind kaum noch verfügbar; Speicher
und Rechenleistung der PCs reichen nicht mehr aus, um aktuelle Softwarepakete mit akzeptablen
Laufzeiten auszuführen. Deshalb werden wir im Jahre 2004 einen CIP-Antrag stellen um das
Equipment des CIP-Pools komplett zu erneuern.
(Birgitt Börsch-Pulm, E-Mail: [email protected])
5.13
Botanisches Institut
Ein Bericht über Molekulare Phylogenie und Systematik der Gattung Cryptomonas ist in Kapitel
C Abschnitt 9 nachzulesen.
5.14
Geologisches Institut: Abteilung Erdbebengeologie
Homepage: http://www.erdbebenstation.de sowie http://www.seismo.uni-koeln.de
Messdatenerfassung
Die Abteilung Erdbebengeologie betreibt in den nördlichen Rheinlanden ein Messnetz zur seismologischen Überwachung. Um Erdbeben im Untersuchungsgebiet lokalisieren zu können, sind Messungen an Außenstationen erforderlich. Den gegenwärtigen Status des Netzwerkes zeigt Bild 1.
Bei den α-Stationen handelt es sich um kurzperiodische, empfindliche Stationen, die über digitale
Jahresbericht 2003
120
Berichte der Institute und Fachbereiche
Bild 1: Stationsnetz der Abteilung Erdbebengeologie mit dem Stand Feb. 2004.
Bild 2: Die MitarbeiterInnen der Abt. Erdbebengeologie im Februar 2004 vor dem Stationsgebäude in Bensberg (C.Fleischer, B.Weber, J.Mackedanz, Dr. K.-G. Hinzen, Dr. S. K. Reamer,
R.Simon, K.Weber, W. Rolshofen)
Jahresbericht 2003
Berichte der Institute und Fachbereiche
121
Telefonleitungen an der Zentralstation in Bensberg angeschlossen sind. Die β-Stationen haben
nur analoge Telefonanschlüsse. Die strong-motion Stationen dienen im Falle starker Beben der
verzerrungsfreien Messung von Bodenbeschleunigungen. Ein Sub-Netz von 11 Stationen dient
speziell der Erfassung möglicher bergbau-induzierter Beben im Bereich der rheinischen Braunkohlentagebaue.
Mit Ausnahme der strong-motion-Stationen wird an allen Messorten mit einem selbst entwickelten PC-basierten Datenaquisitionssystem gearbeitet, das auf einem kommerziellen 24 Bit AD-Wandler beruht. Bei den PC’s handelt es sich um Industrie PC’s (DSM München). Sie verfügen über
einen 700 MHz Prozessor und 128 MB RAM. Zusätzlich eingebaut wurden eine ISDN Karte und
eine Meinberg DCF-Funkuhr, die regelmäßig die Systemzeit synchronisiert. Die analogen
Messsignale der Dreikomponentenseismometer jeder Station werden mit einer Abtastrate von 125
Samples pro Sekunde digitalisiert. Ein Treiberprogramm erstellt Rohdatenfiles in einer temporären
Datei. Diese Rohdaten werden mit dem Zeitstempel versehen und in ein gängiges seismologisches
Datenformat gewandelt. Die Daten werden kontinuierlich in einen Ringspeicher mit einem Monat
Kapazität geschrieben. Zusätzlich werden für jeden Tag Datenfiles mit reduzierter Abtastrate gespeichert, die später für die Erstellung von Übersichtsplots verwendet werden. Ein automatischer
Kurzzeit/Langzeit-Detektor sucht nach transienten Signalen und füllt eine Detektionsliste.
Routineauswertung
Während der Nachtstunden werden die Übersichtsdateien und die Detektionslisten aller Stationen in die Zentrale übertragen. Anhand dieser Daten lassen sich Zeitfenster festlegen, für die
komplette Wellenformdaten übertragen werden. Eine Übertragung aller Messdaten ist aus Kostengründen nicht möglich. Die Übertragung wird über eine speziell erstellte Benutzeroberfläche, die
das kommerzielle Programm pcAnywhere steuert, realisiert. Nach der Klassifikation der übertragenen Ereignisse in Erdbeben mit natürlicher Ursache, bergbaulich induzierte Beben, Sprengungen
und sonstige Ereignisse werden die Beben lokalisiert und die Stärke nach der Richterskala ermittelt
und anschließend in die BENS-Datenbank eingebracht. Die Ergebnisse der Routineauswertung
werden täglich auf der Webseite veröffentlicht und die Details der Ortungen den FachkollegInnen
zur Verfügung gestellt. Im Falle stärkerer Beben, die gespürt werden, etwa ab der Magnitude 3,
werden die Beben sofort ausgewertet und die entsprechenden Lagezentren des Katastrophenschutzes und Medien informiert. Zur Zeit wird ein System erprobt, das eine automatische Alarmmeldung erstellt.
Bild 3 zeigt die Breitbandregistrierung des Iran-Erdbebens am 26.12.03 um 1:56:56 Uhr UTC. 29.01°N,
58.27°E, Tiefe: 33 km, Magnitude: 6.7
Die ersten Erdbebenwellen erreichten die Seismometer in Bensberg um 2:04:48 Uhr UTC, ca. 8
Minuten nach der Herdzeit.
Netzwerk und Anbindung der Zentralstation
Die Zentrale in Bensberg ist seit Anfang 2002 mit einem DSL Anschluss und über einen kombinierten Router, VPN-Concentrator mit ISDN-Backup an das Universitätsnetz angeschlossen. Nach
anfänglichen Schwierigkeiten ist mittlerweile ein stabiler Betrieb mit guter Performance gewährleistet. An das hausinterne Netzwerk, das durch einen Fast-Ethernet- und ein Ethernet-Switch vernetzt ist, sind vierzehn Workstations, die unter WIN 2000 und NT betrieben werden, angeschlossen. Die Daten werden auf einem File- und Printserver gespeichert, der über ein Hardware Raid
Jahresbericht 2003
122
Berichte der Institute und Fachbereiche
level 1 verfügt und zwei Laserdruckern als Spooler dient, sowie Faxe empfängt. Ein A3-Farbdrucker ist lokal an den Auswerterechner angeschlossen, auf dem im Wesentlichen das seismische
Auswertesystem SeisAn läuft. Ein dritter Laserdrucker ist auch lokal angeschlossen. Zwei seismische Stationen in der Zentrale werden über TCP/IP angesprochen. Das Datenübertragen wird von
zwei reinen „Datensaugern“ erledigt. Außerdem sind drei PCs mit SuSe Linux ins Netz integriert.
Bild 4 zeigt ein Blockdiagramm des Rechnernetzwerkes an der Abt. Erdbebengeologie.
Bild 3: Dreikomponentenseismogramme des Iran-Erdbebens vom 26.12.03
Datenmengen
Die Tagesübersichten haben eine Größe von 2102 KB pro Station, also ca. 42 MB pro Tag für das
Netz. Im Jahr entspricht das etwas mehr als 15 GB für die Übersichten. Dazu kommen die Wellenformdaten der ausgewählten Ereignisse, die pro 2 Minutenfile 180 KB groß sind. Die zu archivierenden Wellenformdaten machen etwa 2-3 GB pro Jahr aus. Zusätzlich zu den eigenen Daten
werden für Beben der nördlichen Rheinlande auch Daten benachbarter Stationsnetze, insbesondere
aus Belgien und den Niederlanden, gespeichert. Die Archivierung der Daten erfolgt auf DVD+RW
im Wechsel.
Jahresbericht 2003
Berichte der Institute und Fachbereiche
123
Bild 4: Blockschaltbild des Rechnernetzwerkes an der Zentralstation in Bensberg
und der angeschlossenen Außenstationen.
(Dr. Klaus-G. Hinzen, Claus Fleischer, E-Mail: [email protected])
Jahresbericht 2003
124
Berichte der Institute und Fachbereiche
5.15
Geographisches Institut
Homepage des Geographischen Instituts
(http://www.geographie.uni-koeln.de)
Hardware-Ausstattung (CIP-Raum des Geographischen Instituts)
Arbeitsplätze:
· 2 Windows-NT Server: Dual Pentium 500 MHz, 256 MB RAM, 20 GB
· 12 studentische Arbeitsplätze: Pentium III, 600 MHz, 512 MB RAM, 20 GB, Windows-NT, 1
Dozentenrechner
Peripherie
·
·
·
·
·
2 Drucker
A0 Digitalisierstation Summagraphic (incl. Rechner)
A0 Plotter (incl. Rechner)
A0 Scanner (incl. Rechner)
1 Touchboard mit Beamer
Software
· MS Office 2000
· ArcGIS 8.2
Jahresbericht 2003
Berichte der Institute und Fachbereiche
·
·
·
·
·
125
ArcView 3.2
Photoshop
Freehand
TNT-Lite
FAP (Bildverarbeitung / Eigenentwicklung)
Die CIP Arbeitsplätze wurden im Jahre 2001 komplett ersetzt. Sie dienen der grundlegenden EDVAusbildung insbesondere im Bereich computer-gestützter geographischer Arbeitsmethoden (GIS,
Statistik, grundlegende Bildverarbeitungsverfahren).
Hardware-Ausstattung in den Arbeitsgruppen
In den Arbeitsgruppen im geographischen Institut stehen Windows-NT PC-Systeme unterschiedlichster Ausstattung zur Verfügung. Diese reichen von einfachen Office-Systemen (Pentium II und
älter für Textverarbeitung, Tabellenkalkulation etc) über Pentium III-Rechner mit 800/850 MHz
Prozessor und 256 MB Speicher bis hin zu 5 Pentium IV-Systemen für die digitale Bildverarbeitung
(2 GHz, 512 MB RAM, 80GB).
Räumliche Unterbringung
Die CIP Arbeitsplätze sind in einem zentralen Rechnerraum, die Server und gemeinsam genutzte
Peripherie in besonderen Arbeitsräumen untergebracht. Die weiteren Bildschirmarbeitsplätze befinden sich in den Arbeitsräumen der jeweiligen Arbeitsgruppe. Alle Rechner sind vernetzt.
Personelle Betreuung
Die personelle Betreuung des CIP-Labors erfolgt durch einen wissenschaftlichen Mitarbeiter (mit
einem Teil seiner Arbeitszeit) und durch studentische Hilfskräfte, die Betreuung der Arbeitsgruppenrechner wird durch die Mitarbeiter der jeweiligen Arbeitsgruppe realisiert.
Anzahl der Nutzer
Z. Zt. sind ca. 500 Studenten sowie 25 Mitarbeiter eingetragene Nutzer des CIP-Raums
Zusammenarbeit innerhalb der Kooperativen Informationsverarbeitung
Kooperation mit dem ZAIK/RRZK
·
·
·
·
Backup durch die ADSM-Server des ZAIK / RRZK
Beratung in Soft- und Hardwarefragen
Nutzung der schnellen Datenleitungen zum Download von Umweltdaten
Unterstützung bei WAP-Antrag
Ausbildungsschwerpunkte im Bereich EDV
· Geographische Informationssysteme
· Statistische Verfahren
Jahresbericht 2003
126
Berichte der Institute und Fachbereiche
· Umweltmodelle
· Fernerkundungsmethoden
· Luftbildauswertung
Forschungsschwerpunkte
·
·
·
·
·
·
·
·
Quartärforschung
Paläoklimatologie
Geographie der Trockengebiete
Hydrogeographie
Umweltmodelle
Metropolenforschung
umweltbezogene Wirtschafts- und Industriegeographie
Stadt- und Regionalentwicklung
(Prof. Dr. Karl Schneider, E-Mail: [email protected])
5.16
Institut für Geophysik und Meteorologie
5.16.1
Bereich Geophysik
5.16.1.1
Bericht über die Kooperative Informationsverarbeitung
Homepage: http://www.geophysik.uni-koeln.de/
Im Bereich Geophysik sind zur Zeit ca. 20 Mitarbeiter und ca. 30 Diplomanden/SHKs beschäftigt.
Ihnen steht folgende Rechnerausstattung zur Verfügung:
Hardware und Betriebssysteme
• 1 Compute-Server Compaq ES40 (SMP Architektur mit 4 Alpha-CPUs), 10 GB Hauptspeicher,
ca. 160 GB Netto-Plattenplatz, davon ca. 100 GB auf RAID, Betriebssystem: Compaq Tru64
Unix 4.0F
• 1 Compute-Server Compaq DS20E (2 Alpha-CPUs), 2.25 GB Hauptspeicher, ca. 70 GB NettoPlattenplatz, Gigabit-Ethernet, Betriebssystem: Compaq Tru64 Unix 5.1
• 2 Digital Alpha Workstations, Betriebssystem: Compaq Tru64 Unix 4.0E
• 1 Sun Sunfire V240, 8 GB RAM, Gigabit-Ethernet, Betriebssystem: Solaris 9
• 2 Sun Enterprise 220R, Gigabit-Ethernet, Betriebssystem: Solaris 8
• 3 Sun Workstations, Betriebssystem: Sun Solaris 2.6
• 2 DEC-Alpha/DECstations, Betriebssystem: NetBSD 1.6.2
• ca. 20 PCs (Pentium-III, Pentium-IV), 128 - 768 MB Hauptspeicher, 10 - 120 GB Plattenplatz,
Betriebssystem: NetBSD 1.6.2, desweiteren ca. 5 PCs (Pentium-III) mit Microsoft Windows NT/
2000/XP als Betriebssystem für Office-Anwendungen
Der Compute-Server und die Workstations sind in einem klimatisierten Raum untergebracht, die
PCs an den Arbeitsplätzen sowie in einem den Studenten zugänglichen Raum.
Jahresbericht 2003
Berichte der Institute und Fachbereiche
127
Netzwerk
Das Gebäude ist vollständig mit UTP Cat 5 verkabelt. Das LAN basiert auf 100 MBit/s Ethernet
(Altgeräte: 10 MBit/s Ethernet), die wichtigsten Server sind via Gigabit-Ethernet angeschlossen.
Personal
Die Rechner- und Netzwerkadministration erfolgt durch eine Rechnergruppe, bestehend aus einem festangestellten Wissenschaftler (leitend), einem Ingenieur, zwei Doktoranden (welche jeweils
nur einen kleinen Teil ihrer Arbeitszeit der Systemadministration widmen) und einer SHK.
Außenstelle
Die Arbeitsgruppe „Explorationsgeophysik“ hat ihre Diensträume in einer Außenstelle in der
Godesberger Straße. Dort sind 4 wissenschaftliche Mitarbeiter sowie 8 SHKs/Diplomanden tätig.
Die Rechnerausstattung besteht aus einem als Compute-Server betriebenen Linux-Cluster, bestehend aus 4 Knoten (Athlon XP 1800 mit jeweils 512 MB RAM) und einem Mail- und File-Server.
Desweiteren werden 8 PCs unterschiedlicher Leistungsstufen als Arbeitsplatzrechner (unter
Windows und Linux) betrieben, zusätzlich gibt es einige Laptops und Feld-PCs. Das Netzwerk
besteht aus einem Thin-Wire-Ethernet (10 MB/s), an das mehrere geswitchte 100 MB/s Segmente
angeschlossen sind. Die Anbindung an das UKLAN erfolgt über eine leider viel zu schmalbandige
ISDN-Standleitung.
Forschungsschwerpunkte
Die Forschungsgebiete des Bereichs Geophysik teilen sich auf zwei Schwerpunkte auf: Angewandte
Geophysik und Extraterrestrische Geophysik.
Im Schwerpunkt Angewandte Geophysik werden folgende Forschungsthemen bearbeitet:
• Umwelt- und Ingenieurgeophysik mit Radiomagnetotellurik (RMT) und Geo-Radar
• Induzierte Polarisation im Zeitbereich
• Transientenelektromagnetik mit der Central-Loop Anordnung
• Elektromagnetische Tiefenerkundung mit LOTEM (in der Außenstelle Explorationsgeophysik)
Im Schwerpunkt Extraterrestrische Geophysik liegt das Hauptinteresse bei folgenden Forschungsthemen:
• Interplanetares Plasma und Sonnenwind
• Magnetosphäre der Erde
• Magnetosphären anderer Planeten (Jupiter, Saturn, Uranus, Neptun)
• Kometenplasmaphysik
• Wechselwirkungen der Galileischen Monde mit der Jupitermagnetosphäre
• Plasmawechselwirkungen der Eissatelliten des Saturn und des Titan mit ihrer Umgebung
• Physik extraterrestrischer Atmosphären
Zusammenarbeit innerhalb der kooperativen, verteilten Informationsverarbeitung
Der Bereich Geophysik betreibt eine eigene AFS-Zelle (geo.uni-koeln.de), eigene (redundant ausgelegte) eMail-Server, FTP-Server, DNS-Server (secondary), etc.
Jahresbericht 2003
128
Berichte der Institute und Fachbereiche
Vom Rechenzentrum wird vor allem die via Vol-Baum bzw. AFS zur Verfügung gestellte Software
benutzt. Beim Rechenzentrum zentralisierte Dienste, wie z. B. die des Hostmasters werden laufend
in Anspruch genommen. Als Backup-System wird das vom Rechenzentrum betriebene ADSM
verwendet, mit dem wir sehr gute Erfahrungen gemacht haben.
Der Gebäudeverantwortliche für die Zülpicher Str. 49 (Dr. Wennmacher) ist im Bereich Geophysik
angesiedelt und übernimmt bestimmte Servicefunktionen (v. a. die Netzwerkadministration im Haus)
für die anderen im Hause befindlichen Geo-Institute Geographie und Geologie.
5.16.1.2
Anwendungen der LOTEM-Methode in der Explorationsgeophysik
In der Gruppe „Explorationsgeophysik“ des Institutes für Geophysik und Meteorologie wird hauptsächlich die Long-Offset-Transient ElectroMagnetics (LOTEM) Methode weiterentwickelt. Dabei
handelt es sich um ein Messverfahren, mit dem die elektrische Leitfähigkeit im Untergrund in einer
Tiefe von 200-5000 m erkundet werden kann. Das Verfahren wurde ursprünglich für die
Kohlenwasserstoffexploration eingesetzt. Hierbei sucht man Zonen niedriger Leitfähigkeit (Öl) in
einem ansonsten gut leitenden Medium. Allerdings kann die LOTEM-Methode auch auf eine
Vielzahl anderer Fragstellungen angewandt werden. In den letzten Jahren wurde z. B. damit eine
Grundwasserfragestellung in Israel („Wo befindet sich gut leitendes Salzwasser?“), eine
Messkampagne am Vulkan Merapi in Indonesien („Wie ist die Verteilung gut leitenden Magmas?“)
sowie eine Untersuchung der Krustenstruktur in Jordanien angegangen.
Bei einer Messung wird dazu ein Sender in der Form eines etwa einen Kilometer langen, geerdeten
Dipols aufgebaut. Über diesen wird Strom in den Boden eingespeist, der in regelmäßigen Abständen umgepolt wird. Dieses Umpolen erzeugt im Untergrund sekundäre Ströme, die von der Verteilung der elektrischen Leitfähigkeit (bez. ihrem reziproken Wert, dem spezifischen Widerstand) in
der Erde abhängig sind.
Die von diesen sekundären Strömen erzeugten elektromagnetischen Felder werden an der Erdoberfläche an Empfängerstation, die sich in einigen Kilometern Entfernung vom Sender befinden,
aufgezeichnet. Diese „Transienten“ genannten Signale tragen die Informationen über den Aufbau
des Untergrundes mit sich. Die elektromagnetischen Felder werden in bis zu fünf Komponenten
registriert und zwar die elektrischen Felder senkrecht und parallel zum Sender sowie die magnetischen Felder in allen drei Raumrichtungen.
Nach den Messkampagnen stehen umfangreiche EDV-Arbeiten an. Zunächst müssen die aufgezeichneten Daten (typischerweise 5 GB) für die Interpretation aufbereitet werden. Als erstes wird
eine Analyse der Störungen durch natürliches und anthropogenes elektromagnetisches Rauschen
durchgeführt. Speziell die sinusförmigen Störungen durch die Stromversorger (50 Hz und höhere
Harmonische) und das Stromnetz der Deutschen Bahn (16 2/3 Hz) sind meist um mehrere Größenordnungen stärker als das eigentliche Messsignal. Vor der weiteren Verarbeitung müssen sie daher
aus den aufgezeichneten Zeitreihen entfernt werden. Dies geschieht mit in der Arbeitsgruppe
entwickelten, speziell auf das Sendesignal abgestimmten digitalen Filtern. Weitere wichtige Arbeitsschritte sind eine Gleichspannungswertkorrektur, die selektive Mittelung der einigen tausend
Einzelmessungen, sowie eine wiederum auf das Signal abgestimmte Glättung der Daten.
Der nächste Schritt ist, aus den gemessenen Transienten Leitfähigkeitsmodelle zu erstellen. Es ist
nicht möglich, aus den gemessenen Kurven direkt die Widerstandsverteilung in der Erde abzuleiten. Statt dessen wird eine Inversion durchgeführt. Dabei wird ein Erdmodell gesucht, über dem
man den Messdaten entsprechende Transienten messen würde. Dazu wird ein Vorwärtsalgorithmus
benötigt, ein Programm, das bei gegebener Leitfähigkeitsverteilung und Messgeometrie entspreJahresbericht 2003
Berichte der Institute und Fachbereiche
129
chende Transienten simuliert.
Für eindimensionale Modelle (dies sind in den meisten Fällen Modelle, bei denen mehrere horizontal gelagerte Schichten übereinanderliegen) existieren seit vielen Jahren Programme, die die Inversion automatisch durchführen. Dazu muss der Benutzer ein Startmodell vorgeben, das dann vom
Programm selbstständig iterativ verbessert wird, idealerweise bis mit dem Modell Daten erzeugt
werden, die mit den gemessenen im Rahmen der Fehlerabschätzungen übereinstimmen. Dazu sind
- je nach Methode - viele hundert bis tausend Vorwärtsrechnungen nötig. Für den einfachen Fall
eines geschichteten Halbraums sind diese aber wenig rechenintensiv.
In der Arbeitsgruppe werden derzeit Programme entwickeln, die eine automatische Inversion auch
für komplexere Modelle durchführen können, bei denen sich die Leitfähigkeit in zwei oder drei
Raumrichtungen ändern kann (2D- bzw. 3D-Inversion). Dazu wird der Untergrund meist in viele
Quader eingeteilt, in denen eine konstante Leitfähigkeit angenommen wird.
Die obige Abbildung zeigt ein Beispiel für eine Testinversion mit einem synthetischen Datensatz.
Im oberen Teil der Abbildung ist das ursprüngliche Erdmodell abgebildet. In einem Schichtmodell
ist jeweils ein gut (links) und ein schlecht leitender Block (rechts) eingebettet. Das schwarze
Dreieck kennzeichnet die Lage des senkrecht zur Bildebene laufenden Dipolsenders. Auf beiden
Seiten des Senders befinden sich insgesamt 22 Empfängerstationen. Dabei wurden hier sowohl
Daten für die vertikale magnetische Komponente (pinke Dreiecke) als auch die elektrische Komponente parallel zum Sender (grüne Dreiecke) simuliert. Die Transienten wurden verrauscht und
invertiert. Das Startmodell war ein homogener Halbraum mit 15 Ohm-Metern, der in insgesamt
1.034 Zellen eingeteilt wurde. Im unteren Teil der Abbildung wird das Ergebnis der Inversion nach
22 Iterationsschritten gezeigt. Die Grenzen der Diskretisierung des Ursprungsmodells sind weiß
Jahresbericht 2003
130
Berichte der Institute und Fachbereiche
gekennzeichnet. Man sieht, dass die ersten beiden Schichten sehr gut wiedergefunden werden.
Auch der gut leitende Block wird reproduziert, während sich der schlecht leitende nur schwach
abzeichnet. Auch die unteren beiden Schichten werden nicht aufgelöst. Da die sich für dieses
Modell ergebenden Transienten aber gut mit den ursprünglich simulierten übereinstimmen, scheinen sich diese Bereiche des Erdmodells nicht deutlich in den Transienten niederzuschlagen. Dementsprechend hat der Inversionsalgorithmus in diesem Fall seine Aufgabe gut erfüllt, ein Modell
zu finden, das die „gemessenen“ Daten gut reproduziert.
Obwohl das Grundproblem der mehrdimensionalen Inversion das gleiche wie im eindimensionalen
Fall ist und auch mit den gleichen Strategien gelöst werden kann, ergeben sich einige Probleme.
Die dazu benötigten 3D-Vorwärtsalgorithmen sind weitaus rechenintensiver. Die Inversionsprogramme sind daher so ausgelegt, dass die Vorwärtsrechnungen parallel von verschiedenen
Prozessoren eines Multiprozessorrechners oder eines Clusters bearbeitet werden können. Weiterhin
werden in der Gruppe Strategien entwickelt, um die Anzahl der benötigten Vorwärtsrechnungen
möglichst klein zu halten.
Auch sind die Modellparameter so zahlreich (1.000-100.000), dass die zu bearbeitenden Matrizen
enorme Größen aufweisen können. Derzeit werden die Programme an kleinen Problemen mit bis zu
1.500 Parametern am arbeitsgruppeninternen Cluster mit vier PCs (jeweils 512 MB RAM) erprobt.
Mittelfristig sollen jedoch auch größere Probleme angegangen werden. Diese würden Maschinen
mit 2 GB Hauptspeicher oder mehr erfordern. Daher wurden die Programme für die Verwendung auf
den Compute-Servern des Instituts und des Rechenzentrums portiert.
(Dr. Lex Wennmacher, E-Mail: [email protected])
5.16.1.3
Weitere Berichte
Zwei weitere Berichte über 3D-Modellierung und Inversion von Radiomagnetotellurik Daten
sowie Assimilation von Spurengasmessungen in ein Chemie-Transport-Modell nach der
Variationsmethode sind in Kapitel C Abschnitt 8 nachzulesen.
5.16.2
Bereich Meteorologie
5.16.2.1
Bericht über die Kooperative Informationsverarbeitung
Homepage: http://www.meteo.uni-koeln.de/
Beschaffungen 2003
1 Notebook
5 PCs für Linux
1 Hardware-RAID
Art der Vernetzung
Ein geswitchtes 100Base-T Ethemet mit Anschluss an den UKLAN-Backbone über den phiIgwRouter (Catalyst 4006).
Jahresbericht 2003
Berichte der Institute und Fachbereiche
131
Räumliche Unterbringung der Geräte
Die Rechner, sowie Peripheriegeräte (wie z.B. Drucker, Scanner, DAT-Laufwerke) sind in insgesamt
20 Arbeitsräumen mit maximal je 6 Arbeitsplätzen dezentral untergebracht. Zusätzlich existiert ein
Serverraum, in dem sich die lokalen Server des Instituts befinden.
Personelle Betreuung
Das lokale Netz wird von einem wissenschaftlichen Mitarbeiter sowie von 2 SHKs betreut.
Nutzer
20 wissenschaftliche Mitarbeiter und 60 Studenten
Zusammenarbeit innerhalb der Kooperativen Informationsverarbeitung
Besonders die zentrale Softwarebereitstellung mit Hilfe des Andrew-File-Systems wird vom Institut für Geophysik und Meteorologie intensiv genutzt. Die Meteorologie verwendet dafür OpenAFS
und unterhält eine eigene AFS-Zelle (meteo.uni-koeln.de). Neben den gängigen Betriebssystemen
(Sun Solaris 9, Windows 2000) und Programmiersprachen (Fortran 77, Fortran 90, C, C++) kommt
auch Spezialsoftware, wie z. B. die geophysikalischen Grafiktools Vis5d, GMT, GrADS, und
NCARGraphics zu einem vielfältigen Einsatz. Aufgrund des intensiven Informations- und Datenaustausches innerhalb der Meteorologie sind die beteiligten Wissenschaftler im hohen Maße von
einem leistungsfähigen und zuverlässigen Netzwerk, sowie dem weiterführenden Anschluss an
das Internet abhängig. Dies wird zum einen durch die im Jahre 1997 durchgeführte Neuverkabelung
des Instituts, sowie durch die hervorragende Betreuung und Instandhaltung des Netzes durch die
Mitarbeiter des RRZK gewährleistet. Die wissenschaftlichen Berechnungen werden zum größten
Teil auf den institutseigenen Workstations und PCs erstellt. Besonders rechenintensive Programme werden auf leistungsstarke Computer, wie z. B. die Sun Compute Server des RRZK, ausgelagert.
Die Sicherung und Archivierung anfallender Daten erfolgt zum überwiegenden Teil in dem ADSMBackup- und Archivsystem des Rechenzentrums. Es ist geplant, am Institut Linux einzuführen,
zusätzlich zu den bereits verwendeten Systemen Solaris und Windows. Dabei hilft das Rechenzentrum beratend mit.
Forschung- und Ausbildungsschwerpunkte unter Einsatz der genannten Geräte
Am Institut für Geophysik und Meteorologie werden vielfältige Aktivitäten im Rahmen atmosphärischer Umwelt- und Klimaforschung initiiert und durchgeführt. Hierbei wird besonderer Wert auf
nationale und internationale Kooperation gelegt. Die Forschungsschwerpunkte umfassen hierbei
folgende Themen:
• Tropenmeteorologie
• Meteorologie der mittleren Breiten
• Ozon in der Troposphäre (Troposphärisches Ozon; Austausch Stratosphäre-Troposphäre;
Tropopausenfaltungen; Austausch freie Troposphäre-Grenzschicht)
• WITRAK - Prognose und Diagnose anthropogener Klimamodifikationen in der Mikro- und
Mesoskala
Neben dem wissenschaftlichen Arbeiten erlernen die Studenten während ihres Studiums den
Umgang mit verschiedenen Betriebssystemen, Programmiersprachen und Anwendungssoftware.
Jahresbericht 2003
132
Berichte der Institute und Fachbereiche
Veröffentlichungen
Eine Auflistung der jährlichen Veröffentlichungen des Instituts befindet sich im WWW unter der
URL: http://www.meteo.uni-koeln.de/meteo.php?show=De_Fo_Pu
(Daniel Tiggemann, Email: [email protected])
5.16.2.2
Weitere Berichte
Ein weiterer Bericht über Lokale Modellierung sekundärer Schadstoffe im Großraum Köln mit
Hilfe eines genesteten Modellsystems und dynamischer Verkehrssimulation ist in Kapitel C Abschnitt 8 nachzulesen.
5.16.3
Außenstelle EURAD
Homepage: http://www.eurad.uni-koeln.de
5.16.3.1
Bericht über die Kooperative Informationsverarbeitung
Rechner-Ausstattung Ende 2003
3
1
1
5
3
1
8
Sun Blade100, Solaris 8, SunPCI II-PC-Karte, Windows 2000 Professional
Linux-Cluster bestehend aus 3 Dual Athlon MP Systemen, 1 Single Athlon PC (Master)
Linux-Cluster bestehend aus 2 Dual Xeon Systeme, 2 Intel P4 PC, 1 Single Athlon PC
(Master)
Suse und Redhat Linux PC, Intel Celeron CPU
Windows 2000 Professional PC, Intel Celeron CPU
SGI Indigo 2
Sparc Workstations, Solaris 2.6
Durchgeführte Beschaffungen 2003
2 Dual Xeon Systeme
2 Intel P4 PC
1 Athlon PC
2 RAID-IDE Systeme mit jeweils 900 GB Kapazität
Art der Vernetzung
Der überwiegende Teil der Rechnersysteme und der Laserlink zum Rechenzentrum sind mit FastEthernet, ältere Systeme mit 10 MBit Ethernet verbunden. Ein Linux Cluster ist an einem GigabitSwitch angeschlossen.
Räumliche Unterbringung
Die meisten Rechner inklusive angeschlossener Peripherie und die beiden Linux Cluster befinden
sich zentral in einem klimatisierten Rechnerraum. Die Bildschirmarbeitsplätze an den Sun WorkstaJahresbericht 2003
Berichte der Institute und Fachbereiche
133
tions sind in den Arbeitsräumen über Monitor- und Tastaturverlängerungen mit dem Rechnerraum
verbunden. Die Linux Rechner sowie Windows 2000 Professional Systeme stehen dezentral an den
Arbeitplätzen der Mitarbeiter.
Personelle Betreuung
Die Systemadministration erfolgt durch zwei wissenschaftliche Mitarbeiter (mit einem Teil ihrer
Arbeitszeit) und einer studentischen Hilfskraft.
Anzahl der Nutzer
15 Wissenschaftler u. Studenten.
Zusammenarbeit innerhalb der kooperativen, verteilten Datenverarbeitung
Das ZAIK/RRZK bietet mit dem Rechner uk-web2 als Webserver für das EURAD-Projekt bzw. RIU
(Rheinisches Institut für Umweltforschung an der Universität zu Köln) seit Ende des Jahres 2001
die Möglichkeit, aktuelle Schadstoffvorhersagen und Wetterprognosen für Mitteleuropa, Deutschland und NRW sowie eine dazugehörige Prognosedatenbank im Internet unter der oben genannten Webadresse zu veröffentlichen.
Dieser Service wird m Rahmen des Datenbank-Projekts intensiv genutzt. So wurde zum Beispiel
Anfang August 2003 während einer Episode mit hohen Ozonkonzentrationen über Deutschland
an mehreren Tagen mehr als 2000 Zugriffe auf unsere Webseite gezählt.
Damit hängt das EURAD Projekt/RIU im großem Maße von einer funktionierenden
Internetverbindung ab. Hier leistet das ZAIK/RRZK wertvolle Unterstützung im
Netzwerkmanagment und in der Bereitstellung einer leistungsfähigen Netzwerkverbindung.
Weiterhin wird auch das ADSM/TSM Backup durch das Rechenzentrum intensiv genutzt. Eine
weitere Zusammenarbeit besteht durch die Nutzung der mittels AFS zur Verfügung gestellten
Software und durch Betriebssystem Updates und Fortran Compiler im Rahmen des Sun Campus
Vertrages.
Simulationsrechnungen, die einen besonderes hohen Bedarf an Hauptspeicher haben, werden auf
den Compute-Servern (z.B. suns15k) des ZAIK/RRZK ausgeführt.
Ausbildungsschwerpunkte
- atmosphärische Umweltforschung
- Luftchemie
- Numerik
- Transportmechanismen
- Parallelrechner, Scientific Computing
Forschungsschwerpunkte
- atmosphärische Umweltforschung
- Simulation der Ausbreitung von Schadstoffen in der Atmosphäre
- Entwicklung von Strategien zur Luftreinhaltung
Jahresbericht 2003
134
Berichte der Institute und Fachbereiche
Veröffentlichungen
Details können dem aktuellen Forschungsbericht der Universität zu Köln und den EURAD Webseiten entnommen werden.
(Georg Piekorz, E-mail: [email protected])
5.16.3.2
Beispielhaftes Projekt:
Beschreibung des EURAD/RIU Vorhersagesystems
Seit Anfang des Jahres 2001 wird am Rheinischen Institut für Umweltforschung an der Universität
zu Köln ein System zur Vorhersage der Schadstoffkomponenten in der Atmosphäre getestet. Seit
1. Juni 2001 läuft dieses Vorhersagesystem täglich in einer quasi-operationellen Form. Ab dem 1.
Januar 2004 wurde das System auf eine Prognose von 3 Tagen erweitert. Das Vorhersagesystem
basiert auf dem EURAD Modellsystem. Lediglich werden die meteorologischen Anfangs- und
Randgrößen von einer globalen numerischen Wettervorhersage vorgegeben. Die Prognose gliedert sich wie folgt:
Meteorologische Anfangs- und Randbedingungen
Zur Initialisierung des mesoskaligen meteorologischen Modells werden aktuelle vorhergesagte
Felder der meteorologischen Größen benötigt. Dazu wird täglich die globale 00 UTC Vorhersage
des GFS (vormals AVN) des National Center for Environmental Protection (NCEP) von einem
anonymen FTP-Server auf den lokalen Rechner übertragen. Die globale GFS Vorhersage steht in
der Regel um 03:30 UTC auf dem FTP-Server bereit. Diese Anfangs- und Randfelder, die auf Stan-
Abbildung 1: Modellkonfiguration für das EURAD Vorhersagesystem
Jahresbericht 2003
Berichte der Institute und Fachbereiche
135
darddruckflächen mit einer horizontalen Auflösung von 1 Grad vorliegen, werden dann auf das
regionale Gebiet des Vorhersagesystems interpoliert.
Modellgebiet des Vorhersagesystems
Die obige Abbildung1 zeigt die Modellkonfiguration für das EURAD Vorhersagesystem. Das Gebiet CO (DOMAIN1) überdeckt nahezu ganz Europa und hat in der horizontalen Ebene 35 x 33
Gitterpunkte mit einer Gitterlänge von 125 km. Darin ist ein Gebiet N1 (DOMAIN2) eingebettet, das
zentrale Regionen Europas inklusive Deutschland überdeckt. Dieses Gebiet hat in der horizontalen
56 x 51 Gitterpunkte mit einer Gitterlänge von 25 km. Ein weiteres Gebiet N2 (DOMAIN3) mit einer
Gitterlänge von 5 km, das das Bundesland Nordrhein-Westfalen überdeckt, wurde in das Prognosesystem eingebaut. Das Modell erstreckt sich in der vertikalen über 23 Schichten mit einer Schichtdicke von ca 40 m in der bodennahen Schicht.
Die folgende Abbildung illustriert das gesamte Modellsystem mit seinen einzelnen Komponenten:
Abbildung 2: das gesamte Modellsystem mit seinen einzelnen Komponenten
Außerdem wurde in das System die Vorhersage von Aerosolen aufgenommen. Damit ist es zum
ersten Mal möglich, Staubpartikel in komplexer Form vorherzusagen. Besonders im Winter bei
austauscharmen Wetterlagen führt der Feinstaub (Partikel mit Durchmesser kleiner als 10 µm;
PM10) zu starken Belastungen der Atmosphäre in Ballungsgebieten.
Jahresbericht 2003
136
Berichte der Institute und Fachbereiche
Das meteorologische Modell MM5
Mit den Eingangsdaten der GFS Vorhersage wird das mesoskalige meteorologische Modell MM5
(PennState/NCAR mesoscale model) angetrieben. Die Abbildung zeigt schematisch den Programmablauf des Modellsystems MM5 mit seinen Präprozessoren:
Abbildung 3: schematisch den Programmablauf des Modellsystems MM5
Im Präprozessor TERRAIN werden globale Orographie- und Landnutzungsdaten auf das jeweilige
Modellgebiet interpoliert. Die folgenden Abbildungen zeigen als Beispiel die Orographie und die
vorherrschende Landnutzungsart auf dem jeweiligen Gitterpunkt für das Gebiet N1 (DOMAIN2):
Abbildung 4: Orographie und vorherrschende Landnutzungsart auf dem jeweiligen Gitterpunkt für das Gebiet N1 (DOMAIN2)
Jahresbericht 2003
Berichte der Institute und Fachbereiche
137
Im Präprozessor REGRID werden die globalen GFS Vorhersagedaten gelesen und auf das gewählte
horizontale Gitter interpoliert. INTERP führt eine vertikale Interpolation von den Standarddruckflächen auf die geländefolgenden Sigma-Koordinaten des MM5 durch und stellt MM5 sämtliche
Anfangs- und Randbedingungen im Abstand von 6 Stunden zur Verfügung. MM5 rechnet dann
zuerst auf dem Gebiet CO (DOMAIN1) eine Vorhersage über 72 Stunden. Danach interpoliert das
Programm NESTDOWN stündliche vorhergesagte meteorologische Größen in dem Gebiet CO
(DOMAIN1) auf das Gebiet N1 (DOMAIN2), um danach MM5 auf dem Gebiet N1 (DOMAIN2)
rechnen zu können. Die gleiche Prozedur wiederholt sich bei der Nestung des Gebietes N2
(DOMAIN3) in das Gebiet N1 (DOMAIN2).
Das Chemie-Transport Modell EURAD-CTM
Direkt im Anschluss an die Vorhersage der meteorologischen Felder wird der Transport, die chemische Umwandlung und die Deposition der atmosphärischen Konstituenten berechnet. Der Präprozessor PPC bereitet die meteorologischen Größen für das EURAD-CTM vor und berechnet
zusätzliche wichtige Größen wie die Höhe der planetaren Grenzschicht, Depositionsgeschwindigkeiten der einzelnen Species etc. Die anthropogenen Emissionen wurden offline im
Präprozessor EEM für die jeweilige Stunde berechnet. Dabei fand außerdem noch eine Unterscheidung zwischen Werktag- und Wochenendemissionen statt. Die biogenen Emissionen werden
online im EURAD-CTM berechnet und hängen im wesentlichen von der Temperatur in der
boden-nahen Schicht und vom Landnutzungstyp ab. Mit diesen Eingangsdaten startet dann das
EURAD-CTM und prognostiziert die atmosphärischen Schadstoffkomponenten für einen Zeitraum von 72 Stunden sukzessive auf den Gebieten CO (DOMAIN1), N1 (DOMAIN2) und N2
(DOMAIN3). Die Prognose wird auf einem Cluster von 2 LINUX PCs (Intel Dual Xeon mit 2667
MHz) gerechnet.
Täglicher Vorhersage-Zyklus
Wie bereits erwähnt, stehen die globalen GFS Vorhersagen etwa um 3:45 UTC (4:45 MEZ) auf dem
FTP-Server zur Verfügung. Der Prognose-Zyklus startet dann automatisch gegen 05:00 MEZ und
ca 09:00 MEZ sind alle Vorhersagen fertig und werden dann graphisch aufbereitet. Die GraphikDateien werden anschließend in die Prognosedatenbank abgespeichert und sind seit 1. November
2001 für jeden Tag verfügbar.
(Dr. Hermann Jakobs, E-Mail: [email protected])
Jahresbericht 2003