splitter - IT-Dienstleistungszentrum Berlin

Transcrição

splitter - IT-Dienstleistungszentrum Berlin
SPLITTER
SPLITTER
IT-Nachrichten für die Berliner Verwaltung Nr. 1/2012 - 22. Jahrgang
Schwerpunkt: IT-Kommunikation
1/12 1
SPLITTER
Sehr geehrte Leserinnen und Leser,
in weit höherem Maße als gegenwärtig wird das Web
künftig noch stärker zur Schnittstelle zwischen Verwaltung, Wirtschaft und Bürgern. Die Informationstechnik
wird damit zum Herzstück dieser staatlichen Kommunikation. Daten- und Telekommunikation wachsen in einem Netz zusammen, und technische Services wie Videokonferenzen gehören auch in Behörden in absehbarer Zeit
zum Arbeitsalltag. Zurzeit arbeiten Fachleute auf Bundesund Länderebene an E-Governmentgesetzen, die eine
rechtliche Grundlage für umfangreicheren Bürgerservice
im Web schaffen. Das Land Berlin zählt hier zu den
Vorreitern.
Mit dem modernisierten Berliner Landesnetz des ITDZ Berlin verfügen die öffentlichen
Institutionen Berlins auch über eine technische Ausstattung, die diesem
Zukunftsszenario gewachsen ist. So ist zum Beispiel die Überleitung der Telefonanlagen
vom herkömmlichen Netz auf das „Multi Service Network“ des Landesnetzes weit
fortgeschritten: aktuell sind 58 der 72 Telefonanlagen der Berliner Verwaltung migriert.
Eine der größten Herausforderungen bildet die Sicherheit der immer umfangreicheren
Datenmengen und netzbasierten Kommunikationsservices. Nicht erst die Testszenarien der länderübergreifenden Krisenübung LÜKEX haben Ende November 2011
verdeutlicht, dass ein hohes Maß an Sicherheit und Datenschutz mit umfangreicher
organisatorischer und technischer Planung verbunden ist.
Ein hohes Maß an Sicherheit bietet auch der Digitalfunk: Der Aufbau des Netzes ist für
Berlin weitestgehend abgeschlossen. Der Digitalfunk BOS gehört bei vielen Mitarbeiterinnen und Mitarbeitern in den Berliner Behörden und Organisationen mit Sicherheitsaufgaben inzwischen zum täglichen Arbeitswerkzeug.
Ob die neuen webbasierten Bürgerservices auch angenommen werden, hängt nicht
zuletzt von dem Vertrauen der Bürger in die Verwaltung ab, dass diese ihre Daten
schützt. Eine aktuelle Umfrage der BITKOM verdeutlicht, dass die Verwaltung an
diesem Vertrauen noch arbeiten muss. Denn im Gegensatz zu Krankenkassen, Ärzten
und Banken, denen jeweils um die 75 Prozent aller Befragten hinsichtlich des Datenschutzes vertrauen, bekunden bei staatlichen Stellen 59 Prozent der Bürgerinnen und
Bürger lediglich ein mittleres Vertrauensniveau.
Diesen Vertrauensrückstand aufzuholen ist eine Aufgabe, der sich das ITDZ Berlin als
zentraler IT-Dienstleister des Landes Berlin nicht allein stellen kann. Um die Sicherheit
der Bürgerdaten zu gewährleisten, muss das Thema Datenschutz in jedem Berliner Amt
und an jedem IT-Arbeitsplatz Priorität haben. Auch dabei wollen wir die Berliner
Verwaltung unterstützen.
Ich wünsche Ihnen eine anregende Lektüre
Konrad Kandziora
Vorstand
1/12 2
SPLITTER
Editorial
Impressum
2
56
Schwerpunktthema
Cyber-Attacken auf Deutschland – Probe für den Ernstfall
LÜKEX 11 aus Sicht des ITDZ Berlin: Wie in „Stirb langsam 4.O“
Digitalfunknetz für Behörden und Organisationen mit
Sicherheitsaufgaben (BOS)
BOS-Netzaufbau in Deutschland: Bereits über 14O.OOO Teilnehmer
Realisierung des Digitalfunks BOS in Berlin: Bei vielen schon tägliches
Arbeitswerkzeug
Katastrophenwarnung per SMS
Zehn Fragen und Antworten zum Internet der neuen Generation
IPv6 löst IPv4 ab
IPv6 in der Berliner Verwaltung
Migration des Berliner Landesnetzes (BeLa) auf das moderne
„BeLa-MSN“ (Multi Service Network)
Aktuelle Angebote des ITDZ Berlin
Produkte der Mobilfunkausschreibung
Internet-Telefonie gewinnt weiter an Boden
Qualität von Videokonferenzen erhöhen
Schnelles WLAN leicht gemacht
Kostenloses WLAN für Londoner Stadtbezirke
Richtig rechnen in VoIP-Systemen
4
6
7
7
8
9
1O
1O
12
13
13
14
14
15
16
17
18
Berichte und Infos
Berliner Partner unterzeichnen Konsortialvertrag: Startschuss für den
Online-Marktplatz goBerlin
Prozessmodellierung mit ADONIS
Das ITDZ Berlin stellt ADONIS zur Verfügung
ITDZ Berlin war für den GreenIT Best Practice Award 2O11 nominiert
James Bond und Theodor Escherich: Podcast aus dem Gesundheitsamt
RuheSoft zur Ermittlung der Ruhefrist
Großprojekte erfordern komplexe Ausgleichsmaßnahmen
Von der Leichtigkeit des Programmierens
Schneller, Höher, Weiter: Cluster, Grid, Cloud
Sehr gute Beteiligung am ersten nationalen Programmierwettbewerb
Schnellere Computer dank SSD-Speicher
Schatten-IT – Flexibilität für Mitarbeiter, Risiko für das Unternehmen
Datenschutz: Höchstes Vertrauen in Banken und Krankenkassen
Optimalen Viren-Schutz gibt’s nur gegen Geld
Schwächen der OpenOffice.org Version 3.3.O bereinigt
Leitfaden zur Installation und Konfiguration von Windows 7 veröffentlicht
19
2O
2O
21
22
23
27
29
31
33
34
35
35
36
37
37
Online
BSI veröffentlicht „Register aktueller Cyber-Gefährdungen und
-Angriffsformen“
Deutsche Internetnutzer setzen auf „Bauchgefühl“ gegen Hackerattacken
Milliardengewinne durch Datenschutzverstöße
Soziale Netzwerke vermehrt im Visier von Cyberkriminellen
HTML5: Warnung vor Botnetzen im Browser
Facebook ist entscheidender Wirtschaftsfaktor in Europa
Impressums-Pflicht bei Facebook
Wissensplattform ALEXANDRIA für die allgemeine Nutzung freigegeben
Störerhaftung des Admin-C
Google Analytics datenschutzkonform einsetzen
Googles Datenschutzerklärung nach deutschem Recht angreifbar
Breitband-Anschlüsse: Deutschland in der Spitzengruppe
38
38
39
4O
4O
41
42
43
44
44
45
45
Tipps und Tricks
Löschen leerer Ordner leicht gemacht: Neue FreeWare des Office
Manager sorgt für Ordnung auf Windows-Computern
Finale Version von WinRAR 4.1O steht zum Download bereit
Laptop-Daten nur verschlüsseln reicht nicht aus
46
46
47
Veranstaltungen
CeBIT, 6.-1O. März 2O12, Hannover: Anschluss an die digitale Zukunft
CeBIT, 6.-1O. März 2O12, Hannover: CeBIT baute Managed Print
Services Park aus
CeBIT, 6.-1O. März 2O12, Hannover:Strategien gegen Fachkräftemangel
CeBIT, 6.-1O. März 2O12, Hannover: PDF Association informierte über’
PDF-Standards und -Lösungen
CeBIT, 6.-1O. März 2O12, Hannover: CeBIT wurde zum größten
kostenlosen Hotspot der Welt
5. Essener Tagung, 18.-19. April 2O12: Mobile Kommunikations- und
Informationstechnik im Einsatz
13. Datenschutzkongress, 8.-9. Mai 2O12, Berlin: Einheitlicher
Datenschutz bald europaweit?
1O.-11. Mai 2O12, Frankfurt/ Main: IPv6-Kongress
1O.-11. Mai 2O12, Berlin: 6. RISER-Konferenz zum Europäischen
Meldewesen
48
49
5O
5O
51
52
52
53
53
Literatur
Fallstudie Green IT im IT-Dienstleistungszentrum Berlin
Einstieg in Google Plus auf unterhaltsame Weise
Das Duden-Stilwörterbuch als App für iPhone und iPad
54
54
55
Dies und Das
Vor 2O Jahren im SPLITTER: Betr.: Antrag
56
1/12 3
SPLITTER
Cyber-Attacken auf
Deutschland – Probe für
den Ernstfall
Die alarmierenden Berichte über
Cyberterrorismus in den Medien fanden Ende 2011 ihren Höhepunkt: Ein
massiver Angriff auf kritische IT-Infrastrukturen der Bereiche Verkehr,
Banken und Telekommunikation sowie öffentliche Verwaltung legte weite Teile der Bundesrepublik lahm!
Glücklicherweise war dieser jedoch
nur simuliert. Das Szenario war Kern
einer so genannten LÜKEX (Länderübergreifende KrisenmanagementÜbung/EXercise), dem neuesten Teil
einer Übungsserie des nationalen Krisenmanagements in Deutschland.
Über 2.500 Mitarbeiter von verschiedenen Bundes- und Landesbehörden, unter anderem des Nationalen Cyber-Abwehrzentrums, sowie von rund 30 kommerziellen Betreibern kritischer Infrastrukturen Deutschlands beteiligten sich am
Training. Im Fokus stand allerdings nicht
die IT-Sicherheit der betroffenen Organisationen, sondern deren Zusammenarbeit und Koordination im Krisenfall. So
wurde die Sicherheitsattacke lediglich nach
Art eines Planspiels in Form von Diagrammen und Ablaufplänen dargestellt.
An LÜKEX-Manövern nimmt jeweils
nur eine Auswahl an Bundesländern teil,
im aktuellen Fall waren es fünf „Intensiv
Übende“ Länder plus sieben, die am Rande beteiligt waren. So schlüpften Behörden der Regierungen von Berlin und
Brandenburg in die Beobachterrolle und
konnten gleichzeitig einen spannenden
Versuch starten, wie sich die Kommunikation dezentral agierender Gruppen
optimieren lässt.
Testlauf unter realen Bedingungen
Da die Berliner Landesregierung an ein
vom ITDZ Berlin betriebenes
hochperformantes IP-basiertes Landesnetz auf Basis von Cisco Netzwerkkomponenten angeschlossen ist, wurde
1/12 4
Kritische IT-Infrastrukturen der Bereiche Verkehr, Banken und Telekommunikation
könnten Ziel eines Cyberangriffs werden
im Rahmen der Cisco Expo im Dezember 2010 die Idee geboren, sukzessive
Videokommunikation in den Behörden
einzuführen. „In Berlin ist behördenübergreifend eine Vielzahl von Abstimmungsbesprechungen notwendig“,
erklärt Kai Osterhage, IT-Sicherheitsbeauftragter des ITDZ Berlin. „Videogestützte Kommunikation birgt das
Potenzial, Steuermittel einzusparen, indem der Reise- und Zeitaufwand verringert wird. Nicht zuletzt profitieren alle
Teilnehmer von ihrer visuellen Präsenz
im Vergleich zum reinen Telefonat.“ Bevor ein Projekt dieser Größenordnung
gestartet werden kann, ist es jedoch erforderlich, Tests aufzusetzen. Damit sollen
die Vorteile aufgezeigt, aber auch mögliche Barrieren oder Schwachstellen der
Technologie aufgedeckt werden. An dieser Stelle kommt die LÜKEX ins Spiel:
„Da wir unsere jährliche Notfallübung
aus Effizienzgründen mit der LÜKEX
zusammengelegt haben, bot sich in deren
Rahmen die Erprobung der
Videokonferenzlösung unter realen Bedingungen mit unterschiedlichen Endgeräten über die Grenzen des Berliner
Landesnetzes hinaus geradezu an“, so
Osterhage.
Am Projekt beteiligten sich auf technischer Seite Cisco als Lieferant der notwendigen Konferenztechnik, T-Systems als
Systemintegrator und das ITDZ Berlin
als IT-Dienstleister der Berliner Verwaltung. Zu den Teilnehmern zählten neben
dem Berliner Innensenat die Berliner Feuerwehr und die Lagezentrale des CyberAbwehrzentrums im Nachbarland
Brandenburg. Das konkrete Szenario
beinhaltete Lagebesprechungen zwischen
den drei Parteien, die anstatt telefonisch
nun auf Basis der neuen Testinfrastruktur
mittels Videokommunikation stattfinden sollten. „Da alle Teilnehmer bereits
umfassende Erfahrungen mit Diensten
wie Skype gemacht hatten, waren die Erwartungen an die neue Videokonferenzlösung recht hoch“, erläutert Osterhage.
Gebündelte Kompetenzen
So wurde im Nachgang der Cisco Expo
eine Projektgruppe zur Vorbereitung der
Infrastruktur aufgesetzt, die im Frühsommer 2011 ihre Arbeit aufnahm und
sich während des gesamten Planungszeitraums regelmäßig über WebEX abstimmte, um die Meilensteine bis zur
LÜKEX gemeinsam festzulegen.
An erster Stelle stand das systemische
Design der kompletten Lösung, in das
alle Beteiligten ihre Kompetenzen einbrachten. Neben den technischen Vorbereitungen mussten jedoch auch die Testszenarien definiert werden. So wurde ein
Kriterienkatalog ausgearbeitet, der Anforderungen wie Punkt-zu-Punkt-Kommunikation zwischen zwei Teilnehmern,
Mehrpunkt-Kommunikation zwischen
allen Teilnehmern, Application Sharing
zum Live-Datenaustausch während Î
SPLITTER
Î der Unterredungen sowie die Administration durch das ITDZ Berlin und TSystems umfasste. Zudem spielte das
Feedback der Anwender zur Handhabbarkeit der Lösung eine entscheidende
Rolle.
So wählten alle drei beteiligten Unternehmen gemeinsam die einzusetzenden
Komponenten aus. Der Cisco TelePresence Video Communication Server
Control zur Steuerung der Videokonferenz wurde ergänzt durch den Cisco
TelePresence Video Communication Server Expressway für die sichere Videokommunikation außerhalb der Firewall.
Beide Server wurden beim ITDZ Berlin
betrieben. Mittels der Endgeräte Cisco
TelePresence EX90 für Desktoparbeitsplätze und Cisco TelePresence
Movi für mobile Mitarbeiter mit Laptops, die für den Einsatz bei der Senatsverwaltung für Inneres und Sport, der
Berliner Feuerwehr und Lagezentrum
sowie beim ITDZ Berlin vorgesehen
waren, sollten sich die Teilnehmer in die
Communication Server einwählen und
so die Videokonferenzen durchführen.
Das ITDZ Berlin verfügt über profunde
Kenntnisse der Berliner IP-Infrastruktur
und plante und realisierte die netztechnische Einbindung des Equipments;
die Konfiguration und Integration der
Videokonferenztechnik übernahm T-Systems.
Bei der länderübergreifenden Einrichtung
der Videolösung betrat das ITDZ Berlin
jedoch Neuland. Die besondere Herausforderung bestand darin, die durch
Firewalls abgeschotteten Netze der teilnehmenden Behörden dahingehend zu
öffnen, dass eine sichere, risikofreie Kommunikation stattfinden konnte. Dazu
musste das ITDZ Berlin unter anderem
neue Kommunikationswege planen.
„Die zentrale Videokonferenztechnik und
die Endpunkte sind auf die verschiedensten Netzbereiche des Landesnetzes und
sogar auf verschiedene Landesnetze verteilt. Die Realisierung der Kommunikationsverbindungen über die unterschiedlichen Netzzonen mit ihren von
zahlreichen IT-Abteilungen betriebenen
Sicherheitskomponenten stellte die größte
Herausforderung dar“, so Dr. Bernd
Schulz, Seniorbetriebsmanager Netz- und
Kommunikationsbetrieb, ITDZ Berlin.
„Auch wenn die Anzahl der beteiligten
Bereiche zu Anfang unterschätzt wurde,
konnten wir durch gute Koordination
die erfolgreiche Kommunikation sicherstellen.“ Um den Echtzeitanforderungen
der Videokommunikation gerecht zu
werden, musste die vorhandene Netzwerk- und Sicherheitstechnik am Übergang zum DOI-Netz optimiert und dafür
noch zusätzliche Verschlüsselungstechnik
Bei der LÜKEX sollten die Teilnehmer Videokonferenzen durchführen, u.a. mit dem
hier abgebildeteten Gerät TelePresence EX90 von Cisco
in Betrieb genommen werden. DOI steht
für Deutschland-Online Infrastruktur
und beschreibt die deutschlandweite
Kommunikationsinfrastruktur für alle
Behörden der Deutschen Verwaltung. Sie
ermöglicht die sichere Kommunikation
zwischen den Netzen von Bund, Ländern und Kommunen.
Kommunikation im Krisenfall
Am Tag X der LÜKEX-Übung stimmten sich über die Konferenztechnik der
Verantwortliche in der Lagezentrale des
Cyber-Abwehrzentrums in Potsdam mit
dem zuständigen Abteilungsleiter der
Senatsverwaltung für Inneres und Sport
und dem Leiter der Berliner Feuerwehr
zur Lage ab. Dabei wurden alle zuvor
vereinbarten Testszenarien durchgespielt.
So war eine direkte und unmittelbare
Kommunikation zwischen dem Notfallmanager und dem Vorstand des ITDZ
Berlin sowie dem IT-Sicherheitsbeauftragten des ITDZ Berlin vor Ort
beim Krisenstab des brandenburgischen
Innenministeriums möglich, ohne dass
andere Kommunikationskanäle beeinträchtigt oder notwendig gewesen wären.
Nach Abschluss des Tages zeigten sich die
Beteiligten durchweg begeistert von der
Videokonferenzlösung. Nicht nur die Art
der persönlicheren Kommunikation
überzeugte die Teilnehmer, auch die einfache Nutzung der Lösung. „Der Testlauf war erfolgreich. Es gab keine technischen Probleme während des Tests und
die Übertragungsqualität wurde hohen
Ansprüchen gerecht“, fasst Kai Osterhage zusammen. „Auch die einfache
Bedienbarkeit des Systems erschloss sich
den Teilnehmern auf Anhieb.“ Nicht nur
im Krisenfall, sondern auch für die alltägliche Abstimmungsarbeit der verschiedenen Behörden in Berlin und über die
Landesgrenzen hinaus würde die Videokommunikation erhebliche Vorteile realisieren.
CÉCILE WILLEMS
Direktorin Vertrieb Öffentliche Hand,
Cisco Deutschland
‹
1/12 5
SPLITTER
LÜKEX 11 aus Sicht
des ITDZ Berlin
Wie in „Stirb
langsam 4.0“
„Bei LÜKEX 11 geht es zu wie im Kino:
Wie in „Stirb langsam 4.0“ simulieren
bundesdeutsche Behörden, was passiert, wenn wichtige Informationsnetze von Hackern angegriffen werden.“ So untertitelte die Berliner Morgenpost am 30. November 2011 die
Überschrift zu ihrem Artikel über die
zweitägige Großübung mit über 3.000
Teilnehmern. Für das ITDZ Berlin
begann jedoch alles ziemlich genau
drei Jahre vorher.
Im November 2008 brachte das Bundesamt für Sicherheit in der Informationstechnik (BSI) den Standard 100-4 heraus,
der sich dem Thema Notfallmanagement
widmet. Im SPLITTER 3/2008 wurde
der Standard bereits vorgestellt. Im Folgenden begann auch das ITDZ Berlin,
sich an diesem Standard auszurichten und
erarbeitete ein Notfallhandbuch, um
geschäftskritische Verfahren des ITDZ
Berlin sowie wichtige Landesverfahren
im Krisenfall schneller und geordneter
wieder zur Verfügung stellen zu können.
Im Notfallhandbuch werden Funktionen und Rollen sowie Kommunikationswege definiert und Abläufe für verschiedene denkbare Notfälle festgelegt.
Bestandteil von Notfall-Planungen sind
regelmäßige Übungen und so sollte im
Herbst 2011 auch die erste Notfall-Übung
im ITDZ Berlin durchgeführt werden.
Parallel dazu wurde in Zusammenarbeit
mit der Senatsverwaltung für Inneres mit
den Vorbereitungen der LÜKEX 11
(Länderübergreifende Krisenmanagementübung/Exercise) begonnen. Das
ITDZ Berlin war durch den ITSicherheitsbeauftragten in der Rahmenleitgruppe Berlin/Brandenburg vertreten.
Eine Zusammenlegung der beiden Übungen war aus Gründen der Effizienz sinnvoll, weil sie nahezu identische Übungsziele hatten. So handelte es sich bei beiden
1/12 6
Übungen primär um Proben der
Kommunikationsstrukturen und -wege.
Im Vorfeld der Übung trat der im Notfallhandbuch definierte Krisenstab des ITDZ
Berlin zusammen und wurde durch den
IT-Sicherheitsbeauftragten eingewiesen.
Ein Notfallmanager wurde für die Zeit
der Übung festgelegt, der während der
Übungszeit im ITDZ Berlin als zentraler
Ansprechpartner für den IT-Sicherheitsbeauftragten zur Verfügung stand. Der
IT-Sicherheitsbeauftragte wiederum vertrat das ITDZ Berlin direkt im Krisenstab vor Ort im brandenburgischen Innenministerium. Der Krisenstab setzte
sich aus Vertretern der Berliner und
Brandenburger Innenverwaltungen, Polizei, Feuerwehr, THW, Bundeswehr,
Verfassungsschutz sowie Vertretern der
Betreiber kritischer Infrastrukturen (wie
auch das ITDZ Berlin) zusammen und
umfasste mehr als 30 Personen, die sich
während der Übung nahezu ununterbrochen gemeinsam im Lagezentrum aufhielten und auf aktuelle Begebenheiten
und Übungseinspielungen reagierten.
Leerlaufzeiten wurden mit Fachvorträgen
durch die Übungsteilnehmer sinnvoll
überbrückt.
onen funktionierte reibungslos und auch
die Kommunikation mit den Krisenstäben der anderen Bundesländer sowie dem
Krisenstab des Bundesinnenministeriums konnte – von kleineren Einschränkungen der Übertragungsqualität
bei den Telefonkonferenzen abgesehen –
zu den geplanten Zeitpunkten stattfinden. Getestet wurde zwischen dem ITDZ
Berlin und dem IT-Sicherheitsbeauftragten im Krisenstab auch ein IPbasierendes Videokonferenzsystem (siehe vorhergehender Artikel), mit dem die
Qualität der Übertragung deutlich höher
war. Da bleibt nur die Frage, ob IP-Netze
im echten Krisenfall überhaupt noch zur
Verfügung stehen. Zur Not muß eben
auf Boten zurückgegriffen werden. Die
genauen Ergebnisse der bundesweiten
Auswertung der LÜKEX 11 sollen
frühestens im April 2012 vorliegen.
Bundesinnenminister Friedrich erklärte,
dass die LÜKEX 11 Verbesserungspotential aufgezeigt habe. Dazu gehöre
die Einrichtung von landesweiten Computer-Notfallteams (CERT). Eine entsprechende Empfehlung für Berlin gab
das ITDZ Berlin bereits 2009 im ITSicherheitsjahresbericht.
Aus Sicht des ITDZ Berlin war die Übung
ein Erfolg. Die Zusammenarbeit mit den
Vertretern der verschiedenen Organisati-
KAI OSTERHAGE
IT-Sicherheitsbeauftragter des ITDZ
Berlin
‹
An der LÜKEX 11 nahm auch das Technische Hilfswerk teil
SPLITTER
Digitalfunknetz für Behörden und Organisationen mit
Sicherheitsaufgaben (BOS)
Im BOS-Digitalfunknetz werden Behörden und Organisationen mit Sicherheitsaufgaben (BOS) –
wie Polizeien, Feuerwehren, Zoll und Rettungsdienste – in einem bundesweit einheitlichen
digitalen Sprech- und Datenfunksystem miteinander kommunizieren. Gemäß den Anforderungen
der Behörden und Organisationen mit Sicherheitsaufgaben des Bundes und der Länder soll mit
dem BOS-Digitalfunknetz eine sichere, hochverfügbare Sprachkommunikation und daneben eine
schmalbandige Datenkommunikation ermöglicht werden. Der Digitalfunk BOS wird Zug um Zug die
Analogfunksysteme ablösen.
Vorteile des Digitalfunks BOS
Die Digitalfunk-Technologie, basierend auf dem TETRA-Standard, bietet zahlreiche Vorzüge. Für
die Steuerung von Einsätzen ist die Gruppenkommunikation – neben der Einzelkommunikation –
entscheidend. Nur der Digitalfunk BOS bietet die technische Möglichkeit, Gruppen ad hoc und
zentralgesteuert in einem Einsatz zusammen zu schalten, so dass die Funklagedienste bzw.
Einsatzleitstellen gezielt und zuverlässig mit bestimmten Gruppen und einzelnen Teilnehmerinnen
und Teilnehmern sprechen und diese direkt koordinieren können.
Einer Gruppe können Angehörige verschiedener BOS – beispielsweise von Feuerwehr, Polizei und
Rettungsdienst sowie die Funklagedienste bzw. Einsatzleitstellen – zugeordnet sein. Diese hören
zeitgleich denselben Funkspruch. Darüber hinaus zeichnen Eigenschaften wie zum Beispiel die
verlässliche Verfügbarkeit des Digitalfunks BOS, die deutlich verbesserte Empfangsqualität ohne
störende Hintergrundgeräusche („Rauschen“) und die Abhörsicherheit den Digitalfunk BOS aus.
Im Analogfunk werden die Frequenzen nur innerhalb der jeweiligen BOS genutzt – jede BOS hat
ein eigenes Netz mit eigenen Funkkanälen und räumlich begrenzter Reichweite. Die Polizei funkt
auf Polizeifrequenzen, die Feuerwehr auf ihren Frequenzen in jeweils separaten Analogfunknetzen, und zwar auf die jeweilige Region begrenzt. Eine bundesweite und BOS-übergreifende
Kommunikation, die hochverfügbar und zuverlässig ist, ist im Analogfunk nicht möglich.
Zusammenfassend hier die Vorteile der neuen Digitalfunktechnologie basierend auf dem TETRAStandard:
•
•
•
•
•
•
alle BOS kommunizieren in einem Netz
hohe und verlässliche Verfügbarkeit
Abhörsicherheit des Funkverkehrs
verbesserte Sprachqualität (ohne „Rauschen“) im Vergleich zum Analogfunk
Datenübertragung
Digitalfunk BOS bietet die technische Möglichkeit, Gruppen ad hoc und zentralgesteuert in
einem Einsatz zusammenzuschalten
BUNDESANSTALT FÜR DEN DIGITALFUNK DER BEHÖRDEN UND ORGANISATIONEN
MIT SICHERHEITSAUFGABEN (BDBOS) UND LANDESSTELLE FÜR DEN DIGITALFUNK BOS BERLIN (LASTDF)
Der Digitalfunk für Behörden
und Organisationen mit Sicherheitsaufgaben (BOS) befindet
sich im Aufbau (im Bild:
TETRA-Mast in Brandenburg)
BOS-Netzaufbau in Deutschland
Bereits über 140.000
Teilnehmer
Im BOS-Digitalfunknetz sind über
140.000 Teilnehmer registriert (Stand
Dezember 2011). Diese Zahl steigt
weiterhin kontinuierlich. In vielen Gebieten Deutschlands ist der Digitalfunk BOS bereits funktionsfähig und
verfügbar, so beispielsweise in Berlin,
Hamburg, Bremen, München, in den
Regionen Lüneburg, Trier, Oldenburg
(in Niedersachsen), Leipzig, dem
Großraum Düsseldorf, SchleswigHolstein West, dem östlichen Landesteil Baden-Württembergs sowie im
Neckar-Odenwald-Kreis und dem
Rhein-Neckar-Kreis. Seit November
2011 nimmt Mecklenburg-Vorpommern als erstes Flächenland vollständig am erweiterten Probebetrieb
des Digitalfunks BOS teil.
Der Netzaufbau, d.h. die bauliche und
funktechnische Ertüchtigung der Basisstationsstandorte, ist weit fortgeschritten. Von den geplanten 4.300 bis 4.500
Basisstationen waren zum 31. Dezember
2011 insgesamt 2.643 aufgebaut und mit
Systemtechnik ausgestattet (installiert)
und davon 1.542 Basisstationen in das
BOS-Digitalfunknetz integriert. In das
Kernnetz sind neben den beiden Netzverwaltungszentren in Berlin und Hannover 47 Vermittlungsstellen eingebunden. Als Teil der erforderlichen Infrastruktur für das BOS-Digitalfunknetz
steht das Kernnetz wie geplant 2012 zur
Verfügung.
Für die Infrastruktur insgesamt gilt:
Flächendeckend wird die für den Digitalfunk BOS erforderliche Infrastruktur im
Wesentlichen voraussichtlich bis Ende
2012 aufgebaut und mit Technik versehen – „installiert“ – sein. Es ist jedoch zu
berücksichtigen, dass die einzelnen
Infrastrukturkomponenten, wie Funkbasisstationen und Vermittlungsstellen,
nach der Installation noch getestet, justiert und deutschlandweit zusam- Î
1/12 7
SPLITTER
Îmengeschaltet – „integriert“ – werden
müssen. Die Integration der regionalen
Teilnetze erfolgt sukzessive nach der jeweiligen Installationsphase und wird im
Wesentlichen 2014 abgeschlossen sein.
Weiterführende Informationen über den
Digitalfunk BOS finden Sie auf der
Internetseite der Bundesanstalt für den
Digitalfunk der Behörden und Organisationen mit Sicherheitsaufgaben (BDBOS):
www.bdbos.bund.de
BUNDESANSTALT FÜR DEN DIGITALFUNK
DER BEHÖRDEN UND ORGANISATIONEN
MIT SICHERHEITSAUFGABEN (BDBOS)
‹
Realisierung des Digitalfunks
BOS in Berlin
Bei vielen schon täglichesArbeitswerkzeug
Die Projektgruppe „Digitalfunk BOS
Berlin“ hat seit ihrer Gründung im
Jahr 2004 ihren Projektauftrag heute
nahezu vollständig erfüllt. Die Migration ist für das Land Berlin zwar noch
nicht ganz abgeschlossen, der Digitalfunk BOS ist aber bei vielen
Mitarbeiterinnen und Mitarbeitern in
den Berliner Behörden und Organisationen mit Sicherheitsaufgaben
inzwischen zum täglichen Arbeitswerkzeug geworden. Gerade wenn
aufgrund von Wartungsarbeiten Einschränkungen bei der Netzversorgung
oder der Dienstebereitstellung von den
Einsatzkräften hingenommen werden
müssen, wird deutlich, was für ein wichtiges Führungs- und Kommunikationsmittel die BOS mit dem Digitalfunk gewonnen haben.
Der Aufbau des Digitalfunknetzes ist für
Berlin weitestgehend abgeschlossen. Die
Basisstationen aus der ersten Netzplanung
sind schon seit 2009 in Betrieb. Durchgeführte Messfahrten ergaben dabei jedoch
einige Bereiche im Stadtgebiet, bei denen
1/12 8
Der Aufbau des Digitalfunknetzes ist für Berlin weitestgehend abgeschlossen
das geplante Versorgungsziel noch nicht
erreicht werden konnte. Im Rahmen einer Feinjustierung wurden die bestehenden Lücken mit weiteren Basisstationen
geschlossen, so dass im Endausbau 48
Basisstationen die Freifeldversorgung im
Digitalfunk BOS im Land Berlin sicher
stellen. Aktuell sind davon 41 Basisstationen „in der Luft“, fünf weitere
werden Ende Februar in Betrieb genommen und die restlichen zwei werden Mitte dieses Jahres noch folgen. Grundsätzlich können nach Abschluss aller geplanten Maßnahmen die Einsatzkräfte davon
ausgehen, dass im gesamten Stadtgebiet
Berlin eine flächendeckende Fahrzeugfunkversorgung und in den Siedlungsgebieten eine Funkversorgung auch innerhalb von Gebäuden im Nahbereich
von Fenstern anzutreffen ist. Eine
Durchdringungstiefe, wie bei den kommerziellen Mobilfunknetzen, kann jedoch nur im näheren Umfeld einer Basisstation gegeben sein.
Die Berliner BOS betreiben aktuell rund
15.000 Digitalfunkgeräte im Netz, davon
sind etwa 4.000 Fahrzeugfunkgeräte verbaut. Bei der Berliner Feuerwehr sind
mehr als 95% aller Fahrzeuge umgerüstet, bei der Berliner Polizei sind es etwa
70%. Der größte Anteil der Digitalfunkgeräte fällt jedoch auf die Handsprechfunkgeräte, die je nach Verwendungszweck mit umfangreichem
Zubehör wie einem Handbedienteil und/
oder einer Hörsprechgarnitur für den
Schutzhelm zum Einsatz kommen. Die
neue Technik wirkt sich dabei auch auf
andere Bereiche aus. So hat die Berliner
Feuerwehr die neu beschaffte Schutzkleidung so gestaltet, dass die Handsprechfunkgeräte mit dem Zubehör integriert in der Einsatzkleidung getragen
werden können.
Für die Nutzerinnen und Nutzer des
Digitalfunk BOS im Land Berlin steht als
kompetenter Ansprechpartner die Landesstelle Digitalfunk BOS Berlin rund um die
Uhr zur Anwenderbetreuung bereit. Neben der Beratung zu fachlichen Fragen
liegt die Hauptaufgabe der Landesstelle
Digitalfunk BOS Berlin darin, die Interessen der Berliner BOS gegenüber der Bundesanstalt für den Digitalfunk der BOS,
dem Technischen Betrieb und den verschiedenen Bund-Länder-Gremien zum
Digitalfunk BOS zu vertreten. Laufend
wird die „Fernmeldelage“ und die
Netzverfügbarkeit im Einsatzraum Berlin
überwacht. Bei Störungen oder Beeinträchtigungen der Netzversorgung und
Diensteverfügbarkeit werden unmittelbar die Leitstellen der Berliner BOS informiert und eine rasche Wiederherstellung
der Digitalfunkversorgung koordiniert.
Die meisten Fernmeldebetriebszentralen
der Polizei als auch die landesweite
Feuerwehrleitstelle der Berliner Feuerwehr
sind bereits direkt an das BOS-Digitalfunknetz angebunden. Um vor allem auch
die kleineren Leit- und Befehlsstellen mit
einem technisch und wirtschaftlich vertretbaren Aufwand anzubinden, wird
derzeit ein sogenannter LeitstellenKonzentrator errichtet. Nur mittels ei- Î
SPLITTER
Î ner direkten Anbindung über Draht
sind für die Leitstellenarbeitsplätze alle
Leistungsmerkmale des Digitalfunks BOS
nutzbar, eine Anbindung über die Luft ist
aus Ressourcengründen dann nur für den
Rückfallbetrieb erforderlich.
Der Digitalfunk BOS hat im Land Berlin
bereits bei mehreren größeren Einsatzlagen seine Leistungsfähigkeit unter Beweis gestellt. Sowohl zum Besuch Seiner
Heiligkeit Papst Benedikt XVI. in Berlin,
als auch zum letzten Jahreswechsel war
das Digitalfunksystem bei intensiver
Nutzung nahezu störungsfrei im Betrieb.
Der Digitalfunk BOS zeigte in Spitzenlasten das erwartete Systemverhalten. Mit
den gewonnen Erkenntnissen konnten
noch kleinere Fehler ausgemerzt werden
und der taktische Einsatz des Digitalfunks BOS für die nächste „Großlage“
weiter optimiert werden.
Ein Schwerpunkt der zukünftigen Arbeiten der Landesstelle Digitalfunk BOS
Berlin wird es sein, die Migration der etwa
200 analogen Tunnel- und Gebäudefunkanlagen zu digitalen Objektfunkanlagen
zu koordinieren. Für den Einsatz der
BOS ist eine Funkversorgung auch in
bauartbedingt schwierig zu versorgenden
Bereichen ein wesentliches Merkmal für
einen hohen Einsatzerfolg. Auch aus diesem Grund beschreitet man in Berlin den
Weg, das bestehende TETRA-Digitalfunknetz der Berliner Verkehrsgesellschaft
im Untergrund der Berliner U-Bahn durch
eine Verbindung mit dem Digitalfunk
BOS zu nutzen. Die ersten Schritte hierzu
sind bereits getan. Einsatzkräfte von Polizei und Feuerwehr können mit ausgewählten Geräten bereits heute durch
Umschaltung auf das andere Digitalfunknetz im Einsatz kommunizieren.
KATWARN
Was ist KATWARN?
Katastrophenwarnung
per SMS
Mit KATWARN können zuständige
Behörden durch Kurzinformationen
und Verhaltensempfehlungen per SMS
Handy- und Smartphone-Nutzer betroffener Gefahrengebiete gezielt warnen und
informieren. Droht in einem Stadtteil
beispielsweise Überschwemmung, würde eine Warn-SMS so aussehen:
In vier Regionen Deutschlands warnt
das Fraunhofer-FOKUS-System KATWARN bereits zuverlässig vor Gefahren – kostenlos und postleitzahlengenau per SMS. Für den reibungslosen
Ablauf ist vor allem die enge Zusammenarbeit von Verwaltung und Forschung ausschlaggebend.
Was tun wenn eine Sirene in der Nachbarschaft aufheult? Anstatt sich über Radio
oder Internet zu informieren, sind die
meisten entweder ratlos oder wählen die
Notrufnummer – und blockieren damit
wichtige Leitungen.
Um solche Szenarien zu vermeiden, entwickelten die Wissenschaftler des Berliner
Fraunhofer Institut für Offene Kommunikationssysteme (FOKUS), das Frühwarnsystem KATWARN – ein Warnsystem, das die Bürger kostenlos und
postleitzahlengenau per SMS über Gefahrenlagen informiert.
In Hamburg, Ostfriesland, Frankfurt am
Main und Bad Homburg wird KATWARN bereits erfolgreich genutzt – jetzt
soll das System auch in weiteren Städten
und Landkreisen in Deutschland dafür
sorgen, dass die Bürger in Zukunft nur
noch ihr Handy brauchen, um schnellstmöglich über eventuelle Gefahren informiert zu werden.
„Sturmflut-Warnung der Innenbehörde, gültig ab sofort, für PLZ 20457, tiefliegende
Außendeichgebiete verlassen.“
„Wir alle sind nicht mehr daran gewöhnt,
im Gefahrenfall selbstständig Entscheidungen zu treffen, wir verlassen uns auf
die Feuerwehr und Rettungsdienste«, so
Ulrich Meissen, Leiter des Kompetenzzentrums Electronic Safety and Security
Systems vom Fraunhofer FOKUS. „Das
ist in aller Regel ja auch richtig, dennoch
müssen Bürger bei schweren Gefahrenlagen auch selbstständig agieren können.
Hierfür ist KATWARN genau richtig.“
Damit möglichst viele Menschen von der
Technologie profitieren, übernimmt die
Stadtverwaltung in Kooperation mit den
öffentlichen Versicherern die Kosten für
Einführung und Betrieb von KATWARN – der Service selbst bleibt dadurch
kostenlos.
Wie funktioniert KARWARN?
Einzig eine aktive Registrierung ist aus
rechtlichen Gründen nötig. Dafür können sich Bürger kostenfrei über die Servicenummer 0163-755 88 42 per SMS anmelden, indem sie das Stichwort „KATWARN“ und die Postleizahl ver- Î
Aktuelle Informationen zur Migration
des Digitalfunk BOS in Berlin werden
von der Landesstelle Digitalfunk BOS
Berlin auf der Internetseite
www.digitalfunk.berlin.de veröffentlicht.
ANDREAS SIRTL, CLAUS-DIETER
SPLETTER
Landesstelle für den Digitalfunk BOS
Berlin (LaStDF)
‹
Katastrophenwarnung per SMS mit dem System KATWARN von Fraunhofer FOKUS
1/12 9
SPLITTER
Îsenden, für die der Warnservice gelten
soll. Es entstehen dann lediglich die
Kosten für den Versand einer normalen
SMS. Wer auch per E-Mail benachrichtigt
werden möchte, kann zusätzlich seine
Mailadresse angeben. Eine Beispiel-SMS
sähe dann folgendermaßen aus:
„KATWARN 20457 hans.mustermann@
mail.de“
Im Falle eines Falles gibt die zuständige
Behörde dann eine Warnung an die angemeldeten KATWARN-Nutzer aus. So
wurden allein in Hamburg die Bürger im
Dezember drei Mal vor einer Sturmflut
gewarnt. Außerdem konnten Anwohner
frühzeitig bei einer Schadstofffreisetzung
und einem Bomben benachrichtigt und
evakuiert werden.
Auch wenn KATWARN die lokalen
Anweisungen von Behörden, Polizei und
Einsatzkräften nicht ersetzt, ergänzt es
vorhandene Warnsysteme hervorragend
durch unmittelbare und individuelle Benachrichtigungen – ein Vorteil, den nach
dem Unwetter im vergangenen Jahr
immer mehr Hamburger erkannten: „Wir
wissen, dass das System keine hundertprozentige Sicherheit bietet, doch wir
schätzen den zusätzlichen Nutzen für
unsere Bürger. Nach der Warnung vor
den Sturmfluten im Dezember stiegen
die Teilnehmerzahlen deutlich an“, sagt
Kay Finger von der Hamburger Behörde
für Inneres.
Was für ein System steckt hinter KATWARN?
Um die Zuverlässigkeit von KATWARN
zu gewährleisten, läuft das System mit
hohen Sicherheitsanforderungen.
Beispielsweise wird alle fünf Minuten eine
Testnachricht ausgesendet, deren Zustellung per Roundtrip-Überwachungssystem kontrolliert wird. Dabei müssen
alle Nachrichten innerhalb weniger Minuten versandt werden, ohne die Mobilfunknetze zu überlasten. Zwei Server
vergleichen, für wen die Nachricht relevant ist, zusätzlich werden sie über mehrere Versandprovider verteilt, um Netzausfälle zu kompensieren.
1/12 10
KATWARN stützt sich auf Multihazardund Multichannel-Technologien – das
heißt, die Technologie wird in bereits
vorhandene Warnsysteminfrastrukturen
eingebunden. Auf diese Weise werden
Synergien genutzt und darüber hinaus
eine günstige Kostenstruktur gewährleistet. Künftig wird das System weitere
Warnkanäle wie Smartphone-Apps,
Smart-TV sowie intelligente Gebäudeund Infrastrukturtechnik unterstützen.
FRAUNHOFER FOKUS
‹
Zehn Fragen und Antworten
zum Internet der neuen
Generation
IPv6 löst IPv4 ab
Von den meisten Internetnutzern unbemerkt, wird im Netz langsam, aber
stetig auf die neuen Datenverkehrsregeln des Standards IPv6 umgestellt.
Eine 17-köpfige Gruppe von Experten
aus Wissenschaft, Wirtschaft und Politik hat zum sechsten nationalen ITGipfel in München (6. Dezember) ein
Strategiepapier dafür erarbeitet, wie
der Umstieg auf das „Internet der
neuen Generation“ gezielt gefördert
werden soll, um flächendeckende
Verbreitung zu erreichen. Leiter der
„Sonderthemengruppe“ ist der Potsdamer Informatikwissenschaftler
Prof. Christoph Meinel, Direktor des
Hasso-Plattner-Instituts. Er ist auch
Vorsitzender des Deutschen IPv6Rats. Anlässlich des IPv6-Gipfels in
Potsdam (1. und 2. Dezember 2011)
beschreibt er seine Position in diesem
Interview.
Warum ist die flächendeckende Einführung
des neuen Internetstandards IPv6 in Deutschland so wichtig?
Meinel: Hauptsächlich aus zwei Gründen. Einerseits muss weiterhin ein störungsfreier Betrieb des Internets gesichert sein und andererseits darf die deut-
sche Wirtschaft nicht in einen Wettbewerbsnachteil geraten. Denn vor allem im asiatischen Raum ist die Verbreitung des
neuen Internetprotokolls schon sehr viel
weiter fortgeschritten. Dies dürfen wir in
Deutschland nicht ignorant einfach hinnehmen und den Umstieg dem zögernden Markt überlassen.
Worin sehen Sie die größten Vorteile des neuen
Internetstandards?
Meinel: Das IPv6-Protokoll löst das Problem, dass spätestens im Jahr 2012 der
Vorrat an alten Netzanschlussadressen
erschöpft sein wird und die bisherige
Netzarchitektur für das Adressieren von
Diensten und die Vergabe von
Internetzugängen damit an Grenzen
stößt. Darüber hinaus bringt IPv6 noch
wichtige Verbesserungen gegenüber dem
alten Protokoll mit sich. Die liegen zum
Beispiel in der verbesserten Möglichkeit
zur so genannten Autokonfiguration. Das
heißt: Jedes mit einer IP-Adresse versehene Gerät kann vollautomatisch eine funktionsfähige Internetverbindung aufbauen, in dem es mit den für sein Netzwerksegment zuständigen Routern kommuniziert und dabei die notwendige Konfiguration ermittelt.
Der neue Standard IPv6 versteht sich ja mit dem
bisherigen, überholten Protokoll IPv4 nicht, die
Formate der jeweiligen Datenpakete sind also
nicht kompatibel. Wie wirkt sich das aus?
Meinel: Beide Standards werden in einer
mehrjährigen Übergangsphase gemeinsam nebeneinander betrieben werden – in
einem Zwei-Säulen-Modell, das wir „Dual
Stack“ nennen. Für Netzbetreiber und
Unternehmen bedeutet das Mehraufwand, zum Beispiel für den Austausch
von Geräten und für das Netzwerk-Management. Damit die Kommunikation
eines alten IPv4-Endgerätes mit einem
neuen IPv6-Endgerät klappt, ist eine
Übersetzung zwischen beiden Protokollversionen notwendig. Das gilt auch umgekehrt. Neue IPv6-Endgeräte, die nicht
zugleich auch IPv4 beherrschen, können
nämlich nicht auf Inhalte zugreifen, die
mit dem alten Standard angeboten werden.
Î
SPLITTER
Meinel: Nein. Die Bundesregierung hat
zugesagt zu prüfen, was in der Forschungspolitik, in den Beschaffungsmaßnahmen der öffentlichen Verwaltung, in der IT-Sicherheit und beim Datenschutz getan werden kann, um die
Verbreitung des neuen Internetstandards
zu unterstützen. Mitte 2012 wird sie einen Bericht mit entsprechenden
Handlungsempfehlungen vorlegen.
Ist denn die Zugangstechnik bei den meisten
Internetnutzern eigentlich schon IPv6-reif?
Î Gibt es denn keine Alternative zum Umstieg auf ein neues Internetprotokoll?
Meinel: Nein. Ohne IPv6 gibt es keine
Zukunft für das enorm wachsende
Internet und seine neuen Anwendungen. Wir haben da an das Internet der
Dinge, das Internet der Dienste, die intelligenten Netze zur Steuerung der Stromproduktion und des Stromverbrauchs zu
denken, ferner an die Telemedizin und
die Kommunikation zwischen Sensoren, zwischen Maschinen, zwischen Autos – um nur einige Beispiele zu nennen.
Rund 80 Prozent der gut 80 Millionen
Deutschen sind Internetnutzer. Das ist
der höchste Anteil in Europa und der
fünfthöchste weltweit. Es ist die Aufgabe, diese und künftige Anwender zu IPv6Nutzern zu machen. Japan, China,
Australien und die USA sind mit der
Durchdringung des neuen Internetstandards schon wesentlich weiter als
wir.
Die deutschen Internet Service Provider registrieren immer noch zu wenig Nachfrage nach
IPv6 beim Nutzer. Die Endanwender wiederum
fragen IPv6 derzeit kaum nach, weil sie ja die
IP-Adresse meist gar nicht zu Gesicht bekommen, solange es mit dem Internetzugang keine
Probleme gibt. Und der Wechsel der Datenverkehrsregeln bringt für den Verbraucher im
Normalfall keine wichtigen technischen Veränderungen mit sich. Wie kommt Deutschland
aus dieser Situation heraus?
Meinel: Wir haben in unserer Sonderthemengruppe zum nationalen IT-Gipfel in München das Ziel formuliert, dass
bis zum Jahr 2015 alle Internetdienste
sowohl über den alten Standard IPv4 als
auch über den neuen IPv6 zugänglich
sein sollen. Wir empfehlen, dass sich alle
Marktteilnehmer selbst zur Einführung
von neuen IPv6-Diensten verpflichten
und dafür Kooperationen bilden. Das
hält die Kosten des Umstiegs niedrig und
macht die Vorteile von IPv6 schnell zugänglich.
Sehen Sie den Staat da ganz außerhalb des
Spiels?
Meinel: In Millionen von Fällen muss die
IPv6-Unterstützung von DSL-, LTE- und
Kabel-Modems, von Ethernet-Anschlüssen, WLAN-Routern, Set-Top-Boxen
und von mobilen Endgeräten noch ausgebaut und auch anwendertauglich gemacht werden. Es ist allein schon eine
enorme Herausforderung, bei den mehr
als 26 Millionen Haushalten mit Breitbandanschlüssen im deutschen Festnetz
die Endgeräte auf die Nutzung nach dem
Zwei-Säulen-Modell, also sowohl für
IPv4 als auch für IPv6, umzustellen. Größeren Nachholbedarf gibt es auch bei den
Betriebssystemen für mobile Endgeräte.
Muss sich der Internetnutzer Sorgen machen,
dass IPv6 die Privatsphäre weniger schützt als
IPv4?
Meinel: Wie viel Privatsphäre im Internet
es geben sollte, wird unterschiedlich gewertet. Im Telefonverkehr käme ja auch
niemand auf die Idee, seine Telefonnummer zu verschleiern. Und im Autoverkehr
setzen wir ebenfalls auf eindeutige Identifikation durch Kfz-Kennzeichen. Zu
beachten ist: Schon jetzt kann ich über
andere Merkmale wie Cookies, BrowserSpeicher, Benutzung von Plug-ins und
Programmversionen, die extern abgefragt
werden können, als Nutzer identifiziert
werden. Solange ich keinen Anonymisierungsdienst verwende, speichert
mein Provider jetzt schon meine aktuell
benutzte IPv4-Adresse und meine
Verbindungsdaten. Diese Informationen
muss mein Provider herausgeben, wenn
es zivil- oder strafrechtliche Ermittlungen gibt.
Î
1/12 11
SPLITTER
Î Aber durch eine IPv6-Adresse bin
ich doch immer eindeutig identifizierbar, oder nicht?
Meinel: Um diese Identifikation
zu verhindern, gibt es für IPv6
die so genannten Privacy Extensions. Sie würfeln sozusagen denjenigen Teil meiner IPv6-Adresse, der aus der Adresse meines
Hardware-Geräts gebildet wird
und nicht - wie der andere Teil –
in Verbindung mit meinem Netzwerk-Router, nach einer gewissen Zeit immer wieder neu aus.
Das verhindert die dauerhafte
Wiedererkennbarkeit meines
Geräts, mit dem ich im Internet
bin. Die meisten modernen Betriebssysteme unterstützen diese
Vorkehrung zum Schutz der
Privatsphäre, sie muss aber
teilweise noch von Hand aktiviert
werden.
Zeigt das nicht, dass die Benutzerfreundlichkeit noch gesteigert werden
muss?
Meinel: Genau! Die Hersteller
sollten sich zusammentun, um
gemeinsam eine benutzerfreundliche Einstellung der
Router und anderen Endgeräte
beim Kunden zu ermöglichen.
Meine Privatsphäre zu schützen
und bestimmte Dienste in Anspruch nehmen zu können, sollte sozusagen auf einfachen
Knopfdruck möglich sein, ohne
viel Fummelei. Und künftig sollten auch alle Geräte der Unterhaltungselektronik gleich IPv6-fähig
gemacht werden.
Weitere Informationen auf der
Website des IPv6-Rats: www.
ipv6council.de
HASSO-PLATTNER-INSTITUT ‹
1/12 12
IPv6 in der Berliner Verwaltung
Die Rollen sind klar. Für die Verwaltungen in Deutschland ist das Bundesministerium des Innern die Local
Internet Registry (LIR), d.h. der „Halter“ des IPv6-Adressraums. Die operativen Aufgaben auf Bundesebene hat
hingegen das Bundesverwaltungsamt übernommen. Der zentrale Präfix der öffentlichen Verwaltung in
Deutschland lautet 2a02:1OOO::/26 (vollständige Langform: 2aO1:1OOO:OOOO:OOOO:OOOO:OOOO:OOOO:OOOO/
26), wobei die Schreibweise für die Netzmaske /26 analog zu IPv4 die Präfixlänge in Bits angibt. Mit diesem
Adressteil werden alle Verwaltungs-IP-Adressen in Deutschland beginnen. Im Gegensatz zu den bisherigen
IPv4-Adressen werden IPv6-Adressen hexadezimal geschrieben und in Blöcken zu je 4 Digits angeordnet.
Unterhalb dieses Verwaltungsadressraumes geht die Verästelung weiter. So ist ein Block für jedes Bundesland vorgesehen. Jeder dieser Blöcke hat eine Präfixlänge von 32 Bit. Die Verwaltungs-IP-Adressen in Berlin
beginnen alle mit 2aO2:1O22::/32.
Der Berliner IPv6-Adressraum der Verwaltung wird durch eine Sub-Local-Internet-Registry (Sub-LIR)
koordiniert. Das ist in Berlin die Senatsverwaltung für Inneres und Sport. Sie ist der „Halter“ des dem Land
Berlin zugeteilten IPv6-Präfixes. Das ITDZ Berlin als Dienstleister der Verwaltung ist der operative Sub-LIR
und damit für die Organisation und die Ausführung der Aufgaben der Sub-LIR zuständig. Dies sind u.a. die
Ergänzung des zentralen Internetzugangs im Berliner Landesnetz um IPv6 und die Zuteilung der IPv6Adressen an die Verwaltungsteilnehmer.
Für die Berliner Verwaltung stehen demnächst dank IPv6 allein so viele Subnetze zur Verfügung, wie vorher
in der Summe an IPv4-Adressen dem gesamten Internet. In jedem jedem dieser Subnetze lassen sich wiederum
18 Trillionen IPv6-Adressen nutzen.
IPv6 ermöglicht eine weltweite Ende-zu-Ende-Kommunikation. Daher müssen die einzelnen Standorte und
Nutzerkreise, die das Netz nutzen wollen, mit ihrem zukünftigen IPv6-Präfix registriert werden. Das geschieht
über ein IPv6-Adressrahmenkonzept für das Berliner Landesnetz, welches die Sub-LIR-Beteiligten ausarbeiten.
Alle internetfähigen Geräte müssen auf IPv6 umgestellt werden. Sogenannte „Translator“ für die IPv6-IPv4Übersetzung können nicht jeden Anwendungsfall abdecken und somit nur in wenigen Spezialfällen als
Übergangslösung in Betracht gezogen werden.
Als nächsten Schritt gilt es, das IPv6-Adressrahmenkonzept des Landes Berlin zur Verabschiedung vorzubereiten. Es wurde in einer IPv6-AG unter Mitwirkung von IT-Verantwortlichen des Landes und Vertretern des
ITDZ Berlin entwickelt. Danach sollen die ersten kleinen Implementierungsschritte auf der Ebene des Landesnetzes folgen. Ein erster Schritt wird die Aktivierung von IPv6 am Internetzugang des Landesnetzes und die
testweise Bereitstellung eines ersten Webdienstes im IPv6-Internet sein. Dazu muß auch der Internet Service
Provider auf IPv6 eingerichtet sein. Der Internetzugang wird dann im Parallelbetrieb (sogenannter „Dual
Stack“) die Anbindung an das IPv4- als auch an das IPv6-Internet liefern. Das wird möglicherweise schon
dieses Jahr passieren.
Die Umstellung auf IPv6 macht eine umfassende Veränderung der IP-Adressstruktur in Berlin möglich, aber
auch nötig. Dazu bedarf es künftig eines soliden Grundwissens zu IPv6 bei allen IT-Verantwortlichen. Daher
sollte es schon jetzt Ziel sein, das notwendige Know-how aufzubauen, bevor ein unmittelbarer IPv6-Bedarf
besteht. (EB)
SPLITTER
Migration des Berliner
Landesnetzes (BeLa) auf
das moderne „BeLaMSN“ (Multi Service
Network)
Seit der Inbetriebnahme des BeLaMSN im Februar 2008 steht dem ITDZ
Berlin und seinen Kunden ein modernes IP-basiertes Transportnetz für die
unterschiedlichen Dienste (Daten,
Sprache, Video) zur Verfügung.
Die Migration aller Datenanschlüsse vom
bisherigen MAN (Metropolitan Area Net)
auf das MSN wurde bereits im Jahre 2010
erfolgreich abgeschlossen.
Die Überleitung der Telefonanlagen vom
herkömmlichen SDH-Netz (synchrone
Multiplextechnik) auf das BeLa-MSN ist
weit fortgeschritten. So sind aktuell 58
der 72 Telefonanlagensysteme der Berliner Verwaltung migriert. Bei den Migrationen der Sprachanschlüsse macht sich
jedoch der Technologiewechsel von TDM
(klassische Telefonie) auf IP verzögernd
bemerkbar, insbesondere bei den Themen Synchron-Takt, Gebührentakt und
High-Speed-Fax.
Synchron-Takt: Bei TK-Anlagen und
TK-Verbünden, die synchrone Schnittstellen (S2M, S0) sowohl zum BeLa-MSN
als auch zu anderen Carriern haben, waren
besondere Maßnahmen erforderlich, um
Verbindungsabbrüche wegen Taktdifferenzen zu verhindern. Da der Takt
über IP-Netze, wie das BeLa-MSN, nicht
genau genug übertragen werden kann,
wurden im BeLa GPS-Uhren oder zusätzliche synchrone Schnittstellen zum
Carrier als Taktquellen eingesetzt. Diese
Lösungen wurden bereits erfolgreich
umgesetzt.
Gebührentakt: Am Übergang vom
Carriernetz zum BeLa-MSN kann der
Gebührentakt des Carriers nicht weitergeleitet werden. Wenige Kunden benöti-
gen den Gebührentakt jedoch noch für
die Gebührenabrechnung. Deshalb wurde individuell für jeden betroffenen Kunden entschieden, ob eine Umstellung seines Abrechnungssystems auf das zeitgemäße Zeitmodell oder die zusätzliche
Kopplung seiner Telefonanlage mittels TCS (Transparent Channel
Signalling) mit dem Carriernetz erfolgen soll. Beide Varianten sind gegenwärtig in der Umsetzung.
High-Speed-Fax: Fax-Geschwindigkeit
mit mehr als 14,4 KBit/s über IP-Netze
ist gegenwärtig noch nicht Standard. Die
Implementierung ist bei den Herstellern
unterschiedlich weit fortgeschritten. Das
ITDZ Berlin arbeitet zusammen mit TSystems als Dienstleister und Cisco Systems als Hersteller der Gerätetechnik an
der Einbindung von solchen als „Super
G3“ bezeichneten Faxgeräten. Gegenwärtig werden die Feldtests zusammen mit
interessierten Kunden vorbereitet. Deren erfolgreicher Abschluss ist Voraussetzung für die Produktionsfreigabe von
Super G3 Faxgeräten. Letztendlich ist
High-Speed-Fax aber für alle Carrier mit
IP-Backbone noch eine Herausforderung.
Selbst wenn das BeLa-MSN dann Super
G3 Fax ermöglicht, kann es bei Faxübertragungen aus bzw. in andere Carriernetze zum Rückfall auf geringere
Übertragungsgeschwindigkeiten kommen, wenn ein beteiligtes Carriernetz High
Speed Fax nicht unterstützt.
Insbesondere große TK-Systemumgebungen mit mehr als 2000 Ports, wie
beispielsweise im Falle der Berliner
Bezirksämter, erfordern eine enge Zusammenarbeit zwischen den Kunden und
dem ITDZ Berlin, da diese SystemUmgebungen wesentlich komplexer sind
und somit mehr Aufwand bei der Umsetzung der Migration auf das „BeLa
MSN“ beanspruchen. Durch professionelles Projektmanagement ist das ITDZ
Berlin bestrebt, eine schelle Umsetzung
der Migration zu erreichen.
Eine schnelle Migration der TK-Anlagen
auf den neuen IP-Backbone ist erforder-
IP-Telefon
lich, weil die derzeit eingesetzte Technik
ihre maximale Nutzungsdauer erreicht
hat und dringend durch die neue IPbasierte Vermittlungstechnik abgelöst
werden muss. Eine Verlängerung der
Betriebszeit der herkömmlichen Technik
stellt einen erheblichen zusätzlichen
Kostenfaktor dar. (EB)
‹
Aktuelle Angebote des
ITDZ Berlin
Das Mobiltelefon als Nebenstelle
(Remote Destination)
Mit dem Funktionsmerkmal „Remote
Destination“ wird das Mobiltelefon zur
Nebenstelle der zentralen IP-Telefonielösung des ITDZ Berlin. Mit diesem
neuen IP-Centrex-Dienst sind Mitarbeitende auch außerhalb des Arbeitsplatzes
unter ihrer Bürorufnummer erreichbar.
Bei eingehenden Gesprächen klingeln
Büro- und Mobilfunktelefon parallel. Ein
Wechsel während des Gesprächs auf das
jeweils andere Gerät ist unterbrechungsfrei möglich. Ein Service insbesondere für
Mitarbeitende, die am Standort oder
außerhalb des Standortes überall erreichbar sein wollen.
Telefon- und IT-Service mit einem
Zugang zum Berliner Landesnetz
Mit dem Kombipaket aus Sprache sowie
Intranet und Internet kann gleichzeitig
über die IP-Telefonielösung telefoniert
und der Datenzugang zum Berliner
Landesnetz mit seinen Portalen genutzt
werden. Dieser Service eignet sich
besonders für kleine Standorte und Büros der öffentlichen Verwaltung, die Î
1/12 13
SPLITTER
Înoch nicht an das Berliner Landesnetz
angebunden sind. Ebenso profitieren
Dienststellen der Berliner Verwaltung,
die über IP-Telefonie kommunizieren
und ihre über DSL angebundenen Außenstellen zentral im selben Rufnummerkreis anbinden wollen. Damit entfällt
zusätzlich die Notwendigkeit eines ISDNAnschlusses.
nen sich in der Funktionalität unterscheiden. So kann ein BlackBerry zum
Versenden von E-Mails, Notebook,
Netbook oder Tablet für den
Internetzugang und ein Handy zum
Telefonieren, unter einer Rufnummer
genutzt werden. - mit nur einem Vertrag, einer Rechnung und einer Mailbox.
IP-VPN
Hybride TK-Anlagen
Zur Deckung des Bedarfes an standardisierten TK-Produkten für die Berliner
Verwaltung bietet das ITDZ Berlin seit
2011 neben der zentralen IP-Telefonie
(IP-Centrex) auch hybride TK-Anlagentechnik an.
Unter einer Hybrid-Telefonanlage versteht
man eine Telefonanlage, die sowohl die
klassische TDM-Technik (ISDN und
analog), als auch Voice-over-IP (VoIP)
unterstützt. Diese eignet sich insbesondere für Standorte mit Sonderschnittstellen für Personensucheinrichtungen
(beispielsweise Pieper) und integrierte
Schnittstellen für DECT-Basisstationen
(lokales Funknetz), z.B. in den Justizvollzugsanstalten.
Zum Einsatz kommt die hybride TKTechnik auch an Standorten mit schwierigen Infrastrukturbedingungen, in denen wegen fehlender strukturierter Verkabelung auf die alte Fernmeldeverkabelung zurückgegriffen werden
muss.
Produkte der
Mobilfunkausschreibung
Nach Abschluss der aktuellen MobilfunkAusschreibung wird das ITDZ Berlin in
Kürze neue Produkte u.a. für das mobile
Arbeiten anbieten.
MultiSIM
Mit dem MultiSIM-Paket lassen sich bis
zu drei mobile Endgeräte unter einer
Rufnummer nutzen. Diese Geräte kön-
1/12 14
Das Produkt mit der Bezeichnung IPVPN, bietet eine mobile Lösung zur
Kopplung einzelner Nutzer oder Nutzergruppen an das Datennetz (Berliner
Landesnetz) per transparentem IP-VPNLink. Es verbindet eine geschlossene
Benutzergruppe von mobilen Datenanschlüssen mit der IT- Infrastruktur des
Datennetzes (Berliner Landesnetz) unter Einhaltung bestimmter Eigenschaften:
• hohe Sicherheit, da der Zugriff vom
•
Internet bzw. in das Internet über die
Sicherheitsinfrastruktur des ITDZ
Berlin besteht
hohe Funktionalität, da den Mobilfunk-Anschlüssen statische, private
IP-Adressen zugeordnet werden
können
Hierbei werden die mobilen Endgeräte
so vorkonfiguriert, dass keine manuellen Anpassungen vorgenommen werden müssen. Der Zugang wird dadurch
automatisiert und spart Administrationszeit.
Mobiler Festnetzersatz
Dieses Produkt ermöglicht die Zuordnung einer Festnetzrufnummer zu einer
SIM-Karte und bietet so eine kostengünstige Lösung beispielsweise für einen Heimarbeitsplatz, Projektstandort
oder Baustellenbüro. Man verzichtet so
auf einen herkömmlichen Festnetzanschluss und erhöht den Grad der
Erreichbarkeit. So erhält man neben der
Mobilfunknummer eine Festnetz-Rufnummer (Berliner Ortsnetz – aber keine
Berliner Verwaltungsnetz-Rufnum-
mer), über die man innerhalb eines definierten Nahbereiches (z.B. am Heimarbeitsplatz) mobil zu Festnetzpreisen
telefonieren kann. (EB)
‹
Internet-Telefonie gewinnt
weiter an Boden
Das Telefonieren per Internet gewinnt
europaweit immer mehr an Boden.
Mehr als jeder vierte EU-Bürger (28
Prozent) hat 2011 bereits Internet-Telefonie genutzt. Im Jahr zuvor war es
erst jeder Fünfte (22 Prozent). Das gab
der Hightech-Verband BITKOM auf
Basis von Daten der europäischen
Statistikbehörde Eurostat bekannt.
„Der Trend geht klar zur Online-Telefonie“, sagte BITKOM-Hauptgeschäftsführer Bernhard Rohleder. Spitzenreiter bei der Nutzung sind die baltischen Staaten. In Litauen und Lettland telefonieren jeweils zwei Drittel
der Einwohner (65 Prozent) über das
Web, in Estland 45 Prozent.
Deutschland rangiert am unteren Ende
der EU-Rangliste. Zwar wird VoIP auch
hierzulande immer beliebter, das hatten
Erhebungen das European Information
Technology Observatory (EITO) in den
vergangenen Jahren immer wieder gezeigt.
Doch laut Eurostat telefonierte nur jeder
fünfte Einwohner (21 Prozent) in
Deutschland über das Web. In vergleichbaren Ländern wie Großbritannien oder
Frankreich sind es 29 bzw. 35 Prozent.
Laut Studie telefonieren 22 Prozent der
EU-Bürger ausschließlich über die sogenannte Voice-over-IP-Technologie
(VoIP), weitere 6 Prozent nur in speziellen
Fällen, etwa bei Anrufen ins Ausland oder
auf Handys. Wer eine Telefonie-Flatrate
beispielsweise für inländische Gespräche
hat, spart durch IP-Telefonie in die entsprechenden Regionen kein Geld. Kosten
spart IP-Telefonie nur bei Gesprächen in
Regionen, die nicht von der Flatrate abgedeckt werden, etwa ins europäische Ausland oder bei Telefonaten zu Handys.
(PR)‹
SPLITTER
Qualität von
Videokonferenzen
erhöhen
Ericsson, die Rheinisch-Westfälische
Technische Hochschule Aachen
(RWTH) und das Unternehmen Rovi
MainConcept haben das gemeinsame
Forschungs- und Entwicklungsprojekt Connected Visual Reality
(CoVR) gestartet. Ziel dieser Kooperation ist es, die Leistungsfähigkeit
der audiovisuellen Online-Kommunikation deutlich zu erweitern, und so
populärer zu machen. Mit rund 1,1
Millionen Euro im Rahmen des aus
dem EFRE kofinanzierten Operationellen Programms für NRW Ziel 2
durch die EU und das Innovationsministerium gefördert, ist das CoVRForschungsprojekt einer der Gewinner des Wettbewerbs HighTech
.NRW.
Videokonferenz- und Telepräsenzanwendungen besitzen ein hohes
Zukunftspotential. Mit diesen Technologien lassen sich die Effizienz und die
Nachhaltigkeit von Arbeitsprozessen –
etwa durch das Vermeiden von Geschäftsreisen – optimieren. Um die Marktchancen
derartiger Anwendungen zu erhöhen,
müssen die technischen Möglichkeiten
entsprechender Kommunikationssysteme erweitert werden. So mangelt es
derzeit an Interoperabilität bei High-EndSystemen und verbreiteten Video-ChatLösungen im Internet. Auch arbeitet das
Forschungsprojekt daran, die Nutzung
von Videokonferenz- und Telepräsenzanwendungen über verschiedene Netze
hinweg zu ermöglichen.
Ein Ziel der Forschungs- und Entwicklungsarbeiten der CoVR ist es, Technologien zu entwickeln, die sich in heterogenen Netzwerken betreiben lassen und
die eine Kommunikation in HD-Qualität erlauben. Die Qualität eines Videos
etwa lässt sich durch eine effektivere und
skalierbare Codierung optimieren, während sich die Güte der Audiosignale durch
intelligente Störgeräuschreduktion,
Enthallung und Echokompensation verbessern lassen.
Darüber hinaus werden im Rahmen des
CoVR-Projektes neue Funktionen entwickelt, welche die Attraktivität der Anwendungen deutlich steigern können. So
soll das entwickelte System eine laufende
Inhaltsanalyse der übertragenen Audiound Videosignale bieten, eingesetzt zum
Beispiel, um Sprecher innerhalb einer
Gruppe von Konferenzteilnehmern optisch hervorzuheben und kenntlich zu
machen.
Laurits Hamm, Projektleiter und
Forschungsingenieur im Ericsson
Eurolab in Herzogenrath/Aachen: „Vor
allem größere Unternehmen setzen heute
bei der Kommunikation zwischen ihren
Standorten zunehmend auf Videokommunikation. Mit dem Forschungsund Entwicklungsprojekt CoVR wollen
wir Lösungen zur Videokommunikation
durch Innovationen weiter verbessern
und somit noch attraktiver und breiter
verfügbar machen. Das CoVR-Projekt
bündelt das Know-how der Projektpartner, die auf ihren Arbeitsgebieten zu
den weltweit führenden Kompetenzträgern gehören.“
Die Projektleitung liegt beim Ericsson
Eurolab, einem bedeutenden Forschungs-
und Entwicklungsstandort des
Telekommunikationskonzerns. Am
Technologie- und Innovationsstandort
in Aachen entwickeln mehr als 500 hochqualifizierte Mitarbeiter aus über 50 Nationen neue Ideen für die Telekommunikation von morgen. Schwerpunkte bilden hierbei Technologien für den Mobilfunk, die IP- und Breitband-Kommunikation sowie Innovationen für die
Maschinenvernetzung (M2M) und die
Fahrzeugkommunikation.
Neben Ericsson sind zwei international
renommierte Institute der RWTH Aachen
an diesem Projekt beteiligt. Das Institut
für Nachrichtengeräte und Datenverarbeitung forscht seit vielen Jahren im Bereich digitaler Übertragungstechniken, der
Kanal- und Netzsimulation, der
Sprachcodierung sowie der Sprachsignalverarbeitung zur Verbesserung der auditiven Qualität.
Weiterer Projektpartner ist das Institut
für Nachrichtentechnik, das vor allem auf
dem Gebiet der Videokompression und
der Inhaltsanalyse von Bild-, Video- und
Audiosignalen arbeitet. Der internationale Ruf des Instituts basiert unter anderem auf der aktiven Beteiligung an
Standardisierungsaktivitäten im Bereich
‹
Video. (PR)
Ericsson und die RWTH Aachen erforschen Videokonferenzen (Symbolbild)
1/12 15
SPLITTER
Schnelles WLAN leicht
gemacht
Die Humboldt-Universität ist am Projekt PreLocate beteiligt, das präzise
Lokalisierung und Breitband-Kommunikation im 60-GHz-Band ermöglicht.
Da bei drahtlosen Netzwerken (WLAN)
immer größere Datenmengen in kürzester Zeit übertragen werden sollen, müssen in Zukunft neben den üblichen Frequenzbändern auch neue Frequenzbereiche genutzt werden. Viele Anwendungen
verlangen dabei eine Ortsbestimmung
(Lokalisierung) der mobilen Empfangsgeräte. Trotz aller Bemühungen sind jedoch GPS-basierte Systeme für den Einsatz in Gebäuden nicht bzw. nur bedingt
geeignet. Eine vielversprechende Lösung
ist, bekannte WLAN-Systeme bei 2,4 GHz
und 5 GHz auch für die Lokalisierung
nutzbar zu machen. Die Genauigkeit ist
in diesen Frequenzbereichen jedoch durch
die geringe verfügbare Bandbreite sehr
begrenzt. Als Alternative bietet sich an,
auf das 60-GHz-Band auszuweichen, das
eine zentimetergenaue Lokalisierung tech-
Datenübertragung und Lokalisierung zwischen Fahrzeugen
nisch möglich macht. Anwenden lässt
sich die zu erforschende Technologie beispielsweise im Automobilbereich zur Bewertung von Verkehrslagen und zur Auslösung einer automatisierten Reaktion.
Das Projekt „PreLocate“ erweitert neuartige Kommunikationssysteme im 60-
Modellierung der Positionsbestimmung im Gebäude
1/12 16
GHz-Band für die Abstandsmessung
und die Lokalisierung mobiler Terminals. „Damit erschließen sich neue
Anwendungsbereiche, die bisher
beispielsweise RADAR-Verfahren vorbehalten waren, jedoch keine aktive Kommunikation ermöglichen“, sagt Beate
Meffert, Professorin für Signal- Î
SPLITTER
Îverarbeitung und Mustererkennung
an der Humboldt-Universität. „PreLocate“ ist ein Gemeinschaftsprojekt des
Instituts für Informatik der HumboldtUniversität zu Berlin (HU) und des
Leibniz Institutes für Innovative Mikroelektronik GmbH (IHP) unter Leitung
der Elektronikfirma InnoSenT GmbH.
Erforscht und umgesetzt wird ein System, das eine gerichtete Kommunikation
und eine genaue Lokalisierung von beweglichen Geräten möglich macht. Zukünftige Anwendungen finden sich
beispielsweise in der Fahrzeugkommunikation oder in der Rangier- und Positionierungsunterstützung im Lagerund Transportwesen.
Das verwendete Verfahren zur Lokalisierung funktioniert nach dem „Roundtrip-Phase“-Prinzip und wurde von der
HU und dem IHP Frankfurt (Oder) entwickelt und optimiert. Dieses Verfahren
beruht darauf, dass Funksignale mit bekanntem Inhalt nach fest definierten Zeitintervallen von einem Empfänger zurückgesendet und ausgewertet werden.
Die Besonderheit des Verfahrens besteht
darin, dass die Stationen nicht synchronisiert sein müssen.
Im Projekt werden Algorithmen und
Architekturen untersucht und erforscht,
die eine gleichzeitige Ausführung von
Kommunikation und Lokalisierung effizient unterstützen. Es soll so eine leistungsfähige Kombination von drahtloser Datenübertragung und Lokalisierung
mit minimaler zusätzlicher Hardware ermöglicht werden. Besonderes Augenmerk wird auf die Genauigkeit der Ortsbestimmung gelegt, die vor allem bei
komplizierten Signalausbreitungsverhältnissen eine technische Herausforderung darstellt.
Das Projekt hat ein Gesamtvolumen von
2,2 Millionen Euro. Es wird im Rahmen
des Programms KMU-innovativ zur Stärkung des Innovationspotentials kleinerer und mittlerer Unternehmen im Bereich Spitzenforschung bis 2014 zu 75
Prozent durch das BMBF gefördert.
(PR)
‹
Kostenloses WLAN für
Londoner Stadtbezirke
Für Anwohner und Besucher soll in
zwei Londoner Innenstadtbezirken ein
kostenlos zugängliches WLAN eingerichtet werden. Möglich macht das
ein Abkommen zwischen dem
Provider O2 und den Bezirksverwaltungen von Westminster sowie
Kensington & Chelsea.
Der Provider trägt alle Kosten. Er
rechnet gleich zu Beginn
mit reichlich
Nutzern, da in
London dieses
Jahr nicht nur das
Diamantene
Thronjubiläum
von Queen Elizabeth II gefeiert
wird. Die Stadt ist
außerdem Gastgeber der Olympischen
Sommerspiele.
Allein in Westminster leben rund
250.000 Menschen, eine halbe Mil-
lion arbeiten dort. Hunderttausende Touristen bevölkern Tag für Tag den zentral
gelegenen Innenstadtbezirk der britischen
Hauptstadt.
Die WLAN-Komponenten werden von
O2 zunächst in einzelnen Gebieten von
Westminster und Kensington & Chelsea
installiert. Langfristig sollen die beiden
Bezirke komplett abgedeckt sind. Die
Installationsarbeiten haben im Januar
begonnen. (PR, EB)
‹
Die
Bezirke
Westminster
und Kensington & Chelsea (beide rot eingefärbt) sollen
von dem kostenlosen WLAN profitieren
London ist Gastgeber der Olympischen Sommerspiele 2012
1/12 17
SPLITTER
Richtig rechnen
in VoIP-Systemen
Die im Februar 2012 vom ITK-Systemhausverband VAF veröffentlichte
Voice-over-IP (VoIP)-Studie kommt
zu dem Ergebnis, dass verbreitete
Methoden zur Ermittlung von VoIPBandbreiten die tatsächlichen Anforderungen zum Teil drastisch unterschätzen.
Viele als „VoIP-ready“ deklarierte Netze
sind zu gering dimensioniert und mit
unzureichenden Quality-of-Service
(QoS)- Mechanismen ausgerüstet. So lautet ein Fazit der Studie, die im Auftrag des
VAF von dem Stuttgarter Telekommunikations-Experten Prof. Dr. Gerd Siegmund erstellt wurde. Qualitätsstörungen
in falsch konzipierten Netzen seien
nahezu unausweichlich, was aber in der
Planung oft nicht erkannt werde. Der
Grund dafür sind Rechenverfahren, welche die Besonderheiten der Telefonie in
IP-Netzen nicht angemessen berücksich-
tigen. In der Studie wird darum ein
Referenzszenario für die VoIPModellierung entworfen, mit dessen Hilfe sich auch der Bandbreitenbedarf
realitätsnah ermittelt lässt. Die Studie kann
kostenlos auf der Internetseite des VAF
heruntergeladen werden. Ergänzend bietet der Herausgeber ein Kalkulationstool,
dessen Anwendung in Workshops einem breiten Fachpublikum praktisch erläutert wird.
Die Studie analysiert in einem Referenzsystem mit dem theoretischen Maximum
von 30 VoIP-Kanälen unterschiedliche
QoS-Methoden (VLAN, MPLS, DiffServ
und Overprovisioning). Bereits in einem
optimistischen Szenario von nur 5 Prozent Datenlast sinkt das noch für VoIP
nutzbare Spektrum auf 24 bis lediglich 7
VoIP-Kanäle. Die je nach QoS und Datenlast entstehenden Verluste werden von
gängigen Abschätzungsverfahren nicht
erkannt. Zu den Ursachen gehört die irrtümliche Übertragung von Erlang-Formeln aus der klassischen Telefonie zur
Berechnung von Verkehrswerten. Ebenso
verbietet sich das Addieren von VoIPKanalbandbreiten in Bit/s, da PaketWartezeiten einberechnet werden müssen. Die Vermischung von großen Daten- und kleineren Sprachdatenpaketen
erzeugt zusätzliche Verluste. Diese für
die Performance maßgeblichen Effekte
können nur durch geeignete Modellierung
in Wartezeitsystemen quantitativ ermittelt werden.
Die Studie richtet sich an Jeden, der mit
der Planung und Realisierung von VoIPSystemen und -Netzen befasst ist. Der
Leser lernt, wie man die tatsächlichen
Bandbreiten- und QoS-Anforderungen
realistisch ermittelt und dadurch präventiv Qualitätsstörungen im Wirkbetrieb
minimiert.
Vorstellung der Studie und Anwendung
mit neuem Kalkulationstool am 29. März
2012 in Hilden bei Düsseldorf, 12. April
2012 in Darmstadt, 10. Mai 2012 in
Ismaning bei München, 24. Mai 2012 in
Leipzig. Kostenloser Download der Studie unter www.vaf-ev.de (PR)
‹
Die Grafik veranschaulicht die effektiv verfügbaren VoIP-Kanäle in verschiedenen Szenarien
1/12 18
SPLITTER
Berliner Partner unterzeichnen
Konsortialvertrag
Startschuss für den
Online-Marktplatz
goBerlin
Mit der Unterzeichnung des Konsortialvertrags fiel am 6. Februar 2012
der Startschuss für die Entwicklung
des Berliner Online-Marktplatzes
„goBerlin“.
bestimmten Lebenslage, wie z.B. bei
Heirat oder Umzug, relevant sind. Pilotanwendung, wird unter anderem eine
Umzugs-App sein, mit der man
eGovernment-Angebote wie Meldevorgänge nutzen, sich über Mietspiegel und
Wohnlagen informieren und auf privatwirtschaftliche Angebote, wie bspw. Immobilien oder Umzugs- und Renovierungsservices zugreifen kann. Alle
Dienstleistungen sollen über eine rechtssichere Online-Plattform zugänglich sein.
Priorität Sicherheit und Vertrauenswürdigkeit
Die Sicherheit und Vertrauenswürdigkeit
der Angebote haben bei der Entwicklung
Priorität. Dazu stellt „goBerlin“ Basisdienste für das sichere Management von
Identitäten und die sichere Verwaltung
von Nutzerdaten bereit. Zudem können
die Nutzer jederzeit kontrollieren und
steuern, welche Anwendungen auf welche Daten zugreifen dürfen. Spezielle
Zertifizierungsverfahren überprüfen, ob
eine App, die von Drittanbietern entwickelt wurde, sichere Basisdienste des
Marktplatzes korrekt einbindet.
Ein Gewinner im „Trusted Cloud“Wettbewerb
Das Projekt „goBerlin“ gewann bereits
2011 den bundesweiten Technologiewettbewerb „Trusted Cloud“ des Bundesministeriums für Wirtschaft und Technologie. Nachdem einer der ursprünglichen Partner, ein Online-Vermittlungsportal für Handwerker-Dienstleistungen,
das Projekt kurzfristig verließ, trat mit
„Immobilienscout24.de“ ein neues, bekanntes Unternehmen dem Projekt als
assoziierter Partner bei. (EB)
‹
Das Online-Angebot stellt Bürgerinnen
und Bürgern die Services der Berliner Verwaltung und Privatwirtschaft rund um
Lebenssituationen wie den „Umzug“ nach
oder innerhalb Berlins übersichtlich und
gebündelt zur Verfügung. Bei der Entwicklung liegt der Fokus auf dem Aufbau
einer vertrauenswürdigen Cloud-Plattform. Aus diesem Grund unterstützt das
Bundesministerium für Wirtschaft und
Technologie das Projekt im Rahmen des
Programms „Trusted Cloud“. Realisiert
wird das neue Service-Angebot unter der
Federführung des IT-Dienstleistungszentrum Berlin (ITDZ Berlin) von der
Berliner Senatsverwaltung für Inneres und
Sport, dem Fraunhofer-Institut FOKUS,
den Konsortialpartnern Atos und HSH
Soft- und Hardware Vertriebs GmbH
sowie dem assoziierten Partner Immobilien Scout GmbH.
„goBerlin“ – mehr Bürgerservice
durch Apps für jede Lebenslage
Der digitale Marktplatz „goBerlin“ bietet
Verwaltung und Unternehmen die Möglichkeit, Online-Services auf einer gemeinsamen Plattform bereitzustellen und
miteinander zu verknüpfen. Applikationen (Apps) bündeln dabei Dienstleistungen und Informationen, die in einer
Konsortialpartner und Projektträger von goBerlin (Hintere Reihe v.l.n.r.: Matthias
Kuom, Deutsches Zentrum für Luft- und Raumfahrt; Christian Langenfeld, ITDZ
Berlin; Ivonne Thomas, Kompetenzzentrum „Trusted Cloud“; Ralf Ganser, Berliner
Senatsverwaltung für Inneres und Sport; Angelika Witzgall, Senior Account
Managerin Atos Deutschland; Matthias Flügge, stellv. Leiter ELAN FraunhoferInsitut FOKUS; Lutz Nentwig, ELAN Fraunhofer-Institut FOKUS, Vordere Reihe
v.l.n.r.: Barbara Trusch, stellv. Leiterin Entwicklung HSH Berlin; Jörg Thomas
Scholz, Leiter Solutions Public Sector Atos Deutschland; Konrad Kandziora,
Vorstand des ITDZ Berlin; Gerd Schürmann, Leiter des Kompetenzzentrums ELAN,
Fraunhofer-Institut FOKUS; Manfred Pasutti, Referatsleiter eGovernment und ITStrategie bei der Berliner Senatsverwaltung für Inneres und Sport.)
1/12 19
SPLITTER
Prozessmodellierung mit
ADONIS
Seit 2011 modelliert das ITDZ Berlin
seine Geschäftsprozesse mit ADONIS.
Die Einführung dieses Geschäftsprozessmanagement-Werkzeugs für
alle Geschäftsprozesse des ITDZ
Berlin hatte vorrangig zwei Ziele.
Erstens sollte die gesamte Prozessmodellierung und -dokumentation auf
einer Datenbank erfolgen. Zweitens sollte mit der Tooleinführung Akzeptanz
und Kommunikation geschaffen werden.
Die Modellierung auf einer Datenbank
hat hierbei zahlreiche Vorteile. So besteht
die Möglichkeit, einen einheitlichen
Modellierungsstandard einzuführen und
qualitätsgesichert auf alle Prozessmodelle
anzuwenden.
Zudem können alle Prozessmodelle
miteinander verknüpft und in Verbindung gebracht werden. So kann zwischen
den Prozessen problemlos navigiert werden. Ein Prozessmodellierungswerkzeug
mit einer Datenbank bietet des Weiteren
den Vorteil von Auswertungsmechanismen. Dokumente und Formulare in
den Prozessen können durchgängig gepflegt werden.
Somit besteht nun die Möglichkeit, sich
im Prozessportal einen Gesamtblick auf
alle Prozesse zu verschaffen, durch alle
Prozesse zu navigieren und auf relevante,
aktuelle Dokumente zugreifen zu können. Der ganzheitliche Blick auf alle Prozesse schafft für alle Mitarbeiter Transparenz über die Abläufe und fördert das
Erkennen von Optimierungspotentialen.
Somit wird für die Mitarbeiter ein sinnvolles Medium für die Prozessdokumentation und -verbesserung geschaffen.
Im Rahmen eines kontinuierlichen
Verbesserungsprozesses erfolgt im An1/12 20
schluss eine Neuausrichtung der Prozesse mit Fokus auf die Kunden- und
Mitarbeiterfreundlichkeit. Die überarbeiteten Prozesse reichen vom Lieferanten
bis zum Kunden und wirken somit über
die Unternehmensgrenzen hinaus.
Für einen ersten Überblick über die Akteure und Schnittstellen können
Kooperationsbilder angefertigt werden.
Damit kann den Mitarbeitern eine einfache, leicht verständliche Übersicht zum
Prozess gegeben werden.
Kooperationsbilder zeigen als Piktogramme die wichtigsten Akteure, Gegenstände und Tätigkeiten auf einen Blick.
Sie stellen somit verschiedene Szenarien
eines Geschäftsprozesses intuitiv dar.
Zudem hat es sich als sinnvoll erwiesen,
Schnittstellenanalysen für einzelne Bereiche durchzuführen. Mittels dieser Darstellung wird ermöglicht, sämtliche
Schnittstellen einer Abteilung nach außen
und nach innen unabhängig vom Prozess darzustellen. Dies erleichtert an- Î
Das ITDZ Berlin stellt ADONIS zur Verfügung
Das Ziel des Geschäftsprozessmanagements ist die Optimierung der Geschäftsprozesse sowie der
eingesetzten Ressourcen und IT-Systeme. Zur Unterstützung dieser Ziele bietet ADONIS die Funktionen Modellierung, Analyse, Dokumentation, Import/Export, Erhebung, Simulation und Evaluation.
ADONIS ermöglicht eine schnelle und benutzerfreundliche Modellierung, Analyse von Geschäftsprozessen und ist das ideale Werkzeug zum Gestalten, Optimieren und Planen. Die Abläufe,
Verantwortlichkeiten und Strukturen in der Verwaltung können mit ADONIS für alle Mitarbeiter
visualisiert und jederzeit bedarfsorientiert neu modelliert werden.
ADONIS ermöglicht damit eine einfache und flexible Prozessgestaltung und ist für folgende Anwendungsbereiche entwickelt worden:
•
•
•
•
Gestalten und Dokumentieren – Intuitive Modellierung und flexible Darstellung
Optimieren und Restrukturieren – Verwaltungsrelevante Auswertungen und Simulationen
Kommunizieren – Publikation der Geschäftsprozesse
Szenarien planen – Analyse, Simulation und Evaluation von verwaltungsrelevanten Kennzahlen
Mit der Analysekomponente können Abfragen auf alle Modellinhalte generiert werden und die
Simulation bietet die Möglichkeiten Engpässe im Prozessablauf zu erkennen, um den optimalen
Einsatz der vorhandenen Ressourcen zu planen.
Für folgende Einsatzzwecke ist ADONIS geeignet:
• Organisationsentwicklung
• Prozessoptimierung
• Qualitätsmanagement
• Prozesskostenrechnung
• Personalbedarfsermittlung
Alle Bezirksämter, Senatsverwaltungen und nachgeordneten Behörden der Berliner Verwaltung
können über das Berliner Landesnetz (BeLa) auf das Geschäftsprozessmanagement-Werkzeug
ADONIS zugreifen. Der Hauptpersonalrat des Landes Berlin hat der Nutzung von ADONIS zugestimmt.
Im Intranet des ITDZ Berlin unter „Produkte/ Application Service Providing“ finden Sie das
Konfigurationsblatt, mit dem Sie den webbasierten Zugriff auf ADONIS beauftragen können. Für
weitere Informationen wenden Sie sich bitte an [email protected] (EB)
SPLITTER
Î schließend das Verständnis für die
Prozesslandschaft im Ganzen sowie die
Erstellung von Kooperationsbildern und
Geschäftsprozessen.
Für eine umfassende Prozessdokumentation ist neben der reinen Ablaufdarstellung auch die Modellierung von
weiteren Artefakten notwendig. Hierzu
zählen insbesondere Dokumente, Formulare sowie IT-Systeme.
Für den Prozessleser ist es von Vorteil,
dass alle Modellierungsartefakte an den
Tätigkeiten zu sehen sind. Im besten
Falle sollten Dokumente und Formulare
sofort aus dem Prozess zur Verfügung
stehen. Dies bedarf grundsätzlich einer
immer gegebenen Aktualität der Dokumente und Formulare. Diese Artefakte
sollten grundsätzlich in einem Pool gepflegt werden können, um sie einfach
und intuitiv mit dem Ablauf verknüpfen
zu können.
CAROLA STADERMANN
ITDZ Berlin
‹
ITDZ Berlin war für den
GreenIT Best Practice
Award 2011 nominiert
gente IT-Systeme zur Optimierung von
Geschäftsprozessen/-modellen nutzen,
um den Gesamtenergieverbrauch in
Geschäftsabläufen zu reduzieren.
Mit dem „GreenIT Best Practice
Award“ werden bundesweit Konzepte
und Lösungen prämiert, die vorbildlich zur Verbesserung der Energieeffizienz in der Informations- und
Kommunikationstechnik (IKT) beitragen.
Die Beteiligung erfolgte mit dem Projekt
„Green IT-Beschaffung für die Berliner
Verwaltung“. Darin bietet das ITDZ
Berlin den Berliner Verwaltungen an, ITAusstattung und -Infrastruktur einzusetzen, die sich u.a. besonders durch
Energieeffizienz und Umweltverträglichkeit auszeichnet.
Der Preis ist eine Initiative des Netzwerks
GreenIT-BB und wird in Kooperation
mit den Netzwerken CIOcolloquium und
CIO-Circle sowie der Green IT Allianz
des BITKOM ausgerichtet. 2011 stand er
unter der doppelten Schirmherrschaft von
Dr. Philipp Rösler, Bundesminister für
Wirtschaft und Technologie, und Cornelia
Rogall-Grothe, IT-Beauftragte der Bundesregierung.
Als zentraler Dienstleister des Landes
Berlin ist die Beschaffung von Hard- und
Software eines der Angebote unseres
Hauses. Für die einfache Beschaffung von
Personalcomputern und sonstiger
Arbeitsplatzperipherie durch die Berliner
Verwaltung schreibt das ITDZ Berlin
regelmäßig Rahmenverträge für das Land
Berlin aus.
Im Juli 2011 entstand im ITDZ Berlin
die Idee, sich am Wettbewerb in der Kategorie II „Einsatz von IT-Systemen zur
Optimierung von Prozessen, die eine
möglichst große Breitenwirkung erzielen“ zu beteiligen. In dieser Kategorie
wurden Lösungen prämiert, die intelli-
Dieser Rahmenvertrag gibt den Verwaltungen die Möglichkeit, einfach und
kostengünstig Arbeitsplatzausstattung
(PC, Notebooks, Monitore, Drucker etc.)
ohne eigene Ausschreibungen über den
Webshop des ITDZ Berlin zu beschaffen. Weiterhin bietet dieser Rahmenvertrag die Chance, eine einheitliche umweltgerechte Technik in der Verwaltung
zu verbreiten.
Das ITDZ Berlin hat allein im Jahr 2010
rund 12.000 Green PC verkauft. Insgesamt
ist es gelungen, seit Mai 2009 mehr als
32.000, also etwa 30 Prozent der PCArbeitsplätze der Berliner Verwaltung,
mit Technik auszustatten, die aktuellen
Anforderungen der Green IT genügen.
Damit verbunden sind große Einsparungen im Bereich der Stromkosten und
die Sicherheit, dass diese Technik zukünftig auch umweltgerecht entsorgt werden
wird.
Prozessmodellierung mit ADONIS (Screenshot)
In Summe entsteht so eine Ersparnis von
mehr als 1.700 MWh/Jahr im Vergleich
zu den Beschaffungen aus dem vorherigen Rahmenvertrag. Die Einsparung von
Energie und CO2-Emmissionen übersteigt damit schon jetzt bei Weitem die
Verpflichtung des ITDZ Berlin aus Î
1/12 21
SPLITTER
James Bond und
Theodor Escherich
Îder Klimaschutzvereinbarung mit dem
Land Berlin, die bis 2015 läuft.
Aus über 100 Beteiligungen wurden 27
Beiträge in den drei Kategorien für den
Award nominiert. Darunter sieben in der
Kategorie II: Daxten GmbH, ITDZ
Berlin, K.IM. Kirchliches Immobilienmanagement, MSR-Office GmbH,
Octogate IT Security Systems GmbH,
s.Oliver Bernd Freier GmbH & Co. KG
und die Sparkasse Pforzheim Calw.
Den Wettbewerb entschied die Sparkasse
Pforzheim Calw für sich. Das Finanzinstitut implementierte eine IT-Lösung
für die energieoptimierte Steuerung seiner Auszahlungsautomaten und
Kontoauszugsdrucker. Je nach Standort
und Öffnungszeit spart die Sparkasse
Pforzheim Calw durch den Einsatz der
Software 50 bis 80 Prozent ihrer Energiekosten ein.
Wir gratulieren.
GÜNTHER GORECKI, RÜDIGER
SNIEHOTTA
ITDZ Berlin
Podcast aus dem
Gesundheitsamt
Der Öffentliche Gesundheitsdienst definiert sich über gesetzlich vorgeschriebene Aufgaben. Je konkreter
diese abgefasst sind – beispielsweise
im Infektionsschutzgesetz oder der
Trinkwasserverordnung – desto höher ist auch die Priorität einzustufen.
Generellen rechtlichen Vorgaben zur
Verbesserung der Gesundheit im Sinne der klassischen Gesundheitsförderung können viele Gesundheitsämter dagegen nur subsidiär nachkommen.
Dennoch ist die Bilanz der entsprechenden Öffentlichkeitsarbeit beeindruckend.
Einige Hundert Broschüren, Berichte und
Zusammenstellungen bundesweit belegen, dass die Gesundheitsberichterstattung einschließlich entsprechender
Handlungsempfehlungen auf kommunaler Ebene „Fahrt aufgenommen hat.“
Hierbei wird die Attraktivität des PrintAngebotes inzwischen durch professionelles Layout und der Verbreitungsgrad
dieser Schriften durch adäquate Marketing-Maßnahmen gesteigert. Außerdem
verlagert sich die Medienarbeit der Gesundheitsämter zunehmend ins Netz.
Wohlwissend, dass die Internet-Gemeinde aktuell 70 Prozent der Jugendlichen
und Erwachsenen umfasst und weiter
wächst, werden Gesundheitsbeiträge in
ansprechender Form im Rahmen der eigenen Web-Präsenz eingestellt. Neben
einer statischen Umsetzung als PDFDokument oder e-Book kann es sich
hierbei auch um Videoaufnahmen von
Veranstaltungen oder zielgenau produzierte Filmbeiträge zu Gesundheitsthemen handeln. Beliebt sind zudem
Hördateien, die bestimmte Themen aufgreifen. Erscheinen Audio- oder Videodateien regelmäßig und sind diese einzelnen Beiträge, sogenannten „Episoden“,
auch im Abonnement beziehbar,
beispielsweise über einen RSS-Feed, nennt
man diese neue Infogattung Podcast.
In letzter Zeit machen vor allem die medizinischen Podcasts aus der Medizinischen Hochschule Hannover (www.mhhannover.de/mhh-podcast.html) durch
eine hervorragende Resonanz auf sich
aufmerksam. Hier werden medizinische
Themen informativ, verständlich und
gleichzeitig auf einem hohen fachlichen
Niveau dargestellt.
Nachdem es im Gesundheitsamt des
Rhein-Kreises Neuss schon lange die
Überlegung gab, dem Informationsbedürfnis der Internet-Nutzer durch ein
Podcast-Angebot Rechnung zu tragen,
entschloss man sich im Dezember 2010
zum Start einer entsprechenden Reihe
unter dem Motto „von Amts (-Arzt)
wegen“.
Vorgabe war hierbei, in der jeweiligen
Episode ein aktuelles Gesundheitsthema
von allgemeiner Bedeutung anzusprechen, gleichzeitig aber den Inhalt mit paramedizinischen Aspekten zu verquicken.
Letztere sollten vor allem beim unbedarften Bürger Interesse wecken, sich mit der
Thematik zu beschäftigen.
Podcasts aus dem Gesundheitsamt
1/12 22
So dient das Lied der Kölner MundartTruppe Bläck Fööss „Drenk doch ene
met“ als Anregung, sich mit den positiven und negativen Seiten des Alkoholkonsums zu beschäftigen. Ein Titel wie
„Feuchtgebiete“ sensibilisiert für die neue
Trinkwasserverordnung. Die EHECEpidemie wird aus Sicht des Coli- Î
SPLITTER
Î Entdeckers Theodor Escherich beschrieben und die Erwähnung der organtransplantierten Elke Steinmeier wirbt für
eine bessere Akzeptanz des Organspendeausweises: „Lizenz zum Leben so heißt
dann auch der passende Hörspot hierzu
– ganz in Anlehnung an den seinerzeit
verwandten James Bond-Filmtitel.
Zahlreiche literarische, musikalische und
historische Anleihen versuchen also der
Vermittlung von Fachinformationen unterhaltsame und spannende Elemente
hinzuzufügen.
Auf diese Art und Weise sind im Jahr
2011 13 mehrminütige Hördateien entstanden, die auf Interesse bei der Bevölkerung gestoßen sind. Monatlich locken
sie zwischen 40 und 400 Zuhörer vor die
Lautsprecherboxen. Die dazugehörigen
Texte werden durchschnittlich 90 Mal im
Monat abgerufen.
Vor Überraschungen ist man hierbei nicht
gefeit. So wurde die Episode „Aus die
Laus“ mit der Erwähnung des unorthodoxen und nicht nachahmenswerten
Heißluftföhns als mögliche Methode zur
Beseitigung der Lästlinge bislang der Nachfragerenner, während sich anlässlich des
Hörspot „Zeckenalarm“ zur richtigen
Technik der Zeckenentfernung ein fachlicher Disput entwickelte.
Ende des Jahres 2011 sollte Bilanz gezogen und entschieden sein, inwieweit das
eGovernment-Projekt „Podcast“ des Gesundheitsamtes fortgeführt werden wird.
Letztlich steht dieser – einerseits konzentrierten andererseits auch unorthodoxen
– Art der Informationsvermittlung ein
nicht unbeträchtlicher Aufwand für Recherche, Vertonung und technische Adaption gegenüber.
Die Podcasts sind erreichbar über die Webadresse www.rhein-kreis-neuss.de/
podcast
DR. MICHAEL DÖRR
Gesundheitsamt Rhein-Kreis Neuss
Dieser Artikel ist zuerst in „Der Hygieneinspektor“ erschienen (13. Jg., Nr. 02/2011,
ISSN 1864-7197, Hrsg.: Bundesverband der
Hygieneinspektoren e.V., www.bundesverbandhygieneinspektoren.de)
‹
Innerhalb der Ruhefrist darf ein Grab nicht erneut belegt werden.
RuheSoft zur Ermittlung
der Ruhefrist
Die Ruhefrist ist ein wichtiger Einflussfaktor für den erfolgreichen Betrieb eines Friedhofes. Lange Ruhefristen bedeuten schwer kalkulierbare
Risiken für den Wirtschaftsbetrieb
Friedhof. In Bezug auf die Nutzungsberechtigten wird immer öfter der
Wunsch nach einer Verkürzung des
Nutzungsrechtes geäußert. Je nach
Bundesland sind unterschiedliche
Mindestruhezeiten möglich. Für
Friedhöfe ohne Erweiterungsmöglichkeit bietet eine Reduzierung
der Ruhefrist die Möglichkeit, den
Friedhofsbetrieb fortzuführen.
In allen Fällen stellt sich hier die Frage, wie
sich eine angemessene Ruhefrist bestimmen lässt.
RuheSoft ist eine Softwareanwendung
zur Ermittlung der Ruhefrist von SargErdbestattungen. Hierbei wird die Dauer
der Leichenzersetzung unter verschiedenen Bedingungen simuliert. RuheSoft
kann in verschiedenen Anwendungen
genutzt werden: als Stand-alone-Anwendung zur numerischen Simulation (Java)
oder als Plugin für das GIS OpenJump
für eine räumliche Visualisierung der
Ergebnisse.
Ruhefrist
Auf dem Friedhof soll innerhalb einer
festgelegten Ruhefrist eine geordnete
Bestattung mit einer ungehinderten
Leichenverwesung stattfinden. Der als
Ruhefrist bezeichnete Zeitraum soll so
bemessen werden, dass die Leichenverwesung garantiert ist und eine Trauerbewältigung möglich ist. Innerhalb der
Ruhefrist darf ein Grab nicht erneut belegt werden. Als Genehmigungsbehörde
für die Ruhefristenfestlegung ist in den
meisten Fällen das Gesundheitsamt zuständig.
RuheSoft
RuheSoft ist eine Fachanwendung zur
Prognose über die voraussichtliche Dauer des Leichenabbaus unter definierten
Rahmenbedingungen und dient somit
der Berechnung der Ruhefristen von SargErdbestattungen auf Friedhöfen. Diese
Anwendung wurde von der Fachhochschule Osnabrück und der Ingenieurgesellschaft entera gemeinsam entwickelt.
Finanziell unterstützt wurde das Î
1/12 23
SPLITTER
Î Projekt von der Deutschen Bundesstiftung Umwelt (DBU).
Zielsetzung des Projektes war es, einen
ersten Ansatz zur Prognose von
Verwesungszeiten in Abhängigkeit der
natürlichen Umgebungsfaktoren (Boden
und Klima) zu entwickeln. Auch sollten
gestalterische und bewirtschaftungstechnische Maßnahmen berücksichtigt
werden. Das daraus entwickelte Modul
basiert auf einem mathematischen Modell, in dem der Abbau eines Leichnams
unter variablen Bedingungen simuliert
wird. Grundlage des Modells sind Untersuchungen, die im Rahmen des FH3Forschungsvorhabens Entwicklung eines Verfahrens zur Abschätzung der
Sauerstoffversorgung des Unterbodens
als Kenngröße für die Bewertung des
Stoffumsetzungspotentials durchgeführt
wurden. Eine Validierung des Modells
erfolgte anhand von dokumentierten
Graböffnungen.
Leichenumsetzung im Boden
Die Leichenverwesung ist ein mikrobieller Prozess, der wesentlich von der
Sauerstoffversorgung abhängig ist. Durch
die Erdbestattung werden der Leichnam
und der Sarg im Erdboden versenkt und
unterliegt somit den dort herrschenden
Umweltbedingungen. Maßgeblich bestimmen die dort vorkommende Bodenart und die Bodenstruktur den Wasserund Lufthaushalt und somit auch die
Verwesungsdauer. Unter optimalen Bedingungen einer ausreichenden
Sauerstoffversorgung findet die Leichenumsetzung innerhalb von drei bis sechs
Jahren statt, so dass nur noch die Großknochen zu finden sind.
Der Abbau von Leichnam und Sarg ist
v.a. von zwei Faktoren abhängig: Zum
einen bestimmt die Temperatur die maximal mögliche Abbaurate, falls keine
Einschränkung der Sauerstoffnachlieferung vorliegt, und zum anderen verringert die Einschränkung der Nachlieferung die maximal mögliche Abbaurate.
Die Temperaturabhängigkeit des Leichenabbaus wurde nach „Soil analysis in
1/12 24
forensic taphonomy“ (M. Tibbett, Do
Carter, 2008) abgeschätzt. Hierbei ergibt
sich, dass die höchste maximale Abbaurate
für einen 68 kg schweren Leichnam, ausgedrückt als Sauerstoffverbrauch, im Mai
mit 67 g O2 d-1 erreicht wird und die
niedrigste im November mit 8,4 g d-1.
Hierbei ist die maximale Abbaurate zusätzlich noch abhängig vom Körpergewicht des Bestatteten.
Hier zeigt sich, dass je schwerer ein Leichnam ist, desto höher die mögliche maximale Abbaurate ist. Insgesamt benötigt
der Abbau eines schwereren Leichnams
trotz dieses Zusammenhangs mehr Zeit
als der Abbau eines leichteren Leichnams.
Gültigkeit von RuheSoft
Als Voraussetzung für die Modellierung
mit RuheSoft wird eine Standard-Sargbeisetzung unterstellt, bei der alle Maßnahmen darauf abziehen, dass eine zügige Leichenumsetzung mit bestmöglicher
Sauerstoffversorgung in den Boden stattfinden kann. Folgende Rahmenbedingungen sind dabei zu berücksichtigen:
• Sargmaterial: Der Sarg muss biolo-
Modellierungskonzept von RuheSoft
Der Austausch von Gasen zwischen der
Atmosphäre und dem Boden kann über
zwei Prozesse erfolgen: Konvektion und
Diffusion. Hierbei wird Konvektion
(auch Massenfluss genannt) durch Druckunterschiede aufgrund von Luftdruckoder Temperaturunterschieden oder
Windböen verursacht. Auch die Infiltration von Wasser oder Grundwasserschwankungen können solche Druckunterschiede zwischen zwei Tiefen im Bodenprofil verursachen. Gemeinhin wird der
Anteil der Konvektion am Gasaustausch
des Boden als ehr gering eingestuft. Der
für den Gasaustausch wichtigere Prozess
im Hinblick auf den Boden ist die Diffusion. Das RuheSoft zugrunde liegenden
Modell bildet eindimensional die Sauerstoff-Diffusion durch den Boden zum
Sarg nach. Im Bereich des Sarges wird
hierzu ein temperaturabhängiger maximaler Sauerstoffverbrauch angenommen.
Als Sauerstoffverbraucher ist neben der
Leiche auch der Holzsarg zu betrachten.
Zusätzlich relevant sind die Bekleidung
und alle anderen Stoffe, die biologisch
abbaubar sind. Allein für den mikrobiellen Abbau eines 75 kg schweren Leichnam
mit ca. 35% org. Substanz entsprechend
26,25 kg werden 39 bis 65 kg reiner Sauerstoff benötigt. Dies entspricht 130 - 220
m3 Luftvolumen.
•
•
•
gisch abbaubar sein, dies schließt z.B.
wasserdichte Behältnissen wie Zinksärge aus. Auch eine Sargauskleidung
mit Folien kann sich derartig negativ
auswirken, dass trotz guter bodenkundlicher Bedingungen, Wachsleichen auftreten, wenn Folien im Sarg
zu einer Wannenbildung von Niederschlags- und Gießwasser führen. Daher sind Folienauskleidungen zur Vermeidung des Austritts von Gewebeflüssigkeit gänzlich abzulehnen
Bekleidung: Die verstorbene Person
erhält eine biologisch abbaubare Bekleidung
Grabeinbau. Verdichtungen während
des Wiederverfüllens des Grabes sowie Einschlämmen mit Wasser können zu negativen Auswirkungen hinsichtlich der Verwesung führen
Grababdeckung und Grabpflege. Für
die Verwesung ist der freie Gasaustausch, sprich die Sauerstoffversorgung
oberste Priorität der Verwesung. Daher sind alle Verfahren abzulehnen,
die die Sauerstoffversorgung hemmen
können oder sogar völlig unterbinden. Der Einsatz von Gießwasser im
Rahmen der Grabpflege führt bei verdichteten Böden zu Vernässungs-erscheinungen und somit auch zu einer Einschränkung der Sauerstoffversorgung
Bei der Festlegung der Ruhefrist handelt
es sich also zunächst um einen prognostizierten Zeitrahmen, der unter den oben
genannten Bedingungen als ausreichende Verwesungszeit angesehen wird.
Diese speziellen Anforderungen zur
Optimierung der Verwesung und so- Î
SPLITTER
Î mit auch zur Realisierung einer prognostizierten Wiederbelegungszahl sollten auch Eingang in die Friedhofssatzung
finden.
RuheSoft als Planungsinstrument in
der Friedhofsverwaltung
RuheSoft kann in verschiedenen Anwendungen genutzt werden:
Als Standardwerte werden die Parameter
wie in Abbildung 1 vorgeschlagen.
Die Standardparameter können im Rahmen der Auswahlfelder verändert werden. Über den Button „Starten“ wird die
RuheSoft-Simulation gestartet.
Bodenartgruppe
• als Stand-alone-Anwendung zur nu•
•
merischen Simulation (Java)
als Plugin für das GIS OpenJump für
eine räumliche Visualisierung der Ergebnisse
als Plugin für das das Friedhofskataster
DGF4 für eine räumliche Visualisierung der Ergebnisse und Anbindung an die Verwaltungssysteme
HADES und FIM
Um RuheSoft als Fachplanungsinstrument einsetzen zu können, müssen für den Planungsbereich die beiden
wichtigen Grunddaten Bodenartgruppe
und Klimabereich eingegeben werden
(Abbildung 1). Anschließend kann dann
der zeitliche Ablauf der Bodenbefeuchtung simuliert werden. Dies ist dann
die Grundlage für die Ermittlung der
Sauerstoffdiffusion.
Abb. 2: Abgrenzung der
Bodenartgruppen
Die Bodenarten sind hierzu entsprechend
der Abbildung 2 zusammengestellt. Die
Information über die vorliegende Bodenart kann entweder einem Gutachten entnommen werden oder kann durch eine
einfach Fingerprobe vor Ort ermittelt
werden.
Grundlage der Bodenartenabgrenzung
ist die Bodenkundliche Kartieranleitung
und das Bodenartendreieck.
Klimabereich
Als relevante Klima-Information wird
die sogenannte klimatische Wasserbilanz
(KBWa) verwendet. Diese ist definiert als
Differenz zwischen von Niederschlagshöhe und Höhe der potentiellen Verdunstung (ETP). Dazu werden langjährige (möglichst 30 Jahre) Daten der nächstgelegenen Klimastation verwendet.
Eine positive klimatische Wasserbilanz
an einem Ort zeigt an, dass mehr Niederschlag fällt, als durch Verdunstung abgegeben wird. Bei einer negativen Bilanz
hingegen wird mehr Wasser verdunstet
als in Form von Niederschlägen zugeführt wird.
Für 80 Standorte in Deutschland wurde
bereits eine Berechnung der KWBa durchgeführt.
Ergebnis – grundlegende Bestimmung der Ruhefrist
Für eine Erweiterungs- oder Neuanlage
eines Friedhofes ist die Bestimmung der
Ruhefrist eine wesentliche Information
für den Genehmigungsantrag. So muss
im Rahmen einer bodenkundlichen Sondierung geklärt werden, ob diese Fläche
hinsichtlich der Bodeneigenschaft,
Grundwasserstand oder einem Stauwasservorkommen homogen beschaffen ist.
Sofern diese Information vorliegt, wird
für den Aushubbereich des Grabes eine
Mischbodenart ermittelt. Sofern eine
Bodenmischung oder ein kompletter
Bodenaustausch geplant ist, muss dies
berücksichtigt werden.
Über die Option Excel sichtbar schalten,
wird die Berechnung in Excel sichtbar
gemacht und es können zusätzliche Detailinformation zu den Leichenzersetzungsbedingungen dargestellt werden. (Abbildung 3)
Ergebnis – Variation der Bodeneigenschaft
Abbildung 1: Start-Oberfläche von RuheSoft
Da bei der bodenkundlichen Sondierung
neben schwach lehmigem Sand (Sl2) auch
schluffig-lehmiger Sand (Slu = Bo- Î
1/12 25
SPLITTER
nete Ruhefrist als Zeitdauer in Jahren und
als klassifizierter Wert dargestellt. Diese
Werte stehen dann auch in der Attributtabelle des Geodatensatzes zur Verfügung und können grafisch dargestellt
werden.
Download und Kontakt
RuheSoft ist kostenfrei als Datei-Download verfügbar unter www.entera.de/
RuheSoft.html Hier steht auch ein Handbuch mit weiteren Hintergrundinformationen und Anwendungen zur
Verfügung.
Abbildung 3: Ergebnisdarstellung in Excel
Îdenartengruppe Sandlehme) und sandiger Ton (Ts3 = Bodenartengruppe
Tonlehme) ermittelt wurden, kann in
einem nächsten Arbeitsschritt die Bodenartengruppe variiert werden.
In der Variation der Bodenarten zeigen
sich somit deutliche Unterschiede für die
erforderliche Verwesungsdauer.
Ergebnis – Variation der Bestattungstiefe
der (Typ=String) für Bodenart, Ruhefristberechnung Ruhefrist-Klasse vorhanden sein: Im Feld Bodenart sind Angaben zur Bodenart enthalten. Über den
Reiter Mehrfachberechnung (GIS) werden die erforderlichen Parameter eingestellt und anschließend tabellarisch angezeigt. Über den Reiter Einzelberechnung
muss anschließend die Auswahl des
Klimabereiches (KWBa4) erfolgen und
die Berechnung kann gestartet werden.
Als Ergebnis wird tabellarisch die berech-
Detail-Fragen in der RuheSoft-Anwendung oder Anfrage zu gutachterlichen
Stellungsnahmen können Sie gerne an
Herrn Dr. Albrecht (Telefon:0511/
1678911 oder E-Mail: [email protected])
richten.
DR. MICHAEL C. ALBRECHT
entera - Umweltplanung & IT
Dieser Artikel ist zuerst in „Der Hygieneinspektor“ erschienen (13. Jg., Nr. 02/2011,
ISSN 1864-7197, Hrsg.: Bundesverband der
Hygieneinspektoren e.V., www.bundesverbandhygieneinspektoren.de)
‹
Eine Möglichkeit zur Verbesserung der
Leichenumsetzung besteht in der Variation der Bestattungstiefe. Während
standardmäßig eine Überdeckung von 90
cm eingesetzt wird, wird in Einzelfällen
auch deutlich tiefer beigesetzt.
Die Variation der Bestattungstiefe kann
in den Modulen RuheSoft standalone
und RuheSoft OpenJump durchgeführt
werden.
Ergebnis – Berechnung in RuheSoft
OpenJump
Berechnungen im Modul RuheSoft
OpenJump bieten sich an, wenn eine
größere Anzahl von unterschiedlichen Flächen bewertet werden sollen.
In RuheSoft OpenJump wurde hierzu
jeweils ein Geodatensatz mit entsprechender Attributtabelle eingeladen. In der
Attributtabelle müssen hierzu Daten-Fel1/12 26
Abbildung 4: Berechnung im Modul RuheSoft OpenJump
SPLITTER
Großprojekte erfordern
komplexe
Ausgleichsmaßnahmen
1.000 Details, ein Plan: Spezialisiertes
CAD führt Gelände- und Habitatgestaltung, GIS-Daten sowie Bau- und
Bepflanzungsideen zusammen.
Der Gesetzgeber macht bei größeren
Bauvorhaben in Naturräumen hohe
Auflagen
Vor jedem größeren baulichen Eingriff in
den Naturraum schreibt der Gesetzgeber
umfassende Untersuchungen vor: Wo
liegen wertvolle Biotope und Schutzzonen? Wie werden Tier- und Pflanzenwelt beeinträchtigt? Die entstehenden
Störungen müssen soweit wie möglich
durch landschaftspflegerische Maßnahmen rund um den Bau kompensiert
werden. Hier liegt das Spezialgebiet der
Gesellschaft für Biotopanalyse und
Consulting mbH (BIANCON). Das
Unternehmen aus Halle an der Saale wertet die Daten von Geographen, Biologen,
Agrar- und Forstingenieuren aus, leitet
daraus Handlungsempfehlungen ab und
erstellt entsprechende Karten. Um der
damit verbundenen Informationsfülle
Herr zu werden, nutzen die Planer die
Zeichensoftware CAD6, die der Entwickler Malz++Kassner eigens um eine leistungsfähige GIS-Schnittstelle und diverse Verwaltungsoptionen erweitert hat.
Zudem wurden kundenspezifische Einstellungsmöglichkeiten für die Ausgabe
in Papierform implementiert.
Neue Straßen oder Trassen, Wind- und
Photovoltaikparks oder Rohstoffabbaugebiete – die Aufträge der BIANCON
GmbH kommen aus der Industrie
ebenso wie aus der öffentlichen Verwaltung. Die Landschaftsplanungsexperten
begleiten Großprojekte von der Vorbereitung über die Genehmigungsphase
bis zur Ausführung, beginnend mit der
Bestandsaufnahme von Flora und Fauna
vor Ort bis hin zu Pflanzschemata und
Einkaufsmengen für die späteren Ausgleichsflächen. „Weil die Erfassung von
Tier- und Pflanzenarten an spezifische
Jahreszeiten gebunden ist, ziehen sich
die Projekte häufig mehrere Monate oder
gar Jahre hin“, berichtet Diplom-Agrar-
Ausgleichsfläche
ingenieur Hartmut Wirth, der sich bei
BIANCON mit der Begleit- und Ausführungsplanung befasst.
Hohe Qualitätsansprüche und Datenmengen machen Computer-Unterstützung unerlässlich
Bis Ende der 90-er Jahre wurden die dazu
notwendigen kartographischen Darstellungen noch von den Mitarbeitern per
Hand gezeichnet. Unter anderem aufgrund
der steigenden Datenmengen, der wachsenden Präzisionsansprüche und nicht
zuletzt der Möglichkeit des effizienteren
Datenaustauschs unter den Projektpartnern stieg das Unternehmen jedoch
auf die Gestaltung am PC um. „Die
computergestützte Bearbeitung mit Hilfe
von CAD-, GIS- und Datenbanksystemen ist heute wegen des hohen
Verwaltungsaufwands und der Qualitätsanforderungen nicht mehr aus unserem
Î
Arbeitsalltag wegzudenken“, so
Die Zeichensoftware CAD6 eignet sich, um der vielen Informationen bei Sonderuntersuchungen der Fauna Herr zu werden
1/12 27
SPLITTER
Ein detaillierter Ausführungsplan
Wirth. Zentrales Werkzeug dabei ist das
Konstruktions- und Zeichenprogramm
CAD6. Die Software dient hier hauptsächlich zur Erstellung von Plankarten
und zur Ermittlung von Flächengrößen,
Maßen und Stücklisten, wird aber auch
für kleinere graphische Arbeiten wie
Informationsschilder oder Logos verwendet.
Die Handhabung des Programms orientiert sich am realen Zeichnen am Reißbrett, so dass auch neue Anwender das
System schnell erlernen und intuitiv bedienen können, wie der Ingenieur erklärt:
„Erfahrene Benutzer können alle notwendigen Befehle auch einfach über Tastatur eingeben, was die ohnehin hohe
Effizienz noch zusätzlich verbessert.“
Den entscheidenden Ausschlag für die
Wahl von CAD6 gab aber nicht seine
Einfachheit, sondern die umfangreichen,
flexiblen Funktionen der Software, vor
allem bei den Schnittstellen. „Eine zentrale Anforderung war der reibungslose
Austausch mit anderen CAD-Systemen
und GIS-Programmen“, erzählt Olaf
Kassner, einer der Geschäftsführer des
Softwareentwicklers Malz++Kassner.
Individuelle GIS-Anbindung und
Ebenenorganisation
In Geo-Informationssystemen lassen sich
geographische Objekte in Form von Flächen, Linien oder Punkten mit ihren beschreibenden Attributen, wie Bezeichnung oder Flächengröße, verknüpfen.
Jedem Einzelteil werden dazu Datensätze in einer Tabelle zugeordnet, wodurch sich über die Auflistung gezielt
Kartenobjekte auswählen und bearbeiten lassen. Diese Zuordnungstechnik unterscheidet sich von der Funktionalität
eines CAD-Programms, beides ist aber
für eine räumlich orientierte Planung unerlässlich. „Eine leistungsstarke Schnittstelle war uns daher sehr wichtig“, so
1/12 28
Wirth. Malz++Kassner entwickelte dafür
in Abstimmung mit BIANCON eine
Import- und Exportschnittstelle für das
ShapeFormat SHP des GIS-Systems
ArcGIS, das die Landschaftsplaner verwenden. Damit lassen sich Lage und Geometrie der Shapeobjekte ebenso wie die
ihnen zugeordneten Datenbankeinträge
verlustfrei in CAD6 übernehmen. Die
Datenbankeinträge können wahlweise
auch als Ebenen der Zeichnung deklariert
werden. Für den Export von CAD6Objekten in das Shape-Format werden
ausgewählte Eigenschaften – zum Beispiel Ebene oder Blockname – wiederum
automatisch in die Attributtabelle von
ArcGIS eingetragen, wie Kassner erklärt.
Für die Kommunikation zwischen Unternehmen, die gemeinsam am Projekt
arbeiten, jedoch unterschiedliche CADProgramme verwenden, haben sich die
Formate DXF und DWG als Standard
bewährt. Damit können Informationen
von allen Seiten zuverlässig in CAD6 imund exportiert werden. Da durch die Größe der betreuten Bauprojekte und die
Vielzahl der beteiligten Partner eine große
Menge an Planungs- und Objektdaten
zusammenkommt, ist deren übersichtliche Verwaltung ein weiterer wichtiger
Anspruch an die CAD-Software. In der
Regel werden Objekte in derartigen
Zeichenprogrammen in Ebenen eingeordnet. Malz++Kassner implementierte
zusätzlich die Option, Ebenenordner
anzulegen, in denen die Informationen
zum Beispiel nach Herkunft – etwa vom
Katasteramt oder Vermessungsbüro –
sowie nach Planungsstand getrennt, organisiert und verglichen werden können.
Riesige Darstellungsbereiche in
druckbare Blätter aufteilen
Nach der Berechnung und Zeichnung
werden die erstellten digitalen Pläne bei
BIANCON zum Ausdruck vorbereitet. „Die Papierkarte zum Anfassen
spielt bei unseren Kunden noch
eine wichtige Rolle. Sie muss
optisch ansprechend und inhaltlich gut verständlich
sein“, berichtet Landschaftsplaner Wirth. Um
die teils sehr ausladenden
Pläne in einem handlichen,
Plotter-geeigneten Format drucken zu
können, entwickelte das Softwareunternehmen eine Funktion, um benutzerdefinierte Druckbereiche als Seitenrahmen
zu definieren. Diese sind zusätzlich drehbar, damit sie auch an gewundene Straßenverläufe angepasst werden können. Dazu
werden die Rechteck-Felder auf dem Plan
platziert und anschließend Blattrand und
Kartenlegende fertig gestaltet und gruppiert. Zum Plotten wird einfach ein gedrehter Seitenrahmen erstellt, die nötige
Größe und der Drehwinkel lassen sich
aus den Werten des Blattes ablesen. Damit sind die üblicherweise eingenordeten
Pläne zur einfacheren Druckausgabe auch
in der Waagrechten darstellbar.
Zum Drucken werden die Karten in PDFs
umgewandelt, unter Berücksichtigung
von Transparenzen, Ebenen und Farbmodellen. „Die Ausgabegenauigkeit beträgt etwa 0,005 —m und ist so etwa 2.000
Mal genauer als bei Standard-PDFDruckertreibern“, erläutert IT-Experte
Kassner. Diese Sonderanpassungen der
Software nach Kundenbedarf und der
direkte Austausch mit den Entwicklern
mache CAD6 zu einem wichtigen und
leicht zu handhabenden Werkzeug, so
Wirth: „Natürlich gibt es immer Wünsche an die Weiterentwicklung eines Programms. Hier kann man aber sicher sein,
dass diese in einer der folgenden Softwareversionen umgesetzt werden, wie bei uns
die Ebenenordner oder die GIS-Schnittstelle.“
Weitere Informationen im Internet:
www.biancon.com, www.cad6.de
BIANCON,
MALZ++KASSNER
GMBH
‹
Einzelausdrucke lassen sich zu großen
Darstellungsbereichen verbinden
SPLITTER
Von der Leichtigkeit des
Programmierens
Mittels freedroidz lernen Schüler einfach und auf spielerische Art Roboter
zu programmieren und das an zwei
Workshop-Tagen. Das Willi-GrafGymnasium in Berlin setzt das freie
Projekt im Unterricht ein und sieht
enorme Vorteile, auch für Lehrer.
Bis heute hat das Thema Open Source so
viel Fahrt aufgenommen, dass sich ihm
weder Anwender noch Hersteller entziehen können – es spielt in allen IT-Strategien eine wichtige Rolle. Open Source ist
mehr als quelloffene Software ohne
Nutzungslizenzkosten. Die Philosophie
der transparenten Prozesse, des zielorientierten und wissenseffizienten
Denkens und der partnerschaftlichen
Lösungsfindung eröffnen viele
Entwicklungsmöglichkeiten, gerade auch
im Bereich der Bildung. Über die damit
verbundenen Herausforderungen sprach
Michael Wilmes, Leiter des IT-Kompetenzzentrums und Leiter eGovernment
bei der Berliner Senatsverwaltung für Bildung, Wissenschaft und Forschung, in
seinem Impulsvortrag des 2. OpenMind
ManagerMornings im vergangenen November. „Open Source passt gut zu
Bildungseinrichtungen“, unterstrich
Wilmes und erinnerte daran, dass Open
Source dabei helfe, die klassische Forderung nach der Einheit von Hirn, Herz
und Hand herzustellen. Dabei könnten
auch IT-Schülerlabore helfen.
freedroidz – an zwei Tagen spielerisch programmieren lernen
Schüler können mit dem Programm
freedroidz spielerisch Roboter mit freier
Software programmieren lernen. Dazu
braucht es zwei Workshop-Tage an ihren
Schulen. Als Basis für das Projekt der
tarent solutions GmbH kommen Roboter von Lego Mindstorms NXT zum
Einsatz, welche in der Programmiersprache Java programmiert werden. Die Software der Lego-Roboter basiert auf Open
Source. Freedroidz benutzt das freie Software-Projekt leJOS, als Grundlage dafür.
Die Software ist unter einer Open Source-
Lizenz, der Mozilla Public License (MPL),
freigegeben. Sie soll dabei helfen, das
Einrichten und das Übertragen der Befehle auf den Roboter einfacher zu gestalten. Mittels Java können die kleinen Roboter beispielsweise via Bluetooth von
den Schülern gesteuert werden.
Schritt für Schritt wird mittels der Roboter, in Gruppen von jeweils zwei Schülern
erarbeitet, was eine Programmiersprache
ist und wie man eine Entwicklungsumgebung bedienen muss. Am Ende
des Workshops kennt jede(r) der
Schüler(innen) die wichtigsten Grundlagen von Anwendungsentwicklung. Die
Teenager sollen verstehen, wie einfach
Programmiersprache aufgebaut ist und
welche Möglichkeiten es gibt, mittels Java
zu programmieren. Gleichzeitig lernen
sie, was freie Software und deren Bedeutung ist.
„Wir wollen keine coolen Roboter
bauen, sondern coole Softwarelösungen entwickeln“
Die Möglichkeiten die kleinen Roboter
zu programmieren sind endlos. „Wir
wollen keine coolen Roboter bauen, sondern coole Softwarelösungen entwickeln“,
sagt Joscha Häring, der damit den Slogen
von freedroidz „Spielend programmieren lernen“ bereits in die Zukunft der
Schüler katapultiert sieht. Joscha Häring
ist Projektleiter des freien Projekts
freedroidz und 23 Jahre jung. Der Bonner
Softwareentwickler ist auf seinem Gebiet
jedoch ein alter Hase. Seine Ausbildung
zum Fachinformatiker für Anwendungsentwicklung absolvierte er in Bonn, im
Mutterhaus der tarent solutions GmbH,
in der insgesamt 150 Mitarbeiter beschäftigt sind. Schritt für Schritt zeigt Joscha
Häring den Schülern die Elemente der
Programmiersprache. Jede Anwendung
wird dabei direkt mit dem Roboter ausprobiert, darüber hinaus wurde die
Entwicklungsumgebung der Programmiersprache kinder- bzw. jugendgerecht
angepasst. Schüler können selbstständig
Lösungswege suchen und haben Spaß
daran, wenn der Roboter das ausführt,
was sie ihm vorher einprogrammiert ha-
ben - Informatik zum Anfassen. „Mit der
Hilfe von Mitwirkenden der Free Software Foundation und verschiedenen Lehrkörpern, konnten wir freedroidz
unterrichtstauglich machen. Nach jedem
Workshop war jeder Teilnehmer in der
Lage einen funktionierenden Roboter zu
programmieren. Dies beinhaltet auch,
dass er die Grundlagen von Software
Entwicklung, wie Variablen, Schleifen und
If-Else-Verzweigungen, verstanden hat.
Und das in einem Zeitraum von nur zwei
Tagen“, sagt Joscha Häring.
freedroidz auch für Schulen mit
Windows-basierten Systemen
Das Projekt freedroidz bietet auch Schulen, die ein rein auf Windows basiertes
Betriebssystem haben, die Möglichkeit
ihren Schülern den Informatikunterricht
auf diese Weise spannend und anschaulich zu ermöglichen. Denn die LinuxSoftware kann via USB-Stick auf die
Windows basierten Computer übertragen werden, wobei die PC-Software vor
Ort in den Schulen unangetastet bleibt.
Das heißt, dass das vollständige LinuxSystem auf dem USB-Stick verbleibt.
freedroidz ist nach der Installation sofort
einsatzfähig und bietet die nötigen Funktionen, um in kürzester Zeit und ohne
große Vorkenntnisse eigene Programme
auf einem Roboter laufen zu lassen.
freedroidz-Wiki
freedroidz ist ein Nonprofit-Projekt, das
2007 von der tarent solutions GmbH
gegründet wurde. Sie stellt Mitarbeiter
und Hardware für freedroidz-Schülerworkshops bereit. Die Idee für das Programm bzw. Projekt selben Namens entstand in Berlin. „Auf dem LinuxTag
wollten wir den Besuchern eine Mobilanwendung zeigen“, so Häring. „Die erste
Idee war, einen Roboter per Mobiltelefon
steuern zu können. Insbesondere Kinder und jugendliche Besucher fanden das
Projekt sehr interessant. 2008 wollten wir
mehr Menschen für das Projekt begeistern und so schrieben wir das freedroidzWiki.“ Bei dem freedroidz-Wiki handelt
es sich um eine Internetplattform, die
erste Schritte zum Anwenden der Software Schritt für Schritt erklärt - frei und ohne
Lizenzkosten.Î
1/12 29
SPLITTER
ÎErster Workshop am Heinrich-vonZügel Gymnasium in Murrhardt
Auf dem Chemnitzer LinuxTag wurden
im März 2010 die Programmierer von
freedroidz angesprochen, ob sie einen
dreitägigen Workshop organisieren könnten. So wurde dann im Juli desselben
Jahres ein erster freedroidz-Workshop
am Heinrich-von-Zügel Gymnasium in
Murrhardt veranstaltet, bei dem den Schülern praxisbezogen Software-Entwicklung beigebracht wurde. Im Gepäck befanden sich sieben Lego Mindstorms
Roboter, zahlreiche Sensoren und sieben
Notebooks, die mit einem vorkon-figurierten Linux-Betriebssystem (Kubuntu)
bestückt waren. Teilnehmer waren Schüler der siebten bis achten Klasse und ein
Fünftklässler mit wenig bis keinen ITVorkenntnissen. Am Ende des ersten
Tages hatte jeder Schüler einen Roboter
programmiert, der fahren und mit Sensoren umgehen konnte. Am zweiten und
dritten Workshop-Tag durften sich die
Schüler einen Roboter ausdenken, diesen
bauen und programmieren. Das Ergebnis der Projekttage wurde beim afrikanischen Schulfest mit vollem Erfolg vorgestellt. Stolz präsentierten die WorkshopTeilnehmer ihre Programme und ernteten Lob. Darauf folgten weitere Work-
shops in Berlin und an der Gesamtschule
in Paffrath. Darüber hinaus gab es Workshops in den Räumlichkeiten der tarent,
im Rahmen des Girls Days oder beim
LinuxTag in Berlin.
Willi-Graf-Gymnasium in Berlin setzt
freedroidz im Unterricht ein
Nachdem im September 2010 ein Workshop am Willi-Graf-Gymnasium in Berlin-Lichterfelde veranstaltet wurde, setzt
die Schule nun seit September 2011 regelmäßig freedroidz im Unterricht ein. René
Eichhardt, Fachleiter Informatik des
Gymnasiums, sagt über den Workshop
von tarent, dass es gelang „den einen oder
anderen Kindheitstraum zu verwirklichen und mehrere tolle, technisch hoch
entwickelte Roboter zu präsentieren.“
Das Projekt wurde im Frühjahr 2011 am
Informationsabend für Wahlpflichtunterricht Eltern und Schülern präsentiert. Das hatte zur Folge, dass sich mehr
Jugendliche für das Wahlpflichtfach Mathematik/Informatik (8. bis 10. Klasse)
interessierten.
René Eichhardt ist von freedroidz überzeugt: „Es macht den Schülern Spaß und
motiviert sie Probleme zu lösen, sie sind
wissbegieriger, stellen mehr Fragen. Das
erlebe ich bei anderen Projekten nicht. Die
Schüler arbeiten konzentrierter, halten
länger durch und entwickeln stärkeren
Willen, Lösungen zu finden, als in Situationen, in denen sich das IT-Problem
auf eine reine Softwareumgebung bezieht.
Die Schüler werden darüber hinaus auf
spielerische Art dazu angehalten genau
zu arbeiten, denn sonst würde die Roboter nicht das tun, was sie von ihnen möchten.“
„Wichtig ist für uns Lehrer, dass freedroidz uns unterstützt, denn wir können
uns so auf das Wesentliche konzentrieren, die Wissensvermittlung. Wir müssen uns nicht mit diversen technischenund Installationsproblemen aufhalten.
Es ist nicht mit neuen Laptops getan,
denn die Arbeit von zeitraubenden Installationen und Softwareproblemen liegt
in den Händen der Lehrer. Diese scheuen
sich daher oft genug, etwas Neues auszuprobieren. Mit freedroidz gibt es dieses
Problem nicht. Man installiert die freie
Software und sie ist problemlos funktionsfähig, deshalb haben wir in acht Roboter von jeweils 270 Euro und damit an
der richtigen Stelle in die Zukunft unserer
Schüler investiert“, sagt Eichhardt.
freedroidz zum Kennenlernen
Das Ziel von freedroidz ist es, den Einstieg ins Programmieren so leicht wie
möglich zu gestalten. Programmieren lernen mit sofortigem, sichtbarem Erfolg.
Die Workshops werden jeweils für zwölf
Schüler veranstaltet, wobei diese in Zweiergruppen arbeiten und für je zwei Schüler
ein Roboter zur Verfügung steht. Das
Projekt wird im März 2012 auf dem
Chemnitzer LinuxTag, im Mai auf dem
Berliner LinuxTag sowie im Rahmen des
Girls Days in der Berliner Niederlassung
der tarent vorgestellt. Der Workshop für
den Girls Day ist bis auf einen Platz
bereits ausgebucht.
Infos: www.freedroidz.org, www.tarent.
de, Kontakt tarent in Berlin: Mark Hoffmeister (Tel: 030/ 3187969-111)
Informatik zum Anfassen – Schüler des freedroidz-Workshops lernen an einem Tag,
wie man einen Roboter programmiert, der fahren kann
1/12 30
JENNY MAY
‹
SPLITTER
Schneller, Höher, Weiter:
Cluster, Grid, Cloud
Jede neue Generation von Hard- und
Softwaresystemen eröffnet umfangreiche neue Möglichkeiten und verspricht: alles wird viel einfacher. Auf
der anderen Seite entstehen immer
wieder neue Anforderungen, neue
Architekturen und Paradigmen werden entwickelt. Diese sprechen mehr
für eine Zunahme der Komplexität
der Gesamtsysteme. Ein Widerspruch?
Warum sind heutige Systeme so, wie sie
sind? Welche Ideen und Prinzipien haben die Architekten und Designer dort
einfliessen lassen? IT-Systeme sind die
Reaktion auf Anforderungen des Marktes, der Nutzer, der Betreiber oder betriebswirtschaftlicher Zwänge. Es ist betriebswirtschaftlich günstiger, in IT-Lösungen
zu investieren als die Arbeit „von Hand“
zu erledigen. Angestrebt wird eine gute
Effizienz, d.h. bei einem möglichst guten Ergebnis sollen die Kosten minimal
sein.
Um aktuelle Systeme zu verstehen, wird
nachfolgend die Entwicklung des Wechselspiels zwischen Anforderungen auf der
einen Seite und deren Umsetzung auf der
anderen Seite betrachtet. Den Ausgangspunkt dafür bilden an dieser Stelle die
Client-Server-Systeme.
Nachdem sich in den 80-er Jahren Anwendungssysteme auf Client-/Server
Basis etabliert hatten, wurden in den 90er
Jahren zunehmend Schwierigkeiten sichtbar, die mit einer solchen Architektur
verbunden sind. Bei Client/Server (C/S)
Architekturen laufen die Fachverfahren
auf den sogenannten Clients (dafür wurden zunehmend PCs eingesetzt) und
greifen dabei auf zentrale Datenspeicher
(i.d.R. Datenbanken) zu. Die Anwendungsprogramme wurden immer
mächtiger und dadurch mußten auch die
Clients zunehmend leistungsfähiger werden. Zudem stellte sich die Verwaltung /
Betreuung der Clients als aufwendig
heraus.
„Klassische“ Drei-Schicht-Architektur
Im Rechenzentrum stiegen indes die
Anforderungen an die Verfügbarkeit der
Server, da ein Ausfall nicht mehr nur
einzelne Anwender, sondern z.T. große
Anwendergruppen, betraf.
In den 90-er Jahren werden IT-Systeme
zur kritischen Resource. Ein Ausfall ist –
wenn überhaupt – nur noch für kurze
Zeit akzeptabel. IT-Systeme bestehen in
dieser Zeit zumeist aus Einzelkomponenten (diese Einzelkom-ponenten
werden heute als „Silos“ bezeichnet). Jede
Einzelkomponente für sich ist ein singlepoint-of-failure (SPOF) – fällt ein Teil
aus, steht das betreffende Gesamtsystem
nicht meht zur Verfügung. Parallel dazu
steigt der Ressourcenverbrauch der Systeme durch vermehrten Einsatz von Anwendungssoftware, die zudem i.d.R.
komplexer wird, sowie weiter steigende
Anwenderzahlen. Die Verwaltung vieler
Fachverfahren auf vielen Clients führt
dadurch zu unüberwindbaren Problemen
in Bezug auf Ressourcenverbrauch,
Verwaltbarkeit und gegenseitiger Beeinflußung der Anwendungen.
Eine Alternative zu den als aufwändig
betrachteten Clients entwickelt sich im
Rahmen der Internet Technologien: an
Stelle der Clients übernehmen Browser
die Funktion der Benutzerschnittstelle.
Da keine Installation auf den Endgeräten
mehr erforderlich ist, kann der Kreis der
Nutzer einer bestimmten Anwendung
ohne zusätzlichen Administrationsaufwand mehr oder weniger beliebig ausgedehnt werden. Auch externen Nutzerkreisen (z.B. Bürger, Behörden, Kunden
oder Lieferanten) wird zunehmend Zugang zu ausgewählten internen Informationen gewährt. Die Fachverfahren laufen
anstelle auf den Clients weitestgehend
auf zentralen Systemen im Rechenzentrum, den Application Servern.Î
1/12 31
SPLITTER
Î Auch diese Architektur bietet Herausforderungen. Die Entwicklung und die
Verwaltung sind zunächst aufwendig,
erforderen lange Entwicklungszyklen und
reduzieren dadurch die Effizienz. Als
Antwort werden neue Architekturstandards entwickelt: die Drei-SchichtArchitektur enthält zusätzlich zu der Datenbank und der Benutzerschnittstelle
einen Applicationserver, der die eigentliche Anwendung betreibt. Durch das ganzheitliche Architekturkonzept hat sich Java
schnell als Technologie, Programmiersprache und Standard weitgehend etabliert.
Es zeigt sich, dass durch die 3-SchichtArchitekturen die IT-Systeme wieder effizienter werden. Der Bedarf an Leistung
steigt jedoch so rasch, dass einzelne Rechner schnell an ihre Grenzen stoßen. Hardund Software erfordern eine höhere
Skalierbarkeit, um größere Anwendungssysteme zu ermöglichen. Durch die zentrale Rolle der IT im Geschäfts- oder
Verwaltungsprozess werden gleichzeitig
höhere Verfügbarkeiten verlangt. Ein
Systemausfall ist häufig nicht mehr ohne
weiteres zu akzeptieren. Die stark ausbaubaren Großrechner (Host) bieten zwar
eine hohe Skalierung und eine große
Verfügbarkeit; sie bleiben aber sehr teuer
und sind – nach wie vor – ein SPOF.
Ein alternativer Ansatz nutzt
vergleichsweise preiswerte Rechner, die
zusammengeschaltet werden und im
Verbund als ein großes System arbeiten,
den Cluster. An den einzelnen Rechner
werden dabei keine besonderen Anforderungen gestellt. Ein Ausfall
kompromitiert nicht das Gesamtsystem.
Entscheidend ist, daß die Aufgaben auch
bei Wegfall eines Rechner-Knotens
weiterhin erfüllt werden können. Je nachdem, ob Skalierung oder Verfügbarkeit in
Vordergrund steht, etablieren sich verschiedene Clusteransätze, bei denen unterschiedliche Eigenschaften im Vordergrund stehen: schnelles Lesen von Daten,
Verteilung der Last auf mehrere Knoten,
Toleranz gegenüber Ausfall einzelner
Anwender-Sessions.
Die Ideallösung – hohe Skalierung, hohe
Verfügbarkeit und für den Anwender
transparenter Ausfall eines Knoten – ist
in der Regel mit hohem Ressourcenaufwand und vergleichsweise schlechter Performance verbunden. Darüberhinaus
muß jedes System ausreichend Ressourcen zur Verfügung stellen, um alle Lastspitzen eines Verfahrens sicher beherrschen zu können. Die durchschnittliche
Auslastung beträgt häufig unter 20 Prozent – der Großteil der eingesetzten Ressourcen bleibt die meiste Zeit ungenutzt
und kann auch nicht für andere Aufgaben
eingesetzt werden.
Ab 2000 durchdringen Computer nahezu
alle Ebenen und Bereiche der Unternehmen und Verwaltungen. Weitgehend alle
Areitsplätze sind als Bildschirmarbeitsplätze eingerichtet. Als Client hat
sich der Browser durchgesetzt (PC = thin
client). Das Geflecht unterschiedlichster
(interner und externer) Anwendungen
und Daten, die zur Erfüllung der fachlichen Aufgaben erforderlich sind, wird
über Einstiegsseiten (Portale) anwenderund aufgabengerecht organisiert. Für die
im Rechenzentrum betriebenen Anwendungen steigt der Bedarf an Rechenleistung weiter deutlich an.
Die Administration wird auf Grund der
großen Anzahl, hohen Komplexität und
der Vernetzung der Systeme schwierig
und wenig effektiv. Die schnelle Anpassung der Systeme kann mit den Anforderungen nicht Schritt halten. Es werden
Infrastrukturkomponenten verlangt, die
dynamisch (d.h. im laufenden Betrieb)
Ressourcen zur Verfügung stellen können. Damit steht die erwartete
Infrastrukturleistung (Rechner, Datenbank, ApplicationServer) im Vordergrund, die – transparent für die Anwendung – im Hintergrund von einem
„GRID“ (einem Netz oder Verbund) aus
Systemen bereitgestellt wird. Der Vergleich mit dem Stromnetz als einem
„Grid“ aus Kraftwerken, um die erforderliche Resource Strom aus der Steckdose bereitzustellen, ist deshalb berechtigt.
Um 2010 stehen die technischen Mittel
bereit, um sich von der statischen Kopplung der Fachverfahren an explizite Server
zu lösen (Virtualisierung, Cluster, Grid).
Der einzelne Rechner ist aus fachlicher
Sicht nicht mehr relevant – Entscheidend
ist die Erbringung der IT-(Dienst-)Leistung als (abrechenbarer) Service: als Infrastruktur (zB Server), Plattform (zB Datenbank, ApplicationServer) oder Software (zB Standardsoftware).
Services in der Cloud
1/12 32
Dieses Paradigma wird als Cloud
Computing bezeichnet; im Gegensatz
zur Architektur des Grid Computing Î
SPLITTER
Î ist es eher konzeptionell zu verstehen.
Auch hier gibt es zunächst unterschiedliche Ansätze, aus denen schnell der
Wunsch nach Standardisierung entspringt. Als Mindestanforderung an eine
Cloud gelten heute die Kriterien des National Institute of Standards and
Technology (NIST). Damit können Services beliebig angefordert, dynamisch zur
Verfügung gestellt und nach Nutzung
abgerechnet werden. Auf Grid-Systemen
können Services nach dem Paradigma der
Cloud zur Verfügung gestellt werden;
unabhängig davon, ob diese selbst (private cloud, im eigenen Rechenzentrum)
oder fremd (public cloud, „zugemietet“)
genutzt werden.
Zum Betrieb wird leistungsfähige, hochflexible und universell nutzbare Hardund Software benötigt. Dabei kommen
immer öfter vorintegrierte Standardkomponeten zum Einsatz. Insbesondere
bei Services, die ein hochperformantes
Zusammenspiel von Application Server
und Datenbanken erfordern, etablieren
sich aufeinander abgestimmte Systeme,
die sogenannten engineered systems.
Sehr gute Beteiligung
am ersten nationalen
Programmierwettbewerb
Über 300 Datensätze, mehr als 100
Ideen und rund 75 fertig programmierte Anwendungen sind nach dem
Einreichungsschluss beim ersten nationalen Programmierwettbewerb
„Apps für Deutschland“ eingegangen.
„Das ist eine sehr gute Beteiligung für
diesen ersten nationalen Programmierwettbewerb auf der Basis offener Daten“,
erklärten die Organisatoren, die drei Nichtregierungsorganisationen Government
2.0 Netzwerk, Opendata Network und
die Open Knowledge Foundation
Deutschland. Der Wettbewerb wurde am
8. November 2011 durch Bundesinnenminister Hans-Peter Friedrich auf der
Messe Moderner Staat in Berlin eröffnet.
Bewerber konnten ihre Vorschläge in den
drei Kategorien Daten, Ideen und Anwendungen einreichen.
Nun wird eine hochkarätig besetzte Jury
aus namhaften Vertretern der deutschen
und internationalen Zivilgesellschaft,
Verwaltung, Wissenschaft und von Verbänden die besten Einreichungen ermitteln. Bundesinnenminister Hans-Peter
Friedrich wird die Preise am 6. März 2012
in Hannover auf der IT-Messe CeBIT ab
11 Uhr in Halle 7 im Public Sector Forum
überreichen.
„Apps für Deutschland“ wurde möglich
durch eine ungewöhnliche Kooperation
von Verwaltung und Zivilgesellschaft.
Die drei Vereine Government 2.0 Netzwerk, Opendata Network und die Open
Knowledge Foundation Deutschland
organisieren den Wettbewerb – eine echte
Community Public Partnership, bei der
Staat und Zivilgesellschaft Hand in Hand
für ein gemeinsames Ziel arbeiten. Die
Schirmherrschaft über den Wettbewerb
hat Bundesinnenminister Hans-Peter
Friedrich übernommen
„Wir danken allen, die mitgemacht haben. Die hohe Beteiligung für diesen ersten nationalen Programmierwettbewerb
mit einem Bezug zu Open Data zeigt,
dass sogenannte Community Public
Partnerships, Kooperationen zwischen
der Zivilgesellschaft und der Verwal- Î
Fazit
Die Anforderungen an IT-Systeme hinsichtlich Performance, Ausfallsicherheit
und dynamischer Anpassung bei einfachem Betrieb sind in den letzten Jahren
stark gestiegen – und werden dies auch in
Zukunft weiterhin tun. Systeme zum
effizienten IT-Betrieb müssen diesen
Anforderungen – auch mit dem Wachstum der nächsten Jahre – gerecht werden.
Dazu sind Rechner-Cluster erforderlich,
deren Zusammensetzung im Grid dynamisch verändert und deren Dienste innerhalb einer Cloud als Service zur Verfügung gestellt werden können. Cluster,
Grid und Cloud sind also aufeinander
aufbauende Konzepte, die in ihrer Kombination und deren Umsetzung in den
engineerd Systems zukunftsweisend und
-sicher sind.
CHRISTIAN KÜHNE
Leitender Systemberater
Oracle Deutschland B.V. & Co. KG ‹
Auf der Messe Moderner Staat wurde der Wettbewerb „Apps für Deutschland“ eröffnet.
Schirmherr Dr. Hans-Peter Friedrich unterhält sich mit Jurymitgliedern (v.l.n.r.: Prof.
Dr. Gerd Buziek, Anke Domscheit-Berg, Stefan Gehrke, Thomas Langkabel)
1/12 33
SPLITTER
Î tung, erfolgreich für ein gemeinsames
Ziel mobilisieren können. Das Thema
Open Government ist dadurch sowohl
in Amtsstuben als auch bei der Bevölkerung bekannter geworden, eine Voraussetzung für den Abbau von Widerständen“, so Anke Domscheit-Berg vom
Government 2.0 Netzwerk.
„Wir freuen uns besonders über die zahlreichen öffentlichen Stellen, die unserem
Aufruf nach Offenlegung von Daten gefolgt sind und diese unter einer offenen,
für alle weiterverwertbaren Lizenz zur
Verfügung gestellt haben. Mitgemacht
haben Behörden aller staatlichen Ebenen, also Bundes-, Landes- und Kommunalverwaltungen. Diese Behörden sind
beispielhaft vorangegangen und haben
ein Zeichen in Sachen Transparenz und
Offenheit von Verwaltungshandeln gesetzt“, sagte Stefan Gehrke vom Opendata
Network.
Laut Daniel Dietrich von der Open
Knowledge Foundation Deutschland ist
es gelungen, die angesprochenen Zielgruppen für den Wettbewerb zu motivieren: „Ein erster Blick auf die eingereichten
Apps zeigt: Kreative Entwickler – darunter
Studenten, Selbständige sowie kleine und
große Unternehmen – haben sich etwas
einfallen lassen und spannende Anwendungen gefertigt. Aber wir wollten nicht
nur Web-Fachleute und Designer ansprechen – jeder interessierte Bürger kann
gute Ideen zur Verwendung von öffentlichen Daten haben. Deshalb hat sich
auch die breite Öffentlichkeit am Wettbewerb beteiligt und Vorschläge ohne konkrete Umsetzung oder Programmierung
eingereicht.“
Die Länder Berlin und Bremen vergeben
jeweils Sonderpreise für Anwendungen,
die von den jeweiligen Ländern bereitgestellte Daten als Grundlage verwenden.
So sponsert das ITDZ Berlin ein iPad2
für die „Beste App-Anwendung mit einem Berliner Datensatz“. Ein weiterer
Sonderpreis wird gestiftet von
youthpart.eu der IJAB – Fachstelle für
Internationale Jugendarbeit der Bundesrepublik Deutschland e.V. für Anwendungen von Jugendlichen sowie Anwen‹
dungen für Jugendliche. (PR)
1/12 34
Schnellere Computer
dank SSD-Speicher
Computer-Bild hat 32 Modelle getestet. Ergebnis: Windows und Programme starten mit SSD-Speichern doppelt so schnell. Allerdings sind sie
teurer als Festplatten.
SSD steht für Solid State Drive und gilt als
Nachfolger der Festplatte. SSD könnte
aber genauso „Super Schnelle Daten“
bedeuten - denn die fixen Speicher machen dem PC ordentlich Dampf.
Windows startet doppelt so schnell und
auch die Arbeitsgeschwindigkeit von Programmen legt einen Zahn zu. Das zeigt
ein Test der Fachzeitschrift ComputerBild, die 32 SSDs ab 87 Euro getestet hat.
Die Experten prüften zudem die SSDLebensdauer und erklären, welche Vorund Nachteile die Speichergröße mit sich
bringt (Heft 3/2012).
SSDs haben Festplatten eines voraus: Sie
enthalten keine beweglichen Bauteile und
speichern Daten in Flash-Bausteinen, wie
sie auch in USB-Speicherstiften zum Einsatz kommen. Dadurch arbeiten sie deutlich schneller, sind völlig geräuschlos und
kommen mit gerade mal ein bis zwei
Watt Strom aus. Im Computer-Bild-Test
erhöhte sich die Arbeitsgeschwindigkeit
im Vergleich zu einem Computer mit
herkömmlicher Festplatte durchschnittlich um rund 30 Prozent. Voraussetzung
für den Tempogewinn sind allerdings ein
moderner Computer mit Dual-Core-Prozessor (ab Core i3) und mindestens vier
Gigabyte Arbeitsspeicher - bei älterer
Hardware verpufft der SSD-Effekt.
Die Computer-Bild-Experten stellten
SSD-Speicher in den Größen 60, 120 und
240 Gigabyte (GB) auf den Prüfstand. 60
GB-Modelle punkten mit einem relativ
günstigen Einstiegspreis, der Test-Sieger
in dieser Kategorie kostet 114 Euro
(Extrememory XLR8 Express; Note:
„gut“). Nachteil: Selbst wenn nur
Windows und wenige Programme darauf installiert sind, kann es mit 60 GB
schnell eng werden. Mehr Platz bieten
SSDs mit 120 GB (Test-Sieger Plextor
PX-128M2P; Note: „gut“; 210 Euro) und
SSDs mit 240 GB (Test-Sieger Corsair
Performance Pro; Note: „gut“; 380 Euro).
Sie sind zudem etwas schneller als die 60
GB-Modelle - dafür jedoch relativ teuer.
Zum Vergleich: Für 200 Euro gibt es eine
herkömmliche Festplatte mit 3000 GB (3
Terabyte) Speicherplatz.
Trotz manch anderslautender Gerüchte
im Internet sind SSDs nach bisherigen
Erkenntnissen nicht unzuverlässiger als
Festplatten. Computer-Bild simulierte die
SSD-Nutzung über mehrere Jahre. Das
Ergebnis: Es traten keinerlei Ausfälle auf
- trotz zigtausender Schreib-, Lese- und
Löschvorgänge sowie 500-maligem Einund Ausschalten. Die Speicherzellen sind
zwar nicht beliebig oft beschreibbar, aber
die eingebaute Elektronik verteilt die
Schreibvorgänge so, dass die SSD alle
Speicherzellen etwa gleich oft benutzt.
Die Nutzungsdauer ist deswegen ähnlich
wie bei Festplatten. Weil keine Platte vor
Ausfällen sicher ist, sollten aber auch SSDNutzer Ihre Daten regelmäßig sichern.
‹
(PR)
Festplattenlaufwerk (links) und Solid State Drive (SSD) (rechts)
SPLITTER
Schatten-IT – Flexibilität
für Mitarbeiter, Risiko für
das Unternehmen
Eine zentrale IT-Strategie ist nur dann
keine leere Worthülse, wenn sich alle
Teile eines Unternehmens mehrheitlich an die Regeln der IT-Strategie
halten.
Es ist sogar so, dass erfolgreiche Unternehmen weniger Insellösungen beziehungsweise Schatten-IT-Systeme in Fachbereichen aufbauen und somit eher einer
zentralen Strategie folgen. Dies zeigte sich
in der RAAD-Studie „Fast growing, high
profit companies – IT-Strategien erfolgreicher Unternehmen“, die im Frühjahr
2011 in Zusammenarbeit mit SAP, der
MT AG und weiteren Partnern entstanden ist.
Im Rahmen der Studie wurden
Führungskräfte in Unternehmen gefragt,
wie hoch sie den Anteil der Prozesse
einschätzen, der durch Insellösungen wie
beispielsweise durch Schatten-IT-Lösungen in den Fachbereichen betrieben wird.
Die Antworten der Befragten zeigen ein
klares und signifikantes Ergebnis.
Zwar existiert in vielen Unternehmen ein
relativ hoher Anteil an Insellösungen und
Schatten-IT, auch bei High Performern ,
bei denen über 50 Prozent der Befragten
angaben, dass der Anteil bei über 25 Prozent liegt. Allerdings gaben deutlich häufiger Low-Performer die Einschätzung
ab, dass mehr als 50 Prozent der Prozesse
durch Insellösungen und Schatten-IT
unterstützt werden - Low-Performer
meinten dies zu 34 Prozent, Mid-Performer zu 11 Prozent, High-Performer zu 13
Prozent. Ergebnis lässt sich branchenund größenübergreifend bestätigen.
„Dies zeigt, dass die IT der Low-Performer weniger Zugriff auf die Prozessgestaltung der Fachbereiche hat, was
wiederum ein fehlender Erfolgsfaktor
sein kann“, so Dr. Cristian Wieland, Head
of Analytics bei RAAD Research.
Insellösungen in Fachbereichen beziehungsweise Schatten-IT-Systeme beschreiben IT-Leistungen, die in den
Umfrage: Insellösungen bzw. Schatten-IT in den Fachbereichen von Unternehmen
Fachbereichen häufig ohne Wissen und
meist ohne Zugriff der IT-Organisation
erfolgen. Diese können von den allseits
bekannten excelbasierten „workarounds“ beispielsweise im Berichtswesen über die lokale Kundendatei bis
hin zu weitentwickelten eigenständigen
oder ergänzenden Software-as-a-ServiceAngeboten alle möglichen Einsatzszenarien abdecken. Wenn auch solche
Angebote durchaus sinnvoll sind und
Excel als Weiterbearbeitungsmöglichkeit
kaum wegzudenken ist, so ist es dennoch
wichtig, einen Zugriff auf diese SchattenIT-Systeme zu bekommen und diese in
die IT-Strategie einzubinden. Ohne eine
solche Einbindung können erhebliche
Risiken für die Unternehmen entstehen.
So fehlt bei diesen Lösungen häufig die
Integration und Einbindung ins BackEnd wie in das ERP-System. Dadurch
können die Daten, die in diesen Systemen
erzeugt werden, alt sein und zum Beispiel
bei der abgekoppelten Reportinglösung
nicht mehr die aktuelle Wirklichkeit widerspiegeln.
Neben den häufig redundanten Kosten,
die solche Systeme mit sich bringen, steht
auch das Risiko von Daten- und Wissensverlusten für die Unternehmen im Raum,
wenn die Lösungen nicht auf der ITAgenda stehen. „Unternehmensführung,
Fachbereiche und IT sollten sich dieses
Risikos bewusst werden und gemeinsam
darüber entscheiden, ob der vermeintliche Vorteil der Flexibilität Kosten und
Risiko aufwiegt“, rät Dr. Cristian Wieland Unternehmen. (PR)
‹
Datenschutz: Höchstes
Vertrauen in Banken und
Krankenkassen
Krankenkassen und Banken genießen
besonders hohes Vertrauen beim Datenschutz. Das hat eine Umfrage im
Auftrag des BITKOM ergeben. So
haben 77 Prozent der Deutschen ein
starkes oder sehr starkes Vertrauen in
ihre Krankenkasse, wenn es um den
Umgang mit persönlichen Daten geht.
75 Prozent der Bürger vertrauen ihrer
Bank, 74 Prozent den von ihnen besuchten Ärzten und Krankenhäusern.
Im Vergleich dazu erreichen staatliche
Stellen, Energieversorger und Î
1/12 35
SPLITTER
Î Internetdienstleister lediglich ein mittleres Vertrauensniveau beim Datenschutz. So bringen 59 Prozent der Bundesbürger Behörden wie Finanz- oder Meldeämtern großes Vertrauen entgegen.
Jeder Zweite hat hohes oder sehr hohes
Vertrauen in Energieversorger und
Internet-Provider (50 bzw. 48 Prozent).
Soziale Netzwerke fallen demgegenüber
mit lediglich 14 Prozent Vertrauenszuspruch stark ab.
„Wir wollen und werden mehr Vertrauen
aufbauen“, sagte BITKOM-Präsident
Prof. Dieter Kempf. „Gerade mit Blick
auf die intelligenten Netze der Zukunft
gibt es hohen Aufklärungsbedarf.“ So
würden Behördendienste, die Energieversorgung, aber auch das Gesundheitswesen sowie Verkehr und Bildung immer
stärker über Internet-Technologien gesteuert. „Es werden künftig höhere Datenmengen anfallen, die ein Höchstmaß an
Schutz brauchen. Dabei müssen Staat
und Unternehmen die Menschen jeweils
aktuell und umfassend informieren.“
BITKOM setzt hierbei auf strenge Selbstverpflichtungen der Unternehmen.
Kempf: „Mit Selbstverpflichtungen können wir auf neue Technologien schnell,
flexibel und international abgestimmt
reagieren.“ (PR)
‹
Optimalen Viren-Schutz
gibt’s nur gegen Geld
Computer-Bild testete drei GratisAntiviren-Programme und fünf kostenpflichtige Schutzpakete. Nur der
Testsieger schafft die Gesamtnote
„gut“. Kostenlose Programme sind auf
den hinteren Rängen.
Täglich werden laut Norton Cybercrime
Report 2011 mehr als 42.000 Nutzer in
Deutschland Ziel eines Online-Angriffs.
Wer meint, dass er mit einer kostenlosen
Antiviren-Software völlig sicher vor Schadprogrammen ist, liegt falsch – das zeigt
ein Test der Fachzeitschrift ComputerBild. Die Prüfer haben die drei am weitesten verbreiteten Gratis-Antiviren-Programme gegen fünf kostenpflichtige
Schutzpakete in den Ring geschickt und
die Versprechen der Hersteller auf den
Prüfstand gestellt (Heft 2/2012).
Eines haben Bezahlprogramme und
Gratis-Software gemeinsam: Deren Hersteller vermitteln den Eindruck, dass man
sich nach der Installation keine Sorgen
mehr machen muss. Die Computer-BildTester entlarvten aber einige Werbeversprechen als leere Worthülsen. Bei-
Bei der BITKOM-Umfrage zum Vertrauen in den Datenschutz kamen „Staat und
Behörden“ auf den fünften Rang
1/12 36
spiel McAfee: Laut dem Hersteller sollen
Nutzer der Software Internet Security 2012
„Sorglos im Netz surfen“ können. Fakt
ist: Bei mehr als 22 Prozent der in
Internetseiten versteckten Bedrohungen
kam es trotz der McAfee-Software zur
Infektion des Computers. G Data
wiederum behauptet, seine Internet
Security 2012 arbeite „Einfach. Sicher.
Ressourcenschonend“. Dabei landete
ausgerechnet dieser Testkandidat bei den
Geschwindigkeitsmessungen auf dem
letzten Platz. Der Aufbau von
Internetseiten dauerte anderthalb mal so
lang und auch der Computerstart verlangsamte sich erheblich.
Insgesamt zeigte der aufwendige Computer-Bild-Test: Wer optimalen Schutz
will, muss dafür bezahlen. Im anerkannten Magdeburger Viren-Testlabor AVTest wurden dafür Hunderttausende
Schädlinge auf die Kandidaten losgelassen. Dabei wehrten nur die Bezahlprogramme von G Data, Kaspersky und
Symantec alle Angriffe erfolgreich ab.
Kaspersky Internet Security 2012 (Testergebnis: 2,16; Preis: 49,95 Euro) schnitt
mit der besten Virenerkennung als einziger Kandidat mit dem Testergebnis „gut“
ab. Es blockte jeden Schädling, bevor sich
dieser in den PC einschleusen konnte,
vernichtete als einziges Paket alle aktiven
Schadprogramme und sicherte sich so
den Computer-Bild-Testsieg. Das günstigste Kaufprogramm im Test kam von
McAfee und schaffte in der Endnote ein
„befriedigend“ (Testergebnis 3,21; 4.
Platz; Preis: 30,95 Euro). Die drei GratisProgramme von AVG, Avast und Avira
kamen insgesamt nicht über den 5. Platz
hinaus. Zudem beinhalten nicht alle kostenlosen Programme eine verhaltensbasierte Erkennung. Diese Methode entlarvt Schadprogramme anhand typischer,
verdächtiger Verhaltensmuster – das wird
immer wichtiger.
Mehr zu Sicherheits-Software unter
www.computerbild.de/tests/it-security
(PR)
‹
SPLITTER
Schwächen der
OpenOffice.org Version
3.3.0 bereinigt
Am 22. Dezember 2011 veröffentlichte
Team OpenOffice.org einen auf
OpenOffice.org 3.3.0 aufbauenden
Release-Candidate mit wichtigen
Security-Fixes.
Der Release-Candidate trägt den Namen
„White Label Office 3.3.1“, da die Rechte
an der Marke „OpenOffice.org“ bei der
Apache Software Foundation (ASF)
liegen. Eine Einigung zur Nutzung der
Markenrechte durch Team OpenOffice
.org konnte nicht erzielt werden.
Mit der Veröffentlichung von White Label
Office 3.3.1 unternimmt Team Open
Office.org den ersten Schritt in Richtung
eines Maintenance-Releases für
OpenOffice.org 3.3.0. Der ReleaseCandidate soll als Ausgangslage dienen,
um gemeinsam mit den Usern die
bestmögliche aller Versionen zu erstellen.
Das Team OpenOffice.org will zudem
mit dem für Frühjahr 2012 geplanten
Maintenance-Release darauf aufmerksam
machen, dass es keine Zeit zu verlieren
gilt. Denn nach dem Ausstieg des Hauptsponsors Oracle ist es dringend notwendig, die elementaren und professionellen Entwicklerkompetenzen
weiterhin an das Projekt zu binden. Mit
Hilfe von Spenden möchte Team
OpenOffice.org diese Kompetenzen
sichern und langfristig erhöhen.
Im Frühjahr 2011 entschied sich Oracle
das Projekt nicht weiter zu finanzieren
und übertrug die Rechte an OpenOffice.org der ASF, einer ehrenamtlich
arbeitenden Organisation zur Förderung
von Softwareprojekten. Die eigentlichen
Entwickler wurden mit dieser Entscheidung allerdings übergangen. Da die
ASF einer Verbreitung des ReleaseCandidates unter dem Namen „OpenOffice.org 3.3.1“ nicht zugestimmt hat,
stellt das Hamburger Team ihn als „White
Label Office 3.3.1“ bereit, um Rück-
meldungen von den Nutzern einzuholen.
Der enge Austausch mit der Open-SourceGemeinde und dem verbundenen
Netzwerk sind dem Team OpenOffice.org
nach wie vor sehr wichtig.
„Unser Wunsch ist es, für den
Maintenance-Release enger als bei allen
vorangegangenen Versionen mit den
Usern zusammenzuarbeiten“, erklärt
Stefan Taxhet von Team OpenOffice.org.
„Mit ihrem Feedback können sie an
Nachfolgeversionen mitwirken und
Vorschläge für neue Features und
Funktionen einbringen, über die eine
zeitgemäße Office-Suite verfügen sollte.
Um den Austausch zu fördern, sind wir
auf allen gängigen Social-MediaPlattformen aktiv und stehen mit den
Usern in Kontakt.“
Der aktuelle Release-Candidate beinhaltet
wichtige Security-Fixes, wieder farbige
Dokument Icons, die zu guter Unterscheidbarkeit führen sowie diverse Fehlerbehebungen. Diese Vorabversion ist mit
den Betriebssystemen Windows, Linux
und Mac OS X kompatibel und in fünf
Sprachen verfügbar: Deutsch, Englisch,
Italienisch, Spanisch und Französisch.
„Es geht uns um ein positives Signal. Wir
wollen den vielen Nutzern, seien es nun
private Anwender oder Unternehmen
zeigen: Es geht voran. Dabei freuen wir
uns über jede Unterstützung.“ so Stefan
Taxhet vom Team OpenOffice.org.
Taxhet gehört zu den Männern der ersten
Stunde und hat bereits an dem Ursprung
von OpenOffice.org StarOffice
mitgewirkt. Zusammen mit seinen
Mitstreitern aus dem Team erlebte er, wie
Oracle durch die Übernahme von Sun
Microsystems die Rolle des
Hauptsponsors zufiel. Die Sponsoren
kamen und gingen, das Team blieb - bis
heute - bestehen. Ohne Hauptsponsor
droht dem Projekt aber nun diese
Kompetenz verloren zu
gehen. Weil die ASF keine
Entwickler beschäftigt, ist das
Engagement des Hamburger
Teams für die Weiterentwicklung von OpenOffice
ein zentraler Beitrag. Das Mitwirken von
zahlreichen Mitarbeitern der ersten Stunde
sichert das dafür essentielle Know-how.
Damit es bewahrt und die gewohnte
Qualität gewährleistet werden kann,
benötigt Team OpenOffice.org weiterhin
Unterstützung auch in Form von
‹
Spenden. (PR)
Leitfaden zur Installation
und Konfiguration von
Windows 7 veröffentlicht
Das Bundesamt für Sicherheit in der
Informationstechnik (BSI) hat im
Rahmen der Reihe: BSI-Standard zur
Internet-Sicherheit (ISi-Reihe) den
Leitfaden zur Installation und Konfiguration von Windows 7 veröffentlicht. In diesem Leitfaden werden
zunächst einige Windows 7 spezifische Grundlagen erläutert. Anschließend wird Schritt für Schritt beschrieben, wie ein PC mit Windows 7 installiert und konfiguriert wird.
Die konkreten Konfigurationsempfehlungen beziehen sich auf einen
Arbeitsplatz-PC, wie er typischerweise für
Bürotätigkeiten verwendet wird. Die jeweiligen Konfigurationsschritte werden
mit verschiedenen Werkzeugen (GUI,
GPO, Registry) durchgeführt. Nach der
Konfiguration werden zudem die Erstellung eines Systemabbildes und das Ausrollen dieses Abbildes auf weitere APCs
beschrieben.
Mit seinen Empfehlungen ergänzt der
Leitfaden die Studie „Absicherung eines
PC-Clients“ aus dem gleichnamigen
Modul der ISi-Reihe.
www.bsi.bund.de (PR)
‹
1/12 37
SPLITTER
BSI veröffentlicht
„Register aktueller
Cyber-Gefährdungen und
-Angriffsformen“
Die erste Veröffentlichung in der Reihe „BSI-Analysen zur Cyber-Sicherheit“ widmet sich der Analyse aktueller Cyber-Risiken und Angriffsmethoden.
Das Bundesamt für Sicherheit in der
Informationstechnik (BSI) hat das „Register aktueller Cyber-Gefährdungen und
-Angriffsformen“ veröffentlicht. Das
Register zeigt in Form einer strukturierten Zusammenstellung auf, welchen
Cyber-Gefährdungen Unternehmen und
Institutionen ausgesetzt sein können. Die
Analyse des BSI orientiert sich dabei an
den typischen Phasen eines Cyber-Angriffs und bietet neben Informationen
zu potenziellen Angreifern auch Hinweise auf deren Methoden, Angriffsvektoren
und mögliche Angriffsziele im Unternehmen. Das Register dient so CIOs, ITPlanern, IT-Architekten, IT-Sicherheitsbeauftragten und anderen professionellen Anwendern von Informationstechnologie sowohl als Einstieg in die
Thematik „Cyber-Sicherheit“ als auch als
Hilfsmittel bei der eigenen Analyse von
IT-Risiken sowie der Einrichtung präventiver und reaktiver Schutz- und Gegenmaßnahmen.
Ein wirksamer Schutz vor Cyber-Angriffen ist nur möglich, wenn Gefährdungen
im Cyber-Raum sowie die eigene tatsächliche Gefährdungslage zumindest im
Überblick bekannt sind. Diesen Überblick ermöglicht das Register des BSI im
Hinblick auf die Vielzahl unterschiedlicher Cyber-Gefährdungen und Angriffsformen, die in der Praxis beobachtet werden. Da sich Cyber-Angriffe dynamisch
weiterentwickeln, wird auch das Register
in regelmäßigen Abständen fortgeschrieben.
1/12 38
Um ein möglichst vollständiges Bild über
die Gefährdungen im Cyber-Raum zu
gewinnen, hat das BSI Umfragen bei
Verbänden, Unternehmen und Forschungseinrichtungen durchgeführt. Die
Ergebnisse dieser Umfragen sind zusammen mit eigenen Erkenntnissen des BSI
in das vorliegende Register eingeflossen.
Neue BSI-Reihe: „BSI-Analysen zur
Cyber-Sicherheit“
Das „Register aktueller Cyber-Gefährdungen und –Angriffsformen“ ist die
erste Veröffentlichung innerhalb einer
neuen Reihe des BSI, den „BSI-Analysen
zur Cyber-Sicherheit“. Die Reihe richtet
sich vornehmlich an professionelle ITAnwender aus Wirtschaft und Verwaltung. Im Rahmen der neuen Reihe wird
das BSI in unregelmäßigen Abständen
weitere Analysen rund um das Thema
Cyber-Sicherheit veröffentlichen.
Das „Register aktueller Cyber-Gefährdungen und -Angriffsformen“ steht zusammen mit weiteren Informationen zur
Cyber-Sicherheit auf der Webseite des BSI
zum Download zur Verfügung
‹
www.bsi.bund.de (PR)
Deutsche Internetnutzer
setzen auf „Bauchgefühl“
gegen Hackerattacken
Laut einer aktuellen Umfrage spielen
Schutzprogramme und sichere
Browser bei der Verteidigung gegen
Angriffe aus dem Netz für deutsche
Nutzer kaum eine Rolle.
Passwortdiebstahl, Phishing und Trojaner: Deutsche Internetnutzer kennen zwar
die Gefahren aus dem Netz – trotzdem
verlässt sich knapp jeder Zweite (45 Prozent) noch immer auf sein eigenes Gespür statt auf professionelle Schutzmaßnahmen. Dies hat eine aktuelle TNS
Emnid Umfrage im Auftrag von
Microsoft Deutschland ergeben. Etwa nur
jeder Fünfte setzt demnach auf ein Antivirus-Programm (23 Prozent) oder eine
Firewall (18 Prozent). Auf eine aktuelle
Version seines Webbrowsers achtet sogar
nur jeder Zehnte (10 Prozent). Dabei
sind moderne Browser ein effektiver
Schutzschild gegen Passwortklau und
Webspionage. Einmal installiert warnen
sie den Nutzer automatisch vor vermeintlich unseriösen Seiten im Netz oder gefährlichen Downloads.
„Cyberkriminelle konzentrieren sich
immer stärker auf den Anwender selbst
und versuchen ihn zum Beispiel mit gefälschten Websites oder Malware systematisch zu täuschen, um Passwörter oder
private Daten zu stehlen“, so Frank
Maenz, Produktmanager Internet Explorer bei Microsoft Deutschland. „Diese so
genannten Social Engineering Angriffe
finden statt, während der Nutzer im
Internet surft. Moderne Browser mit sinnvollen Sicherheitsfunktionen gewinnen
daher enorm an Bedeutung und sind
mittlerweile genauso wichtig wie ein Antivirusprogramm. Nicht aktualisierte
Browserversionen können schnell zu einem großen Sicherheitsrisiko werden.“
Dass der Browser eine wichtige Rolle beim
Schutz vor Cyberkriminalität spielt, ist
vielen Internetbenutzern jedoch nicht
bewusst. Entsprechend unbedarft gehen
sie bei der Wahl des Browsers vor: Weit
über die Hälfte der deutschen Nutzer (64
Prozent) verwendet entweder den einmal
installierten Browser oder überlässt anderen die Auswahl, ohne sich über die Vorteile von neuen Internet-Browsern zu
informieren. Fällt bei den Männern
zumindest noch jeder Zweite (50 Prozent) eine aktive Browser-Entscheidung,
sind es bei den weiblichen Nutzern nur 19
Prozent. Und trotzdem ist der Wunsch
nach Sicherheit weit verbreitet: Bei Î
Die Benutzung eines aktuellen Browsers
spielt eine wichtige Rolle beim Schutz
vor Cyberkriminalität
SPLITTER
Î über der Hälfte der Frauen (54 Prozent, Männer: 48 Prozent) steht bei der
Browser-ausstattung der Punkt Sicherheit weit vorne. Erst mit deutlichem
Abstand folgt das Thema „Schnelligkeit“
(23 Prozent). Ein großer Funktionsumfang und das Angebot an Add-Ons sehen nur 6 Prozent als entscheidendes
Auswahlkriterium an.
„Angriffe mittels Malware werden weiter
zunehmen“, sagt Dr. Markus Schneider,
stellvertretender Leiter des FraunhoferInstituts für Sichere Informationstechnologie (SIT) in Darmstadt. „Für
Nutzer ist es sehr vernünftig, auf verschiedene Schutzmaßnahmen zu setzen.
Hierbei gehören neben der Nutzung eines Antivirenprogramms und einer aktivierten Firewall auch Browser, welche vor
dem Herunterladen von Malware schützen.“
Moderne Browser wie zum Beispiel der
Internet Explorer 9 bieten umfassenden
Schutz vor dem Ausspähen privater Daten. Neben dem neuen Tracking-Schutz
wurden im Internet Explorer 9 der
SmartScreen-Filter und die Bewertungssysteme stark verbessert. SmartScreenFilter ist eine dynamische Sicherheitsfunktion, die vor Phishing-Angriffen und
schädlicher Software schützt. Die
InPrivate-Browsen Funktion sorgt
zudem dafür, dass Browserhistorie, temporäre Internetdateien, Formulardaten,
Cookies, Benutzernamen und Kennwörter automatisch gelöscht werden. Die
ActiveX-Filterung im Internet Explorer
unterstützt die Nutzer bei der Entscheidung zur Ausführung von ActiveXSteuerelementen. So können die Steuerelemente für alle Websites blockiert oder
nur für die vertrauenswürdigen Websites
aktiviert werden. Mit dem neuen Download-Manager erhält der Nutzer Kontrolle über die heruntergeladenen Dateien. Er
informiert über den Status, bietet einen
sicheren Bereich für die Downloads und
zeigt den realen Speicherort der Dateien
an. (PR)
‹
Milliardengewinne durch
Datenschutzverstöße
Das Xamit Datenschutzbarometer
2011 zeigt: Datenschutzkonform handelnde Unternehmen haben einen
Wettbewerbsnachteil von mehr als 7,5
Milliarden Euro gegenüber solchen,
die gegen deutsches Datenschutzrecht
verstoßen.
Die jährlich erscheinende Studie weist
erneut einen Anstieg der Datenschutzverstöße im Internet nach. Im Durchschnitt haben die Datenschutzexperten
der Xamit Bewertungsgesellschaft mbH
82 Verstöße gegen deutsches Recht oder
weitere Fälle von Beanstandungen pro
100 deutsche Webpräsenzen festgestellt.
Das ist eine Steigerung von zwölf Prozent gegenüber 2010. Untersucht wurden
u.a. die datenschutzkonforme Nutzung
von Webstatistiken, die Einbindung von
Werbung durch Dritte ohne Hinweis auf
die daraus gewonnenen Nutzerdaten und
die Verwendung des Facebook „LikeButtons“.
„Der seit Jahren zu beobachtende Trend
hin zu immer mehr Datenschutzverstößen ist weiter ungebrochen“, sagt
Xamit-Geschäftsführer Dr. Niels
Lepperhoff. Zugenommen hat u.a. die
Verwendung des datenschutzrechtlich bedenklichen Facebook Like-Buttons von
0,6 Prozent in 2010 auf 6,6 Prozent in
diesem Jahr. Der Einsatz nicht
datenschutzkonformer Webstatistiken ist
um insgesamt 12 Prozent gestiegen. Geschuldet ist dieser Anstieg hauptsächlich
dem Webstatistikdienst von Google
Analytics. Dieser wird auf nunmehr 22
Prozent der deutschen Webseiten in der
nicht anonymisierenden Form eingesetzt
und ist so nach deutschem Recht nicht
datenschutzkonform.
„Solange sich Datenschutzverstöße für
Unternehmen finanziell lohnen, wird eine
Umkehr hin zu mehr Datenschutz nach
den Erfahrungen der letzten Jahre wohl
nur durch harte Sanktionen erreicht werden“, sagt Dr. Niels Lepperhoff. „Es liegt
nun in den Händen der DatenschutzAufsichtsbehörden, ihre gewonnene
Unabhängigkeit zu nutzen, um die
Grundrechte aller zu schützen und für
faire Wettbewerbsbedingungen zu sorgen.“
Seit 2009 dokumentiert das Xamit
Datenschutzbarometer die Stellenausstattung der deutschen Datenschutzaufsicht. Dieses Jahr stehen den Aufsichtsbehörden für den nicht-öffentlichen
Bereich für die Kontrolle, Beratung und
weitere Tätigkeiten bundesweit durchschnittlich 3,6 Vollzeitstellen pro 100.000
Unternehmen zur Verfügung. Etwas
mehr als in 2010. „Angesichts der steigenden Fallzahlen ist die Stellenausstattung
der Datenschutz-Aufsichtsbehörden
immer noch nicht ausreichend“, sagt Dr.
Niels Lepperhoff. „Hinzu kommt, dass
den Behörden teilweise sogar die Befugnis fehlt, Datenschutzverstöße mit Bußgeldern zu ahnden. Hier müssen sich Î
Milliardengewinne für Unternehmen durch Datenschutzverstöße
1/12 39
SPLITTER
Îdie Politiker fragen lassen, wie ernst sie
es mit dem Datenschutz der ihnen anvertrauten Bürger nehmen.“
Das vollständige Xamit Datenschutzbarometer 2011 steht ab sofort zum kostenlosen Download unter www.xamitleistungen.de/veroeffentlichungen/
studien-und-tests/ zur Verfügung. Neben den detaillierten Untersuchungsergebnissen sind darin auch Handlungsempfehlungen für Webseitenbetreiber
zum sicheren, vertrauensbildenden und
gesetzeskonformen Umgang mit
Personendaten enthalten sowie Tipps für
Webseitenbesucher, um ihre Surfspuren
‹
zu verringern. (PR)
Soziale Netzwerke
vermehrt im Visier von
Cyberkriminellen
Für 2012 prognostiziert Virenschutzexperte Bitdefender eine zunehmende Anzahl digitaler Schädlinge – zum
Teil auch Varianten bereits vorhandener Schadprogramme. 23 Prozent
mehr Malware wird in diesem Jahr
auftauchen. Darüber hinaus werden
soziale Netzwerke, das Android-Betriebssystem und technische Neuerungen, darunter Windows 8 und HTML5,
ins Visier der Cybergangster geraten.
Im Jahr 2012 werden vermutlich etwa 90
Millionen Malware-Typen im weltweiten
Netz kursieren, so die Experten von
Bitdefender - das wären rund 17 Millionen mehr als im vergangenen Jahr. Der
Pool digitaler Schädlinge setzt sich wahrscheinlich aus zwei Arten von digitalen
Schädlingen zusammen: zum einen aus
überarbeiteten E-Threats, die
Technologien ihrer Vorgänger nutzen,
aber in neuer „Verpackung“ auftreten,
um nicht erkannt zu werden. Zum anderen wird neue Malware auftreten, die speziell Zero-Day-Schwachstellen in Betriebssystemen und Software ausnutzt.
1/12 40
Fokus auf Facebook
Darüber hinaus erwarten die BitdefenderExperten, dass sich Internetkriminelle
weiterhin auf soziale Netzwerke,
insbesondere Facebook, konzentrieren.
Mit ca. 800 Millionen Mitgliedern ist die
US-amerikanische Plattform aktuell die
größte Nutzer-Community im Web.
Dadurch bietet sie eine große Angriffsfläche für Spammails, infizierte Links etc.
Zwar hat Facebook seine Sicherheitsmaßnahmen intensiviert und reagiert
mittlerweile innerhalb kurzer Zeit auf
bekanntgewordene Gefahren. Dennoch
sind mehr als 400 Millionen User anfällig
für kurzzeitige Bedrohungen. Ein weiteres Ziel für Schädlingsattacken im SocialMedia-Bereich ist der MicrobloggingDienst Twitter. Bitdefender rechnet für
beide Netzwerke mit mindestens einer
neuen Malware-Familie, die die Pinnwände und Timelines der User mit verseuchten Weblinks flutet.
Android unter Beschuss
Seit Einführung im Jahr 2008 hat Android
in den USA und Großbritannien, den
Ländern mit dem höchsten SmartphoneVorkommen, seinen Marktanteil auf 25
bzw. 50 Prozent ausgebaut. Seitdem steigen auch die Attacken auf das Google-OS
(Operating System). Auf Grund dessen
prognostiziert Bitdefender, dass Angriffe auf entsprechende Geräte zunehmen
werden. Ein aktuelles Beispiel ist
CarrierIQ, eine umstrittene Tracking Software, die vom gleichnamigen Unternehmen programmiert wurde. Sie sammelt
Informationen über Nutzungsverhalten,
Aufenthaltsorte sowie Tastatureingaben
des Smartphone-Besitzers.
E-Threats bedrohen HTML5, IPv6
und Windows 8
Auch neue Technologien werden zu Zielen cyberkrimineller Aktivitäten avancieren, so die Bitdefender-Spezialisten.
Insbesondere die Einführung von
HTML5 und IPv6 sowie der Launch des
neuen Betriebssystems Microsoft
Windows 8 könnten Internetgangstern
als Startschuss dienen, neue Schadcodes
und Trickbetrugsstrategien zu entwickeln.
Bezüglich HTML5 ist zu befürchten, dass
Malware-Autoren die neuen Features
ausnutzen, um z.B. User mittels
Geopositionsdaten zu tracken. Bei der
Realisierung von IPv6 schlummert die
Gefahr unter anderem in IPSec. Dieser
Mechanismus lässt Traffic zwischen Quelle
und Ziel verschlüsselt fließen. Damit soll
grundsätzlich Traffic Sniffing verhindert
werden. Cybergangster könnten dies jedoch dazu missbrauchen, BotnetzDatenverkehr von und zu der Kommandozentrale zu tarnen. Mit der Aussicht
auf das Windows-8-Release kursieren in
Web-Sharing-Diensten bereits jetzt gefälschte und verseuchte Versionen des
neuen OS. Lädt der User das vorgebliche
Programm herunter, untergräbt es das
vorhandene System und erschwert damit
die Erkennung und Desinfektion.
Die komplette Studie „Bitdefender EThreat Landscape Report H2 2011“ steht
unter www.bitdefender.com zum Download bereit. (PR)
‹
HTML5: Warnung vor
Botnetzen im Browser
HTML5 wird von vielen sehnsüchtig
erwartet. Tatsächlich punktet die neue
Generation der Webseiten-Beschreibungssprache mit zahlreichen
Neuerungen, auf die Entwickler und
Administratoren schon lange gewartet haben. Die Kehrseite der Medaille:
HTML5 bietet auch den Cyber-kriminellen völlig neue Möglichkeiten. Eine
nicht zu unterschätzende Bedrohung,
die mit HTML5 entsteht, sind „Botnetze im Browser“. Trend Micro hat
das Infektionsszenario durchgespielt
und analysiert, für welche Zwecke
Online-Gangster diesen neuen Angriffsweg missbrauchen können.
Angreifer sind mit HTML5 in der Lage,
ein Botnetz zu erzeugen, das auf je- Î
SPLITTER
• Phishing: Mittels „Tabnabbing“ kann
•
Î dem Betriebssystem und auf jedem
Gerät funktioniert. Es läuft vorwiegend
im Hauptspeicher und berührt daher die
Festplatte kaum. Das macht es für Antivirenprogramme, die mit Signaturdateien
arbeiten, schwierig, das Botnetz zu erkennen. Da der bösartige Code als JavaScript
implementiert ist, das sich technisch gesehen mit wenig Mühe verschleiern lässt,
tun sich auch solche Sicherheitslösungen
schwer, die auf das Erkennen von Einbruchsversuchen in Netzwerken spezialisiert sind. Zu nennen sind hier die so
genannten „Intrusion-Detection-Systeme“ (IDS), die mit Signaturen arbeiten.
Und schließlich kann der bösartige Code
wegen seiner Einbettung im Browser auch
die meisten Firewalls mühelos passieren.
Waffenarsenal für Online-Gangster
Einmal erfolgreich in das System eines
Anwenders eingedrungen, steht den
Online-Kriminellen ein ganzes Waffenarsenal zur Verfügung:
• DDoS-Attacken: Tausende von An-
•
•
fragen können ohne Wissen des Nutzers an eine Ziel-Website geschickt und
diese dadurch lahm gelegt werden.
Spamming: Unzureichend gesicherte
Kontaktseiten von Websites lassen
sich zur Erzeugung von Spam-Nachrichten missbrauchen.
Bitcoin-Generierung: Die infizierten
Rechner lassen sich als Generatoren
zur Berechnung von Bitcoins, der beliebtesten Währung des cyberkriminellen Untergrunds, zweckentfremden.
•
•
das Botnetz Registerkarten („Tabs“)
im Browser des Anwenders kapern
und ihr Aussehen beliebig gestalten.
Dadurch ist es möglich, dem ahnungslosen Anwender jedes Mal, wenn er
auf die infizierte Registerkarte klickt,
eine Eingabeaufforderung zu einem
von ihm genutzten Webdienst vorzutäuschen. Gibt er seine Zugangsdaten
ein, fallen seine Webdienst-Konten in
die Hände der Kriminellen.
Netzspionage: Das Botnetz ist in der
Lage, im Netzwerk des Opfers nach
Sicherheitslücken zu forschen und die
Ports zu scannen.
Netzwerke als Proxy: Mit dem Botnetz können die Kriminellen im Cyber-Untergrund Angriffswege verschleiern und Attacken über die infizierten Netzwerke leiten; der Ursprung
der Angriffe ist dadurch kaum noch
auszumachen.
Verbreitung: Die Cyberkriminellen
können in das Botnetz zusätzlich eine
Wurmkomponente einfügen, die sich
dann auf angreifbaren Websites verbreitet.
Abwehrmöglichkeiten
Diese doch bemerkenswerten Möglichkeiten für Angreifer werden nach Meinung von Trend Micro-Experten bald
häufiger eingesetzt, vor allem bei gezielten
Attacken. Herkömmliche Sicherheitsmaßnahmen gegen Malware können diese neuen Angriffsvektoren nicht abwehren, doch gibt es zwei kostenlose Tools,
die einen sehr guten Schutz bieten:
• NoScript (http://noscript.net): Das
•
Browser-Plug-In ist unter Fachleuten
bereits gut bekannt. NoScript schränkt
die Funktionsweise von JavaScript und
anderen Plug-Ins auf nicht vertrauenswürdigen Seiten ein.
BrowserGuard (de.trendmicro.com):
Trend Micros eigenes Tool umfasst
eine Reihe von Funktionen, um
webbasierte Angriffe abzuwehren.
Dazu gehören unter anderem
fortschrittliche heuristische Techniken.
(PR)
‹
Facebook ist
entscheidender
Wirtschaftsfaktor in
Europa
Zum Abschluss der DLD Konferenz
(Digital Life Design) in München hat
Sheryl Sandberg, Chief Operating
Officer von Facebook, heute eine
umfassende Studie zum wirtschaftlichen Einfluss von Facebook in Europa
vorgestellt.
Die von Deloitte durchgeführte Untersuchung verdeutlicht das große Potenzial
der sozialen Plattform für das Wirtschaftswachstum in Europa. Die Studie belegt,
dass Facebook in Europa einen direkten
Mehrwert von 15,3 Milliarden Euro
schafft. Unternehmen können 32 Milliarden Euro Umsatz in Europa durch
Facebook-Aktivitäten realisieren. Auch in
Arbeitsplätzen schlägt sich dies nieder.
Dank Facebook sind bereits über 230.000
Jobs geschaffen worden. In Deutschland
beläuft sich die Zahl der aufgrund von
Facebook neu entstandenen Arbeitsplätze nach Ansicht der Experten auf 36.000.
Facebook steuert in Deutschland 2,6 Milliarden Euro zum Bruttoninlandsprodukt bei.
„Die Studie zeigt deutlich, dass Facebook
viel mehr ist, als ‚Bilder zu teilen’ und ‚mit
Freunden in Kontakt zu sein’. Der Erfolg
von Social Media bedeutet Wachstum
und Arbeitsplätze“, sagt Sheryl Sandberg.
„Die Ergebnisse der Deloitte-Studie sind
eindeutig: Soziale Netzwerke bieten besondere Möglichkeiten für kleine und
mittelständische Unternehmen – das
Rückgrat der europäischen Wirtschaft.
Social Media ist ein Lichtblick in schwierigen wirtschaftlichen Zeiten, aber Wachstum passiert nicht von alleine. Nur wenn
wir in die richtige Aus- und Weiterbildung, die notwendigen Technologien
und Netzwerke investieren, kann Social
Media weiterhin Innovationen und
Wirtschaftswachstum fördern.“
Untermauert wird dies durch eine aktuelle repräsentative Umfrage des Bundes- Î
1/12 41
SPLITTER
Î verbands Informationswirtschaft, Telekommunikation und neue Medien e.V.
(BITKOM) und Facebook in Deutschland unter kleinen und mittelständischen
Unternehmen mit mehr als 10 Mitarbeitern. 38 Prozent der in Social Media aktiven Unternehmen gaben an, dass sie ein
klares Wirtschaftswachstum aufgrund
ihrer Facebook-Präsenz verzeichnen konnten. 69 Prozent erklärten, ihren Bekanntheitsgrad durch Facebook signifikant gesteigert zu haben.
In München traf Sheryl Sandberg auch auf
das traditionsreiche bayrische Trachtenhaus Angermaier. Seit 1963 entwirft Trachten Angermaier moderne und traditionelle Trachtenmode. Die Präsenz auf
Facebook hat sich für Geschäftsführer
Dr. Axel Munz und sein Team ausgezahlt. Acht neue Mitarbeiter konnten auch
aufgrund von Facebook eingestellt werden und der Umsatz erhöhte sich im
letzten Jahr um fast 20 Prozent.
„Facebook bietet uns die einmalige Möglichkeit, direkt mit unseren Kunden in
Kontakt zu treten, auf uns aufmerksam
zu machen und neue Trends und
Kundenwünsche sofort zu erkennen.
Außerdem können wir so sehr einfach
auch über die Grenzen hinaus unsere
Trachten vermarkten. Das gefällt mir“,
erläutert Munz seine Aktivitäten auf
‹
Facebook. (PR)
Impressums-Pflicht
bei Facebook
Das Landgericht Aschaffenburg hat
im vergangenen Jahr entschieden, dass
auch bei Facebook eine Impressumspflicht besteht. Werden Profilseiten in
sozialen Netzwerken wie Facebook
geschäftlich zu Marketingzwecken
und nicht nur rein privat genutzt, gilt
für sie die Impressumspflicht nach § 5
des Telemediengesetzes (TMG).
Zur Erfüllung dieser Pflicht könne der
Nutzer dann auf das Impressum seiner
eigenen Website verlinken, sofern gewährleistet sei, dass die Pflichtangaben einfach
zu erkennen und ohne langes Suchen zu
finden sind. Ein Link mit der Bezeichnung „Info“ erfülle diese Voraussetzungen aber nicht.
In dem zu entscheidenden Fall enthielt
die Facebookseite der Antragsgegnerin
kein eigenes Impressum. Nur der Name,
die Anschrift und die Telefonnummer
waren angegeben, nicht jedoch die Gesellschaftsform und der Vertretungsberechtigte. Über einen Link mit der Bezeichnung „Info“ gelangte man
allerdings zum Webauftritt der
Die wirtschaftliche Wirkung von Facebook in Deutschland
1/12 42
Antragsgegnerin und konnte dort das
Impressum aufrufen.
Der Antragsgegnerin wurde unlauteres
Verhalten mit der Begründung vorgeworfen, die Angaben in ihrem FacebookProfil erfüllten nicht die Anforderungen
des § 5 TMG. Eine Wettbewerberin mahnte die Antragsgegnerin deshalb ab und
forderte sie auf, eine Unterlassungserklärung abzugeben. Nachdem die
Antragsgegnerin dieser Aufforderung
nicht nachgekommen war, beantragte die
Wettbewerberin eine Einstweilige Verfügung.
Das Landgericht hat dem Verfügungsantrag stattgegeben. Die Antragsgegnerin
habe gegen § 5 TMG verstoßen und
damit unlauter gehandelt. Sie sei verpflichtet, die erforderlichen Pflichtangaben auf
ihrer Facebookseite leicht erkennbar und
unmittelbar erreichbar zur Verfügung zu
halten. Denn auch Nutzer von sozialen
Netzwerken wie Facebook müssten ein
eigenes Impressum vorhalten, wenn sie
diese – wie die Antragsgegnerin – für
Marketingzwecke und nicht nur rein privat nutzen.
Nach Ansicht des Gerichts ist es zur Erfüllung der Informationspflicht nicht
erforderlich, dass sich das Impressum auf
der Profilseite des sozialen Netzwerkes
befindet. Es sei auch zulässig, auf das
Impressum der eigenen Webseite zu verlinken. Voraussetzung sei aber, dass die
Pflichtangaben einfach und effektiv optisch wahrgenommen und ohne langes
Suchen aufgefunden werden können.
Diese Anforderungen sieht das LG durch
den Link mit der Bezeichnung „Info“
nicht erfüllt. Da die Bezeichnung „Info“
nicht klar erkennen lasse, dass der Link zu
den Pflichtangaben führe, liege bereits in
ihr ein Verstoß gegen § 5 TMG.
(LG Aschaffenburg, Urteil vom
19.08.2011, Az.: 2 HK O 54/11) (PR) ‹
SPLITTER
Wissensplattform
ALEXANDRIA für die
allgemeine Nutzung
freigegeben
Im Rahmen des THESEUS-Abschlusskongresses wurde am 14. Februar in Berlin eine neuartige Wissensplattform für Online-Communities
freigeschaltet. ALEXANDRIA stellt
dem Anwender strukturiertes Wissen
über berühmte Persönlichkeiten,
Werke, Orte und Ereignisse zur Verfügung und bietet neue Möglichkeiten zur Exploration und Aufbereitung
von Wissen.
Die Plattform ist eines der Highlights aus
dem THEUSEUS-Forschungsprogramm, in dem seit 2007 rund 60 Partner
neue Technologien für ein zukünftiges
Internet der Dienste erproben und entwickeln. Der Betrieb der Plattform wird
von dem Berliner Software-Spezialisten
Neofonie sichergestellt, der maßgeblich
an der Entwicklung beteiligt war.
„Die Freigabe der Wissensplattform
ALEXANDRIA zeigt einmal mehr den
Erfolg des THESEUS-Forschungsprogramms für die mittelständische Wirtschaft. Ich freue mich, dass ein mittelständisches Unternehmen aufgrund des
THESEUS-Programms neue Dienste
anbieten kann und aus semantischen
Technologien einen großen Nutzen ziehen kann“, so der Parlamentarische Staatssekretär beim Bundesminister für Wirtschaft und Technologie, Hans-Joachim
Otto.
ALEXANDRIA verfügt über einen
(semi-)automatischen Mechanismus
zum Aufbau eines semantischen
Wissensspeichers auf Basis von
Informationsquellen im Internet (z. B.
Wikipedia, Blogs oder Nachrichtenportale). Gleichzeitig stellt sie dem Anwender eine Reihe intelligenter Werkzeuge zur Verfügung, um in einem sozialen
Netzwerk den Wissensspeicher kontinuierlich auszubauen und zu pflegen.
Herausragendes Merkmal ist das FrageAntwort-System, mit dem Fragen in natürlicher Sprache gestellt werden können.
Dazu verfügt ALEXANDRIA über eine
sogenannte semantische Autovervollständigung, die natürlich sprachliche Eingaben in Echtzeit interpretieren
kann. Darüber hinaus verfügt das System
über einen ausgefeilten Suchalgorithmus
zur automatischen Informationsextraktion. Vor dem Hintergrund des
bereits vorhandenen Wissensspeichers
werden deutschsprachige Nachrichten im
Web inhaltlich analysiert und automatisch mit vorhandenen Einträgen in der
Wissensmaschine verknüpft. So entstehen nach und nach vollautomatisch generierte Nachrichtenprofile zu Personen,
Werken, Orten oder Ereignissen, die von
Usern der OnlineCommunity gepflegt und
bei Bedarf verbessert werden können.
als Teil des THESEUS-Forschungsprogramms von den Projektpartnern
Neofonie GmbH, Neofonie Mobile
GmbH, Siemens IT Solutions and Services GmbH (früher C-LAB; jetzt Atos
Origin zugehörig), Siemens AG –
Corporate Technology, der DFKI GmbH
- sowie der Deutschen Nationalbibliothek realisiert und entwickelt. Die Plattform steht ab dem 14. Februar allen interessierten Besuchern zur Nutzung frei.
Wer sich nicht nur für die Inhalte interessiert, sondern aktiv an deren Pflege und
Erweiterung beteiligen möchte, kann sich
kostenlos für die Online-Community registrieren.
http://alexandria.neofonie.de (PR) ‹
Das Anwendungsszenario stern.de
Wie
wichtig
die
Forschungsergebnisse in
Bezug auf eine wirtschaftliche Verwertung sind, zeigen erste Anwendungsszenarien, wie sie derzeit
von Neofonie für das
Online-Portal stern.de
konzipiert werden. Geplant ist hier, sowohl die
stern.de-Suche als auch die
internen Verlinkungsstrukturen mithilfe der
ALEXANDRIA-Logik
treffsicherer zu machen.
Damit wird dem Nutzer
das Auffinden von relevanten Inhalten und Querbezügen erleichtert und
der Nutzwert des stern.deAngebotes steigt deutlich.
ALEXANDRIA
Internet
im
Die Wissensplattform
ALEXANDRIA wurde
Screenshot der Wissensplattform ALEXANDRIA
1/12 43
SPLITTER
Störerhaftung
desAdmin-C
Der sogenannte Admin-C ist der bei
der deutschen Registrierungsstelle für
die DE-Domains anzugebende administrative Ansprechpartner in Bezug
auf die Domain. Das heißt grundsätzlich ist der Admin-C derjenige, der
gemäß den Nutzungsbedingungen
der Denic dieser gegenüber für Abwicklungsfragen als Ansprechpartner
zur Verfügung steht.
Der Admin-C muss hierbei immer einen
Sitz in Deutschland haben. Das verleitet
gerade im Falle von Rechtsverletzungen
bei einem ausländischen Domaininhaber
stets dazu, statt sich an den Domaininhaber zu wenden, eben direkt auf den
Admin-C zuzugehen.
Doch haftet der Admin-C in solchen Fällen? Wenn er nachweislich selbst gehandelt hat, dann sicherlich. Doch dies ist in
der Regel nicht der Fall, zumindest wäre
es nicht nachweisbar.
Daher dreht sich der juristische Streit darum, ob der Admin-C auch als so genannter Störer haftet, also für die Handlungen
Dritter, in erster Linie des Domaininhabers selbst.
Als Störer haftet nach der allgemeinen
Definition verschuldensunabhängig und
unabhängig von Art und Umfang seines
eigenen Tatbeitrags jeder, der in irgendeiner Weise willentlich und adäquat kausal an der Herbeiführung der rechtswidrigen Beeinträchtigung mitgewirkt hat,
wobei als Mitwirkung auch die Unterstützung oder Ausnutzung der Handlung eines eigenverantwortlich handelnden Dritten genügt, sofern der Inanspruchgenommene die technische und
rechtliche Möglichkeit zur Verhinderung
dieser Handlung hatte. Wichtig ist
allerdings, dass die Haftung des Störers,
um die Störerhaftung nicht über Gebühr
auf Dritte zu erstrecken, die nicht selbst
die rechtswidrige Beeinträchtigung vorgenommen haben, die Verletzung von
Prüfungspflichten voraussetzt. Deren
1/12 44
Umfang bestimmt sich danach, ob und
inwieweit dem als Störer in Anspruch
Genommenen nach den Umständen eine
Prüfung zuzumuten ist.
Die Gerichte sind mit der Störerhaftung
des Admin-C sehr zurückhaltend.
Schließlich geht er nur im Innenverhältnis
zur DENIC eine Pflicht ein, als
Ansprechpartner zu dienen. Das führt in
der Regel nicht dazu, dass er die tatsächliche Möglichkeit hat Rechtsverletzungen
auf der Domain zu erkennen und vor
allem zu verhindern.
Der BGH hat in seinem Urteil vom 9.
November 2011 (Az. I ZR 150/09) entschieden dass der Admin-C dann zumutbare Prüfpflichten verletzt haben kann,
wenn er die Registrierung eines bestimmten Domainnamens ermöglicht.
Jedenfalls soll dies dann gelten, wenn der
Admin-C für eine hohe Anzahl an solchen Domainnamen für immer dieselbe
ausländische Firma zur Verfügung steht
und ihm bekannt ist, dass die Registrierung dieser Domainnamen automatisch
erfolgt, also immer dann, wenn ein
Domainname frei wird, eine Registrierung erfolgt. Dann, so der BGH, muss
der Admin-C wissen, dass eine Prüfung
des Namens durch den Domaininhaber
nie stattfinden kann und es treffen ihn
sodann erhöhte Pflichten, die auch die
Prüfung der Rechtsverletzung durch den
Namen der Domain beinhaltet. (PR) ‹
GoogleAnalytics
datenschutzkonform
einsetzen
Google Analytics und andere WebAnalysetools sind für viele Webseitenbetreiber zum Verständnis der Nutzer-Aktivitäten auf ihren Websites
unverzicht-bare Werkzeuge. Viele
Webmaster setzen diese Informationen ein, um die Websites für die Nutzer zu verbessern. Google will Webmastern mit Google Analytics eine
zuverlässige und stabile Web-Analyse-
Das Analysetool Google Analytics
plattform bieten, die gleichzeitig das
Vertrauen und die Privatsphäre ihrer
Besucher garantiert.
Während der Einsatz von Google
Analytics nach Ansicht von Google nicht
gegen das deutsche und europäische
Datenschutzrecht verstößt, hatten deutsche Datenschutzbehörden in der Vergangenheit dazu eine abweichende Auffassung. Google hat eng mit diesen Behörden – vertreten durch den Hamburgischen Beauftragten für Datenchutz
und Informationsfreiheit – hinsichtlich
der Bedenken zusammengearbeitet und
eine Reihe von Verbesserungen für
Google Analytics implementiert.
Nach Angaben des Hamburgischen Beauftragte für Datenschutz und Informationsfreiheit, Prof. Dr. Johannes Caspar,
kann Google Analytics unter bestimmten Voraussetzungen ohne Beanstandung der deutschen Datenschutzbehörden eingesetzt werden.
Deutsche Webseitenbetreiber, die Google
Analytics einsetzen, sollten mit folgenden Schritten sicherstellen, dass die Anforderungen der deutschen Datenschutzbehörden erfüllt werden:
• In der Datenschutzerklärung erwähnen, dass Google Analytics auf der
Webseite eingesetzt wird
• Implementieren der IP-MaskenFunktion, die Google Analytics anweist, nicht die vollständige IP-Adresse der Nutzer zu speichern oder zu
verarbeiten
• In den Datenschutzbestimmungen
auf die Möglichkeit der Deaktivierung
der Google Analytics-Funktion mittels eines Browser Add-ons hinweisen. Die Installation verhindert, Î
SPLITTER
Î dass Analyse-Informationen an
Google gesendet werden
Google Analytics hat seine Nutzungsbedingungen aktualisiert. Nun sind mit
den Datenschutzbehörden abgestimmte
Regelungen zur Auftragsdatenverarbeitung enthalten. (PR, EB)
‹
Googles Datenschutzerklärung nach deutschem Recht angreifbar
Zum 1. März 2012 führt Google neue,
einheitliche Datenschutzbestimmungen ein. Sie ersetzen die über 60
Datenschutzerklärungen der verschiedenen Dienste. Vorteilhaft für den
Nutzer ist das nur auf den ersten Blick,
urteilt die Stiftung Warentest in ihrem
Online-Portal test.de. Google bleibt
in den Formulierungen auffällig vage
und räumt sich auf diese Weise weitreichende Rechte ein, die nach deutschem Recht angreifbar sind.
Die neue Datenschutzerklärung ist zwar
besser strukturiert und insgesamt verständlicher als ihre zahlreichen Vorgänger. Trotzdem gelingt es Google nicht,
die versprochene „höchstmögliche Transparenz“ herzustellen. Die etwa neunseitige
Erklärung wimmelt geradezu von äußerst dehnbaren Formulierungen wie
„möglicherweise“ (15 Mal) und
„gegebenenfalls“ (zehn Mal).
Breitband-Anschlüsse:
Deutschland in der
Spitzengruppe
Der Breitband-Boom in Deutschland
setzt sich fort. Lange Zeit haben deutsche Haushalte schnelle Internet-Zugänge im internationalen Vergleich
nur mäßig genutzt. Nun ist man in der
Spitzengruppe angekommen.
Inzwischen nutzen fast vier von fünf
Haushalten (78 Prozent) einen schnellen
Breitband-Zugang ins Netz. Damit hat
sich die Zahl dieser Anschlüsse seit 2004
mehr als vervierfacht und beträgt nun 31
Millionen. Deutschland liegt klar über
dem europäischen Schnitt, auf Rang 6.
Dies gab der Bundesverband Informationswirtschaft, Telekommunikation
und neue Medien (BITKOM) bekannt.
Basis sind neue Zahlen von Eurostat.
„Die Breitband-Strategie des Bundes und
die Milliarden-Investitionen der
Netzbetreiber haben es ermöglicht, dass
Deutschland bei der Breitband-Nutzung
inzwischen vorne dabei ist“, sagt
BITKOM-Hauptgeschäftsführer Dr.
Bernhard Rohleder. Schnelle InternetZugänge mit mindestens 1Mbit/s sind
in Deutschland für über 99 Prozent der
Haushalte verfügbar. Nur jeder fünfte
Haushalt nutzt dieses Angebot nicht.
„Für Zuwachs bei der Nutzung sorgten
außerdem sinkende Preise bei gleichzeitig
höheren Bandbreiten“, so Rohleder.
Immer höhere Geschwindigkeiten und
die Kombination von Fernsehanschluss,
Internetzugang sowie Telefonie machen
die Paketangebote für immer mehr Kunden attraktiv.
Laut Bundesnetzagentur haben die TKUnternehmen zwischen 1998 und 2010
über 93 Milliarden Euro in den Ausbau
der Netze investiert. „Für den Wirtschaftsstandort Deutschland ist die flächendeckende Verfügbarkeit von schnellen
Internetverbindungen unverzichtbar“,
sagte Rohleder. Wichtige Zukunftsprojekte, wie intelligente Strom- und
Verkehrsnetze, seien auf ein leistungsfähiges Breitbandnetz angewiesen.
Die Bundesregierung will durch Breitbandstrategie den Ausbau der Infrastruktur beschleunigen. Mit dem Ausbau der
Mobilfunknetze mit dem neuen Standard LTE (Long Term Evolution) werden auch die letzten „weißen Flecken“ in
der Breitbandversorgung geschlossen. In
einem zweiten Schritt wird die Entwicklung zu deutlich höheren Geschwindigkeiten forciert. Im Jahr 2014 sollen 75
Prozent aller Haushalte Zugang zu Anschlüssen mit mindestens 50 MBit/s ha‹
ben. (PR)
Dies zeigt beispielhaft die Klausel, die
zukünftig die umfassende Profilbildung
ermöglichen soll: „Unter Umständen verknüpfen wir personenbezogene Daten
aus einem Dienst mit Informationen und
personenbezogenen Daten aus anderen
Google-Diensten.“ Damit weiß ein Nutzer nicht, ob und wann es zu einer
Verknüpfung kommt und ob er jemals
etwas davon erfährt. Nach deutschem
Recht sind solche schwammigen Formulierungen angreifbar.
Der vollständige Bericht ist unter www.
‹
test.de abrufbar. (PR)
Breitband-Anschlüsse: Deutschland in der Spitzengruppe
1/12 45
SPLITTER
Löschen leerer Ordner
leicht gemacht: Neue
FreeWare des Office
Manager sorgt für
Ordnung auf WindowsComputern
Das Dokumenten Management System (DMS) Office Manager hat sich
seit vielen Jahren als effiziente,
revisionssichere Business-Lösung zur
Verwaltung und Archivierung digitaler Dokumente bewährt. Ab sofort
können die Anwender der Lösung dank
eines neuen kleinen Software-Tools
auch in anderer Hinsicht für Ordnung
sorgen.
Momenten, wo es wirklich mal schnell
gehen muss“, weiß Harald Krekeler, Geschäftsführer des Softwarebüros Krekeler,
aus Erfahrungsberichten seiner Kunden.
Interessierte Windows-Anwender können das neue Tool ganz einfach testen: Da
keine Installation benötigt wird, lässt es
sich durch Löschen der Programmdatei
vollständig wieder entfernen. Das
„Clear|Folder|Tool“ steht als Anwendung in einer 32 Bit- und einer 64 BitVersion zur Verfügung. Allerdings sollte
darauf geachtet werden, dass nur jene
leere Verzeichnisse gelöscht werden, für
die keine Verwendung mehr besteht.
Hinweise dazu finden Anwender auf der
„Clear|Folder|Tool“-Spezialseite unter
www.officemanager.de (PR)
‹
Die neueste Version des Packers ist
jetzt noch kompatibler: beliebte Funktionen des RAR-Formats wurden auf
das ZIP-Format ausgeweitet.
Der praktische Nutzen des „Clear|
Folder|Tool“ liegt auf der Hand: „Je
nach Arbeitsweise und Datenaufkommen
können auf Rechnern schnell unübersichtliche Ordner- und Verzeichnisstrukturen wuchern. Solch ein Dickicht
macht Arbeitsprozesse unnötig kompliziert, zwingt zum nervigen Suchen und
kostet wertvolle Zeit – besonders in
1/12 46
Alternativ zu ZIP-Archiven können Anwender auf selbst-extrahierende (SFX)
gesplittete RAR-Archive zurückgreifen.
Diese können Empfänger unabhängig
vom installierten Kompressionsprogramm öffnen. Im Gegensatz zu gesplitteten Archiven im RAR-Format erlaubt das ZIP-Format keine SFX-MultiVolumen.
Weitere Neuerungen bei WinRAR 4.10
Finale Version von
WinRAR 4.10 steht zum
Download bereit
Das neue „Clear|Folder|Tool“, das als
kostenloser Download verfügbar ist,
durchsucht Festplatten nach Ordnern und
Verzeichnissen, die vollständig leer sind
oder nur verwaiste Systemdateien beinhalten. Diese werden in einer Liste präsentiert und können dann direkt zum
Entfernen markiert werden.
Um seinen Usern weitreichend entgegenzukommen und die Kompatibilität für
andere Formate zu erhalten, ermöglicht
WinRAR 4.10 jetzt auch Multi-Volumen
im ZIP-Format. Große Archive wie
Musiksammlungen oder Filmdateien
können damit auf mehrere Archive verteilt abgespeichert und leichter über das
Internet verschickt werden.
win.rar GmbH und RARLAB präsentieren die finale Version von WinRAR 4.10.
Das bekannte Kompressionsprogramm
ist unter www.win-rar.com erhältlich.
Optimierung des ZIP-Supports
Die Entwickler von RARLAB haben bei
WinRAR 4.10 insbesondere die ZIPFormat-Unterstützung optimiert. Damit
kann RARLAB als einziger Anbieter seinen Usern auch in Zukunft viele Features
des RAR-Formats zusätzlich im ZIPFormat bieten. So konnte mit der aktuellen Version die Limitierung des ZIP Formats auf 2 GB Archivgröße und 65.535
Dateien pro Archiv aufgehoben werden.
Das RAR-Format kennt selbstverständlich auch in Zukunft weiterhin keine Beschränkungen bei Größe und Dateianzahl.
Allgemeine Neuerungen von WinRAR
4.10 beinhalten eine Überarbeitung der
Benutzeroberfläche insbesondere im Bereich Volumengröße und verbesserte
Sicherheitseinstellungen beim Löschen
temporärer Dateien.
Zudem wurde die beliebte Funktion
„Archive konvertieren“ optimiert, um die
Benutzung zu vereinfachen und den
Konvertierungsprozess zu beschleunigen. Darüber hinaus hat RARLAB neue
Befehle für die WinRAR-Eingabeaufforderung eingeführt sowie die SFXModule für selbst-extrahierende Archive
und Installationsprogramme verbessert.
„Unsere treuen Anwender wissen
inzwischen, dass Sie mit WinRAR einen
hochstabilen Packer mit höchsten
Kompressionsraten zur Hand haben, der
sich durch besonders durchdachte Funktionen auszeichnet. Nun haben wir einige
der beliebten Funktionen von WinRAR
auch für das ZIP-Format umgesetzt, um
eine größtmögliche Kompatibilität mit
anderen Packformaten zu bieten. Wir
hoffen, damit noch mehr Nutzer für unser
Produkt begeistern zu können“, sagt
Öncül Kaya, Geschäftsführer der win.rar
GmbH.
Î
SPLITTER
Î Das RAR-Format bietet eine Reihe
von Vorteilen gegenüber anderen Packformaten: Dazu zählen die solide
Archivierung, die Wiederherstellungsvolumen (Recovery Records), die es ermöglichen beschädigte Dateien zu rekonstruieren, Konvertierungsfunktionen für
Archive sowie zahlreiche Sicherheitsoptionen. Das Packprogramm WinRAR
zeichnet sich durch hohe Kompressionsraten, durch Stabilität und durch den geringen Verbrauch an Speicherplatz aus.
Da es neben dem RAR-Format auch eine
Reihe von Nicht-RAR-Formaten wie das
ZIP-Format unterstützt, bietet es höchstmögliche Kompatibilität.
Allen Nutzern der Windows-64-Bit-Version wird dringend empfohlen, die 64Bit-Version von WinRAR zu installieren.
Sie bietet mehr Geschwindigkeit und eine
bessere Integration als die 32-Bit-Version.
Eine 40-tägige Testversion von WinRAR
4.10 kann unter www.win-rar.com
herunter geladen werden. Nach Ablauf
der 40-Tage-Frist wird der Nutzer auf das
Ende der Testzeit aufmerksam gemacht.
WinRAR läuft unter Windows 2000/
2003/XP/Vista/2008/Windows7. Die
Befehlszeilenversion von RAR ist für
Linux, Linux 64 Bit, FreeBSD und MAC
OS X verfügbar. (PR)
‹
Laptop-Daten nur
verschlüsseln reicht
nicht aus
Verschlüsselungswerkzeuge wie
BitLocker oder True Cypt sollen helfen, sensible Daten auf den Festplatten
von Laptops zu sichern. Einen 100prozentigen Schutz gegen professionelle Angriffe bieten sie jedoch nicht.
Festplattenverschlüsselung für Laptops
ist ein wichtiges Thema. Wer möchte
schon, dass die Daten auf seinem Mobilrechner in falsche Hände geraten, wenn
dieser verloren geht oder gar gestohlen
wird? Das beruhigende Argument „niemand kennt mein Passwort“ zählt hierbei
nicht viel, denn professionelle Angreifer
können mit wenigen Schritten die komplette Verschlüsselung aushebeln. Haupteinfallstor ist dabei der Speicherdirektzugriff, der sogenannte Direkt Memory
Access, kurz DMA. Der müsste bei allen
Rechnern, die noch nicht über die aktuellen Speicherverwaltungs-Chips wie IOMMM von AMD oder VT-D von Intel
verfügen, eigentlich abgeschaltet werden.
„Solange wir mit dieser Sicherheitslücke
leben müssen, helfen einige wenige Regeln“, sagt Jürgen Seeger, Chefredakteur
des IT-Profimagazins iX. „Gerade mobile Systeme wie Tablets oder Notebooks
werden gerne in den Stand-by-Modus
versetzt, um schneller wieder arbeiten zu
können. Das bedeutet aber, dass sich die
Schlüssel noch im Speicher befinden. Das
gilt auch für den Desktop-Lock mit der
Tastenkombination Windows-L.“
Wenn die Verschlüsselung der Festplatte
also nicht sinnlos gewesen
sein soll, sollte man Folgendes beachten:
• Der Boot-Prozess sollte
•
•
•
Benutzeroberfläche von WinRAR
immer durch ein BIOSPasswort oder TPM-Passwort gesichert sein – also
kein automatisches Booten!
Ein laufendes oder im
Stand-by befindliches System nie aus den Augen
lassen.
Stand-by- oder Sleep-Mode sowie Suspend to
Disk/Swap niemals bei
Geräten mit sensiblen Daten benutzen.
Server oder DesktopRechner etwa in Arzt
praxen gehören abgeschlossen, ein Zugriff auf
die Schnittstelle darf nicht
möglich sein. Wenn nicht
unbedingt nötig, sollten
solche Systeme nicht über
Nacht laufen. (PR) ‹
1/12 47
SPLITTER
CeBIT, 6.-10. März 2012, Hannover
Anschluss an die
digitale Zukunft
„Die CeBIT baute in diesem Jahr ihre
Spitzenposition als weltweit wichtigste Veranstaltung für digitale Technologien weiter aus“, sagte CeBIT-Chef
Frank Pörschmann. „Wer in diesem
Jahr die CeBIT besucht hat, hielt Anschluss an die digitale Zukunft – sei es
unternehmerisch, beruflich oder privat.“
Zahlreiche Trends, Neuheiten und
tausende Innovationen erwarteten den
Besucher vom 6. bis 10. März 2012 in
Hannover. Die von führenden Instituten
prognostizierten Zukunftsthemen Big
Data, Cloud Computing, Mobilität und
Social Media standen im Fokus der Veranstaltung. Eine übergeordnete Rolle
spielte das Thema „Managing Trust Vertrauen und Sicherheit in der digitalen
Welt“. Neueste Lösungen und Konzepte dazu wurden unter anderem in der
CeBIT Security World und im Professional Data Center präsentiert. Darüber hinaus fanden sich Anknüfungspunkte in
nahezu allen anderen Ausstellungsschwerpunkten.
Sicherheitskonzepte für urbane Ballungszentren sowie die sichere Übertragung
und Speicherung von Gesundheitsdaten
sind nur einige Beispiele aus dem Bereich
CeBIT gov. Das CeBIT lab lockte mit 3DTechnologien, dem Internet der Dinge,
Semantic Web und Open Cloud.
„Das Forschungszentrum der CeBIT
präsentierte sich in diesem Jahr stärker
denn je. Erstmals belegte das CeBIT lab
eine komplette Halle und integrierte den
Schwerpunkt ‚Resources & Career’ mit
zahlreichen Aktivitäten und Dienstleistungen rund um Jobs und Recruiting“,
sagte Pörschmann. Damit stärkte die
CeBIT ihre Position als größter Karrieremarkt der digitalen Welt.
1/12 48
Die CeBIT ist weltweit die einzige Plattform, welche die IT-, Telekommunikations-, Elektronik- und Contentindustrie
bündelt und gleichzeitig Synergien aufzeigt, die durch eine immer dynamischere
Konvergenz der Märkte entstehen. Besucher können sich schnell und effizient
einen Überblick über die ITK-Landschaft
verschaffen, Lösungen live testen, Visionen erleben und relevante Kontakte für
ihr Business knüpfen. „Denn auf der
CeBIT geht es ums Geschäft. Wir haben
unsere Position als effizienteste Plattform für Geschäftsanbahnung mit neuen
Services weiter ausgebaut. Für unseren
Match-and-Meet-Service stand im Herzen des Messegeländes mit dem so genannten IC ein mehr als 3.000 Quadratmeter großes Gebäude exklusiv zur Verfügung. In dieser Qualität war dieser Service weltweit einmalig“, sagte Pörschmann.
Zahlreiche Sonderveranstaltungen wie
etwa das „CeBIT i-land“ mit Zubehör für
Smartphones, die Automotive-Plattform „Destination IST“ und die
Innovationsschau „Code_n 12“ luden
dazu ein, neue Technologien live und
hautnah zu erleben.
Visionär wurde es auch bei den CeBIT
Global Conferences: Sie boten den
CeBIT-Besuchern die Chance, hochkarätige Sprecher aus aller Welt zu treffen.
Mehr als 60 führende Köpfe der internationalen ITK-Wirtschaft waren mit
Keynotes, Kurzvorträgen und im Rahmen von Podiumsdiskussionen vertreten. Die Liste der Redner reichte von Dr.
Werner Vogels, CTO (Chief Technical
Officer) von Amazon, und Dr. Michael
Gorriz, CIO (Chief Information Officer)
von Daimler über Jeremy Doig, Engineering Director bei Google, bis hin zu Jacob
Aqraou, Senior Vice President von eBay
und Dr. Steve Garnett, Chairman &
President von Salesforce Europa.
Erstmals war auch das weltweit größte
soziale Netzwerk Facebook mit Richard
Allan, Director of Policy in Europe, auf
dem weltweit bedeutendsten ITK-Kongress dabei.
Außerdem hatten Besucher die Möglichkeit, im Rahmen von Guided Tours und
Workshops tiefer in die Themen einzusteigen. Antworten auf spezifische Fragestellungen lieferten auch die rund 30 Fachforen.
Erstmals wurde auf der CeBIT die
branchenübergreifende C3 Confererence
durchgeführt. Unter dem Dreiklang
Content – Creativity – Convergence suchten Verleger, Spieleentwickler, Musik- und
Filmproduzenten Synergieeffekte mit der
ITK-Industrie und zukünftige
Geschäftsmodelle.
Alle Angebote an der Schnittstelle zwischen digitalen Technologien und der
Automobilbranche bündelte die Ce- Î
SPLITTER
Î BIT unter dem Titel Digital Drive.
„Die CeBIT ist nicht nur die Plafform für
den digitalen Lifestyle, sondern auch für
den Digital Drivestyle. Er ist fester Bestandteil der CeBIT“, sagte Pörschmann.
Mit dem automotiveDAY am CeBITDonnerstag, 8. März, gab es einen eigenen Kongress zu dem Thema. Als Sprecher wareen unter anderem hochrangige
Vertreter von Audi, BMW, Daimler,
Lamborghini und Volkswagen zu Gast.
Gemeinsam mit Experten der digitalen
Wirtschaft tauschten sie sich über die speziellen Herausforderungen der Automobilindustrie aus.
CeBIT, 6.-10. März 2012, Hannover
Darüber hinaus war die CeBIT fester Treffpunkt für die Chefs der IT-Abteilungen.
Sie nutzten die CeBIT, um gezielt Kontakte zu knüpfen, sich in Workshops zu
informieren und ihr Netzwerk zu pflegen. „In unserem ‚House of CIO’ in der
Halle 4 erwarteten wir mehr als 700 ITVerantwortliche der großen Konzerne
aus aller Welt. Keine Veranstaltung verfügt über eine solch hohe C-Level-Dichte
wie die CeBIT“, betonte Pörschmann.
Im Fokus des MPS-Parks in der Halle 3
standen Neuentwicklungen aus Planung,
Implementierung, Betrieb, Wartung und
Erneuerung von Druckumgebungen. Albert Brenner, Director Marketing und
CRM bei Xerox erklärt: „Schon im Jahr
2011 hat uns besonders das neue themenorientierte Konzept des MPS-Parks überzeugt. Als führender Anbieter im Bereich
Managed Print Services freuen wir uns,
dass die CeBIT das Konzept auch 2012
fortgeführt hat. Entscheidungsträger in
mittelständischen und großen Unternehmen konnten sich an unserem Stand umfassend über optimierte Druckumgebungen informieren und erfahren, wie
sie gleichzeitig die Effizienz der Mitarbeiter steigern, Druckkosten reduzieren und
ihren CO2-Fußabdruck verringern können. Bürofachhändlern stellten wir unsere Xerox Partner Print Services vor, mit
denen sie ein eigenes MPS-Angebot aufbauen und sich so vom Wettbewerb differenzieren können.“
Wie gewohnt stand auch Entertainment
wieder auf dem Programm der CeBIT
2012. In der CeBIT life fanden täglich
Konzerte auf der Sounds-Bühne statt.
Die Barmer GEK lockte mit einem sportlichen Animationsprogramm und die internationale Computerspiel-Fangemeinde traf sich bei den Intel Extreme
Masters.
Die CeBIT 2012 startete am 6. März. Am
Vorabend eröffnete die Bundeskanzlerin
Dr. Angela Merkel die Veranstaltung feierlich. Außerdem wurde die brasilianische Staatspräsidentin Dilma Rousseff
als Repräsentantin des CeBIT-Partnerlandes 2012 in Hannover erwartet. Die
Keynote seitens der Industrie hielt Eric
Schmidt, Vorsitzender des Verwaltungsrates von Google. Zudem sprachen der
Präsident des deutschen Branchenverbandes BITKOM, Prof. Dieter Kempf,
sowie Niedersachsens Ministerpräsident
David McAllister im Hannover Congress
Centrum zu den mehr als 2.000 Gästen.
(PR)
‹
CeBIT baute Managed
Print Services Park aus
Nach dem erfolgreichen Auftakt zur
CeBIT 2011 ging der Managed Print
Services Park (MPS) nun in die zweite
Runde. Vom 6. bis 10. März 2012 präsentierten namhafte Anbieter aus dem
Bereich Output-Management Lösungen, mit denen Unternehmen ihre
Druckinfrastrukturen nachhaltig optimieren können.
Auch Marcus Nickel, Country Manager
für MPS bei Canon Deutschland, blickte
mit positiven Erwartungen auf die CeBIT
2012: „Nach dem Erfolg von Canon und
Océ auf der CeBIT 2011 freuten wir uns,
auch in diesem Jahr wieder gemeinsam in
Hannover im MPS-Park an Bord zu sein.
Unter dem Motto „Aiming higher“ präsentierten wir unsere Consulting-,
Outsourcing- und Services-Kompetenz
für Unternehmen. Für den PartnerChannel war ebenfalls ein Ansprech-
partner vor Ort . Als offizieller Sponsor
der UEFA EURO 2012 griffen wir unser
Motto auf und gestalteten unsere Präsenz rund um das Thema Fußball.“
Für die Veranstaltung hatten sich bereits
zahlreiche neue Firmen angemeldet. So
waren unter anderem Brother, Samsung,
Sharp und Triumph Adler erstmals im
MPS Park vertreten. Außerdem erwartete
das Fachpublikum ein erweitertes, eigens
auf ihre Bedürfnisse zugeschnittenes
Veranstaltungsprogramm.
Spezielle Angebote für interessierte
MPS-Kunden
Im House of CIOs in der Halle 4 wurde
am CeBIT-Dienstag, 6. März, ein Workshop zum Thema Multi-Sourcing und
Business Process Outsourcing (BPO) angeboten. Geschäftsführer und C-LevelEntscheider konnten sich herstellerneutral
über das Potenzial von MPS informieren.
Am Messe-Mittwoch, 7. März, fand erstmalig ein Treffen des Anwenderkreises
Managed Print Services (MPS) / Managed
Document Services (MDS) statt. Der
Anwenderkreis ermöglichte den informellen Austausch von Anwendern untereinander. Eingeladen waren Einkäufer
und Projektmitarbeiter aus AnwenderUnternehmen, die den Bereich BüroDruckinfrastruktur, Office Output Management oder Managed Services betreuen oder sich dafür interessieren. Im Fokus des ersten Treffens standen Best
Practices im Bereich „Ausschreibungen
Druckinfrastruktur“. Oliver Jendro, vom
Beratungs- und Marktforschungsnetzwerk Dokulife, zur Gründung des
Anwenderkreises: „Während Anbieter
und Händler sich über Verbände bestens
vernetzen, sind Anwender beim Einkauf
und dem Management von Büro-Druckinfrastrukturen auf sich alleine gestellt der Anwenderkreis MPS/MDS bietet
erstmals eine dauerhafte Plattform zum
Wissensaustausch und gemeinsamen Initiativen.“ Anmeldungen für Interessierte und weitere Informationen zum Anwenderkreis gibt es unter www.omskonferenz.de/anwenderkreis
Î
1/12 49
SPLITTER
Î Wie schon im vergangenen Jahr richtet
e der Bundesverband Bürowirtschaft
(BBW) seine Arbeitstagung „forum
bürowirtschaft“ auf der CeBIT aus. Die
Veranstaltung fand am Donnerstag, 8.
März im Saal Europa, Tagungsbereich
Halle 2 auf dem hannoverschen Messegelände statt. Sie stand unter dem Titel
„Managed Print Services - Gutes Personal
ist das stärkste Verkaufsargument“. Nur
mit hoch qualifizierten Mitarbeitern kann
die komplexe Software- und ProzessUmgebung für MPS an den Kunden
gebracht werden. Daher sind
Persönlichkeitsprofil, Qualifikation,
Recruiting und Leistungskriterien Schlagworte der diesjährigen Tagung. Das gesamte Programm mit Anmeldung steht
unter www.buerowirtschaft.info zum
Download zur Verfügung. (PR)
CeBIT, 6.-10. März 2012, Hannover
Strategien gegen
Fachkräftemangel
Für 59 Prozent der Hightech-Unternehmen ist der Mangel an hochqualifizierten Spezialisten das größte
Wachstumshemmnis. Wie geht die
Besucher auf der CeBIT 2011
1/12 50
Branche damit um? Wie schaffen es
Personaler, auf dem komplexen Arbeitsmarkt die richtigen Kandidaten
zu entdecken, für das eigene Unternehmen zu gewinnen und langfristig
zu binden?
Diesen Fragen stellte sich die Human
Resources Conference „IT meets HR“,
die der Hightech-Verband BITKOM und
das FAZ-Institut am 9. März auf der
CeBIT in Hannover veranstalteten. „Der
Fachkräftemangel ist nach wie vor eine der
größten Herausforderungen für die Hightech-Unternehmen“, sagt Rolf Buch,
Mitglied des BITKOM-Präsidiums. „Die
Konferenz ‚IT meets HR’ hat auf der
CeBIT 2012 neue Strategien gegen den
Fachkräftemangel diskutiert und konkrete Lösungsansätze geliefert.“
Neben Buch sprachen Experten des
Online-Bewertungsportals kununu, der
Computerwoche und Kienbaum
Consultants u.a. zu den Trends im ITKArbeitsmarkt, Online-Recruiting sowie
Mitarbeiterförderung und -weiterbildung.
Zum Abschluss wurde erstmals der
„European IT Workplace of the Year“Award verliehen, der die besten IT-Abteilungen in Unternehmen und ITDienstleistern würdigen soll. (PR) ‹
CeBIT, 6.-10. März 2012, Hannover
PDFAssociation
informierte über PDFStandards und
-Lösungen
Erstmals stellte die international ausgerichtete PDF Association ihre Expertise rund um bestehende und künftige PDF-Standards wie PDF/A,
PDF/VT, PDF/UA und PDF/X auf
der CeBIT 2012 zur Verfügung. Interessenten, die sich über die verschiedenen PDF-Standards informieren wollten, fanden vor allem in der Halle 3
kompetente Ansprechpartner für ihre
Fragestellungen und auch standardkonforme Lösungen rund um PDFFormate.
Mit dem Schwerpunkt „Managing Trust“
rückte die CeBIT 2012 das Thema Vertrauen und Sicherheit in der digitalen Welt
in den Mittelpunkt. Dabei spielt auch das
geeignete Dokumentenformat eine wichtige Rolle. Zusätzlich kann dieses auch die
Effizienz verbundener Prozesse und
Geschäftsbereiche vielfältig beeinflussen.
Diese Erkenntnis setzt sich allmählich bei
immer mehr Unternehmen durch und
führt dazu, dass die Familie der ISOStandards rund um das beliebte PDF
zunehmend Aufmerksamkeit erhält.
Insbesondere PDF/A hat sich als Langzeitarchivformat etabliert und immer
mehr Unternehmen sowie öffentliche
Einrichtungen setzen PDF/A strategisch
in ihrem Kerngeschäft und als Rahmenbedingung in IT-Projekten um. Daraus
resultieren zwangsläufig zahlreiche Fragestellungen im Zusammenhang mit der
Realisierung konkreter, individueller
PDF-Projekte. Die oft komplexen Zusammenhänge sind dabei nicht ohne
weiteres zu erfassen. Hierzu bietet die
tiefgreifende Expertise der Spezialisten
von der PDF Association umfassende
Unterstützung. Sie stehen Rede und
Antwort, wenn es beispielsweise um Î
SPLITTER
Îdie Nutzung der unterschiedlichen
Normteile von PDF/A geht, zeigen Einsatzgebiete von PDF/UA (Universal
Accessibility, also Barrierefreiheit) auf oder
erläutern, wie PDF/VT (V steht für Variablen Datendruck und T für
Transaktionsdruck) Output-Management-Prozesse optimieren kann.
Olaf Drümmer, Vorstandsvorsitzender
der PDF Association, erklärt: „Es gibt so
viel Bewegung im Bereich der PDF-Standards, dass ein hoher Aufklärungsbedarf
besteht. Die wachsende Bedeutung von PDF als vollständig offenes, digitales
Dokumentformat erzeugt
zudem Handlungsbedarf für
zukünftige Standards, in denen aktuelle Geschäfts- und
Compliance-Anforderungen
ihren Niederschlag finden
müssen.“
Der PDF-Standard (ISO
32000) selbst ist ein wichtiger
Meilenstein: Dadurch, dass
Adobe die Kontrolle über das PDF-Format an die ISO übergeben hat, hat die
internationale PDF-Community die
Chance, die weitere Entwicklung von PDF
im Rahmen der ISO, wo sich auch Adobe
weiter engagiert, auszugestalten.
Im Output-Management-Bereich gewinnt der noch relativ junge PDF/VTStandard zunehmenden Einfluss. Er
adressiert hochvolumige Druckprozesse
mit besonders hohen Anforderungen an
die ansprechende Gestaltung der Dokumente. PDF/VT setzt auf den bereits seit
einem Jahrzehnt in der Druckindustrie
verbreiteten PDF/X-Standard auf und
fügt Leistungsmerkmale hinzu, die im
Output-Management unentbehrlich sind.
Kurz vor seiner Veröffentlichung steht
der PDF/UA-Standard. Auch hierzu informierte auf der CeBIT die PDF
Association. Der internationale Standard
für barrierefreies PDF ist wichtig für Organisationen, die Vorschriften zum
barrierefreien Zugang zu Inhalten einhalten müssen (darunter Section 508 in den
USA, Kanadas „Common Look and Feel
Standard“ und der UK Disability
Discrimination Act (DDA) in Großbritannien). Er leistet das, was in der OnlineWelt durch Standards wie WCAG 2.0
und jüngst auch die deutsche Entsprechung BITV 2.0 bereits erreicht wurde:
klare Vorgaben dafür, wie eine wirksame
Barrierefreiheit nicht nur für Webseiten,
sondern auch für PDFs sichergestellt
werden kann. Derzeit befindet sich PDF/
UA im DIS-Stadium (Draft International Standard) und soll voraussichtlich
Mitte 2012 veröffentlicht werden. (PR) ‹
CeBIT, 6.-10. März 2012, Hannover
CeBIT wurde zum
größten kostenlosen
Hotspot der Welt
Schnell zwischendurch E-Mails lesen,
aktuelle Informationen direkt ins Büro
schicken oder per Videotelefonie am
Meeting teilnehmen – die CeBIT 2012
machte all das erstmals kostenlos möglich. Gemeinsam mit dem Branchenverzeichnis Gelbe Seiten bot die Deutsche Messe AG den Besuchern vom 6.
bis 10. März eine kostenlose WLANNutzung auf dem gesamten Messegelände. Damit verwandelte sich die
CeBIT in den größten kostenlosen
Hotspot der Welt.
Zusatzgebühren durch Datenroaming für
ausländische Besucher während der Messe gehörten mit dem neuen kostenlosen
Internetzugang der Vergangenheit an.
Interessierte registrierten sich mit Ihrer
E-Mail-Adresse, erhielten die Zugangsdaten und konnten danach sofort das
kostenlose WLAN nutzen. GelbeSeiten.de sowie die Apps von Gelbe Seiten
für iPhone, iPad, Android und BlackBerry
halfen außerdem mit Informationen zu
Hotels und Restaurants bei der Organisation rund um den Messebesuch. Die integrierte Routenplanung sorgte für ein
schnelles Ankommen am Ziel.
Alle Serviceleistungen unter einem
Dach
Neben der Gratisnutzung des Internets
schuf die Deutsche Messe mit dem Visitor
Center im neu gestalteten Informations
Centrum (IC) einen zentralen Anlaufpunkt für alle CeBIT-Besucher. Wer Ruhe
suchte, fand diese in den Loungeräumen.
Auch kurzfristige Hotelreservierungen
und Mietwagenbuchungen ließen sich im
IC erledigen. Ein Copy-Shop, ein zentrales Informationssystem, ein Media Shop,
eine Internetlounge sowie ein „App Station Sales Office“ rundeten das Serviceangebot ab. Um den CeBIT-Gästen die
Möglichkeit zu geben, ihren Messebesuch
individuell gestalten zu können, bot das
Visitor Center themenspezifische geführte
Messerundgänge. Je nach Schwerpunkt
der Guided Tour präsentierten Aussteller aus dem jeweiligen Fachgebiet die
neuesten Produkte, Lösungen und
Trends.
Ebenfalls im IC war der neue „Match &
Meet Onsite Bereich“. Dort trafen sich
potenzielle Geschäftspartner zum persönlichen Gespräch. Als Kooperationsplattform bildete dieser Bereich die Ausgangsbasis für Geschäftanbahnung weltweit. Der Matchmaking Support
unterstüzte die Kunden dabei umfassend - von der Auswahl wertvoller Kontakte bis zur Terminkoordinierung. Besprechungsräume mit modernster
Konferenztechnik sorgten zudem für
optimale Verhandlungsbedingungen
und eine ruhige Gesprächssituation. Der
Onsite Service ergänzte den bereits bestehenden „Match & Meet Online Service“.
(PR)
‹
1/12 51
SPLITTER
5. Essener Tagung, 18.-19.4.2012
Mobile Kommunikationsund Informationstechnik
im Einsatz
Führungs(hilfs-)mittel im Einsatz /
Digitalfunk: Einsatzerfahrungen,
Repeaterlösungen, Schnittstellen zum
Gebäudefunk für Gefahrenabwehrorganisationen (Feuerwehr, Rettungsdienst, Katastrophenschutz, Polizei,
Zoll) und Energieversorger
Die 5. Tagung vom 18. bis 19. April 2012
im Haus der Technik in Essen vermittelt
einen Überblick über derzeit bereits funktionierende sowie mittelfristig zu erwartende Einsatzunterstützungstechniken
auf Basis von Soft- und Hardware sowie
alles rund um für den Betrieb bzw. Einsatz notwendige Kommunikationsmittel. Die Teilnehmer lernen die damit verbundenen Probleme praxisnah kennen
und werden in die Lage versetzt, bei geplanten eigenen Anwendungen teure
Fehler zu vermeiden.
Als Themen werden u. a. die Einführung
des Digitalfunks mit dem Schwerpunkt
der Anbindung der Fahrzeuge bzw.
Digitalfunkgeräte in einsatztaktische
Konzepte, Führungsunterstützungssysteme bzw. Einsatzleitrechner, die
Führungsmittel, einschließlich mobiler
Datenendgeräte (vom PDA bis zum vollwertigen robusten und damit einsatztauglichen Laptop oder Industrie-PC) und
das Web 2.0 mit der Vielzahl von „Apps“
– auch für die Gefahrenabwehr! – behandelt.
Die Tagung liefert die Grundlagen und
gibt Beispiele für sinnvolle sowie anwenderfreundliche Soft- und Hardware
für verschiedene Einsatzgebiete, wie z.B.
• Anforderungen an „Car-PC“ und an
•
•
•
•
•
die Fahrzeuge, in die diese verbaut
werden sollen
Erfahrungen aus Einbauten in Musterfahrzeuge
Auswahl geeigneter Führungs(hilfs)mittel
Einsatzplanung und Erkundung
Navigation
Datenübertragung
Auf die damit verbundenen Probleme
wie Schnittstellen verschiedener Soft- und
Hardware, taktische und technische
Schwierigkeiten zur georeferenzierten
Darstellung von Einsatzfahrzeugen inkl.
FMS- bzw. SDS-Auswertung über verschiedene Systeme (ELR, ELW) wird klar
eingegangen. Zum ersten Mal wird in der
Tagung auch auf die immer stärkere Verbreitung findende „Apple-Welt“ (iPhone,
iPad, MacBooks usw.) eingegangen. (PR)
‹
13. Datenschutzkongress, 8.-9.
Mai 2012, Berlin
Einheitlicher Datenschutz
bald europaweit?
Strengere Vorgaben für soziale Netze
und Institutionen soll es nach EUKommissarin Viviane Reding künftig
in ganz Europa geben. Zu den geplanten Neuerungen gehört auch das
Recht auf Vergessen. Besonders soziale Netzwerke müssten Daten in Zukunft auf Wunsch ihrer Nutzer wieder
löschen. Verstoßen Unternehmen gegen die Datenschutzregeln, so würden
ihnen nach den neuen Daten-schutzregeln hohe Strafen drohen.
Bundesjustizministerin Sabine Leutheusser-Schnarrenberger begrüßte den
Vorstoß der EU-Kommission. Gleichzeitig warnte sie dem Handelsblatt zufolge davor, dass eine europäische Neuregelung das deutsche Datenschutzniveau
nicht aufweichen dürfe. Auf dem 13.
Datenschutzkongress 2012 (8. und 9. Mai
2012, Berlin) erörtert die Bundesjustizministerin im Detail die neueren Entwicklungen im Datenschutzrecht in
Deutschland und der EU. Auch Bundesinnenminister Dr. Hans-Peter Friedrich
greift die aktuelle Diskussion um Datensicherheit auf und eröffnet mit seinem
Vortrag den etablierten Berliner
Datenschutzgipfel.
Themen- und Referenten-Highlights
des Datenschutzkongresses
5. Essener Tagung: Mobile Kommunikations- und Informationstechnik im Einsatz
1/12 52
Sollten alle EU-Länder den Vorschlägen
der EU-Kommissarin zustimmen, so
würden vor allem auf Unternehmen einige Änderungen zukommen. Anders als
bei einer Richtlinie blieben mit der neuen
Verordnung kaum Spielräume für nationale Datenschutzgesetze. Michael Hange
(Bundesamt für Sicherheit in der
Informationstechnik), Markus Haas
(Telefónica Germany), Peter Schaar
(Bundesbeauftragte für den Datenschutz
und die Informationsfreiheit) diskutieren unter der Leitung des Vorsitzen- Î
SPLITTER
Î den Dr. Ulrich Wuermeling LL.M.
(Latham & Watkins LLP) über Erwartungen der Politik an die DatenschutzCompliance der Unternehmen. Rechtliche Rahmenbedingungen von Social
Media aus aufsichtsbehördlicher Sicht
erörtert der Hamburgische Beauftragte
für Datenschutz und Informationsfreiheit, Prof. Dr. Johannes Caspar, und aus
unternehmerischer Sicht Thomas Helfrich
(Bayer). Die Risiken und Nachteile des
Cloud-Computing beleuchtet der
Hessische Datenschutzbeauftragte, Prof.
Dr. Michael Ronellenfitsch. Prof. Dr.
Thomas Hoeren (Universität Münster)
referiert über Folgen der EU- Verordnung für den betrieblichen Datenschutzbeauftragten. Chris Newiger (Deutsche
Bahn) berichtet anschließend über Gemeinsamkeiten und Unterschiede von
Datenschutzorganisationen in mittleren
und großen Unternehmen.
Social Media und Datenschutz
Datenschützer kritisieren Facebook für
den Like-Button, Fangruppen und die
automatische Gesichtserkennung. Sie
befürchten, dass Daten auch von NichtMitgliedern des Netzwerks ohne deren
Wissen gespeichert und zu Profilen kombiniert werden könnten. Lord Richard
Allan (Facebook) nimmt am Vorabend
des Datenschutzkongresses Stellung zu
den Vorwürfen. Gemeinsam mit Dr.
Ulrich Wuermeling LL.M., Thomas
Helfrich, Edgar Wagner (Landesbeauftragte für den Datenschutz und die
Informationsfreiheit Rheinland-Pfalz)
und Thomas Mosch (BITKOM) diskutiert der oberste Europa-Repräsentant des
Online-Netzwerks über Datensicherheit
bei Social Media.
EU-Reform und weltweiter Datenschutz
Beim separaten European Data Protection
Day (7. Mai 2012, Berlin) berichten über
25 internationale Experten unter anderem aus den USA, Russland, Argentinien,
Polen und Indien über Herausforderungen im inner- und außereuropäischen
Datenschutz. Darüber hinaus geben Dr.
Paul Nemitz (Europäische Kommissi-
on), Axel Voss (Europäisches Parlament),
Peter Hustinx (Europäischer Datenschutzbeauftragter), Peter Fleischer
(Google Inc.), Isabelle Falque-Pierrotin
(Datenschutzbeauftragte Frankreich),
Christopher Graham (Datenschutzbeauftragter Großbritannien), Dr. HansJoachim Rieß (Daimler AG) ihre Einschätzungen zur geplanten EU-Reform
ab. Das komplette Programm ist abruf‹
bar unter: bit.ly/A2MrT9 (PR)
10.-11. Mai 2012, Frankfurt/ Main
IPv6-Kongress
Schon seit 2009 bringt der Deutsche
IPv6-Kongress jedes Jahr Praktiker,
Anbieter und Entscheider zusammen.
Er hat sich vom einfachen Administratoren-Treffen zu Europas größter
IPv6-Veranstaltung entwickelt, mit
mehr als 500 Teilnehmern im Jahr
2011.
Bei der vierten Auflage bietet das Vortragsprogramm in drei parallelen Tracks
über zwei Tage wieder reichlich
Erfahrungsberichte, Tutorials und
Hintergrundinformationen. Die Referenten kommen aus allen Bereichen der Branche und aus der öffentlichen Verwaltung,
die in diesem Jahr einen der Schwerpunkte bildet.
Neben den Vorträgen gibt es viel Gelegenheit zum direkten Gespräch.
Der IPv6-Kongress ist somit nicht nur
Treffpunkt einer technischen Community
sondern gleichzeitig die zentrale
Informationsquelle für alle, die IPv6-Projekte schon begonnen haben oder noch
davor stehen. (PR)
‹
10.-11. Mai 2012, Berlin
6. RISER-Konferenz zum
Europäischen
Meldewesen
Die RISER-Konferenz ist das Fachforum für den Austausch zwischen
Melde- und Landesbehörden, Daten-
schützern und der Privatwirtschaft.
Hochaktuelle Schwerpunktthemen
sind dieses Jahr das neue Bundesmeldegesetz und seine Auswirkungen
auf die Verwaltung, Wirtschaft und
Bürger sowie die Anforderungen von
Open Data an Meldebehörden. Neben
den Fachvorträgen renommierter
Referenten wird vor allem der Dialog
mit den Teilnehmern im Vordergrund
stehen.
Die Eröffnungsreden am ersten Tag der
Veranstaltung werden Senator Frank Henkel, Senatsverwaltung für Inneres und
Sport des Landes Berlin und Staatssekretärin Cornelia Rogall-Grothe, Bundesministerium des Innern, halten. Am ersten Tag wird es um die „Auswirkungen
des Bundesmeldegesetzes auf Wirtschaft
und Bürger“ sowie die „Auswirkungen
des Bundesmeldegesetzes auf die öffentliche Verwaltung und deren IT „ gehen.
Der zweite Tag beschäftigt sich mit
„Melderegister vs. Social Media“, „Neue
EU-Datenschutzrichtlinie – Was ändert
sich für Unternehmen und Verwaltung?
„ und „Meldebehörde auf dem Weg zu
Open Data“.
Veranstaltungsort ist das Auditorium
Friedrichstraße (af) in Berlin. (PR, EB) ‹
1/12 53
SPLITTER
Fallstudie Green IT im ITDienstleistungszentrum
Berlin
Die Studie richtet sich vorrangig an Praktiker aus IT-Organisationen, die sich mit
dem Thema ökologische Nachhaltigkeit
und Green IT auseinandersetzen. Aus
den erhobenen Fallstudien werden Best
Practices zusammengetragen und
Handlungsempfehlungen für die Praxis
abzuleiten. Durch die Partizipation des
ITDZ Berlin an der Fallstudienerhebung
und der Offenlegung ihrer Erfahrungen
konnte ein wesentlicher Beitrag zur Weiterentwicklung einer Green IT in Praxis
und Forschung geleistet werden. In der
Fallstudienanalyse wurden u.a. der holistische Green IT-Ansatz des ITDZ Berlin,
die Berücksichtigung von Green IT in
unternehmerischen Entscheidungen
(Green IT Business Case) sowie die Integration der Kunden und Öffentlichkeit
im Rahmen der Green IT-Bemühungen
des ITDZ Berlin hervorgehoben.
Im Rahmen einer Fallstudienanalyse
wurde das Umsetzungsvorgehen und
der Implementierungsstand einer
Green IT im IT-Dienstleistungszentrum Berlin (ITDZ Berlin) von
wissenschaftlichen Mitarbeitern des
Fachgebiets Informations- und
Kommunikationsmanagement der
Technischen Universität Berlin (Prof.
Dr. Rüdiger Zarnekow) untersucht.
Neben dem IT-Dienstleistungszentrum
Berlin wurden sieben weitere Fallstudien
seitens des Forschungsinstitutes erhoben, die in einem Sammelband unter
dem Titel „Green IT – Best Practices und
Fallstudien“ im Springer Verlag (Herausgeber: Prof. Dr. Rüdiger Zarnekow und
Prof. Dr. Lutz M. Kolbe) veröffentlicht
werden.
Im Rahmen der Fallstudienanalyse
„Green IT im IT-Dienstleistungszentrum Berlin“ werden die Erfahrungen bei der Implementierung und Umsetzung einer Green IT zusammentragen. Dabei wurden sowohl die
Handlungsmotive einer Green IT erfasst
als auch die organisatorische und prozessuale Verankerung im Unternehmen vorgestellt.
Um eine Vergleichbarkeit der erhobene
Fallstudie mit anderen Unternehmen sicherzustellen, wurde eine einheitliche
Fallstudienstruktur gewählt: Folglich
werden zunächst die Eckdaten des betrachteten Unternehmens beschrieben,
die unternehmens-, branchen- und markttypischen Herausforderungen erläutert
sowie die Rolle der Nachhaltigkeit für das
Unternehmen skizziert. Letzteres zeigt
die strategische Relevanz eines
Nachhaltigkeitsmanagements für das
untersuchte Unternehmen und bietet
somit einen Referenzpunkt für die
Nachhaltigkeitsorientierung in IT-Organisationen.
1/12 54
In der Ausgangssituation werden die
Struktur, die Aufgaben und die Ziele der
IT-Organisation eingehend beschrieben.
Der aufgezeigte Handlungsdruck verdeutlicht in diesem Zusammenhang die Auslöser und Motive, die dazu geführt haben, dass sich die IT-Organisation mit
Themen zur ökologischen Nachhaltigkeit
auseinandersetzt. Daraufhin wird die
Umsetzung ökologischer Ansätze im
Rahmen einer Green IT dargestellt. Dabei
werden die Initianten, die Projektziele
und die Maßnahmen vorgestellt, und das
Umsetzungsvorgehen detailliert herausgearbeitet.
Die Beschreibung erfolgt in Anlehnung
an das Modell eines industrialisierten
Informationsmanagements entlang der
Bereiche: Governance, Beschaffung, Produktion und Vertrieb und Kommunikation (Zarnekow, R.; Brenner, W.; Pilgram,
U. (2005): Integriertes Informationsmanagement: Strategien und Lösungen
für das Management von IT-Dienstleistungen, Springer, Berlin). Hierbei werden
wesentlichen Aspekte der Projektdurchführung sowie die von den Unternehmen als wesentlich erachteten Erfolgsfaktoren einer Green IT zusammengetragen. Abschließend beleuchtet der Abschnitt Erkenntnisse die zentralen Inhalte und die Besonderheiten der Fallstudie.
Download der Studie unter www.ub.tuberlin.de/index.php?id=2804
PROF. DR. RÜDIGER ZARNEKOW, DIPL.ING. KORAY EREK
Technische Universität Berlin, Fachgebiet
Informations- und Kommunikationsmanagement
‹
Einstieg in Google Plus
auf unterhaltsame Weise
Das soziale Netzwerk Google Plus ist
die Alternative für Internetnutzer, die
eine funktionierende Alternative zum
Platzhirsch Facebook suchen. Doch
für Einsteiger sind die vielen Funktionen zunächst verwirrend.
Einen fundierten und zugleich unterhaltsamen Zugang in die faszinierende
Welt von Google Plus bietet nun Data
Becker mit dem Ratgeber „Google Plus Entdecken. Verstehen. Mit Sicherheit richtig mitmischen.“ Das Buch stellt die wichtigsten Funktionen und Anwendungen
des sozialen Netzwerks für private Anwender Schritt für Schritt aus der Einsteigerperspektive vor.
Î
SPLITTER
Das DudenStilwörterbuch als App
für iPhone und iPad
Nachdem Duden und Paragon schon
erfolgreich die Wörterbücher zur
Rechtschreibung, zu Fremdwörtern
und zu Synonymen als App anbieten,
können die Nutzer von iPhone und
iPad jetzt erstmals auch auf das DudenStilwörterbuch zugreifen.
Î Leicht nachvollziehbare Anleitungen
und ganz persönliche Tipps des Autors
Ralf Wasselowski zeigen dem Leser, wie
man ein Profil optimal einrichtet, Freunde findet und sich sinnvoll in Googles
Kreisen organisiert. Nachdem die ersten
Kreise gezogen sind, erfahren die Leser
alles Wissenswerte über Gruppen, Anwendungen, Browser-Erweiterungen
und die besten Onlinespiele. Die mobile
Nutzung von Google Plus per
Smartphone wird ebenso thematisiert wie
die Verknüpfung mit den integrierten
Google-Diensten rund ums E-Mailen,
Suchen und Verwalten von Bildern.
Zudem informiert Autor Wasselowski
über alles Wissenswerte zum Teilen und
Präsentieren von Fotos oder Videos sowie zur Kommunikation per Videochat.
Wertvolle Hinweise zum Anlegen von
Profil-Seiten für Unternehmen, Marken
oder auch Hobbys runden den Ratgeber
ab.
Der Ratgeber „Google Plus - Entdecken.
Verstehen. Mit Sicherheit richtig mitmischen.“ (ISBN: 978-3-8158-3729-0) von
Ralf Wasselowski hat 224 Seiten und ist
ab sofort für 12,95 Euro erhältlich. Ergänzungen zum Buch und Informationen über aktuelle Änderungen bei Google
Plus erhalten Leser auf www.iknow.de/
iknow-staffel-2/iknow-google-plus.php
‹
in der Rubrik Updates. (PR)
Damit haben die Apple-Nutzer den direkten Zugriff auf über 100.000 feststehende Wortverbindungen, Redensarten
und Sprichwörter, die mit zahlreichen
Beispielsätzen hinterlegt sind, welche die
grammatisch einwandfreie Verknüpfung
der Wörter verdeutlichen. Angaben zum
Stil und zum Gebrauch helfen zusätzlich
bei der Suche nach angemessenen Formulierungen. Damit können die Anwender sicher sein, dass sie die Wörter
auch im jeweils richtigen Bedeutungskontext verwenden.
Darüber hinaus ist das Duden-Stilwörterbuch wie alle Duden-Apps mit
einer ganzen Reihe nützlicher Features
ausgestattet, die von akustischen Ausspracheangaben bis zu verbesserten
Browsingfunktionen reichen. Zusätzlich
gibt es eine „Copy and Paste“- Funktion,
neue Kontextmenüs für das Nachschlagen und die Aussprache von Wörtern
sowie eine Suchfunktion für Anagramme
und ähnliche Wörter. Bei der neuen
Platzhaltersuche werden einfach die fehlenden Buchstaben durch die Platzhalter
„?“ und „*“ ersetzt. Damit werden auch
dann Einträge gefunden, wenn die exakte
Schreibweise eines Wortes nicht bekannt
ist.
Das Duden-Stilwörterbuch ist eine
unverzichtbare Hilfe, wenn es darum geht,
kurz und treffend zu formulieren. Und
das nicht nur für jene, die sich im Umgang
mit der deutschen Sprache unsicher fühlen, sondern auch für die große Gruppe
der professionellen Schreiber wie Übersetzer und Journalisten, die ihre Texte auf
treffsichere Art abwechslungsreich gestalten wollen. Die mobile Version als App
sorgt dabei für die notwendige Flexibilität, der es in der heutigen Berufswelt
bedarf, um schnell und sicher reagieren zu
können.
Die Duden-Stilwörterbuch-App unterstützt das Apple-Betriebssystem für iPad
und iPhone ab iOS 3.0 und ist zum Preis
von 19,99 Euro erhältlich.
Die Wörterbücher und Softwareprodukte
des Dudenverlags zeigen das breite Spektrum der deutschen Gegenwartssprache
und geben Sicherheit in allen sprachlichen
Belangen. Seit Ende 2007 kooperiert der
Dudenverlag mit der Paragon Software
Group und stellt so seine Standardwerke
auf Basis der SlovoEd-Technologie von
Paragon zur Verfügung, die sich u. a.
durch ihre anwenderorientierte Nutzeroberfläche auszeichnet. Die Paragon Software Group bietet Herstellern auch Lizenzen an, um Smartphones bereits ab
Werk mit vorinstallierten Duden-Wör‹
terbuch-Apps auszuliefern. (PR)
Das Duden-Stilwörterbuch gibt es jetzt auch als App für das iPad
1/12 55
SPLITTER
Vor 20 Jahren im SPLITTER
Wenn sich Ihre Anschrift ändert,
wenden Sie sich bitte an
die Redaktion des SPLITTER,
Telefon 030 / 90 222-3248
Betr.: Antrag
„So könnte zukünftig der Antrag aussehen, der zur Bearbeitung eingereicht wird:
Nr. 1 / 2012
Die nächste Ausgabe hat das
Schwerpunktthema „Open Data“
und erscheint im Mai. Der Redaktionsschluss ist der 4. Mai 2012.
Wir freuen uns immer über Gastbeiträge, vor allem, wenn sie direkt
aus der Verwaltung kommen und
Anwendungsbeispiele beschreiben.
Mailen Sie uns einfach Ihre Texte,
faxen Sie sie oder rufen Sie uns an:
E-Mail:
Telefon:
Fax:
[email protected]
030 / 90 222-3248
030 / 90 222-3112
Ihre SPLITTER-Redaktion
Aktenzeichen, Datum und eventuell
weitere Merkmale könnten in diesem
Code verschlüsselt werden. Beim Eingang des Antrags müsste dann lediglich
über eine geeignete Lesepistole der Code
dem Computer bekanntgegeben werden. Die Zuordnung des Antrags zum
zuständigen Bearbeiter und zu ventuell
vorhandenen Vorgängen übernimmt
dann das System. Die Akte wird aus
dem Archiv von der optischen Platte
zum Arbeitsplatz des Bearbeiters geleitet. Der Sachbearbeiter hat morgens beim
Einschalten des Gerätes alle Informationen zur Verfügung und kann die erforderlichen
Abstimmungen und Klärungen schnell beginnen. (...)
Anwendungen des Barcodes haben auch in der Verwaltung Einzug gehalten:
• Kartensystem der Deutschen Oper
• Schriftgutarchivierung in Baden-Württemberg
• automatisches Kassettenarchiv im LIT“ (EB)
‹
IMPRESSUM
Herausgeber: IT-Dienstleistungszentrum Berlin, Berliner Straße 112-115, 1O713 Berlin
Telefon: +49 3O 9O222-O, Fax: +49 3O 9O222-5864, V.i.S.d.P.: Konrad Kandziora
Internet: www.itdz-berlin.de und im Intranet: www.itdz.verwalt-berlin.de
Redaktion:
Daniel Kämpfe:
Pressestelle:
Tel: O3O / 9O 222-3248, E-Mail: [email protected]
Tel: O3O / 9O 222-6111, E-Mail: [email protected]
Druck:
IT-Dienstleistungszentrum Berlin, Xerox DocuColor 26O Laserdrucker, Auflage: 2.75O
Gastautoren:
Cécile Willems (Direktorin Vertrieb Öffentliche Hand, Cisco Deutschland), BDBOS, Andreas Sirtl und Claus-Dieter Spletter (LaStDF),
Fraunhofer FOKUS, Hasso-Plattner-Institut, Dr. Michael Dörr (Gesundheitsamt Rhein-Kreis Neuss), Dr. Michael C. Albrecht (entera),
BIANCON, Malz++Kassner GmbH, Jenny May, Christian Kühne (Leitender Systemberater, Oracle Deutschland B.V. & Co. KG), Prof. Dr.
Rüdiger Zarnekow und Dipl.-Ing. Koray Erek (Technische Universität Berlin, Fachgebiet Informations- und Kommunikationsmanagement)
(EB) kennzeichnet Berichte des ITDZ Berlin, (LPD) Mitteilungen des Landespressedienstes Berlin, (PR) sonstige Pressemitteilungen
Fotonachweise: Titelfoto/ S. 4: Pixelio, Jörg Klemme, S. 5: Cisco, S. 6: Pixelio, xm318, S. 7: Wikimedia Commons, Gonzosft, cc-by-3.O, S. 8: Wikimedia Commons, Dirk Ingo Franke, cc-by-sa-3.O, S. 9: Pixelio und Fraunhofer FOKUS, S. 11: Hasso-Plattner-Institut, S. 13: Fotolia, Franz Pfluegl, S.
15: Ericsson, S. 16: oben: Institut für Informatik der HU Berlin, unten: InnoSenT GmbH, S. 17: oben: Wikimedia Commons, Richtom8O, cc-by,
unten: Wikimedia Commons, Martin Morris, cc-by-sa-2.O, S. 18: beide: PR/ Bundesverband Telekommunikation, S. 19: oben: goBerlin,
unten: ITDZ Berlin, S. 21: ADONIS/ ITDZ Berlin, S. 22: oben: GreenIT-BB, unten: Dörr, S. 23: Pixelio, Sassi, S. 25/26: alle: RuheSoft/ Albrecht,
S. 27/28: alle: BIANCON GmbH, S. 29: Freedroidz/ tarent, S. 3O: Joscha Häring/ tarent, S. 31/32: beide: Oracle, S. 33: ITDZ Berlin, S. 34:
Wikimedia Commons, Rochellesinger, cc-by-sa-2.5, S. 35: PR/ RAAD, S. 36: PR/ BITKOM, S. 37: OpenOffice.org, GNU Lesser GPL, S. 38: Wikimedia Commons, EpiDor, Free Art Licence, S. 39: PR/ Xamit, S. 41: Wikimedia Commons, W3C, cc-by-3.O, S. 43: alexandria.neofonie.de/ ITDZ,
Berlin, S. 44: ITDZ Berlin, S. 45: PR/ BITKOM, S. 46: PR/ Krekeler, S. 47: PR/ WinRAR, S. 48/5O/51: PR/ Deutsche Messe Hannover, S. 52: PR/
U.Cimolino, O. Lang, FW Düsseldorf, S. 53: VITAKO, S. 54: TU Berlin, S. 55: oben: PR/ Data Becker, unten: PR/ Apple, S. 56: ITDZ Berlin
1/12 56