splitter - IT-Dienstleistungszentrum Berlin
Transcrição
splitter - IT-Dienstleistungszentrum Berlin
SPLITTER SPLITTER IT-Nachrichten für die Berliner Verwaltung Nr. 1/2012 - 22. Jahrgang Schwerpunkt: IT-Kommunikation 1/12 1 SPLITTER Sehr geehrte Leserinnen und Leser, in weit höherem Maße als gegenwärtig wird das Web künftig noch stärker zur Schnittstelle zwischen Verwaltung, Wirtschaft und Bürgern. Die Informationstechnik wird damit zum Herzstück dieser staatlichen Kommunikation. Daten- und Telekommunikation wachsen in einem Netz zusammen, und technische Services wie Videokonferenzen gehören auch in Behörden in absehbarer Zeit zum Arbeitsalltag. Zurzeit arbeiten Fachleute auf Bundesund Länderebene an E-Governmentgesetzen, die eine rechtliche Grundlage für umfangreicheren Bürgerservice im Web schaffen. Das Land Berlin zählt hier zu den Vorreitern. Mit dem modernisierten Berliner Landesnetz des ITDZ Berlin verfügen die öffentlichen Institutionen Berlins auch über eine technische Ausstattung, die diesem Zukunftsszenario gewachsen ist. So ist zum Beispiel die Überleitung der Telefonanlagen vom herkömmlichen Netz auf das „Multi Service Network“ des Landesnetzes weit fortgeschritten: aktuell sind 58 der 72 Telefonanlagen der Berliner Verwaltung migriert. Eine der größten Herausforderungen bildet die Sicherheit der immer umfangreicheren Datenmengen und netzbasierten Kommunikationsservices. Nicht erst die Testszenarien der länderübergreifenden Krisenübung LÜKEX haben Ende November 2011 verdeutlicht, dass ein hohes Maß an Sicherheit und Datenschutz mit umfangreicher organisatorischer und technischer Planung verbunden ist. Ein hohes Maß an Sicherheit bietet auch der Digitalfunk: Der Aufbau des Netzes ist für Berlin weitestgehend abgeschlossen. Der Digitalfunk BOS gehört bei vielen Mitarbeiterinnen und Mitarbeitern in den Berliner Behörden und Organisationen mit Sicherheitsaufgaben inzwischen zum täglichen Arbeitswerkzeug. Ob die neuen webbasierten Bürgerservices auch angenommen werden, hängt nicht zuletzt von dem Vertrauen der Bürger in die Verwaltung ab, dass diese ihre Daten schützt. Eine aktuelle Umfrage der BITKOM verdeutlicht, dass die Verwaltung an diesem Vertrauen noch arbeiten muss. Denn im Gegensatz zu Krankenkassen, Ärzten und Banken, denen jeweils um die 75 Prozent aller Befragten hinsichtlich des Datenschutzes vertrauen, bekunden bei staatlichen Stellen 59 Prozent der Bürgerinnen und Bürger lediglich ein mittleres Vertrauensniveau. Diesen Vertrauensrückstand aufzuholen ist eine Aufgabe, der sich das ITDZ Berlin als zentraler IT-Dienstleister des Landes Berlin nicht allein stellen kann. Um die Sicherheit der Bürgerdaten zu gewährleisten, muss das Thema Datenschutz in jedem Berliner Amt und an jedem IT-Arbeitsplatz Priorität haben. Auch dabei wollen wir die Berliner Verwaltung unterstützen. Ich wünsche Ihnen eine anregende Lektüre Konrad Kandziora Vorstand 1/12 2 SPLITTER Editorial Impressum 2 56 Schwerpunktthema Cyber-Attacken auf Deutschland – Probe für den Ernstfall LÜKEX 11 aus Sicht des ITDZ Berlin: Wie in „Stirb langsam 4.O“ Digitalfunknetz für Behörden und Organisationen mit Sicherheitsaufgaben (BOS) BOS-Netzaufbau in Deutschland: Bereits über 14O.OOO Teilnehmer Realisierung des Digitalfunks BOS in Berlin: Bei vielen schon tägliches Arbeitswerkzeug Katastrophenwarnung per SMS Zehn Fragen und Antworten zum Internet der neuen Generation IPv6 löst IPv4 ab IPv6 in der Berliner Verwaltung Migration des Berliner Landesnetzes (BeLa) auf das moderne „BeLa-MSN“ (Multi Service Network) Aktuelle Angebote des ITDZ Berlin Produkte der Mobilfunkausschreibung Internet-Telefonie gewinnt weiter an Boden Qualität von Videokonferenzen erhöhen Schnelles WLAN leicht gemacht Kostenloses WLAN für Londoner Stadtbezirke Richtig rechnen in VoIP-Systemen 4 6 7 7 8 9 1O 1O 12 13 13 14 14 15 16 17 18 Berichte und Infos Berliner Partner unterzeichnen Konsortialvertrag: Startschuss für den Online-Marktplatz goBerlin Prozessmodellierung mit ADONIS Das ITDZ Berlin stellt ADONIS zur Verfügung ITDZ Berlin war für den GreenIT Best Practice Award 2O11 nominiert James Bond und Theodor Escherich: Podcast aus dem Gesundheitsamt RuheSoft zur Ermittlung der Ruhefrist Großprojekte erfordern komplexe Ausgleichsmaßnahmen Von der Leichtigkeit des Programmierens Schneller, Höher, Weiter: Cluster, Grid, Cloud Sehr gute Beteiligung am ersten nationalen Programmierwettbewerb Schnellere Computer dank SSD-Speicher Schatten-IT – Flexibilität für Mitarbeiter, Risiko für das Unternehmen Datenschutz: Höchstes Vertrauen in Banken und Krankenkassen Optimalen Viren-Schutz gibt’s nur gegen Geld Schwächen der OpenOffice.org Version 3.3.O bereinigt Leitfaden zur Installation und Konfiguration von Windows 7 veröffentlicht 19 2O 2O 21 22 23 27 29 31 33 34 35 35 36 37 37 Online BSI veröffentlicht „Register aktueller Cyber-Gefährdungen und -Angriffsformen“ Deutsche Internetnutzer setzen auf „Bauchgefühl“ gegen Hackerattacken Milliardengewinne durch Datenschutzverstöße Soziale Netzwerke vermehrt im Visier von Cyberkriminellen HTML5: Warnung vor Botnetzen im Browser Facebook ist entscheidender Wirtschaftsfaktor in Europa Impressums-Pflicht bei Facebook Wissensplattform ALEXANDRIA für die allgemeine Nutzung freigegeben Störerhaftung des Admin-C Google Analytics datenschutzkonform einsetzen Googles Datenschutzerklärung nach deutschem Recht angreifbar Breitband-Anschlüsse: Deutschland in der Spitzengruppe 38 38 39 4O 4O 41 42 43 44 44 45 45 Tipps und Tricks Löschen leerer Ordner leicht gemacht: Neue FreeWare des Office Manager sorgt für Ordnung auf Windows-Computern Finale Version von WinRAR 4.1O steht zum Download bereit Laptop-Daten nur verschlüsseln reicht nicht aus 46 46 47 Veranstaltungen CeBIT, 6.-1O. März 2O12, Hannover: Anschluss an die digitale Zukunft CeBIT, 6.-1O. März 2O12, Hannover: CeBIT baute Managed Print Services Park aus CeBIT, 6.-1O. März 2O12, Hannover:Strategien gegen Fachkräftemangel CeBIT, 6.-1O. März 2O12, Hannover: PDF Association informierte über’ PDF-Standards und -Lösungen CeBIT, 6.-1O. März 2O12, Hannover: CeBIT wurde zum größten kostenlosen Hotspot der Welt 5. Essener Tagung, 18.-19. April 2O12: Mobile Kommunikations- und Informationstechnik im Einsatz 13. Datenschutzkongress, 8.-9. Mai 2O12, Berlin: Einheitlicher Datenschutz bald europaweit? 1O.-11. Mai 2O12, Frankfurt/ Main: IPv6-Kongress 1O.-11. Mai 2O12, Berlin: 6. RISER-Konferenz zum Europäischen Meldewesen 48 49 5O 5O 51 52 52 53 53 Literatur Fallstudie Green IT im IT-Dienstleistungszentrum Berlin Einstieg in Google Plus auf unterhaltsame Weise Das Duden-Stilwörterbuch als App für iPhone und iPad 54 54 55 Dies und Das Vor 2O Jahren im SPLITTER: Betr.: Antrag 56 1/12 3 SPLITTER Cyber-Attacken auf Deutschland – Probe für den Ernstfall Die alarmierenden Berichte über Cyberterrorismus in den Medien fanden Ende 2011 ihren Höhepunkt: Ein massiver Angriff auf kritische IT-Infrastrukturen der Bereiche Verkehr, Banken und Telekommunikation sowie öffentliche Verwaltung legte weite Teile der Bundesrepublik lahm! Glücklicherweise war dieser jedoch nur simuliert. Das Szenario war Kern einer so genannten LÜKEX (Länderübergreifende KrisenmanagementÜbung/EXercise), dem neuesten Teil einer Übungsserie des nationalen Krisenmanagements in Deutschland. Über 2.500 Mitarbeiter von verschiedenen Bundes- und Landesbehörden, unter anderem des Nationalen Cyber-Abwehrzentrums, sowie von rund 30 kommerziellen Betreibern kritischer Infrastrukturen Deutschlands beteiligten sich am Training. Im Fokus stand allerdings nicht die IT-Sicherheit der betroffenen Organisationen, sondern deren Zusammenarbeit und Koordination im Krisenfall. So wurde die Sicherheitsattacke lediglich nach Art eines Planspiels in Form von Diagrammen und Ablaufplänen dargestellt. An LÜKEX-Manövern nimmt jeweils nur eine Auswahl an Bundesländern teil, im aktuellen Fall waren es fünf „Intensiv Übende“ Länder plus sieben, die am Rande beteiligt waren. So schlüpften Behörden der Regierungen von Berlin und Brandenburg in die Beobachterrolle und konnten gleichzeitig einen spannenden Versuch starten, wie sich die Kommunikation dezentral agierender Gruppen optimieren lässt. Testlauf unter realen Bedingungen Da die Berliner Landesregierung an ein vom ITDZ Berlin betriebenes hochperformantes IP-basiertes Landesnetz auf Basis von Cisco Netzwerkkomponenten angeschlossen ist, wurde 1/12 4 Kritische IT-Infrastrukturen der Bereiche Verkehr, Banken und Telekommunikation könnten Ziel eines Cyberangriffs werden im Rahmen der Cisco Expo im Dezember 2010 die Idee geboren, sukzessive Videokommunikation in den Behörden einzuführen. „In Berlin ist behördenübergreifend eine Vielzahl von Abstimmungsbesprechungen notwendig“, erklärt Kai Osterhage, IT-Sicherheitsbeauftragter des ITDZ Berlin. „Videogestützte Kommunikation birgt das Potenzial, Steuermittel einzusparen, indem der Reise- und Zeitaufwand verringert wird. Nicht zuletzt profitieren alle Teilnehmer von ihrer visuellen Präsenz im Vergleich zum reinen Telefonat.“ Bevor ein Projekt dieser Größenordnung gestartet werden kann, ist es jedoch erforderlich, Tests aufzusetzen. Damit sollen die Vorteile aufgezeigt, aber auch mögliche Barrieren oder Schwachstellen der Technologie aufgedeckt werden. An dieser Stelle kommt die LÜKEX ins Spiel: „Da wir unsere jährliche Notfallübung aus Effizienzgründen mit der LÜKEX zusammengelegt haben, bot sich in deren Rahmen die Erprobung der Videokonferenzlösung unter realen Bedingungen mit unterschiedlichen Endgeräten über die Grenzen des Berliner Landesnetzes hinaus geradezu an“, so Osterhage. Am Projekt beteiligten sich auf technischer Seite Cisco als Lieferant der notwendigen Konferenztechnik, T-Systems als Systemintegrator und das ITDZ Berlin als IT-Dienstleister der Berliner Verwaltung. Zu den Teilnehmern zählten neben dem Berliner Innensenat die Berliner Feuerwehr und die Lagezentrale des CyberAbwehrzentrums im Nachbarland Brandenburg. Das konkrete Szenario beinhaltete Lagebesprechungen zwischen den drei Parteien, die anstatt telefonisch nun auf Basis der neuen Testinfrastruktur mittels Videokommunikation stattfinden sollten. „Da alle Teilnehmer bereits umfassende Erfahrungen mit Diensten wie Skype gemacht hatten, waren die Erwartungen an die neue Videokonferenzlösung recht hoch“, erläutert Osterhage. Gebündelte Kompetenzen So wurde im Nachgang der Cisco Expo eine Projektgruppe zur Vorbereitung der Infrastruktur aufgesetzt, die im Frühsommer 2011 ihre Arbeit aufnahm und sich während des gesamten Planungszeitraums regelmäßig über WebEX abstimmte, um die Meilensteine bis zur LÜKEX gemeinsam festzulegen. An erster Stelle stand das systemische Design der kompletten Lösung, in das alle Beteiligten ihre Kompetenzen einbrachten. Neben den technischen Vorbereitungen mussten jedoch auch die Testszenarien definiert werden. So wurde ein Kriterienkatalog ausgearbeitet, der Anforderungen wie Punkt-zu-Punkt-Kommunikation zwischen zwei Teilnehmern, Mehrpunkt-Kommunikation zwischen allen Teilnehmern, Application Sharing zum Live-Datenaustausch während Î SPLITTER Î der Unterredungen sowie die Administration durch das ITDZ Berlin und TSystems umfasste. Zudem spielte das Feedback der Anwender zur Handhabbarkeit der Lösung eine entscheidende Rolle. So wählten alle drei beteiligten Unternehmen gemeinsam die einzusetzenden Komponenten aus. Der Cisco TelePresence Video Communication Server Control zur Steuerung der Videokonferenz wurde ergänzt durch den Cisco TelePresence Video Communication Server Expressway für die sichere Videokommunikation außerhalb der Firewall. Beide Server wurden beim ITDZ Berlin betrieben. Mittels der Endgeräte Cisco TelePresence EX90 für Desktoparbeitsplätze und Cisco TelePresence Movi für mobile Mitarbeiter mit Laptops, die für den Einsatz bei der Senatsverwaltung für Inneres und Sport, der Berliner Feuerwehr und Lagezentrum sowie beim ITDZ Berlin vorgesehen waren, sollten sich die Teilnehmer in die Communication Server einwählen und so die Videokonferenzen durchführen. Das ITDZ Berlin verfügt über profunde Kenntnisse der Berliner IP-Infrastruktur und plante und realisierte die netztechnische Einbindung des Equipments; die Konfiguration und Integration der Videokonferenztechnik übernahm T-Systems. Bei der länderübergreifenden Einrichtung der Videolösung betrat das ITDZ Berlin jedoch Neuland. Die besondere Herausforderung bestand darin, die durch Firewalls abgeschotteten Netze der teilnehmenden Behörden dahingehend zu öffnen, dass eine sichere, risikofreie Kommunikation stattfinden konnte. Dazu musste das ITDZ Berlin unter anderem neue Kommunikationswege planen. „Die zentrale Videokonferenztechnik und die Endpunkte sind auf die verschiedensten Netzbereiche des Landesnetzes und sogar auf verschiedene Landesnetze verteilt. Die Realisierung der Kommunikationsverbindungen über die unterschiedlichen Netzzonen mit ihren von zahlreichen IT-Abteilungen betriebenen Sicherheitskomponenten stellte die größte Herausforderung dar“, so Dr. Bernd Schulz, Seniorbetriebsmanager Netz- und Kommunikationsbetrieb, ITDZ Berlin. „Auch wenn die Anzahl der beteiligten Bereiche zu Anfang unterschätzt wurde, konnten wir durch gute Koordination die erfolgreiche Kommunikation sicherstellen.“ Um den Echtzeitanforderungen der Videokommunikation gerecht zu werden, musste die vorhandene Netzwerk- und Sicherheitstechnik am Übergang zum DOI-Netz optimiert und dafür noch zusätzliche Verschlüsselungstechnik Bei der LÜKEX sollten die Teilnehmer Videokonferenzen durchführen, u.a. mit dem hier abgebildeteten Gerät TelePresence EX90 von Cisco in Betrieb genommen werden. DOI steht für Deutschland-Online Infrastruktur und beschreibt die deutschlandweite Kommunikationsinfrastruktur für alle Behörden der Deutschen Verwaltung. Sie ermöglicht die sichere Kommunikation zwischen den Netzen von Bund, Ländern und Kommunen. Kommunikation im Krisenfall Am Tag X der LÜKEX-Übung stimmten sich über die Konferenztechnik der Verantwortliche in der Lagezentrale des Cyber-Abwehrzentrums in Potsdam mit dem zuständigen Abteilungsleiter der Senatsverwaltung für Inneres und Sport und dem Leiter der Berliner Feuerwehr zur Lage ab. Dabei wurden alle zuvor vereinbarten Testszenarien durchgespielt. So war eine direkte und unmittelbare Kommunikation zwischen dem Notfallmanager und dem Vorstand des ITDZ Berlin sowie dem IT-Sicherheitsbeauftragten des ITDZ Berlin vor Ort beim Krisenstab des brandenburgischen Innenministeriums möglich, ohne dass andere Kommunikationskanäle beeinträchtigt oder notwendig gewesen wären. Nach Abschluss des Tages zeigten sich die Beteiligten durchweg begeistert von der Videokonferenzlösung. Nicht nur die Art der persönlicheren Kommunikation überzeugte die Teilnehmer, auch die einfache Nutzung der Lösung. „Der Testlauf war erfolgreich. Es gab keine technischen Probleme während des Tests und die Übertragungsqualität wurde hohen Ansprüchen gerecht“, fasst Kai Osterhage zusammen. „Auch die einfache Bedienbarkeit des Systems erschloss sich den Teilnehmern auf Anhieb.“ Nicht nur im Krisenfall, sondern auch für die alltägliche Abstimmungsarbeit der verschiedenen Behörden in Berlin und über die Landesgrenzen hinaus würde die Videokommunikation erhebliche Vorteile realisieren. CÉCILE WILLEMS Direktorin Vertrieb Öffentliche Hand, Cisco Deutschland 1/12 5 SPLITTER LÜKEX 11 aus Sicht des ITDZ Berlin Wie in „Stirb langsam 4.0“ „Bei LÜKEX 11 geht es zu wie im Kino: Wie in „Stirb langsam 4.0“ simulieren bundesdeutsche Behörden, was passiert, wenn wichtige Informationsnetze von Hackern angegriffen werden.“ So untertitelte die Berliner Morgenpost am 30. November 2011 die Überschrift zu ihrem Artikel über die zweitägige Großübung mit über 3.000 Teilnehmern. Für das ITDZ Berlin begann jedoch alles ziemlich genau drei Jahre vorher. Im November 2008 brachte das Bundesamt für Sicherheit in der Informationstechnik (BSI) den Standard 100-4 heraus, der sich dem Thema Notfallmanagement widmet. Im SPLITTER 3/2008 wurde der Standard bereits vorgestellt. Im Folgenden begann auch das ITDZ Berlin, sich an diesem Standard auszurichten und erarbeitete ein Notfallhandbuch, um geschäftskritische Verfahren des ITDZ Berlin sowie wichtige Landesverfahren im Krisenfall schneller und geordneter wieder zur Verfügung stellen zu können. Im Notfallhandbuch werden Funktionen und Rollen sowie Kommunikationswege definiert und Abläufe für verschiedene denkbare Notfälle festgelegt. Bestandteil von Notfall-Planungen sind regelmäßige Übungen und so sollte im Herbst 2011 auch die erste Notfall-Übung im ITDZ Berlin durchgeführt werden. Parallel dazu wurde in Zusammenarbeit mit der Senatsverwaltung für Inneres mit den Vorbereitungen der LÜKEX 11 (Länderübergreifende Krisenmanagementübung/Exercise) begonnen. Das ITDZ Berlin war durch den ITSicherheitsbeauftragten in der Rahmenleitgruppe Berlin/Brandenburg vertreten. Eine Zusammenlegung der beiden Übungen war aus Gründen der Effizienz sinnvoll, weil sie nahezu identische Übungsziele hatten. So handelte es sich bei beiden 1/12 6 Übungen primär um Proben der Kommunikationsstrukturen und -wege. Im Vorfeld der Übung trat der im Notfallhandbuch definierte Krisenstab des ITDZ Berlin zusammen und wurde durch den IT-Sicherheitsbeauftragten eingewiesen. Ein Notfallmanager wurde für die Zeit der Übung festgelegt, der während der Übungszeit im ITDZ Berlin als zentraler Ansprechpartner für den IT-Sicherheitsbeauftragten zur Verfügung stand. Der IT-Sicherheitsbeauftragte wiederum vertrat das ITDZ Berlin direkt im Krisenstab vor Ort im brandenburgischen Innenministerium. Der Krisenstab setzte sich aus Vertretern der Berliner und Brandenburger Innenverwaltungen, Polizei, Feuerwehr, THW, Bundeswehr, Verfassungsschutz sowie Vertretern der Betreiber kritischer Infrastrukturen (wie auch das ITDZ Berlin) zusammen und umfasste mehr als 30 Personen, die sich während der Übung nahezu ununterbrochen gemeinsam im Lagezentrum aufhielten und auf aktuelle Begebenheiten und Übungseinspielungen reagierten. Leerlaufzeiten wurden mit Fachvorträgen durch die Übungsteilnehmer sinnvoll überbrückt. onen funktionierte reibungslos und auch die Kommunikation mit den Krisenstäben der anderen Bundesländer sowie dem Krisenstab des Bundesinnenministeriums konnte – von kleineren Einschränkungen der Übertragungsqualität bei den Telefonkonferenzen abgesehen – zu den geplanten Zeitpunkten stattfinden. Getestet wurde zwischen dem ITDZ Berlin und dem IT-Sicherheitsbeauftragten im Krisenstab auch ein IPbasierendes Videokonferenzsystem (siehe vorhergehender Artikel), mit dem die Qualität der Übertragung deutlich höher war. Da bleibt nur die Frage, ob IP-Netze im echten Krisenfall überhaupt noch zur Verfügung stehen. Zur Not muß eben auf Boten zurückgegriffen werden. Die genauen Ergebnisse der bundesweiten Auswertung der LÜKEX 11 sollen frühestens im April 2012 vorliegen. Bundesinnenminister Friedrich erklärte, dass die LÜKEX 11 Verbesserungspotential aufgezeigt habe. Dazu gehöre die Einrichtung von landesweiten Computer-Notfallteams (CERT). Eine entsprechende Empfehlung für Berlin gab das ITDZ Berlin bereits 2009 im ITSicherheitsjahresbericht. Aus Sicht des ITDZ Berlin war die Übung ein Erfolg. Die Zusammenarbeit mit den Vertretern der verschiedenen Organisati- KAI OSTERHAGE IT-Sicherheitsbeauftragter des ITDZ Berlin An der LÜKEX 11 nahm auch das Technische Hilfswerk teil SPLITTER Digitalfunknetz für Behörden und Organisationen mit Sicherheitsaufgaben (BOS) Im BOS-Digitalfunknetz werden Behörden und Organisationen mit Sicherheitsaufgaben (BOS) – wie Polizeien, Feuerwehren, Zoll und Rettungsdienste – in einem bundesweit einheitlichen digitalen Sprech- und Datenfunksystem miteinander kommunizieren. Gemäß den Anforderungen der Behörden und Organisationen mit Sicherheitsaufgaben des Bundes und der Länder soll mit dem BOS-Digitalfunknetz eine sichere, hochverfügbare Sprachkommunikation und daneben eine schmalbandige Datenkommunikation ermöglicht werden. Der Digitalfunk BOS wird Zug um Zug die Analogfunksysteme ablösen. Vorteile des Digitalfunks BOS Die Digitalfunk-Technologie, basierend auf dem TETRA-Standard, bietet zahlreiche Vorzüge. Für die Steuerung von Einsätzen ist die Gruppenkommunikation – neben der Einzelkommunikation – entscheidend. Nur der Digitalfunk BOS bietet die technische Möglichkeit, Gruppen ad hoc und zentralgesteuert in einem Einsatz zusammen zu schalten, so dass die Funklagedienste bzw. Einsatzleitstellen gezielt und zuverlässig mit bestimmten Gruppen und einzelnen Teilnehmerinnen und Teilnehmern sprechen und diese direkt koordinieren können. Einer Gruppe können Angehörige verschiedener BOS – beispielsweise von Feuerwehr, Polizei und Rettungsdienst sowie die Funklagedienste bzw. Einsatzleitstellen – zugeordnet sein. Diese hören zeitgleich denselben Funkspruch. Darüber hinaus zeichnen Eigenschaften wie zum Beispiel die verlässliche Verfügbarkeit des Digitalfunks BOS, die deutlich verbesserte Empfangsqualität ohne störende Hintergrundgeräusche („Rauschen“) und die Abhörsicherheit den Digitalfunk BOS aus. Im Analogfunk werden die Frequenzen nur innerhalb der jeweiligen BOS genutzt – jede BOS hat ein eigenes Netz mit eigenen Funkkanälen und räumlich begrenzter Reichweite. Die Polizei funkt auf Polizeifrequenzen, die Feuerwehr auf ihren Frequenzen in jeweils separaten Analogfunknetzen, und zwar auf die jeweilige Region begrenzt. Eine bundesweite und BOS-übergreifende Kommunikation, die hochverfügbar und zuverlässig ist, ist im Analogfunk nicht möglich. Zusammenfassend hier die Vorteile der neuen Digitalfunktechnologie basierend auf dem TETRAStandard: • • • • • • alle BOS kommunizieren in einem Netz hohe und verlässliche Verfügbarkeit Abhörsicherheit des Funkverkehrs verbesserte Sprachqualität (ohne „Rauschen“) im Vergleich zum Analogfunk Datenübertragung Digitalfunk BOS bietet die technische Möglichkeit, Gruppen ad hoc und zentralgesteuert in einem Einsatz zusammenzuschalten BUNDESANSTALT FÜR DEN DIGITALFUNK DER BEHÖRDEN UND ORGANISATIONEN MIT SICHERHEITSAUFGABEN (BDBOS) UND LANDESSTELLE FÜR DEN DIGITALFUNK BOS BERLIN (LASTDF) Der Digitalfunk für Behörden und Organisationen mit Sicherheitsaufgaben (BOS) befindet sich im Aufbau (im Bild: TETRA-Mast in Brandenburg) BOS-Netzaufbau in Deutschland Bereits über 140.000 Teilnehmer Im BOS-Digitalfunknetz sind über 140.000 Teilnehmer registriert (Stand Dezember 2011). Diese Zahl steigt weiterhin kontinuierlich. In vielen Gebieten Deutschlands ist der Digitalfunk BOS bereits funktionsfähig und verfügbar, so beispielsweise in Berlin, Hamburg, Bremen, München, in den Regionen Lüneburg, Trier, Oldenburg (in Niedersachsen), Leipzig, dem Großraum Düsseldorf, SchleswigHolstein West, dem östlichen Landesteil Baden-Württembergs sowie im Neckar-Odenwald-Kreis und dem Rhein-Neckar-Kreis. Seit November 2011 nimmt Mecklenburg-Vorpommern als erstes Flächenland vollständig am erweiterten Probebetrieb des Digitalfunks BOS teil. Der Netzaufbau, d.h. die bauliche und funktechnische Ertüchtigung der Basisstationsstandorte, ist weit fortgeschritten. Von den geplanten 4.300 bis 4.500 Basisstationen waren zum 31. Dezember 2011 insgesamt 2.643 aufgebaut und mit Systemtechnik ausgestattet (installiert) und davon 1.542 Basisstationen in das BOS-Digitalfunknetz integriert. In das Kernnetz sind neben den beiden Netzverwaltungszentren in Berlin und Hannover 47 Vermittlungsstellen eingebunden. Als Teil der erforderlichen Infrastruktur für das BOS-Digitalfunknetz steht das Kernnetz wie geplant 2012 zur Verfügung. Für die Infrastruktur insgesamt gilt: Flächendeckend wird die für den Digitalfunk BOS erforderliche Infrastruktur im Wesentlichen voraussichtlich bis Ende 2012 aufgebaut und mit Technik versehen – „installiert“ – sein. Es ist jedoch zu berücksichtigen, dass die einzelnen Infrastrukturkomponenten, wie Funkbasisstationen und Vermittlungsstellen, nach der Installation noch getestet, justiert und deutschlandweit zusam- Î 1/12 7 SPLITTER Îmengeschaltet – „integriert“ – werden müssen. Die Integration der regionalen Teilnetze erfolgt sukzessive nach der jeweiligen Installationsphase und wird im Wesentlichen 2014 abgeschlossen sein. Weiterführende Informationen über den Digitalfunk BOS finden Sie auf der Internetseite der Bundesanstalt für den Digitalfunk der Behörden und Organisationen mit Sicherheitsaufgaben (BDBOS): www.bdbos.bund.de BUNDESANSTALT FÜR DEN DIGITALFUNK DER BEHÖRDEN UND ORGANISATIONEN MIT SICHERHEITSAUFGABEN (BDBOS) Realisierung des Digitalfunks BOS in Berlin Bei vielen schon täglichesArbeitswerkzeug Die Projektgruppe „Digitalfunk BOS Berlin“ hat seit ihrer Gründung im Jahr 2004 ihren Projektauftrag heute nahezu vollständig erfüllt. Die Migration ist für das Land Berlin zwar noch nicht ganz abgeschlossen, der Digitalfunk BOS ist aber bei vielen Mitarbeiterinnen und Mitarbeitern in den Berliner Behörden und Organisationen mit Sicherheitsaufgaben inzwischen zum täglichen Arbeitswerkzeug geworden. Gerade wenn aufgrund von Wartungsarbeiten Einschränkungen bei der Netzversorgung oder der Dienstebereitstellung von den Einsatzkräften hingenommen werden müssen, wird deutlich, was für ein wichtiges Führungs- und Kommunikationsmittel die BOS mit dem Digitalfunk gewonnen haben. Der Aufbau des Digitalfunknetzes ist für Berlin weitestgehend abgeschlossen. Die Basisstationen aus der ersten Netzplanung sind schon seit 2009 in Betrieb. Durchgeführte Messfahrten ergaben dabei jedoch einige Bereiche im Stadtgebiet, bei denen 1/12 8 Der Aufbau des Digitalfunknetzes ist für Berlin weitestgehend abgeschlossen das geplante Versorgungsziel noch nicht erreicht werden konnte. Im Rahmen einer Feinjustierung wurden die bestehenden Lücken mit weiteren Basisstationen geschlossen, so dass im Endausbau 48 Basisstationen die Freifeldversorgung im Digitalfunk BOS im Land Berlin sicher stellen. Aktuell sind davon 41 Basisstationen „in der Luft“, fünf weitere werden Ende Februar in Betrieb genommen und die restlichen zwei werden Mitte dieses Jahres noch folgen. Grundsätzlich können nach Abschluss aller geplanten Maßnahmen die Einsatzkräfte davon ausgehen, dass im gesamten Stadtgebiet Berlin eine flächendeckende Fahrzeugfunkversorgung und in den Siedlungsgebieten eine Funkversorgung auch innerhalb von Gebäuden im Nahbereich von Fenstern anzutreffen ist. Eine Durchdringungstiefe, wie bei den kommerziellen Mobilfunknetzen, kann jedoch nur im näheren Umfeld einer Basisstation gegeben sein. Die Berliner BOS betreiben aktuell rund 15.000 Digitalfunkgeräte im Netz, davon sind etwa 4.000 Fahrzeugfunkgeräte verbaut. Bei der Berliner Feuerwehr sind mehr als 95% aller Fahrzeuge umgerüstet, bei der Berliner Polizei sind es etwa 70%. Der größte Anteil der Digitalfunkgeräte fällt jedoch auf die Handsprechfunkgeräte, die je nach Verwendungszweck mit umfangreichem Zubehör wie einem Handbedienteil und/ oder einer Hörsprechgarnitur für den Schutzhelm zum Einsatz kommen. Die neue Technik wirkt sich dabei auch auf andere Bereiche aus. So hat die Berliner Feuerwehr die neu beschaffte Schutzkleidung so gestaltet, dass die Handsprechfunkgeräte mit dem Zubehör integriert in der Einsatzkleidung getragen werden können. Für die Nutzerinnen und Nutzer des Digitalfunk BOS im Land Berlin steht als kompetenter Ansprechpartner die Landesstelle Digitalfunk BOS Berlin rund um die Uhr zur Anwenderbetreuung bereit. Neben der Beratung zu fachlichen Fragen liegt die Hauptaufgabe der Landesstelle Digitalfunk BOS Berlin darin, die Interessen der Berliner BOS gegenüber der Bundesanstalt für den Digitalfunk der BOS, dem Technischen Betrieb und den verschiedenen Bund-Länder-Gremien zum Digitalfunk BOS zu vertreten. Laufend wird die „Fernmeldelage“ und die Netzverfügbarkeit im Einsatzraum Berlin überwacht. Bei Störungen oder Beeinträchtigungen der Netzversorgung und Diensteverfügbarkeit werden unmittelbar die Leitstellen der Berliner BOS informiert und eine rasche Wiederherstellung der Digitalfunkversorgung koordiniert. Die meisten Fernmeldebetriebszentralen der Polizei als auch die landesweite Feuerwehrleitstelle der Berliner Feuerwehr sind bereits direkt an das BOS-Digitalfunknetz angebunden. Um vor allem auch die kleineren Leit- und Befehlsstellen mit einem technisch und wirtschaftlich vertretbaren Aufwand anzubinden, wird derzeit ein sogenannter LeitstellenKonzentrator errichtet. Nur mittels ei- Î SPLITTER Î ner direkten Anbindung über Draht sind für die Leitstellenarbeitsplätze alle Leistungsmerkmale des Digitalfunks BOS nutzbar, eine Anbindung über die Luft ist aus Ressourcengründen dann nur für den Rückfallbetrieb erforderlich. Der Digitalfunk BOS hat im Land Berlin bereits bei mehreren größeren Einsatzlagen seine Leistungsfähigkeit unter Beweis gestellt. Sowohl zum Besuch Seiner Heiligkeit Papst Benedikt XVI. in Berlin, als auch zum letzten Jahreswechsel war das Digitalfunksystem bei intensiver Nutzung nahezu störungsfrei im Betrieb. Der Digitalfunk BOS zeigte in Spitzenlasten das erwartete Systemverhalten. Mit den gewonnen Erkenntnissen konnten noch kleinere Fehler ausgemerzt werden und der taktische Einsatz des Digitalfunks BOS für die nächste „Großlage“ weiter optimiert werden. Ein Schwerpunkt der zukünftigen Arbeiten der Landesstelle Digitalfunk BOS Berlin wird es sein, die Migration der etwa 200 analogen Tunnel- und Gebäudefunkanlagen zu digitalen Objektfunkanlagen zu koordinieren. Für den Einsatz der BOS ist eine Funkversorgung auch in bauartbedingt schwierig zu versorgenden Bereichen ein wesentliches Merkmal für einen hohen Einsatzerfolg. Auch aus diesem Grund beschreitet man in Berlin den Weg, das bestehende TETRA-Digitalfunknetz der Berliner Verkehrsgesellschaft im Untergrund der Berliner U-Bahn durch eine Verbindung mit dem Digitalfunk BOS zu nutzen. Die ersten Schritte hierzu sind bereits getan. Einsatzkräfte von Polizei und Feuerwehr können mit ausgewählten Geräten bereits heute durch Umschaltung auf das andere Digitalfunknetz im Einsatz kommunizieren. KATWARN Was ist KATWARN? Katastrophenwarnung per SMS Mit KATWARN können zuständige Behörden durch Kurzinformationen und Verhaltensempfehlungen per SMS Handy- und Smartphone-Nutzer betroffener Gefahrengebiete gezielt warnen und informieren. Droht in einem Stadtteil beispielsweise Überschwemmung, würde eine Warn-SMS so aussehen: In vier Regionen Deutschlands warnt das Fraunhofer-FOKUS-System KATWARN bereits zuverlässig vor Gefahren – kostenlos und postleitzahlengenau per SMS. Für den reibungslosen Ablauf ist vor allem die enge Zusammenarbeit von Verwaltung und Forschung ausschlaggebend. Was tun wenn eine Sirene in der Nachbarschaft aufheult? Anstatt sich über Radio oder Internet zu informieren, sind die meisten entweder ratlos oder wählen die Notrufnummer – und blockieren damit wichtige Leitungen. Um solche Szenarien zu vermeiden, entwickelten die Wissenschaftler des Berliner Fraunhofer Institut für Offene Kommunikationssysteme (FOKUS), das Frühwarnsystem KATWARN – ein Warnsystem, das die Bürger kostenlos und postleitzahlengenau per SMS über Gefahrenlagen informiert. In Hamburg, Ostfriesland, Frankfurt am Main und Bad Homburg wird KATWARN bereits erfolgreich genutzt – jetzt soll das System auch in weiteren Städten und Landkreisen in Deutschland dafür sorgen, dass die Bürger in Zukunft nur noch ihr Handy brauchen, um schnellstmöglich über eventuelle Gefahren informiert zu werden. „Sturmflut-Warnung der Innenbehörde, gültig ab sofort, für PLZ 20457, tiefliegende Außendeichgebiete verlassen.“ „Wir alle sind nicht mehr daran gewöhnt, im Gefahrenfall selbstständig Entscheidungen zu treffen, wir verlassen uns auf die Feuerwehr und Rettungsdienste«, so Ulrich Meissen, Leiter des Kompetenzzentrums Electronic Safety and Security Systems vom Fraunhofer FOKUS. „Das ist in aller Regel ja auch richtig, dennoch müssen Bürger bei schweren Gefahrenlagen auch selbstständig agieren können. Hierfür ist KATWARN genau richtig.“ Damit möglichst viele Menschen von der Technologie profitieren, übernimmt die Stadtverwaltung in Kooperation mit den öffentlichen Versicherern die Kosten für Einführung und Betrieb von KATWARN – der Service selbst bleibt dadurch kostenlos. Wie funktioniert KARWARN? Einzig eine aktive Registrierung ist aus rechtlichen Gründen nötig. Dafür können sich Bürger kostenfrei über die Servicenummer 0163-755 88 42 per SMS anmelden, indem sie das Stichwort „KATWARN“ und die Postleizahl ver- Î Aktuelle Informationen zur Migration des Digitalfunk BOS in Berlin werden von der Landesstelle Digitalfunk BOS Berlin auf der Internetseite www.digitalfunk.berlin.de veröffentlicht. ANDREAS SIRTL, CLAUS-DIETER SPLETTER Landesstelle für den Digitalfunk BOS Berlin (LaStDF) Katastrophenwarnung per SMS mit dem System KATWARN von Fraunhofer FOKUS 1/12 9 SPLITTER Îsenden, für die der Warnservice gelten soll. Es entstehen dann lediglich die Kosten für den Versand einer normalen SMS. Wer auch per E-Mail benachrichtigt werden möchte, kann zusätzlich seine Mailadresse angeben. Eine Beispiel-SMS sähe dann folgendermaßen aus: „KATWARN 20457 hans.mustermann@ mail.de“ Im Falle eines Falles gibt die zuständige Behörde dann eine Warnung an die angemeldeten KATWARN-Nutzer aus. So wurden allein in Hamburg die Bürger im Dezember drei Mal vor einer Sturmflut gewarnt. Außerdem konnten Anwohner frühzeitig bei einer Schadstofffreisetzung und einem Bomben benachrichtigt und evakuiert werden. Auch wenn KATWARN die lokalen Anweisungen von Behörden, Polizei und Einsatzkräften nicht ersetzt, ergänzt es vorhandene Warnsysteme hervorragend durch unmittelbare und individuelle Benachrichtigungen – ein Vorteil, den nach dem Unwetter im vergangenen Jahr immer mehr Hamburger erkannten: „Wir wissen, dass das System keine hundertprozentige Sicherheit bietet, doch wir schätzen den zusätzlichen Nutzen für unsere Bürger. Nach der Warnung vor den Sturmfluten im Dezember stiegen die Teilnehmerzahlen deutlich an“, sagt Kay Finger von der Hamburger Behörde für Inneres. Was für ein System steckt hinter KATWARN? Um die Zuverlässigkeit von KATWARN zu gewährleisten, läuft das System mit hohen Sicherheitsanforderungen. Beispielsweise wird alle fünf Minuten eine Testnachricht ausgesendet, deren Zustellung per Roundtrip-Überwachungssystem kontrolliert wird. Dabei müssen alle Nachrichten innerhalb weniger Minuten versandt werden, ohne die Mobilfunknetze zu überlasten. Zwei Server vergleichen, für wen die Nachricht relevant ist, zusätzlich werden sie über mehrere Versandprovider verteilt, um Netzausfälle zu kompensieren. 1/12 10 KATWARN stützt sich auf Multihazardund Multichannel-Technologien – das heißt, die Technologie wird in bereits vorhandene Warnsysteminfrastrukturen eingebunden. Auf diese Weise werden Synergien genutzt und darüber hinaus eine günstige Kostenstruktur gewährleistet. Künftig wird das System weitere Warnkanäle wie Smartphone-Apps, Smart-TV sowie intelligente Gebäudeund Infrastrukturtechnik unterstützen. FRAUNHOFER FOKUS Zehn Fragen und Antworten zum Internet der neuen Generation IPv6 löst IPv4 ab Von den meisten Internetnutzern unbemerkt, wird im Netz langsam, aber stetig auf die neuen Datenverkehrsregeln des Standards IPv6 umgestellt. Eine 17-köpfige Gruppe von Experten aus Wissenschaft, Wirtschaft und Politik hat zum sechsten nationalen ITGipfel in München (6. Dezember) ein Strategiepapier dafür erarbeitet, wie der Umstieg auf das „Internet der neuen Generation“ gezielt gefördert werden soll, um flächendeckende Verbreitung zu erreichen. Leiter der „Sonderthemengruppe“ ist der Potsdamer Informatikwissenschaftler Prof. Christoph Meinel, Direktor des Hasso-Plattner-Instituts. Er ist auch Vorsitzender des Deutschen IPv6Rats. Anlässlich des IPv6-Gipfels in Potsdam (1. und 2. Dezember 2011) beschreibt er seine Position in diesem Interview. Warum ist die flächendeckende Einführung des neuen Internetstandards IPv6 in Deutschland so wichtig? Meinel: Hauptsächlich aus zwei Gründen. Einerseits muss weiterhin ein störungsfreier Betrieb des Internets gesichert sein und andererseits darf die deut- sche Wirtschaft nicht in einen Wettbewerbsnachteil geraten. Denn vor allem im asiatischen Raum ist die Verbreitung des neuen Internetprotokolls schon sehr viel weiter fortgeschritten. Dies dürfen wir in Deutschland nicht ignorant einfach hinnehmen und den Umstieg dem zögernden Markt überlassen. Worin sehen Sie die größten Vorteile des neuen Internetstandards? Meinel: Das IPv6-Protokoll löst das Problem, dass spätestens im Jahr 2012 der Vorrat an alten Netzanschlussadressen erschöpft sein wird und die bisherige Netzarchitektur für das Adressieren von Diensten und die Vergabe von Internetzugängen damit an Grenzen stößt. Darüber hinaus bringt IPv6 noch wichtige Verbesserungen gegenüber dem alten Protokoll mit sich. Die liegen zum Beispiel in der verbesserten Möglichkeit zur so genannten Autokonfiguration. Das heißt: Jedes mit einer IP-Adresse versehene Gerät kann vollautomatisch eine funktionsfähige Internetverbindung aufbauen, in dem es mit den für sein Netzwerksegment zuständigen Routern kommuniziert und dabei die notwendige Konfiguration ermittelt. Der neue Standard IPv6 versteht sich ja mit dem bisherigen, überholten Protokoll IPv4 nicht, die Formate der jeweiligen Datenpakete sind also nicht kompatibel. Wie wirkt sich das aus? Meinel: Beide Standards werden in einer mehrjährigen Übergangsphase gemeinsam nebeneinander betrieben werden – in einem Zwei-Säulen-Modell, das wir „Dual Stack“ nennen. Für Netzbetreiber und Unternehmen bedeutet das Mehraufwand, zum Beispiel für den Austausch von Geräten und für das Netzwerk-Management. Damit die Kommunikation eines alten IPv4-Endgerätes mit einem neuen IPv6-Endgerät klappt, ist eine Übersetzung zwischen beiden Protokollversionen notwendig. Das gilt auch umgekehrt. Neue IPv6-Endgeräte, die nicht zugleich auch IPv4 beherrschen, können nämlich nicht auf Inhalte zugreifen, die mit dem alten Standard angeboten werden. Î SPLITTER Meinel: Nein. Die Bundesregierung hat zugesagt zu prüfen, was in der Forschungspolitik, in den Beschaffungsmaßnahmen der öffentlichen Verwaltung, in der IT-Sicherheit und beim Datenschutz getan werden kann, um die Verbreitung des neuen Internetstandards zu unterstützen. Mitte 2012 wird sie einen Bericht mit entsprechenden Handlungsempfehlungen vorlegen. Ist denn die Zugangstechnik bei den meisten Internetnutzern eigentlich schon IPv6-reif? Î Gibt es denn keine Alternative zum Umstieg auf ein neues Internetprotokoll? Meinel: Nein. Ohne IPv6 gibt es keine Zukunft für das enorm wachsende Internet und seine neuen Anwendungen. Wir haben da an das Internet der Dinge, das Internet der Dienste, die intelligenten Netze zur Steuerung der Stromproduktion und des Stromverbrauchs zu denken, ferner an die Telemedizin und die Kommunikation zwischen Sensoren, zwischen Maschinen, zwischen Autos – um nur einige Beispiele zu nennen. Rund 80 Prozent der gut 80 Millionen Deutschen sind Internetnutzer. Das ist der höchste Anteil in Europa und der fünfthöchste weltweit. Es ist die Aufgabe, diese und künftige Anwender zu IPv6Nutzern zu machen. Japan, China, Australien und die USA sind mit der Durchdringung des neuen Internetstandards schon wesentlich weiter als wir. Die deutschen Internet Service Provider registrieren immer noch zu wenig Nachfrage nach IPv6 beim Nutzer. Die Endanwender wiederum fragen IPv6 derzeit kaum nach, weil sie ja die IP-Adresse meist gar nicht zu Gesicht bekommen, solange es mit dem Internetzugang keine Probleme gibt. Und der Wechsel der Datenverkehrsregeln bringt für den Verbraucher im Normalfall keine wichtigen technischen Veränderungen mit sich. Wie kommt Deutschland aus dieser Situation heraus? Meinel: Wir haben in unserer Sonderthemengruppe zum nationalen IT-Gipfel in München das Ziel formuliert, dass bis zum Jahr 2015 alle Internetdienste sowohl über den alten Standard IPv4 als auch über den neuen IPv6 zugänglich sein sollen. Wir empfehlen, dass sich alle Marktteilnehmer selbst zur Einführung von neuen IPv6-Diensten verpflichten und dafür Kooperationen bilden. Das hält die Kosten des Umstiegs niedrig und macht die Vorteile von IPv6 schnell zugänglich. Sehen Sie den Staat da ganz außerhalb des Spiels? Meinel: In Millionen von Fällen muss die IPv6-Unterstützung von DSL-, LTE- und Kabel-Modems, von Ethernet-Anschlüssen, WLAN-Routern, Set-Top-Boxen und von mobilen Endgeräten noch ausgebaut und auch anwendertauglich gemacht werden. Es ist allein schon eine enorme Herausforderung, bei den mehr als 26 Millionen Haushalten mit Breitbandanschlüssen im deutschen Festnetz die Endgeräte auf die Nutzung nach dem Zwei-Säulen-Modell, also sowohl für IPv4 als auch für IPv6, umzustellen. Größeren Nachholbedarf gibt es auch bei den Betriebssystemen für mobile Endgeräte. Muss sich der Internetnutzer Sorgen machen, dass IPv6 die Privatsphäre weniger schützt als IPv4? Meinel: Wie viel Privatsphäre im Internet es geben sollte, wird unterschiedlich gewertet. Im Telefonverkehr käme ja auch niemand auf die Idee, seine Telefonnummer zu verschleiern. Und im Autoverkehr setzen wir ebenfalls auf eindeutige Identifikation durch Kfz-Kennzeichen. Zu beachten ist: Schon jetzt kann ich über andere Merkmale wie Cookies, BrowserSpeicher, Benutzung von Plug-ins und Programmversionen, die extern abgefragt werden können, als Nutzer identifiziert werden. Solange ich keinen Anonymisierungsdienst verwende, speichert mein Provider jetzt schon meine aktuell benutzte IPv4-Adresse und meine Verbindungsdaten. Diese Informationen muss mein Provider herausgeben, wenn es zivil- oder strafrechtliche Ermittlungen gibt. Î 1/12 11 SPLITTER Î Aber durch eine IPv6-Adresse bin ich doch immer eindeutig identifizierbar, oder nicht? Meinel: Um diese Identifikation zu verhindern, gibt es für IPv6 die so genannten Privacy Extensions. Sie würfeln sozusagen denjenigen Teil meiner IPv6-Adresse, der aus der Adresse meines Hardware-Geräts gebildet wird und nicht - wie der andere Teil – in Verbindung mit meinem Netzwerk-Router, nach einer gewissen Zeit immer wieder neu aus. Das verhindert die dauerhafte Wiedererkennbarkeit meines Geräts, mit dem ich im Internet bin. Die meisten modernen Betriebssysteme unterstützen diese Vorkehrung zum Schutz der Privatsphäre, sie muss aber teilweise noch von Hand aktiviert werden. Zeigt das nicht, dass die Benutzerfreundlichkeit noch gesteigert werden muss? Meinel: Genau! Die Hersteller sollten sich zusammentun, um gemeinsam eine benutzerfreundliche Einstellung der Router und anderen Endgeräte beim Kunden zu ermöglichen. Meine Privatsphäre zu schützen und bestimmte Dienste in Anspruch nehmen zu können, sollte sozusagen auf einfachen Knopfdruck möglich sein, ohne viel Fummelei. Und künftig sollten auch alle Geräte der Unterhaltungselektronik gleich IPv6-fähig gemacht werden. Weitere Informationen auf der Website des IPv6-Rats: www. ipv6council.de HASSO-PLATTNER-INSTITUT 1/12 12 IPv6 in der Berliner Verwaltung Die Rollen sind klar. Für die Verwaltungen in Deutschland ist das Bundesministerium des Innern die Local Internet Registry (LIR), d.h. der „Halter“ des IPv6-Adressraums. Die operativen Aufgaben auf Bundesebene hat hingegen das Bundesverwaltungsamt übernommen. Der zentrale Präfix der öffentlichen Verwaltung in Deutschland lautet 2a02:1OOO::/26 (vollständige Langform: 2aO1:1OOO:OOOO:OOOO:OOOO:OOOO:OOOO:OOOO/ 26), wobei die Schreibweise für die Netzmaske /26 analog zu IPv4 die Präfixlänge in Bits angibt. Mit diesem Adressteil werden alle Verwaltungs-IP-Adressen in Deutschland beginnen. Im Gegensatz zu den bisherigen IPv4-Adressen werden IPv6-Adressen hexadezimal geschrieben und in Blöcken zu je 4 Digits angeordnet. Unterhalb dieses Verwaltungsadressraumes geht die Verästelung weiter. So ist ein Block für jedes Bundesland vorgesehen. Jeder dieser Blöcke hat eine Präfixlänge von 32 Bit. Die Verwaltungs-IP-Adressen in Berlin beginnen alle mit 2aO2:1O22::/32. Der Berliner IPv6-Adressraum der Verwaltung wird durch eine Sub-Local-Internet-Registry (Sub-LIR) koordiniert. Das ist in Berlin die Senatsverwaltung für Inneres und Sport. Sie ist der „Halter“ des dem Land Berlin zugeteilten IPv6-Präfixes. Das ITDZ Berlin als Dienstleister der Verwaltung ist der operative Sub-LIR und damit für die Organisation und die Ausführung der Aufgaben der Sub-LIR zuständig. Dies sind u.a. die Ergänzung des zentralen Internetzugangs im Berliner Landesnetz um IPv6 und die Zuteilung der IPv6Adressen an die Verwaltungsteilnehmer. Für die Berliner Verwaltung stehen demnächst dank IPv6 allein so viele Subnetze zur Verfügung, wie vorher in der Summe an IPv4-Adressen dem gesamten Internet. In jedem jedem dieser Subnetze lassen sich wiederum 18 Trillionen IPv6-Adressen nutzen. IPv6 ermöglicht eine weltweite Ende-zu-Ende-Kommunikation. Daher müssen die einzelnen Standorte und Nutzerkreise, die das Netz nutzen wollen, mit ihrem zukünftigen IPv6-Präfix registriert werden. Das geschieht über ein IPv6-Adressrahmenkonzept für das Berliner Landesnetz, welches die Sub-LIR-Beteiligten ausarbeiten. Alle internetfähigen Geräte müssen auf IPv6 umgestellt werden. Sogenannte „Translator“ für die IPv6-IPv4Übersetzung können nicht jeden Anwendungsfall abdecken und somit nur in wenigen Spezialfällen als Übergangslösung in Betracht gezogen werden. Als nächsten Schritt gilt es, das IPv6-Adressrahmenkonzept des Landes Berlin zur Verabschiedung vorzubereiten. Es wurde in einer IPv6-AG unter Mitwirkung von IT-Verantwortlichen des Landes und Vertretern des ITDZ Berlin entwickelt. Danach sollen die ersten kleinen Implementierungsschritte auf der Ebene des Landesnetzes folgen. Ein erster Schritt wird die Aktivierung von IPv6 am Internetzugang des Landesnetzes und die testweise Bereitstellung eines ersten Webdienstes im IPv6-Internet sein. Dazu muß auch der Internet Service Provider auf IPv6 eingerichtet sein. Der Internetzugang wird dann im Parallelbetrieb (sogenannter „Dual Stack“) die Anbindung an das IPv4- als auch an das IPv6-Internet liefern. Das wird möglicherweise schon dieses Jahr passieren. Die Umstellung auf IPv6 macht eine umfassende Veränderung der IP-Adressstruktur in Berlin möglich, aber auch nötig. Dazu bedarf es künftig eines soliden Grundwissens zu IPv6 bei allen IT-Verantwortlichen. Daher sollte es schon jetzt Ziel sein, das notwendige Know-how aufzubauen, bevor ein unmittelbarer IPv6-Bedarf besteht. (EB) SPLITTER Migration des Berliner Landesnetzes (BeLa) auf das moderne „BeLaMSN“ (Multi Service Network) Seit der Inbetriebnahme des BeLaMSN im Februar 2008 steht dem ITDZ Berlin und seinen Kunden ein modernes IP-basiertes Transportnetz für die unterschiedlichen Dienste (Daten, Sprache, Video) zur Verfügung. Die Migration aller Datenanschlüsse vom bisherigen MAN (Metropolitan Area Net) auf das MSN wurde bereits im Jahre 2010 erfolgreich abgeschlossen. Die Überleitung der Telefonanlagen vom herkömmlichen SDH-Netz (synchrone Multiplextechnik) auf das BeLa-MSN ist weit fortgeschritten. So sind aktuell 58 der 72 Telefonanlagensysteme der Berliner Verwaltung migriert. Bei den Migrationen der Sprachanschlüsse macht sich jedoch der Technologiewechsel von TDM (klassische Telefonie) auf IP verzögernd bemerkbar, insbesondere bei den Themen Synchron-Takt, Gebührentakt und High-Speed-Fax. Synchron-Takt: Bei TK-Anlagen und TK-Verbünden, die synchrone Schnittstellen (S2M, S0) sowohl zum BeLa-MSN als auch zu anderen Carriern haben, waren besondere Maßnahmen erforderlich, um Verbindungsabbrüche wegen Taktdifferenzen zu verhindern. Da der Takt über IP-Netze, wie das BeLa-MSN, nicht genau genug übertragen werden kann, wurden im BeLa GPS-Uhren oder zusätzliche synchrone Schnittstellen zum Carrier als Taktquellen eingesetzt. Diese Lösungen wurden bereits erfolgreich umgesetzt. Gebührentakt: Am Übergang vom Carriernetz zum BeLa-MSN kann der Gebührentakt des Carriers nicht weitergeleitet werden. Wenige Kunden benöti- gen den Gebührentakt jedoch noch für die Gebührenabrechnung. Deshalb wurde individuell für jeden betroffenen Kunden entschieden, ob eine Umstellung seines Abrechnungssystems auf das zeitgemäße Zeitmodell oder die zusätzliche Kopplung seiner Telefonanlage mittels TCS (Transparent Channel Signalling) mit dem Carriernetz erfolgen soll. Beide Varianten sind gegenwärtig in der Umsetzung. High-Speed-Fax: Fax-Geschwindigkeit mit mehr als 14,4 KBit/s über IP-Netze ist gegenwärtig noch nicht Standard. Die Implementierung ist bei den Herstellern unterschiedlich weit fortgeschritten. Das ITDZ Berlin arbeitet zusammen mit TSystems als Dienstleister und Cisco Systems als Hersteller der Gerätetechnik an der Einbindung von solchen als „Super G3“ bezeichneten Faxgeräten. Gegenwärtig werden die Feldtests zusammen mit interessierten Kunden vorbereitet. Deren erfolgreicher Abschluss ist Voraussetzung für die Produktionsfreigabe von Super G3 Faxgeräten. Letztendlich ist High-Speed-Fax aber für alle Carrier mit IP-Backbone noch eine Herausforderung. Selbst wenn das BeLa-MSN dann Super G3 Fax ermöglicht, kann es bei Faxübertragungen aus bzw. in andere Carriernetze zum Rückfall auf geringere Übertragungsgeschwindigkeiten kommen, wenn ein beteiligtes Carriernetz High Speed Fax nicht unterstützt. Insbesondere große TK-Systemumgebungen mit mehr als 2000 Ports, wie beispielsweise im Falle der Berliner Bezirksämter, erfordern eine enge Zusammenarbeit zwischen den Kunden und dem ITDZ Berlin, da diese SystemUmgebungen wesentlich komplexer sind und somit mehr Aufwand bei der Umsetzung der Migration auf das „BeLa MSN“ beanspruchen. Durch professionelles Projektmanagement ist das ITDZ Berlin bestrebt, eine schelle Umsetzung der Migration zu erreichen. Eine schnelle Migration der TK-Anlagen auf den neuen IP-Backbone ist erforder- IP-Telefon lich, weil die derzeit eingesetzte Technik ihre maximale Nutzungsdauer erreicht hat und dringend durch die neue IPbasierte Vermittlungstechnik abgelöst werden muss. Eine Verlängerung der Betriebszeit der herkömmlichen Technik stellt einen erheblichen zusätzlichen Kostenfaktor dar. (EB) Aktuelle Angebote des ITDZ Berlin Das Mobiltelefon als Nebenstelle (Remote Destination) Mit dem Funktionsmerkmal „Remote Destination“ wird das Mobiltelefon zur Nebenstelle der zentralen IP-Telefonielösung des ITDZ Berlin. Mit diesem neuen IP-Centrex-Dienst sind Mitarbeitende auch außerhalb des Arbeitsplatzes unter ihrer Bürorufnummer erreichbar. Bei eingehenden Gesprächen klingeln Büro- und Mobilfunktelefon parallel. Ein Wechsel während des Gesprächs auf das jeweils andere Gerät ist unterbrechungsfrei möglich. Ein Service insbesondere für Mitarbeitende, die am Standort oder außerhalb des Standortes überall erreichbar sein wollen. Telefon- und IT-Service mit einem Zugang zum Berliner Landesnetz Mit dem Kombipaket aus Sprache sowie Intranet und Internet kann gleichzeitig über die IP-Telefonielösung telefoniert und der Datenzugang zum Berliner Landesnetz mit seinen Portalen genutzt werden. Dieser Service eignet sich besonders für kleine Standorte und Büros der öffentlichen Verwaltung, die Î 1/12 13 SPLITTER Înoch nicht an das Berliner Landesnetz angebunden sind. Ebenso profitieren Dienststellen der Berliner Verwaltung, die über IP-Telefonie kommunizieren und ihre über DSL angebundenen Außenstellen zentral im selben Rufnummerkreis anbinden wollen. Damit entfällt zusätzlich die Notwendigkeit eines ISDNAnschlusses. nen sich in der Funktionalität unterscheiden. So kann ein BlackBerry zum Versenden von E-Mails, Notebook, Netbook oder Tablet für den Internetzugang und ein Handy zum Telefonieren, unter einer Rufnummer genutzt werden. - mit nur einem Vertrag, einer Rechnung und einer Mailbox. IP-VPN Hybride TK-Anlagen Zur Deckung des Bedarfes an standardisierten TK-Produkten für die Berliner Verwaltung bietet das ITDZ Berlin seit 2011 neben der zentralen IP-Telefonie (IP-Centrex) auch hybride TK-Anlagentechnik an. Unter einer Hybrid-Telefonanlage versteht man eine Telefonanlage, die sowohl die klassische TDM-Technik (ISDN und analog), als auch Voice-over-IP (VoIP) unterstützt. Diese eignet sich insbesondere für Standorte mit Sonderschnittstellen für Personensucheinrichtungen (beispielsweise Pieper) und integrierte Schnittstellen für DECT-Basisstationen (lokales Funknetz), z.B. in den Justizvollzugsanstalten. Zum Einsatz kommt die hybride TKTechnik auch an Standorten mit schwierigen Infrastrukturbedingungen, in denen wegen fehlender strukturierter Verkabelung auf die alte Fernmeldeverkabelung zurückgegriffen werden muss. Produkte der Mobilfunkausschreibung Nach Abschluss der aktuellen MobilfunkAusschreibung wird das ITDZ Berlin in Kürze neue Produkte u.a. für das mobile Arbeiten anbieten. MultiSIM Mit dem MultiSIM-Paket lassen sich bis zu drei mobile Endgeräte unter einer Rufnummer nutzen. Diese Geräte kön- 1/12 14 Das Produkt mit der Bezeichnung IPVPN, bietet eine mobile Lösung zur Kopplung einzelner Nutzer oder Nutzergruppen an das Datennetz (Berliner Landesnetz) per transparentem IP-VPNLink. Es verbindet eine geschlossene Benutzergruppe von mobilen Datenanschlüssen mit der IT- Infrastruktur des Datennetzes (Berliner Landesnetz) unter Einhaltung bestimmter Eigenschaften: • hohe Sicherheit, da der Zugriff vom • Internet bzw. in das Internet über die Sicherheitsinfrastruktur des ITDZ Berlin besteht hohe Funktionalität, da den Mobilfunk-Anschlüssen statische, private IP-Adressen zugeordnet werden können Hierbei werden die mobilen Endgeräte so vorkonfiguriert, dass keine manuellen Anpassungen vorgenommen werden müssen. Der Zugang wird dadurch automatisiert und spart Administrationszeit. Mobiler Festnetzersatz Dieses Produkt ermöglicht die Zuordnung einer Festnetzrufnummer zu einer SIM-Karte und bietet so eine kostengünstige Lösung beispielsweise für einen Heimarbeitsplatz, Projektstandort oder Baustellenbüro. Man verzichtet so auf einen herkömmlichen Festnetzanschluss und erhöht den Grad der Erreichbarkeit. So erhält man neben der Mobilfunknummer eine Festnetz-Rufnummer (Berliner Ortsnetz – aber keine Berliner Verwaltungsnetz-Rufnum- mer), über die man innerhalb eines definierten Nahbereiches (z.B. am Heimarbeitsplatz) mobil zu Festnetzpreisen telefonieren kann. (EB) Internet-Telefonie gewinnt weiter an Boden Das Telefonieren per Internet gewinnt europaweit immer mehr an Boden. Mehr als jeder vierte EU-Bürger (28 Prozent) hat 2011 bereits Internet-Telefonie genutzt. Im Jahr zuvor war es erst jeder Fünfte (22 Prozent). Das gab der Hightech-Verband BITKOM auf Basis von Daten der europäischen Statistikbehörde Eurostat bekannt. „Der Trend geht klar zur Online-Telefonie“, sagte BITKOM-Hauptgeschäftsführer Bernhard Rohleder. Spitzenreiter bei der Nutzung sind die baltischen Staaten. In Litauen und Lettland telefonieren jeweils zwei Drittel der Einwohner (65 Prozent) über das Web, in Estland 45 Prozent. Deutschland rangiert am unteren Ende der EU-Rangliste. Zwar wird VoIP auch hierzulande immer beliebter, das hatten Erhebungen das European Information Technology Observatory (EITO) in den vergangenen Jahren immer wieder gezeigt. Doch laut Eurostat telefonierte nur jeder fünfte Einwohner (21 Prozent) in Deutschland über das Web. In vergleichbaren Ländern wie Großbritannien oder Frankreich sind es 29 bzw. 35 Prozent. Laut Studie telefonieren 22 Prozent der EU-Bürger ausschließlich über die sogenannte Voice-over-IP-Technologie (VoIP), weitere 6 Prozent nur in speziellen Fällen, etwa bei Anrufen ins Ausland oder auf Handys. Wer eine Telefonie-Flatrate beispielsweise für inländische Gespräche hat, spart durch IP-Telefonie in die entsprechenden Regionen kein Geld. Kosten spart IP-Telefonie nur bei Gesprächen in Regionen, die nicht von der Flatrate abgedeckt werden, etwa ins europäische Ausland oder bei Telefonaten zu Handys. (PR) SPLITTER Qualität von Videokonferenzen erhöhen Ericsson, die Rheinisch-Westfälische Technische Hochschule Aachen (RWTH) und das Unternehmen Rovi MainConcept haben das gemeinsame Forschungs- und Entwicklungsprojekt Connected Visual Reality (CoVR) gestartet. Ziel dieser Kooperation ist es, die Leistungsfähigkeit der audiovisuellen Online-Kommunikation deutlich zu erweitern, und so populärer zu machen. Mit rund 1,1 Millionen Euro im Rahmen des aus dem EFRE kofinanzierten Operationellen Programms für NRW Ziel 2 durch die EU und das Innovationsministerium gefördert, ist das CoVRForschungsprojekt einer der Gewinner des Wettbewerbs HighTech .NRW. Videokonferenz- und Telepräsenzanwendungen besitzen ein hohes Zukunftspotential. Mit diesen Technologien lassen sich die Effizienz und die Nachhaltigkeit von Arbeitsprozessen – etwa durch das Vermeiden von Geschäftsreisen – optimieren. Um die Marktchancen derartiger Anwendungen zu erhöhen, müssen die technischen Möglichkeiten entsprechender Kommunikationssysteme erweitert werden. So mangelt es derzeit an Interoperabilität bei High-EndSystemen und verbreiteten Video-ChatLösungen im Internet. Auch arbeitet das Forschungsprojekt daran, die Nutzung von Videokonferenz- und Telepräsenzanwendungen über verschiedene Netze hinweg zu ermöglichen. Ein Ziel der Forschungs- und Entwicklungsarbeiten der CoVR ist es, Technologien zu entwickeln, die sich in heterogenen Netzwerken betreiben lassen und die eine Kommunikation in HD-Qualität erlauben. Die Qualität eines Videos etwa lässt sich durch eine effektivere und skalierbare Codierung optimieren, während sich die Güte der Audiosignale durch intelligente Störgeräuschreduktion, Enthallung und Echokompensation verbessern lassen. Darüber hinaus werden im Rahmen des CoVR-Projektes neue Funktionen entwickelt, welche die Attraktivität der Anwendungen deutlich steigern können. So soll das entwickelte System eine laufende Inhaltsanalyse der übertragenen Audiound Videosignale bieten, eingesetzt zum Beispiel, um Sprecher innerhalb einer Gruppe von Konferenzteilnehmern optisch hervorzuheben und kenntlich zu machen. Laurits Hamm, Projektleiter und Forschungsingenieur im Ericsson Eurolab in Herzogenrath/Aachen: „Vor allem größere Unternehmen setzen heute bei der Kommunikation zwischen ihren Standorten zunehmend auf Videokommunikation. Mit dem Forschungsund Entwicklungsprojekt CoVR wollen wir Lösungen zur Videokommunikation durch Innovationen weiter verbessern und somit noch attraktiver und breiter verfügbar machen. Das CoVR-Projekt bündelt das Know-how der Projektpartner, die auf ihren Arbeitsgebieten zu den weltweit führenden Kompetenzträgern gehören.“ Die Projektleitung liegt beim Ericsson Eurolab, einem bedeutenden Forschungs- und Entwicklungsstandort des Telekommunikationskonzerns. Am Technologie- und Innovationsstandort in Aachen entwickeln mehr als 500 hochqualifizierte Mitarbeiter aus über 50 Nationen neue Ideen für die Telekommunikation von morgen. Schwerpunkte bilden hierbei Technologien für den Mobilfunk, die IP- und Breitband-Kommunikation sowie Innovationen für die Maschinenvernetzung (M2M) und die Fahrzeugkommunikation. Neben Ericsson sind zwei international renommierte Institute der RWTH Aachen an diesem Projekt beteiligt. Das Institut für Nachrichtengeräte und Datenverarbeitung forscht seit vielen Jahren im Bereich digitaler Übertragungstechniken, der Kanal- und Netzsimulation, der Sprachcodierung sowie der Sprachsignalverarbeitung zur Verbesserung der auditiven Qualität. Weiterer Projektpartner ist das Institut für Nachrichtentechnik, das vor allem auf dem Gebiet der Videokompression und der Inhaltsanalyse von Bild-, Video- und Audiosignalen arbeitet. Der internationale Ruf des Instituts basiert unter anderem auf der aktiven Beteiligung an Standardisierungsaktivitäten im Bereich Video. (PR) Ericsson und die RWTH Aachen erforschen Videokonferenzen (Symbolbild) 1/12 15 SPLITTER Schnelles WLAN leicht gemacht Die Humboldt-Universität ist am Projekt PreLocate beteiligt, das präzise Lokalisierung und Breitband-Kommunikation im 60-GHz-Band ermöglicht. Da bei drahtlosen Netzwerken (WLAN) immer größere Datenmengen in kürzester Zeit übertragen werden sollen, müssen in Zukunft neben den üblichen Frequenzbändern auch neue Frequenzbereiche genutzt werden. Viele Anwendungen verlangen dabei eine Ortsbestimmung (Lokalisierung) der mobilen Empfangsgeräte. Trotz aller Bemühungen sind jedoch GPS-basierte Systeme für den Einsatz in Gebäuden nicht bzw. nur bedingt geeignet. Eine vielversprechende Lösung ist, bekannte WLAN-Systeme bei 2,4 GHz und 5 GHz auch für die Lokalisierung nutzbar zu machen. Die Genauigkeit ist in diesen Frequenzbereichen jedoch durch die geringe verfügbare Bandbreite sehr begrenzt. Als Alternative bietet sich an, auf das 60-GHz-Band auszuweichen, das eine zentimetergenaue Lokalisierung tech- Datenübertragung und Lokalisierung zwischen Fahrzeugen nisch möglich macht. Anwenden lässt sich die zu erforschende Technologie beispielsweise im Automobilbereich zur Bewertung von Verkehrslagen und zur Auslösung einer automatisierten Reaktion. Das Projekt „PreLocate“ erweitert neuartige Kommunikationssysteme im 60- Modellierung der Positionsbestimmung im Gebäude 1/12 16 GHz-Band für die Abstandsmessung und die Lokalisierung mobiler Terminals. „Damit erschließen sich neue Anwendungsbereiche, die bisher beispielsweise RADAR-Verfahren vorbehalten waren, jedoch keine aktive Kommunikation ermöglichen“, sagt Beate Meffert, Professorin für Signal- Î SPLITTER Îverarbeitung und Mustererkennung an der Humboldt-Universität. „PreLocate“ ist ein Gemeinschaftsprojekt des Instituts für Informatik der HumboldtUniversität zu Berlin (HU) und des Leibniz Institutes für Innovative Mikroelektronik GmbH (IHP) unter Leitung der Elektronikfirma InnoSenT GmbH. Erforscht und umgesetzt wird ein System, das eine gerichtete Kommunikation und eine genaue Lokalisierung von beweglichen Geräten möglich macht. Zukünftige Anwendungen finden sich beispielsweise in der Fahrzeugkommunikation oder in der Rangier- und Positionierungsunterstützung im Lagerund Transportwesen. Das verwendete Verfahren zur Lokalisierung funktioniert nach dem „Roundtrip-Phase“-Prinzip und wurde von der HU und dem IHP Frankfurt (Oder) entwickelt und optimiert. Dieses Verfahren beruht darauf, dass Funksignale mit bekanntem Inhalt nach fest definierten Zeitintervallen von einem Empfänger zurückgesendet und ausgewertet werden. Die Besonderheit des Verfahrens besteht darin, dass die Stationen nicht synchronisiert sein müssen. Im Projekt werden Algorithmen und Architekturen untersucht und erforscht, die eine gleichzeitige Ausführung von Kommunikation und Lokalisierung effizient unterstützen. Es soll so eine leistungsfähige Kombination von drahtloser Datenübertragung und Lokalisierung mit minimaler zusätzlicher Hardware ermöglicht werden. Besonderes Augenmerk wird auf die Genauigkeit der Ortsbestimmung gelegt, die vor allem bei komplizierten Signalausbreitungsverhältnissen eine technische Herausforderung darstellt. Das Projekt hat ein Gesamtvolumen von 2,2 Millionen Euro. Es wird im Rahmen des Programms KMU-innovativ zur Stärkung des Innovationspotentials kleinerer und mittlerer Unternehmen im Bereich Spitzenforschung bis 2014 zu 75 Prozent durch das BMBF gefördert. (PR) Kostenloses WLAN für Londoner Stadtbezirke Für Anwohner und Besucher soll in zwei Londoner Innenstadtbezirken ein kostenlos zugängliches WLAN eingerichtet werden. Möglich macht das ein Abkommen zwischen dem Provider O2 und den Bezirksverwaltungen von Westminster sowie Kensington & Chelsea. Der Provider trägt alle Kosten. Er rechnet gleich zu Beginn mit reichlich Nutzern, da in London dieses Jahr nicht nur das Diamantene Thronjubiläum von Queen Elizabeth II gefeiert wird. Die Stadt ist außerdem Gastgeber der Olympischen Sommerspiele. Allein in Westminster leben rund 250.000 Menschen, eine halbe Mil- lion arbeiten dort. Hunderttausende Touristen bevölkern Tag für Tag den zentral gelegenen Innenstadtbezirk der britischen Hauptstadt. Die WLAN-Komponenten werden von O2 zunächst in einzelnen Gebieten von Westminster und Kensington & Chelsea installiert. Langfristig sollen die beiden Bezirke komplett abgedeckt sind. Die Installationsarbeiten haben im Januar begonnen. (PR, EB) Die Bezirke Westminster und Kensington & Chelsea (beide rot eingefärbt) sollen von dem kostenlosen WLAN profitieren London ist Gastgeber der Olympischen Sommerspiele 2012 1/12 17 SPLITTER Richtig rechnen in VoIP-Systemen Die im Februar 2012 vom ITK-Systemhausverband VAF veröffentlichte Voice-over-IP (VoIP)-Studie kommt zu dem Ergebnis, dass verbreitete Methoden zur Ermittlung von VoIPBandbreiten die tatsächlichen Anforderungen zum Teil drastisch unterschätzen. Viele als „VoIP-ready“ deklarierte Netze sind zu gering dimensioniert und mit unzureichenden Quality-of-Service (QoS)- Mechanismen ausgerüstet. So lautet ein Fazit der Studie, die im Auftrag des VAF von dem Stuttgarter Telekommunikations-Experten Prof. Dr. Gerd Siegmund erstellt wurde. Qualitätsstörungen in falsch konzipierten Netzen seien nahezu unausweichlich, was aber in der Planung oft nicht erkannt werde. Der Grund dafür sind Rechenverfahren, welche die Besonderheiten der Telefonie in IP-Netzen nicht angemessen berücksich- tigen. In der Studie wird darum ein Referenzszenario für die VoIPModellierung entworfen, mit dessen Hilfe sich auch der Bandbreitenbedarf realitätsnah ermittelt lässt. Die Studie kann kostenlos auf der Internetseite des VAF heruntergeladen werden. Ergänzend bietet der Herausgeber ein Kalkulationstool, dessen Anwendung in Workshops einem breiten Fachpublikum praktisch erläutert wird. Die Studie analysiert in einem Referenzsystem mit dem theoretischen Maximum von 30 VoIP-Kanälen unterschiedliche QoS-Methoden (VLAN, MPLS, DiffServ und Overprovisioning). Bereits in einem optimistischen Szenario von nur 5 Prozent Datenlast sinkt das noch für VoIP nutzbare Spektrum auf 24 bis lediglich 7 VoIP-Kanäle. Die je nach QoS und Datenlast entstehenden Verluste werden von gängigen Abschätzungsverfahren nicht erkannt. Zu den Ursachen gehört die irrtümliche Übertragung von Erlang-Formeln aus der klassischen Telefonie zur Berechnung von Verkehrswerten. Ebenso verbietet sich das Addieren von VoIPKanalbandbreiten in Bit/s, da PaketWartezeiten einberechnet werden müssen. Die Vermischung von großen Daten- und kleineren Sprachdatenpaketen erzeugt zusätzliche Verluste. Diese für die Performance maßgeblichen Effekte können nur durch geeignete Modellierung in Wartezeitsystemen quantitativ ermittelt werden. Die Studie richtet sich an Jeden, der mit der Planung und Realisierung von VoIPSystemen und -Netzen befasst ist. Der Leser lernt, wie man die tatsächlichen Bandbreiten- und QoS-Anforderungen realistisch ermittelt und dadurch präventiv Qualitätsstörungen im Wirkbetrieb minimiert. Vorstellung der Studie und Anwendung mit neuem Kalkulationstool am 29. März 2012 in Hilden bei Düsseldorf, 12. April 2012 in Darmstadt, 10. Mai 2012 in Ismaning bei München, 24. Mai 2012 in Leipzig. Kostenloser Download der Studie unter www.vaf-ev.de (PR) Die Grafik veranschaulicht die effektiv verfügbaren VoIP-Kanäle in verschiedenen Szenarien 1/12 18 SPLITTER Berliner Partner unterzeichnen Konsortialvertrag Startschuss für den Online-Marktplatz goBerlin Mit der Unterzeichnung des Konsortialvertrags fiel am 6. Februar 2012 der Startschuss für die Entwicklung des Berliner Online-Marktplatzes „goBerlin“. bestimmten Lebenslage, wie z.B. bei Heirat oder Umzug, relevant sind. Pilotanwendung, wird unter anderem eine Umzugs-App sein, mit der man eGovernment-Angebote wie Meldevorgänge nutzen, sich über Mietspiegel und Wohnlagen informieren und auf privatwirtschaftliche Angebote, wie bspw. Immobilien oder Umzugs- und Renovierungsservices zugreifen kann. Alle Dienstleistungen sollen über eine rechtssichere Online-Plattform zugänglich sein. Priorität Sicherheit und Vertrauenswürdigkeit Die Sicherheit und Vertrauenswürdigkeit der Angebote haben bei der Entwicklung Priorität. Dazu stellt „goBerlin“ Basisdienste für das sichere Management von Identitäten und die sichere Verwaltung von Nutzerdaten bereit. Zudem können die Nutzer jederzeit kontrollieren und steuern, welche Anwendungen auf welche Daten zugreifen dürfen. Spezielle Zertifizierungsverfahren überprüfen, ob eine App, die von Drittanbietern entwickelt wurde, sichere Basisdienste des Marktplatzes korrekt einbindet. Ein Gewinner im „Trusted Cloud“Wettbewerb Das Projekt „goBerlin“ gewann bereits 2011 den bundesweiten Technologiewettbewerb „Trusted Cloud“ des Bundesministeriums für Wirtschaft und Technologie. Nachdem einer der ursprünglichen Partner, ein Online-Vermittlungsportal für Handwerker-Dienstleistungen, das Projekt kurzfristig verließ, trat mit „Immobilienscout24.de“ ein neues, bekanntes Unternehmen dem Projekt als assoziierter Partner bei. (EB) Das Online-Angebot stellt Bürgerinnen und Bürgern die Services der Berliner Verwaltung und Privatwirtschaft rund um Lebenssituationen wie den „Umzug“ nach oder innerhalb Berlins übersichtlich und gebündelt zur Verfügung. Bei der Entwicklung liegt der Fokus auf dem Aufbau einer vertrauenswürdigen Cloud-Plattform. Aus diesem Grund unterstützt das Bundesministerium für Wirtschaft und Technologie das Projekt im Rahmen des Programms „Trusted Cloud“. Realisiert wird das neue Service-Angebot unter der Federführung des IT-Dienstleistungszentrum Berlin (ITDZ Berlin) von der Berliner Senatsverwaltung für Inneres und Sport, dem Fraunhofer-Institut FOKUS, den Konsortialpartnern Atos und HSH Soft- und Hardware Vertriebs GmbH sowie dem assoziierten Partner Immobilien Scout GmbH. „goBerlin“ – mehr Bürgerservice durch Apps für jede Lebenslage Der digitale Marktplatz „goBerlin“ bietet Verwaltung und Unternehmen die Möglichkeit, Online-Services auf einer gemeinsamen Plattform bereitzustellen und miteinander zu verknüpfen. Applikationen (Apps) bündeln dabei Dienstleistungen und Informationen, die in einer Konsortialpartner und Projektträger von goBerlin (Hintere Reihe v.l.n.r.: Matthias Kuom, Deutsches Zentrum für Luft- und Raumfahrt; Christian Langenfeld, ITDZ Berlin; Ivonne Thomas, Kompetenzzentrum „Trusted Cloud“; Ralf Ganser, Berliner Senatsverwaltung für Inneres und Sport; Angelika Witzgall, Senior Account Managerin Atos Deutschland; Matthias Flügge, stellv. Leiter ELAN FraunhoferInsitut FOKUS; Lutz Nentwig, ELAN Fraunhofer-Institut FOKUS, Vordere Reihe v.l.n.r.: Barbara Trusch, stellv. Leiterin Entwicklung HSH Berlin; Jörg Thomas Scholz, Leiter Solutions Public Sector Atos Deutschland; Konrad Kandziora, Vorstand des ITDZ Berlin; Gerd Schürmann, Leiter des Kompetenzzentrums ELAN, Fraunhofer-Institut FOKUS; Manfred Pasutti, Referatsleiter eGovernment und ITStrategie bei der Berliner Senatsverwaltung für Inneres und Sport.) 1/12 19 SPLITTER Prozessmodellierung mit ADONIS Seit 2011 modelliert das ITDZ Berlin seine Geschäftsprozesse mit ADONIS. Die Einführung dieses Geschäftsprozessmanagement-Werkzeugs für alle Geschäftsprozesse des ITDZ Berlin hatte vorrangig zwei Ziele. Erstens sollte die gesamte Prozessmodellierung und -dokumentation auf einer Datenbank erfolgen. Zweitens sollte mit der Tooleinführung Akzeptanz und Kommunikation geschaffen werden. Die Modellierung auf einer Datenbank hat hierbei zahlreiche Vorteile. So besteht die Möglichkeit, einen einheitlichen Modellierungsstandard einzuführen und qualitätsgesichert auf alle Prozessmodelle anzuwenden. Zudem können alle Prozessmodelle miteinander verknüpft und in Verbindung gebracht werden. So kann zwischen den Prozessen problemlos navigiert werden. Ein Prozessmodellierungswerkzeug mit einer Datenbank bietet des Weiteren den Vorteil von Auswertungsmechanismen. Dokumente und Formulare in den Prozessen können durchgängig gepflegt werden. Somit besteht nun die Möglichkeit, sich im Prozessportal einen Gesamtblick auf alle Prozesse zu verschaffen, durch alle Prozesse zu navigieren und auf relevante, aktuelle Dokumente zugreifen zu können. Der ganzheitliche Blick auf alle Prozesse schafft für alle Mitarbeiter Transparenz über die Abläufe und fördert das Erkennen von Optimierungspotentialen. Somit wird für die Mitarbeiter ein sinnvolles Medium für die Prozessdokumentation und -verbesserung geschaffen. Im Rahmen eines kontinuierlichen Verbesserungsprozesses erfolgt im An1/12 20 schluss eine Neuausrichtung der Prozesse mit Fokus auf die Kunden- und Mitarbeiterfreundlichkeit. Die überarbeiteten Prozesse reichen vom Lieferanten bis zum Kunden und wirken somit über die Unternehmensgrenzen hinaus. Für einen ersten Überblick über die Akteure und Schnittstellen können Kooperationsbilder angefertigt werden. Damit kann den Mitarbeitern eine einfache, leicht verständliche Übersicht zum Prozess gegeben werden. Kooperationsbilder zeigen als Piktogramme die wichtigsten Akteure, Gegenstände und Tätigkeiten auf einen Blick. Sie stellen somit verschiedene Szenarien eines Geschäftsprozesses intuitiv dar. Zudem hat es sich als sinnvoll erwiesen, Schnittstellenanalysen für einzelne Bereiche durchzuführen. Mittels dieser Darstellung wird ermöglicht, sämtliche Schnittstellen einer Abteilung nach außen und nach innen unabhängig vom Prozess darzustellen. Dies erleichtert an- Î Das ITDZ Berlin stellt ADONIS zur Verfügung Das Ziel des Geschäftsprozessmanagements ist die Optimierung der Geschäftsprozesse sowie der eingesetzten Ressourcen und IT-Systeme. Zur Unterstützung dieser Ziele bietet ADONIS die Funktionen Modellierung, Analyse, Dokumentation, Import/Export, Erhebung, Simulation und Evaluation. ADONIS ermöglicht eine schnelle und benutzerfreundliche Modellierung, Analyse von Geschäftsprozessen und ist das ideale Werkzeug zum Gestalten, Optimieren und Planen. Die Abläufe, Verantwortlichkeiten und Strukturen in der Verwaltung können mit ADONIS für alle Mitarbeiter visualisiert und jederzeit bedarfsorientiert neu modelliert werden. ADONIS ermöglicht damit eine einfache und flexible Prozessgestaltung und ist für folgende Anwendungsbereiche entwickelt worden: • • • • Gestalten und Dokumentieren – Intuitive Modellierung und flexible Darstellung Optimieren und Restrukturieren – Verwaltungsrelevante Auswertungen und Simulationen Kommunizieren – Publikation der Geschäftsprozesse Szenarien planen – Analyse, Simulation und Evaluation von verwaltungsrelevanten Kennzahlen Mit der Analysekomponente können Abfragen auf alle Modellinhalte generiert werden und die Simulation bietet die Möglichkeiten Engpässe im Prozessablauf zu erkennen, um den optimalen Einsatz der vorhandenen Ressourcen zu planen. Für folgende Einsatzzwecke ist ADONIS geeignet: • Organisationsentwicklung • Prozessoptimierung • Qualitätsmanagement • Prozesskostenrechnung • Personalbedarfsermittlung Alle Bezirksämter, Senatsverwaltungen und nachgeordneten Behörden der Berliner Verwaltung können über das Berliner Landesnetz (BeLa) auf das Geschäftsprozessmanagement-Werkzeug ADONIS zugreifen. Der Hauptpersonalrat des Landes Berlin hat der Nutzung von ADONIS zugestimmt. Im Intranet des ITDZ Berlin unter „Produkte/ Application Service Providing“ finden Sie das Konfigurationsblatt, mit dem Sie den webbasierten Zugriff auf ADONIS beauftragen können. Für weitere Informationen wenden Sie sich bitte an [email protected] (EB) SPLITTER Î schließend das Verständnis für die Prozesslandschaft im Ganzen sowie die Erstellung von Kooperationsbildern und Geschäftsprozessen. Für eine umfassende Prozessdokumentation ist neben der reinen Ablaufdarstellung auch die Modellierung von weiteren Artefakten notwendig. Hierzu zählen insbesondere Dokumente, Formulare sowie IT-Systeme. Für den Prozessleser ist es von Vorteil, dass alle Modellierungsartefakte an den Tätigkeiten zu sehen sind. Im besten Falle sollten Dokumente und Formulare sofort aus dem Prozess zur Verfügung stehen. Dies bedarf grundsätzlich einer immer gegebenen Aktualität der Dokumente und Formulare. Diese Artefakte sollten grundsätzlich in einem Pool gepflegt werden können, um sie einfach und intuitiv mit dem Ablauf verknüpfen zu können. CAROLA STADERMANN ITDZ Berlin ITDZ Berlin war für den GreenIT Best Practice Award 2011 nominiert gente IT-Systeme zur Optimierung von Geschäftsprozessen/-modellen nutzen, um den Gesamtenergieverbrauch in Geschäftsabläufen zu reduzieren. Mit dem „GreenIT Best Practice Award“ werden bundesweit Konzepte und Lösungen prämiert, die vorbildlich zur Verbesserung der Energieeffizienz in der Informations- und Kommunikationstechnik (IKT) beitragen. Die Beteiligung erfolgte mit dem Projekt „Green IT-Beschaffung für die Berliner Verwaltung“. Darin bietet das ITDZ Berlin den Berliner Verwaltungen an, ITAusstattung und -Infrastruktur einzusetzen, die sich u.a. besonders durch Energieeffizienz und Umweltverträglichkeit auszeichnet. Der Preis ist eine Initiative des Netzwerks GreenIT-BB und wird in Kooperation mit den Netzwerken CIOcolloquium und CIO-Circle sowie der Green IT Allianz des BITKOM ausgerichtet. 2011 stand er unter der doppelten Schirmherrschaft von Dr. Philipp Rösler, Bundesminister für Wirtschaft und Technologie, und Cornelia Rogall-Grothe, IT-Beauftragte der Bundesregierung. Als zentraler Dienstleister des Landes Berlin ist die Beschaffung von Hard- und Software eines der Angebote unseres Hauses. Für die einfache Beschaffung von Personalcomputern und sonstiger Arbeitsplatzperipherie durch die Berliner Verwaltung schreibt das ITDZ Berlin regelmäßig Rahmenverträge für das Land Berlin aus. Im Juli 2011 entstand im ITDZ Berlin die Idee, sich am Wettbewerb in der Kategorie II „Einsatz von IT-Systemen zur Optimierung von Prozessen, die eine möglichst große Breitenwirkung erzielen“ zu beteiligen. In dieser Kategorie wurden Lösungen prämiert, die intelli- Dieser Rahmenvertrag gibt den Verwaltungen die Möglichkeit, einfach und kostengünstig Arbeitsplatzausstattung (PC, Notebooks, Monitore, Drucker etc.) ohne eigene Ausschreibungen über den Webshop des ITDZ Berlin zu beschaffen. Weiterhin bietet dieser Rahmenvertrag die Chance, eine einheitliche umweltgerechte Technik in der Verwaltung zu verbreiten. Das ITDZ Berlin hat allein im Jahr 2010 rund 12.000 Green PC verkauft. Insgesamt ist es gelungen, seit Mai 2009 mehr als 32.000, also etwa 30 Prozent der PCArbeitsplätze der Berliner Verwaltung, mit Technik auszustatten, die aktuellen Anforderungen der Green IT genügen. Damit verbunden sind große Einsparungen im Bereich der Stromkosten und die Sicherheit, dass diese Technik zukünftig auch umweltgerecht entsorgt werden wird. Prozessmodellierung mit ADONIS (Screenshot) In Summe entsteht so eine Ersparnis von mehr als 1.700 MWh/Jahr im Vergleich zu den Beschaffungen aus dem vorherigen Rahmenvertrag. Die Einsparung von Energie und CO2-Emmissionen übersteigt damit schon jetzt bei Weitem die Verpflichtung des ITDZ Berlin aus Î 1/12 21 SPLITTER James Bond und Theodor Escherich Îder Klimaschutzvereinbarung mit dem Land Berlin, die bis 2015 läuft. Aus über 100 Beteiligungen wurden 27 Beiträge in den drei Kategorien für den Award nominiert. Darunter sieben in der Kategorie II: Daxten GmbH, ITDZ Berlin, K.IM. Kirchliches Immobilienmanagement, MSR-Office GmbH, Octogate IT Security Systems GmbH, s.Oliver Bernd Freier GmbH & Co. KG und die Sparkasse Pforzheim Calw. Den Wettbewerb entschied die Sparkasse Pforzheim Calw für sich. Das Finanzinstitut implementierte eine IT-Lösung für die energieoptimierte Steuerung seiner Auszahlungsautomaten und Kontoauszugsdrucker. Je nach Standort und Öffnungszeit spart die Sparkasse Pforzheim Calw durch den Einsatz der Software 50 bis 80 Prozent ihrer Energiekosten ein. Wir gratulieren. GÜNTHER GORECKI, RÜDIGER SNIEHOTTA ITDZ Berlin Podcast aus dem Gesundheitsamt Der Öffentliche Gesundheitsdienst definiert sich über gesetzlich vorgeschriebene Aufgaben. Je konkreter diese abgefasst sind – beispielsweise im Infektionsschutzgesetz oder der Trinkwasserverordnung – desto höher ist auch die Priorität einzustufen. Generellen rechtlichen Vorgaben zur Verbesserung der Gesundheit im Sinne der klassischen Gesundheitsförderung können viele Gesundheitsämter dagegen nur subsidiär nachkommen. Dennoch ist die Bilanz der entsprechenden Öffentlichkeitsarbeit beeindruckend. Einige Hundert Broschüren, Berichte und Zusammenstellungen bundesweit belegen, dass die Gesundheitsberichterstattung einschließlich entsprechender Handlungsempfehlungen auf kommunaler Ebene „Fahrt aufgenommen hat.“ Hierbei wird die Attraktivität des PrintAngebotes inzwischen durch professionelles Layout und der Verbreitungsgrad dieser Schriften durch adäquate Marketing-Maßnahmen gesteigert. Außerdem verlagert sich die Medienarbeit der Gesundheitsämter zunehmend ins Netz. Wohlwissend, dass die Internet-Gemeinde aktuell 70 Prozent der Jugendlichen und Erwachsenen umfasst und weiter wächst, werden Gesundheitsbeiträge in ansprechender Form im Rahmen der eigenen Web-Präsenz eingestellt. Neben einer statischen Umsetzung als PDFDokument oder e-Book kann es sich hierbei auch um Videoaufnahmen von Veranstaltungen oder zielgenau produzierte Filmbeiträge zu Gesundheitsthemen handeln. Beliebt sind zudem Hördateien, die bestimmte Themen aufgreifen. Erscheinen Audio- oder Videodateien regelmäßig und sind diese einzelnen Beiträge, sogenannten „Episoden“, auch im Abonnement beziehbar, beispielsweise über einen RSS-Feed, nennt man diese neue Infogattung Podcast. In letzter Zeit machen vor allem die medizinischen Podcasts aus der Medizinischen Hochschule Hannover (www.mhhannover.de/mhh-podcast.html) durch eine hervorragende Resonanz auf sich aufmerksam. Hier werden medizinische Themen informativ, verständlich und gleichzeitig auf einem hohen fachlichen Niveau dargestellt. Nachdem es im Gesundheitsamt des Rhein-Kreises Neuss schon lange die Überlegung gab, dem Informationsbedürfnis der Internet-Nutzer durch ein Podcast-Angebot Rechnung zu tragen, entschloss man sich im Dezember 2010 zum Start einer entsprechenden Reihe unter dem Motto „von Amts (-Arzt) wegen“. Vorgabe war hierbei, in der jeweiligen Episode ein aktuelles Gesundheitsthema von allgemeiner Bedeutung anzusprechen, gleichzeitig aber den Inhalt mit paramedizinischen Aspekten zu verquicken. Letztere sollten vor allem beim unbedarften Bürger Interesse wecken, sich mit der Thematik zu beschäftigen. Podcasts aus dem Gesundheitsamt 1/12 22 So dient das Lied der Kölner MundartTruppe Bläck Fööss „Drenk doch ene met“ als Anregung, sich mit den positiven und negativen Seiten des Alkoholkonsums zu beschäftigen. Ein Titel wie „Feuchtgebiete“ sensibilisiert für die neue Trinkwasserverordnung. Die EHECEpidemie wird aus Sicht des Coli- Î SPLITTER Î Entdeckers Theodor Escherich beschrieben und die Erwähnung der organtransplantierten Elke Steinmeier wirbt für eine bessere Akzeptanz des Organspendeausweises: „Lizenz zum Leben so heißt dann auch der passende Hörspot hierzu – ganz in Anlehnung an den seinerzeit verwandten James Bond-Filmtitel. Zahlreiche literarische, musikalische und historische Anleihen versuchen also der Vermittlung von Fachinformationen unterhaltsame und spannende Elemente hinzuzufügen. Auf diese Art und Weise sind im Jahr 2011 13 mehrminütige Hördateien entstanden, die auf Interesse bei der Bevölkerung gestoßen sind. Monatlich locken sie zwischen 40 und 400 Zuhörer vor die Lautsprecherboxen. Die dazugehörigen Texte werden durchschnittlich 90 Mal im Monat abgerufen. Vor Überraschungen ist man hierbei nicht gefeit. So wurde die Episode „Aus die Laus“ mit der Erwähnung des unorthodoxen und nicht nachahmenswerten Heißluftföhns als mögliche Methode zur Beseitigung der Lästlinge bislang der Nachfragerenner, während sich anlässlich des Hörspot „Zeckenalarm“ zur richtigen Technik der Zeckenentfernung ein fachlicher Disput entwickelte. Ende des Jahres 2011 sollte Bilanz gezogen und entschieden sein, inwieweit das eGovernment-Projekt „Podcast“ des Gesundheitsamtes fortgeführt werden wird. Letztlich steht dieser – einerseits konzentrierten andererseits auch unorthodoxen – Art der Informationsvermittlung ein nicht unbeträchtlicher Aufwand für Recherche, Vertonung und technische Adaption gegenüber. Die Podcasts sind erreichbar über die Webadresse www.rhein-kreis-neuss.de/ podcast DR. MICHAEL DÖRR Gesundheitsamt Rhein-Kreis Neuss Dieser Artikel ist zuerst in „Der Hygieneinspektor“ erschienen (13. Jg., Nr. 02/2011, ISSN 1864-7197, Hrsg.: Bundesverband der Hygieneinspektoren e.V., www.bundesverbandhygieneinspektoren.de) Innerhalb der Ruhefrist darf ein Grab nicht erneut belegt werden. RuheSoft zur Ermittlung der Ruhefrist Die Ruhefrist ist ein wichtiger Einflussfaktor für den erfolgreichen Betrieb eines Friedhofes. Lange Ruhefristen bedeuten schwer kalkulierbare Risiken für den Wirtschaftsbetrieb Friedhof. In Bezug auf die Nutzungsberechtigten wird immer öfter der Wunsch nach einer Verkürzung des Nutzungsrechtes geäußert. Je nach Bundesland sind unterschiedliche Mindestruhezeiten möglich. Für Friedhöfe ohne Erweiterungsmöglichkeit bietet eine Reduzierung der Ruhefrist die Möglichkeit, den Friedhofsbetrieb fortzuführen. In allen Fällen stellt sich hier die Frage, wie sich eine angemessene Ruhefrist bestimmen lässt. RuheSoft ist eine Softwareanwendung zur Ermittlung der Ruhefrist von SargErdbestattungen. Hierbei wird die Dauer der Leichenzersetzung unter verschiedenen Bedingungen simuliert. RuheSoft kann in verschiedenen Anwendungen genutzt werden: als Stand-alone-Anwendung zur numerischen Simulation (Java) oder als Plugin für das GIS OpenJump für eine räumliche Visualisierung der Ergebnisse. Ruhefrist Auf dem Friedhof soll innerhalb einer festgelegten Ruhefrist eine geordnete Bestattung mit einer ungehinderten Leichenverwesung stattfinden. Der als Ruhefrist bezeichnete Zeitraum soll so bemessen werden, dass die Leichenverwesung garantiert ist und eine Trauerbewältigung möglich ist. Innerhalb der Ruhefrist darf ein Grab nicht erneut belegt werden. Als Genehmigungsbehörde für die Ruhefristenfestlegung ist in den meisten Fällen das Gesundheitsamt zuständig. RuheSoft RuheSoft ist eine Fachanwendung zur Prognose über die voraussichtliche Dauer des Leichenabbaus unter definierten Rahmenbedingungen und dient somit der Berechnung der Ruhefristen von SargErdbestattungen auf Friedhöfen. Diese Anwendung wurde von der Fachhochschule Osnabrück und der Ingenieurgesellschaft entera gemeinsam entwickelt. Finanziell unterstützt wurde das Î 1/12 23 SPLITTER Î Projekt von der Deutschen Bundesstiftung Umwelt (DBU). Zielsetzung des Projektes war es, einen ersten Ansatz zur Prognose von Verwesungszeiten in Abhängigkeit der natürlichen Umgebungsfaktoren (Boden und Klima) zu entwickeln. Auch sollten gestalterische und bewirtschaftungstechnische Maßnahmen berücksichtigt werden. Das daraus entwickelte Modul basiert auf einem mathematischen Modell, in dem der Abbau eines Leichnams unter variablen Bedingungen simuliert wird. Grundlage des Modells sind Untersuchungen, die im Rahmen des FH3Forschungsvorhabens Entwicklung eines Verfahrens zur Abschätzung der Sauerstoffversorgung des Unterbodens als Kenngröße für die Bewertung des Stoffumsetzungspotentials durchgeführt wurden. Eine Validierung des Modells erfolgte anhand von dokumentierten Graböffnungen. Leichenumsetzung im Boden Die Leichenverwesung ist ein mikrobieller Prozess, der wesentlich von der Sauerstoffversorgung abhängig ist. Durch die Erdbestattung werden der Leichnam und der Sarg im Erdboden versenkt und unterliegt somit den dort herrschenden Umweltbedingungen. Maßgeblich bestimmen die dort vorkommende Bodenart und die Bodenstruktur den Wasserund Lufthaushalt und somit auch die Verwesungsdauer. Unter optimalen Bedingungen einer ausreichenden Sauerstoffversorgung findet die Leichenumsetzung innerhalb von drei bis sechs Jahren statt, so dass nur noch die Großknochen zu finden sind. Der Abbau von Leichnam und Sarg ist v.a. von zwei Faktoren abhängig: Zum einen bestimmt die Temperatur die maximal mögliche Abbaurate, falls keine Einschränkung der Sauerstoffnachlieferung vorliegt, und zum anderen verringert die Einschränkung der Nachlieferung die maximal mögliche Abbaurate. Die Temperaturabhängigkeit des Leichenabbaus wurde nach „Soil analysis in 1/12 24 forensic taphonomy“ (M. Tibbett, Do Carter, 2008) abgeschätzt. Hierbei ergibt sich, dass die höchste maximale Abbaurate für einen 68 kg schweren Leichnam, ausgedrückt als Sauerstoffverbrauch, im Mai mit 67 g O2 d-1 erreicht wird und die niedrigste im November mit 8,4 g d-1. Hierbei ist die maximale Abbaurate zusätzlich noch abhängig vom Körpergewicht des Bestatteten. Hier zeigt sich, dass je schwerer ein Leichnam ist, desto höher die mögliche maximale Abbaurate ist. Insgesamt benötigt der Abbau eines schwereren Leichnams trotz dieses Zusammenhangs mehr Zeit als der Abbau eines leichteren Leichnams. Gültigkeit von RuheSoft Als Voraussetzung für die Modellierung mit RuheSoft wird eine Standard-Sargbeisetzung unterstellt, bei der alle Maßnahmen darauf abziehen, dass eine zügige Leichenumsetzung mit bestmöglicher Sauerstoffversorgung in den Boden stattfinden kann. Folgende Rahmenbedingungen sind dabei zu berücksichtigen: • Sargmaterial: Der Sarg muss biolo- Modellierungskonzept von RuheSoft Der Austausch von Gasen zwischen der Atmosphäre und dem Boden kann über zwei Prozesse erfolgen: Konvektion und Diffusion. Hierbei wird Konvektion (auch Massenfluss genannt) durch Druckunterschiede aufgrund von Luftdruckoder Temperaturunterschieden oder Windböen verursacht. Auch die Infiltration von Wasser oder Grundwasserschwankungen können solche Druckunterschiede zwischen zwei Tiefen im Bodenprofil verursachen. Gemeinhin wird der Anteil der Konvektion am Gasaustausch des Boden als ehr gering eingestuft. Der für den Gasaustausch wichtigere Prozess im Hinblick auf den Boden ist die Diffusion. Das RuheSoft zugrunde liegenden Modell bildet eindimensional die Sauerstoff-Diffusion durch den Boden zum Sarg nach. Im Bereich des Sarges wird hierzu ein temperaturabhängiger maximaler Sauerstoffverbrauch angenommen. Als Sauerstoffverbraucher ist neben der Leiche auch der Holzsarg zu betrachten. Zusätzlich relevant sind die Bekleidung und alle anderen Stoffe, die biologisch abbaubar sind. Allein für den mikrobiellen Abbau eines 75 kg schweren Leichnam mit ca. 35% org. Substanz entsprechend 26,25 kg werden 39 bis 65 kg reiner Sauerstoff benötigt. Dies entspricht 130 - 220 m3 Luftvolumen. • • • gisch abbaubar sein, dies schließt z.B. wasserdichte Behältnissen wie Zinksärge aus. Auch eine Sargauskleidung mit Folien kann sich derartig negativ auswirken, dass trotz guter bodenkundlicher Bedingungen, Wachsleichen auftreten, wenn Folien im Sarg zu einer Wannenbildung von Niederschlags- und Gießwasser führen. Daher sind Folienauskleidungen zur Vermeidung des Austritts von Gewebeflüssigkeit gänzlich abzulehnen Bekleidung: Die verstorbene Person erhält eine biologisch abbaubare Bekleidung Grabeinbau. Verdichtungen während des Wiederverfüllens des Grabes sowie Einschlämmen mit Wasser können zu negativen Auswirkungen hinsichtlich der Verwesung führen Grababdeckung und Grabpflege. Für die Verwesung ist der freie Gasaustausch, sprich die Sauerstoffversorgung oberste Priorität der Verwesung. Daher sind alle Verfahren abzulehnen, die die Sauerstoffversorgung hemmen können oder sogar völlig unterbinden. Der Einsatz von Gießwasser im Rahmen der Grabpflege führt bei verdichteten Böden zu Vernässungs-erscheinungen und somit auch zu einer Einschränkung der Sauerstoffversorgung Bei der Festlegung der Ruhefrist handelt es sich also zunächst um einen prognostizierten Zeitrahmen, der unter den oben genannten Bedingungen als ausreichende Verwesungszeit angesehen wird. Diese speziellen Anforderungen zur Optimierung der Verwesung und so- Î SPLITTER Î mit auch zur Realisierung einer prognostizierten Wiederbelegungszahl sollten auch Eingang in die Friedhofssatzung finden. RuheSoft als Planungsinstrument in der Friedhofsverwaltung RuheSoft kann in verschiedenen Anwendungen genutzt werden: Als Standardwerte werden die Parameter wie in Abbildung 1 vorgeschlagen. Die Standardparameter können im Rahmen der Auswahlfelder verändert werden. Über den Button „Starten“ wird die RuheSoft-Simulation gestartet. Bodenartgruppe • als Stand-alone-Anwendung zur nu• • merischen Simulation (Java) als Plugin für das GIS OpenJump für eine räumliche Visualisierung der Ergebnisse als Plugin für das das Friedhofskataster DGF4 für eine räumliche Visualisierung der Ergebnisse und Anbindung an die Verwaltungssysteme HADES und FIM Um RuheSoft als Fachplanungsinstrument einsetzen zu können, müssen für den Planungsbereich die beiden wichtigen Grunddaten Bodenartgruppe und Klimabereich eingegeben werden (Abbildung 1). Anschließend kann dann der zeitliche Ablauf der Bodenbefeuchtung simuliert werden. Dies ist dann die Grundlage für die Ermittlung der Sauerstoffdiffusion. Abb. 2: Abgrenzung der Bodenartgruppen Die Bodenarten sind hierzu entsprechend der Abbildung 2 zusammengestellt. Die Information über die vorliegende Bodenart kann entweder einem Gutachten entnommen werden oder kann durch eine einfach Fingerprobe vor Ort ermittelt werden. Grundlage der Bodenartenabgrenzung ist die Bodenkundliche Kartieranleitung und das Bodenartendreieck. Klimabereich Als relevante Klima-Information wird die sogenannte klimatische Wasserbilanz (KBWa) verwendet. Diese ist definiert als Differenz zwischen von Niederschlagshöhe und Höhe der potentiellen Verdunstung (ETP). Dazu werden langjährige (möglichst 30 Jahre) Daten der nächstgelegenen Klimastation verwendet. Eine positive klimatische Wasserbilanz an einem Ort zeigt an, dass mehr Niederschlag fällt, als durch Verdunstung abgegeben wird. Bei einer negativen Bilanz hingegen wird mehr Wasser verdunstet als in Form von Niederschlägen zugeführt wird. Für 80 Standorte in Deutschland wurde bereits eine Berechnung der KWBa durchgeführt. Ergebnis – grundlegende Bestimmung der Ruhefrist Für eine Erweiterungs- oder Neuanlage eines Friedhofes ist die Bestimmung der Ruhefrist eine wesentliche Information für den Genehmigungsantrag. So muss im Rahmen einer bodenkundlichen Sondierung geklärt werden, ob diese Fläche hinsichtlich der Bodeneigenschaft, Grundwasserstand oder einem Stauwasservorkommen homogen beschaffen ist. Sofern diese Information vorliegt, wird für den Aushubbereich des Grabes eine Mischbodenart ermittelt. Sofern eine Bodenmischung oder ein kompletter Bodenaustausch geplant ist, muss dies berücksichtigt werden. Über die Option Excel sichtbar schalten, wird die Berechnung in Excel sichtbar gemacht und es können zusätzliche Detailinformation zu den Leichenzersetzungsbedingungen dargestellt werden. (Abbildung 3) Ergebnis – Variation der Bodeneigenschaft Abbildung 1: Start-Oberfläche von RuheSoft Da bei der bodenkundlichen Sondierung neben schwach lehmigem Sand (Sl2) auch schluffig-lehmiger Sand (Slu = Bo- Î 1/12 25 SPLITTER nete Ruhefrist als Zeitdauer in Jahren und als klassifizierter Wert dargestellt. Diese Werte stehen dann auch in der Attributtabelle des Geodatensatzes zur Verfügung und können grafisch dargestellt werden. Download und Kontakt RuheSoft ist kostenfrei als Datei-Download verfügbar unter www.entera.de/ RuheSoft.html Hier steht auch ein Handbuch mit weiteren Hintergrundinformationen und Anwendungen zur Verfügung. Abbildung 3: Ergebnisdarstellung in Excel Îdenartengruppe Sandlehme) und sandiger Ton (Ts3 = Bodenartengruppe Tonlehme) ermittelt wurden, kann in einem nächsten Arbeitsschritt die Bodenartengruppe variiert werden. In der Variation der Bodenarten zeigen sich somit deutliche Unterschiede für die erforderliche Verwesungsdauer. Ergebnis – Variation der Bestattungstiefe der (Typ=String) für Bodenart, Ruhefristberechnung Ruhefrist-Klasse vorhanden sein: Im Feld Bodenart sind Angaben zur Bodenart enthalten. Über den Reiter Mehrfachberechnung (GIS) werden die erforderlichen Parameter eingestellt und anschließend tabellarisch angezeigt. Über den Reiter Einzelberechnung muss anschließend die Auswahl des Klimabereiches (KWBa4) erfolgen und die Berechnung kann gestartet werden. Als Ergebnis wird tabellarisch die berech- Detail-Fragen in der RuheSoft-Anwendung oder Anfrage zu gutachterlichen Stellungsnahmen können Sie gerne an Herrn Dr. Albrecht (Telefon:0511/ 1678911 oder E-Mail: [email protected]) richten. DR. MICHAEL C. ALBRECHT entera - Umweltplanung & IT Dieser Artikel ist zuerst in „Der Hygieneinspektor“ erschienen (13. Jg., Nr. 02/2011, ISSN 1864-7197, Hrsg.: Bundesverband der Hygieneinspektoren e.V., www.bundesverbandhygieneinspektoren.de) Eine Möglichkeit zur Verbesserung der Leichenumsetzung besteht in der Variation der Bestattungstiefe. Während standardmäßig eine Überdeckung von 90 cm eingesetzt wird, wird in Einzelfällen auch deutlich tiefer beigesetzt. Die Variation der Bestattungstiefe kann in den Modulen RuheSoft standalone und RuheSoft OpenJump durchgeführt werden. Ergebnis – Berechnung in RuheSoft OpenJump Berechnungen im Modul RuheSoft OpenJump bieten sich an, wenn eine größere Anzahl von unterschiedlichen Flächen bewertet werden sollen. In RuheSoft OpenJump wurde hierzu jeweils ein Geodatensatz mit entsprechender Attributtabelle eingeladen. In der Attributtabelle müssen hierzu Daten-Fel1/12 26 Abbildung 4: Berechnung im Modul RuheSoft OpenJump SPLITTER Großprojekte erfordern komplexe Ausgleichsmaßnahmen 1.000 Details, ein Plan: Spezialisiertes CAD führt Gelände- und Habitatgestaltung, GIS-Daten sowie Bau- und Bepflanzungsideen zusammen. Der Gesetzgeber macht bei größeren Bauvorhaben in Naturräumen hohe Auflagen Vor jedem größeren baulichen Eingriff in den Naturraum schreibt der Gesetzgeber umfassende Untersuchungen vor: Wo liegen wertvolle Biotope und Schutzzonen? Wie werden Tier- und Pflanzenwelt beeinträchtigt? Die entstehenden Störungen müssen soweit wie möglich durch landschaftspflegerische Maßnahmen rund um den Bau kompensiert werden. Hier liegt das Spezialgebiet der Gesellschaft für Biotopanalyse und Consulting mbH (BIANCON). Das Unternehmen aus Halle an der Saale wertet die Daten von Geographen, Biologen, Agrar- und Forstingenieuren aus, leitet daraus Handlungsempfehlungen ab und erstellt entsprechende Karten. Um der damit verbundenen Informationsfülle Herr zu werden, nutzen die Planer die Zeichensoftware CAD6, die der Entwickler Malz++Kassner eigens um eine leistungsfähige GIS-Schnittstelle und diverse Verwaltungsoptionen erweitert hat. Zudem wurden kundenspezifische Einstellungsmöglichkeiten für die Ausgabe in Papierform implementiert. Neue Straßen oder Trassen, Wind- und Photovoltaikparks oder Rohstoffabbaugebiete – die Aufträge der BIANCON GmbH kommen aus der Industrie ebenso wie aus der öffentlichen Verwaltung. Die Landschaftsplanungsexperten begleiten Großprojekte von der Vorbereitung über die Genehmigungsphase bis zur Ausführung, beginnend mit der Bestandsaufnahme von Flora und Fauna vor Ort bis hin zu Pflanzschemata und Einkaufsmengen für die späteren Ausgleichsflächen. „Weil die Erfassung von Tier- und Pflanzenarten an spezifische Jahreszeiten gebunden ist, ziehen sich die Projekte häufig mehrere Monate oder gar Jahre hin“, berichtet Diplom-Agrar- Ausgleichsfläche ingenieur Hartmut Wirth, der sich bei BIANCON mit der Begleit- und Ausführungsplanung befasst. Hohe Qualitätsansprüche und Datenmengen machen Computer-Unterstützung unerlässlich Bis Ende der 90-er Jahre wurden die dazu notwendigen kartographischen Darstellungen noch von den Mitarbeitern per Hand gezeichnet. Unter anderem aufgrund der steigenden Datenmengen, der wachsenden Präzisionsansprüche und nicht zuletzt der Möglichkeit des effizienteren Datenaustauschs unter den Projektpartnern stieg das Unternehmen jedoch auf die Gestaltung am PC um. „Die computergestützte Bearbeitung mit Hilfe von CAD-, GIS- und Datenbanksystemen ist heute wegen des hohen Verwaltungsaufwands und der Qualitätsanforderungen nicht mehr aus unserem Î Arbeitsalltag wegzudenken“, so Die Zeichensoftware CAD6 eignet sich, um der vielen Informationen bei Sonderuntersuchungen der Fauna Herr zu werden 1/12 27 SPLITTER Ein detaillierter Ausführungsplan Wirth. Zentrales Werkzeug dabei ist das Konstruktions- und Zeichenprogramm CAD6. Die Software dient hier hauptsächlich zur Erstellung von Plankarten und zur Ermittlung von Flächengrößen, Maßen und Stücklisten, wird aber auch für kleinere graphische Arbeiten wie Informationsschilder oder Logos verwendet. Die Handhabung des Programms orientiert sich am realen Zeichnen am Reißbrett, so dass auch neue Anwender das System schnell erlernen und intuitiv bedienen können, wie der Ingenieur erklärt: „Erfahrene Benutzer können alle notwendigen Befehle auch einfach über Tastatur eingeben, was die ohnehin hohe Effizienz noch zusätzlich verbessert.“ Den entscheidenden Ausschlag für die Wahl von CAD6 gab aber nicht seine Einfachheit, sondern die umfangreichen, flexiblen Funktionen der Software, vor allem bei den Schnittstellen. „Eine zentrale Anforderung war der reibungslose Austausch mit anderen CAD-Systemen und GIS-Programmen“, erzählt Olaf Kassner, einer der Geschäftsführer des Softwareentwicklers Malz++Kassner. Individuelle GIS-Anbindung und Ebenenorganisation In Geo-Informationssystemen lassen sich geographische Objekte in Form von Flächen, Linien oder Punkten mit ihren beschreibenden Attributen, wie Bezeichnung oder Flächengröße, verknüpfen. Jedem Einzelteil werden dazu Datensätze in einer Tabelle zugeordnet, wodurch sich über die Auflistung gezielt Kartenobjekte auswählen und bearbeiten lassen. Diese Zuordnungstechnik unterscheidet sich von der Funktionalität eines CAD-Programms, beides ist aber für eine räumlich orientierte Planung unerlässlich. „Eine leistungsstarke Schnittstelle war uns daher sehr wichtig“, so 1/12 28 Wirth. Malz++Kassner entwickelte dafür in Abstimmung mit BIANCON eine Import- und Exportschnittstelle für das ShapeFormat SHP des GIS-Systems ArcGIS, das die Landschaftsplaner verwenden. Damit lassen sich Lage und Geometrie der Shapeobjekte ebenso wie die ihnen zugeordneten Datenbankeinträge verlustfrei in CAD6 übernehmen. Die Datenbankeinträge können wahlweise auch als Ebenen der Zeichnung deklariert werden. Für den Export von CAD6Objekten in das Shape-Format werden ausgewählte Eigenschaften – zum Beispiel Ebene oder Blockname – wiederum automatisch in die Attributtabelle von ArcGIS eingetragen, wie Kassner erklärt. Für die Kommunikation zwischen Unternehmen, die gemeinsam am Projekt arbeiten, jedoch unterschiedliche CADProgramme verwenden, haben sich die Formate DXF und DWG als Standard bewährt. Damit können Informationen von allen Seiten zuverlässig in CAD6 imund exportiert werden. Da durch die Größe der betreuten Bauprojekte und die Vielzahl der beteiligten Partner eine große Menge an Planungs- und Objektdaten zusammenkommt, ist deren übersichtliche Verwaltung ein weiterer wichtiger Anspruch an die CAD-Software. In der Regel werden Objekte in derartigen Zeichenprogrammen in Ebenen eingeordnet. Malz++Kassner implementierte zusätzlich die Option, Ebenenordner anzulegen, in denen die Informationen zum Beispiel nach Herkunft – etwa vom Katasteramt oder Vermessungsbüro – sowie nach Planungsstand getrennt, organisiert und verglichen werden können. Riesige Darstellungsbereiche in druckbare Blätter aufteilen Nach der Berechnung und Zeichnung werden die erstellten digitalen Pläne bei BIANCON zum Ausdruck vorbereitet. „Die Papierkarte zum Anfassen spielt bei unseren Kunden noch eine wichtige Rolle. Sie muss optisch ansprechend und inhaltlich gut verständlich sein“, berichtet Landschaftsplaner Wirth. Um die teils sehr ausladenden Pläne in einem handlichen, Plotter-geeigneten Format drucken zu können, entwickelte das Softwareunternehmen eine Funktion, um benutzerdefinierte Druckbereiche als Seitenrahmen zu definieren. Diese sind zusätzlich drehbar, damit sie auch an gewundene Straßenverläufe angepasst werden können. Dazu werden die Rechteck-Felder auf dem Plan platziert und anschließend Blattrand und Kartenlegende fertig gestaltet und gruppiert. Zum Plotten wird einfach ein gedrehter Seitenrahmen erstellt, die nötige Größe und der Drehwinkel lassen sich aus den Werten des Blattes ablesen. Damit sind die üblicherweise eingenordeten Pläne zur einfacheren Druckausgabe auch in der Waagrechten darstellbar. Zum Drucken werden die Karten in PDFs umgewandelt, unter Berücksichtigung von Transparenzen, Ebenen und Farbmodellen. „Die Ausgabegenauigkeit beträgt etwa 0,005 m und ist so etwa 2.000 Mal genauer als bei Standard-PDFDruckertreibern“, erläutert IT-Experte Kassner. Diese Sonderanpassungen der Software nach Kundenbedarf und der direkte Austausch mit den Entwicklern mache CAD6 zu einem wichtigen und leicht zu handhabenden Werkzeug, so Wirth: „Natürlich gibt es immer Wünsche an die Weiterentwicklung eines Programms. Hier kann man aber sicher sein, dass diese in einer der folgenden Softwareversionen umgesetzt werden, wie bei uns die Ebenenordner oder die GIS-Schnittstelle.“ Weitere Informationen im Internet: www.biancon.com, www.cad6.de BIANCON, MALZ++KASSNER GMBH Einzelausdrucke lassen sich zu großen Darstellungsbereichen verbinden SPLITTER Von der Leichtigkeit des Programmierens Mittels freedroidz lernen Schüler einfach und auf spielerische Art Roboter zu programmieren und das an zwei Workshop-Tagen. Das Willi-GrafGymnasium in Berlin setzt das freie Projekt im Unterricht ein und sieht enorme Vorteile, auch für Lehrer. Bis heute hat das Thema Open Source so viel Fahrt aufgenommen, dass sich ihm weder Anwender noch Hersteller entziehen können – es spielt in allen IT-Strategien eine wichtige Rolle. Open Source ist mehr als quelloffene Software ohne Nutzungslizenzkosten. Die Philosophie der transparenten Prozesse, des zielorientierten und wissenseffizienten Denkens und der partnerschaftlichen Lösungsfindung eröffnen viele Entwicklungsmöglichkeiten, gerade auch im Bereich der Bildung. Über die damit verbundenen Herausforderungen sprach Michael Wilmes, Leiter des IT-Kompetenzzentrums und Leiter eGovernment bei der Berliner Senatsverwaltung für Bildung, Wissenschaft und Forschung, in seinem Impulsvortrag des 2. OpenMind ManagerMornings im vergangenen November. „Open Source passt gut zu Bildungseinrichtungen“, unterstrich Wilmes und erinnerte daran, dass Open Source dabei helfe, die klassische Forderung nach der Einheit von Hirn, Herz und Hand herzustellen. Dabei könnten auch IT-Schülerlabore helfen. freedroidz – an zwei Tagen spielerisch programmieren lernen Schüler können mit dem Programm freedroidz spielerisch Roboter mit freier Software programmieren lernen. Dazu braucht es zwei Workshop-Tage an ihren Schulen. Als Basis für das Projekt der tarent solutions GmbH kommen Roboter von Lego Mindstorms NXT zum Einsatz, welche in der Programmiersprache Java programmiert werden. Die Software der Lego-Roboter basiert auf Open Source. Freedroidz benutzt das freie Software-Projekt leJOS, als Grundlage dafür. Die Software ist unter einer Open Source- Lizenz, der Mozilla Public License (MPL), freigegeben. Sie soll dabei helfen, das Einrichten und das Übertragen der Befehle auf den Roboter einfacher zu gestalten. Mittels Java können die kleinen Roboter beispielsweise via Bluetooth von den Schülern gesteuert werden. Schritt für Schritt wird mittels der Roboter, in Gruppen von jeweils zwei Schülern erarbeitet, was eine Programmiersprache ist und wie man eine Entwicklungsumgebung bedienen muss. Am Ende des Workshops kennt jede(r) der Schüler(innen) die wichtigsten Grundlagen von Anwendungsentwicklung. Die Teenager sollen verstehen, wie einfach Programmiersprache aufgebaut ist und welche Möglichkeiten es gibt, mittels Java zu programmieren. Gleichzeitig lernen sie, was freie Software und deren Bedeutung ist. „Wir wollen keine coolen Roboter bauen, sondern coole Softwarelösungen entwickeln“ Die Möglichkeiten die kleinen Roboter zu programmieren sind endlos. „Wir wollen keine coolen Roboter bauen, sondern coole Softwarelösungen entwickeln“, sagt Joscha Häring, der damit den Slogen von freedroidz „Spielend programmieren lernen“ bereits in die Zukunft der Schüler katapultiert sieht. Joscha Häring ist Projektleiter des freien Projekts freedroidz und 23 Jahre jung. Der Bonner Softwareentwickler ist auf seinem Gebiet jedoch ein alter Hase. Seine Ausbildung zum Fachinformatiker für Anwendungsentwicklung absolvierte er in Bonn, im Mutterhaus der tarent solutions GmbH, in der insgesamt 150 Mitarbeiter beschäftigt sind. Schritt für Schritt zeigt Joscha Häring den Schülern die Elemente der Programmiersprache. Jede Anwendung wird dabei direkt mit dem Roboter ausprobiert, darüber hinaus wurde die Entwicklungsumgebung der Programmiersprache kinder- bzw. jugendgerecht angepasst. Schüler können selbstständig Lösungswege suchen und haben Spaß daran, wenn der Roboter das ausführt, was sie ihm vorher einprogrammiert ha- ben - Informatik zum Anfassen. „Mit der Hilfe von Mitwirkenden der Free Software Foundation und verschiedenen Lehrkörpern, konnten wir freedroidz unterrichtstauglich machen. Nach jedem Workshop war jeder Teilnehmer in der Lage einen funktionierenden Roboter zu programmieren. Dies beinhaltet auch, dass er die Grundlagen von Software Entwicklung, wie Variablen, Schleifen und If-Else-Verzweigungen, verstanden hat. Und das in einem Zeitraum von nur zwei Tagen“, sagt Joscha Häring. freedroidz auch für Schulen mit Windows-basierten Systemen Das Projekt freedroidz bietet auch Schulen, die ein rein auf Windows basiertes Betriebssystem haben, die Möglichkeit ihren Schülern den Informatikunterricht auf diese Weise spannend und anschaulich zu ermöglichen. Denn die LinuxSoftware kann via USB-Stick auf die Windows basierten Computer übertragen werden, wobei die PC-Software vor Ort in den Schulen unangetastet bleibt. Das heißt, dass das vollständige LinuxSystem auf dem USB-Stick verbleibt. freedroidz ist nach der Installation sofort einsatzfähig und bietet die nötigen Funktionen, um in kürzester Zeit und ohne große Vorkenntnisse eigene Programme auf einem Roboter laufen zu lassen. freedroidz-Wiki freedroidz ist ein Nonprofit-Projekt, das 2007 von der tarent solutions GmbH gegründet wurde. Sie stellt Mitarbeiter und Hardware für freedroidz-Schülerworkshops bereit. Die Idee für das Programm bzw. Projekt selben Namens entstand in Berlin. „Auf dem LinuxTag wollten wir den Besuchern eine Mobilanwendung zeigen“, so Häring. „Die erste Idee war, einen Roboter per Mobiltelefon steuern zu können. Insbesondere Kinder und jugendliche Besucher fanden das Projekt sehr interessant. 2008 wollten wir mehr Menschen für das Projekt begeistern und so schrieben wir das freedroidzWiki.“ Bei dem freedroidz-Wiki handelt es sich um eine Internetplattform, die erste Schritte zum Anwenden der Software Schritt für Schritt erklärt - frei und ohne Lizenzkosten.Î 1/12 29 SPLITTER ÎErster Workshop am Heinrich-vonZügel Gymnasium in Murrhardt Auf dem Chemnitzer LinuxTag wurden im März 2010 die Programmierer von freedroidz angesprochen, ob sie einen dreitägigen Workshop organisieren könnten. So wurde dann im Juli desselben Jahres ein erster freedroidz-Workshop am Heinrich-von-Zügel Gymnasium in Murrhardt veranstaltet, bei dem den Schülern praxisbezogen Software-Entwicklung beigebracht wurde. Im Gepäck befanden sich sieben Lego Mindstorms Roboter, zahlreiche Sensoren und sieben Notebooks, die mit einem vorkon-figurierten Linux-Betriebssystem (Kubuntu) bestückt waren. Teilnehmer waren Schüler der siebten bis achten Klasse und ein Fünftklässler mit wenig bis keinen ITVorkenntnissen. Am Ende des ersten Tages hatte jeder Schüler einen Roboter programmiert, der fahren und mit Sensoren umgehen konnte. Am zweiten und dritten Workshop-Tag durften sich die Schüler einen Roboter ausdenken, diesen bauen und programmieren. Das Ergebnis der Projekttage wurde beim afrikanischen Schulfest mit vollem Erfolg vorgestellt. Stolz präsentierten die WorkshopTeilnehmer ihre Programme und ernteten Lob. Darauf folgten weitere Work- shops in Berlin und an der Gesamtschule in Paffrath. Darüber hinaus gab es Workshops in den Räumlichkeiten der tarent, im Rahmen des Girls Days oder beim LinuxTag in Berlin. Willi-Graf-Gymnasium in Berlin setzt freedroidz im Unterricht ein Nachdem im September 2010 ein Workshop am Willi-Graf-Gymnasium in Berlin-Lichterfelde veranstaltet wurde, setzt die Schule nun seit September 2011 regelmäßig freedroidz im Unterricht ein. René Eichhardt, Fachleiter Informatik des Gymnasiums, sagt über den Workshop von tarent, dass es gelang „den einen oder anderen Kindheitstraum zu verwirklichen und mehrere tolle, technisch hoch entwickelte Roboter zu präsentieren.“ Das Projekt wurde im Frühjahr 2011 am Informationsabend für Wahlpflichtunterricht Eltern und Schülern präsentiert. Das hatte zur Folge, dass sich mehr Jugendliche für das Wahlpflichtfach Mathematik/Informatik (8. bis 10. Klasse) interessierten. René Eichhardt ist von freedroidz überzeugt: „Es macht den Schülern Spaß und motiviert sie Probleme zu lösen, sie sind wissbegieriger, stellen mehr Fragen. Das erlebe ich bei anderen Projekten nicht. Die Schüler arbeiten konzentrierter, halten länger durch und entwickeln stärkeren Willen, Lösungen zu finden, als in Situationen, in denen sich das IT-Problem auf eine reine Softwareumgebung bezieht. Die Schüler werden darüber hinaus auf spielerische Art dazu angehalten genau zu arbeiten, denn sonst würde die Roboter nicht das tun, was sie von ihnen möchten.“ „Wichtig ist für uns Lehrer, dass freedroidz uns unterstützt, denn wir können uns so auf das Wesentliche konzentrieren, die Wissensvermittlung. Wir müssen uns nicht mit diversen technischenund Installationsproblemen aufhalten. Es ist nicht mit neuen Laptops getan, denn die Arbeit von zeitraubenden Installationen und Softwareproblemen liegt in den Händen der Lehrer. Diese scheuen sich daher oft genug, etwas Neues auszuprobieren. Mit freedroidz gibt es dieses Problem nicht. Man installiert die freie Software und sie ist problemlos funktionsfähig, deshalb haben wir in acht Roboter von jeweils 270 Euro und damit an der richtigen Stelle in die Zukunft unserer Schüler investiert“, sagt Eichhardt. freedroidz zum Kennenlernen Das Ziel von freedroidz ist es, den Einstieg ins Programmieren so leicht wie möglich zu gestalten. Programmieren lernen mit sofortigem, sichtbarem Erfolg. Die Workshops werden jeweils für zwölf Schüler veranstaltet, wobei diese in Zweiergruppen arbeiten und für je zwei Schüler ein Roboter zur Verfügung steht. Das Projekt wird im März 2012 auf dem Chemnitzer LinuxTag, im Mai auf dem Berliner LinuxTag sowie im Rahmen des Girls Days in der Berliner Niederlassung der tarent vorgestellt. Der Workshop für den Girls Day ist bis auf einen Platz bereits ausgebucht. Infos: www.freedroidz.org, www.tarent. de, Kontakt tarent in Berlin: Mark Hoffmeister (Tel: 030/ 3187969-111) Informatik zum Anfassen – Schüler des freedroidz-Workshops lernen an einem Tag, wie man einen Roboter programmiert, der fahren kann 1/12 30 JENNY MAY SPLITTER Schneller, Höher, Weiter: Cluster, Grid, Cloud Jede neue Generation von Hard- und Softwaresystemen eröffnet umfangreiche neue Möglichkeiten und verspricht: alles wird viel einfacher. Auf der anderen Seite entstehen immer wieder neue Anforderungen, neue Architekturen und Paradigmen werden entwickelt. Diese sprechen mehr für eine Zunahme der Komplexität der Gesamtsysteme. Ein Widerspruch? Warum sind heutige Systeme so, wie sie sind? Welche Ideen und Prinzipien haben die Architekten und Designer dort einfliessen lassen? IT-Systeme sind die Reaktion auf Anforderungen des Marktes, der Nutzer, der Betreiber oder betriebswirtschaftlicher Zwänge. Es ist betriebswirtschaftlich günstiger, in IT-Lösungen zu investieren als die Arbeit „von Hand“ zu erledigen. Angestrebt wird eine gute Effizienz, d.h. bei einem möglichst guten Ergebnis sollen die Kosten minimal sein. Um aktuelle Systeme zu verstehen, wird nachfolgend die Entwicklung des Wechselspiels zwischen Anforderungen auf der einen Seite und deren Umsetzung auf der anderen Seite betrachtet. Den Ausgangspunkt dafür bilden an dieser Stelle die Client-Server-Systeme. Nachdem sich in den 80-er Jahren Anwendungssysteme auf Client-/Server Basis etabliert hatten, wurden in den 90er Jahren zunehmend Schwierigkeiten sichtbar, die mit einer solchen Architektur verbunden sind. Bei Client/Server (C/S) Architekturen laufen die Fachverfahren auf den sogenannten Clients (dafür wurden zunehmend PCs eingesetzt) und greifen dabei auf zentrale Datenspeicher (i.d.R. Datenbanken) zu. Die Anwendungsprogramme wurden immer mächtiger und dadurch mußten auch die Clients zunehmend leistungsfähiger werden. Zudem stellte sich die Verwaltung / Betreuung der Clients als aufwendig heraus. „Klassische“ Drei-Schicht-Architektur Im Rechenzentrum stiegen indes die Anforderungen an die Verfügbarkeit der Server, da ein Ausfall nicht mehr nur einzelne Anwender, sondern z.T. große Anwendergruppen, betraf. In den 90-er Jahren werden IT-Systeme zur kritischen Resource. Ein Ausfall ist – wenn überhaupt – nur noch für kurze Zeit akzeptabel. IT-Systeme bestehen in dieser Zeit zumeist aus Einzelkomponenten (diese Einzelkom-ponenten werden heute als „Silos“ bezeichnet). Jede Einzelkomponente für sich ist ein singlepoint-of-failure (SPOF) – fällt ein Teil aus, steht das betreffende Gesamtsystem nicht meht zur Verfügung. Parallel dazu steigt der Ressourcenverbrauch der Systeme durch vermehrten Einsatz von Anwendungssoftware, die zudem i.d.R. komplexer wird, sowie weiter steigende Anwenderzahlen. Die Verwaltung vieler Fachverfahren auf vielen Clients führt dadurch zu unüberwindbaren Problemen in Bezug auf Ressourcenverbrauch, Verwaltbarkeit und gegenseitiger Beeinflußung der Anwendungen. Eine Alternative zu den als aufwändig betrachteten Clients entwickelt sich im Rahmen der Internet Technologien: an Stelle der Clients übernehmen Browser die Funktion der Benutzerschnittstelle. Da keine Installation auf den Endgeräten mehr erforderlich ist, kann der Kreis der Nutzer einer bestimmten Anwendung ohne zusätzlichen Administrationsaufwand mehr oder weniger beliebig ausgedehnt werden. Auch externen Nutzerkreisen (z.B. Bürger, Behörden, Kunden oder Lieferanten) wird zunehmend Zugang zu ausgewählten internen Informationen gewährt. Die Fachverfahren laufen anstelle auf den Clients weitestgehend auf zentralen Systemen im Rechenzentrum, den Application Servern.Î 1/12 31 SPLITTER Î Auch diese Architektur bietet Herausforderungen. Die Entwicklung und die Verwaltung sind zunächst aufwendig, erforderen lange Entwicklungszyklen und reduzieren dadurch die Effizienz. Als Antwort werden neue Architekturstandards entwickelt: die Drei-SchichtArchitektur enthält zusätzlich zu der Datenbank und der Benutzerschnittstelle einen Applicationserver, der die eigentliche Anwendung betreibt. Durch das ganzheitliche Architekturkonzept hat sich Java schnell als Technologie, Programmiersprache und Standard weitgehend etabliert. Es zeigt sich, dass durch die 3-SchichtArchitekturen die IT-Systeme wieder effizienter werden. Der Bedarf an Leistung steigt jedoch so rasch, dass einzelne Rechner schnell an ihre Grenzen stoßen. Hardund Software erfordern eine höhere Skalierbarkeit, um größere Anwendungssysteme zu ermöglichen. Durch die zentrale Rolle der IT im Geschäfts- oder Verwaltungsprozess werden gleichzeitig höhere Verfügbarkeiten verlangt. Ein Systemausfall ist häufig nicht mehr ohne weiteres zu akzeptieren. Die stark ausbaubaren Großrechner (Host) bieten zwar eine hohe Skalierung und eine große Verfügbarkeit; sie bleiben aber sehr teuer und sind – nach wie vor – ein SPOF. Ein alternativer Ansatz nutzt vergleichsweise preiswerte Rechner, die zusammengeschaltet werden und im Verbund als ein großes System arbeiten, den Cluster. An den einzelnen Rechner werden dabei keine besonderen Anforderungen gestellt. Ein Ausfall kompromitiert nicht das Gesamtsystem. Entscheidend ist, daß die Aufgaben auch bei Wegfall eines Rechner-Knotens weiterhin erfüllt werden können. Je nachdem, ob Skalierung oder Verfügbarkeit in Vordergrund steht, etablieren sich verschiedene Clusteransätze, bei denen unterschiedliche Eigenschaften im Vordergrund stehen: schnelles Lesen von Daten, Verteilung der Last auf mehrere Knoten, Toleranz gegenüber Ausfall einzelner Anwender-Sessions. Die Ideallösung – hohe Skalierung, hohe Verfügbarkeit und für den Anwender transparenter Ausfall eines Knoten – ist in der Regel mit hohem Ressourcenaufwand und vergleichsweise schlechter Performance verbunden. Darüberhinaus muß jedes System ausreichend Ressourcen zur Verfügung stellen, um alle Lastspitzen eines Verfahrens sicher beherrschen zu können. Die durchschnittliche Auslastung beträgt häufig unter 20 Prozent – der Großteil der eingesetzten Ressourcen bleibt die meiste Zeit ungenutzt und kann auch nicht für andere Aufgaben eingesetzt werden. Ab 2000 durchdringen Computer nahezu alle Ebenen und Bereiche der Unternehmen und Verwaltungen. Weitgehend alle Areitsplätze sind als Bildschirmarbeitsplätze eingerichtet. Als Client hat sich der Browser durchgesetzt (PC = thin client). Das Geflecht unterschiedlichster (interner und externer) Anwendungen und Daten, die zur Erfüllung der fachlichen Aufgaben erforderlich sind, wird über Einstiegsseiten (Portale) anwenderund aufgabengerecht organisiert. Für die im Rechenzentrum betriebenen Anwendungen steigt der Bedarf an Rechenleistung weiter deutlich an. Die Administration wird auf Grund der großen Anzahl, hohen Komplexität und der Vernetzung der Systeme schwierig und wenig effektiv. Die schnelle Anpassung der Systeme kann mit den Anforderungen nicht Schritt halten. Es werden Infrastrukturkomponenten verlangt, die dynamisch (d.h. im laufenden Betrieb) Ressourcen zur Verfügung stellen können. Damit steht die erwartete Infrastrukturleistung (Rechner, Datenbank, ApplicationServer) im Vordergrund, die – transparent für die Anwendung – im Hintergrund von einem „GRID“ (einem Netz oder Verbund) aus Systemen bereitgestellt wird. Der Vergleich mit dem Stromnetz als einem „Grid“ aus Kraftwerken, um die erforderliche Resource Strom aus der Steckdose bereitzustellen, ist deshalb berechtigt. Um 2010 stehen die technischen Mittel bereit, um sich von der statischen Kopplung der Fachverfahren an explizite Server zu lösen (Virtualisierung, Cluster, Grid). Der einzelne Rechner ist aus fachlicher Sicht nicht mehr relevant – Entscheidend ist die Erbringung der IT-(Dienst-)Leistung als (abrechenbarer) Service: als Infrastruktur (zB Server), Plattform (zB Datenbank, ApplicationServer) oder Software (zB Standardsoftware). Services in der Cloud 1/12 32 Dieses Paradigma wird als Cloud Computing bezeichnet; im Gegensatz zur Architektur des Grid Computing Î SPLITTER Î ist es eher konzeptionell zu verstehen. Auch hier gibt es zunächst unterschiedliche Ansätze, aus denen schnell der Wunsch nach Standardisierung entspringt. Als Mindestanforderung an eine Cloud gelten heute die Kriterien des National Institute of Standards and Technology (NIST). Damit können Services beliebig angefordert, dynamisch zur Verfügung gestellt und nach Nutzung abgerechnet werden. Auf Grid-Systemen können Services nach dem Paradigma der Cloud zur Verfügung gestellt werden; unabhängig davon, ob diese selbst (private cloud, im eigenen Rechenzentrum) oder fremd (public cloud, „zugemietet“) genutzt werden. Zum Betrieb wird leistungsfähige, hochflexible und universell nutzbare Hardund Software benötigt. Dabei kommen immer öfter vorintegrierte Standardkomponeten zum Einsatz. Insbesondere bei Services, die ein hochperformantes Zusammenspiel von Application Server und Datenbanken erfordern, etablieren sich aufeinander abgestimmte Systeme, die sogenannten engineered systems. Sehr gute Beteiligung am ersten nationalen Programmierwettbewerb Über 300 Datensätze, mehr als 100 Ideen und rund 75 fertig programmierte Anwendungen sind nach dem Einreichungsschluss beim ersten nationalen Programmierwettbewerb „Apps für Deutschland“ eingegangen. „Das ist eine sehr gute Beteiligung für diesen ersten nationalen Programmierwettbewerb auf der Basis offener Daten“, erklärten die Organisatoren, die drei Nichtregierungsorganisationen Government 2.0 Netzwerk, Opendata Network und die Open Knowledge Foundation Deutschland. Der Wettbewerb wurde am 8. November 2011 durch Bundesinnenminister Hans-Peter Friedrich auf der Messe Moderner Staat in Berlin eröffnet. Bewerber konnten ihre Vorschläge in den drei Kategorien Daten, Ideen und Anwendungen einreichen. Nun wird eine hochkarätig besetzte Jury aus namhaften Vertretern der deutschen und internationalen Zivilgesellschaft, Verwaltung, Wissenschaft und von Verbänden die besten Einreichungen ermitteln. Bundesinnenminister Hans-Peter Friedrich wird die Preise am 6. März 2012 in Hannover auf der IT-Messe CeBIT ab 11 Uhr in Halle 7 im Public Sector Forum überreichen. „Apps für Deutschland“ wurde möglich durch eine ungewöhnliche Kooperation von Verwaltung und Zivilgesellschaft. Die drei Vereine Government 2.0 Netzwerk, Opendata Network und die Open Knowledge Foundation Deutschland organisieren den Wettbewerb – eine echte Community Public Partnership, bei der Staat und Zivilgesellschaft Hand in Hand für ein gemeinsames Ziel arbeiten. Die Schirmherrschaft über den Wettbewerb hat Bundesinnenminister Hans-Peter Friedrich übernommen „Wir danken allen, die mitgemacht haben. Die hohe Beteiligung für diesen ersten nationalen Programmierwettbewerb mit einem Bezug zu Open Data zeigt, dass sogenannte Community Public Partnerships, Kooperationen zwischen der Zivilgesellschaft und der Verwal- Î Fazit Die Anforderungen an IT-Systeme hinsichtlich Performance, Ausfallsicherheit und dynamischer Anpassung bei einfachem Betrieb sind in den letzten Jahren stark gestiegen – und werden dies auch in Zukunft weiterhin tun. Systeme zum effizienten IT-Betrieb müssen diesen Anforderungen – auch mit dem Wachstum der nächsten Jahre – gerecht werden. Dazu sind Rechner-Cluster erforderlich, deren Zusammensetzung im Grid dynamisch verändert und deren Dienste innerhalb einer Cloud als Service zur Verfügung gestellt werden können. Cluster, Grid und Cloud sind also aufeinander aufbauende Konzepte, die in ihrer Kombination und deren Umsetzung in den engineerd Systems zukunftsweisend und -sicher sind. CHRISTIAN KÜHNE Leitender Systemberater Oracle Deutschland B.V. & Co. KG Auf der Messe Moderner Staat wurde der Wettbewerb „Apps für Deutschland“ eröffnet. Schirmherr Dr. Hans-Peter Friedrich unterhält sich mit Jurymitgliedern (v.l.n.r.: Prof. Dr. Gerd Buziek, Anke Domscheit-Berg, Stefan Gehrke, Thomas Langkabel) 1/12 33 SPLITTER Î tung, erfolgreich für ein gemeinsames Ziel mobilisieren können. Das Thema Open Government ist dadurch sowohl in Amtsstuben als auch bei der Bevölkerung bekannter geworden, eine Voraussetzung für den Abbau von Widerständen“, so Anke Domscheit-Berg vom Government 2.0 Netzwerk. „Wir freuen uns besonders über die zahlreichen öffentlichen Stellen, die unserem Aufruf nach Offenlegung von Daten gefolgt sind und diese unter einer offenen, für alle weiterverwertbaren Lizenz zur Verfügung gestellt haben. Mitgemacht haben Behörden aller staatlichen Ebenen, also Bundes-, Landes- und Kommunalverwaltungen. Diese Behörden sind beispielhaft vorangegangen und haben ein Zeichen in Sachen Transparenz und Offenheit von Verwaltungshandeln gesetzt“, sagte Stefan Gehrke vom Opendata Network. Laut Daniel Dietrich von der Open Knowledge Foundation Deutschland ist es gelungen, die angesprochenen Zielgruppen für den Wettbewerb zu motivieren: „Ein erster Blick auf die eingereichten Apps zeigt: Kreative Entwickler – darunter Studenten, Selbständige sowie kleine und große Unternehmen – haben sich etwas einfallen lassen und spannende Anwendungen gefertigt. Aber wir wollten nicht nur Web-Fachleute und Designer ansprechen – jeder interessierte Bürger kann gute Ideen zur Verwendung von öffentlichen Daten haben. Deshalb hat sich auch die breite Öffentlichkeit am Wettbewerb beteiligt und Vorschläge ohne konkrete Umsetzung oder Programmierung eingereicht.“ Die Länder Berlin und Bremen vergeben jeweils Sonderpreise für Anwendungen, die von den jeweiligen Ländern bereitgestellte Daten als Grundlage verwenden. So sponsert das ITDZ Berlin ein iPad2 für die „Beste App-Anwendung mit einem Berliner Datensatz“. Ein weiterer Sonderpreis wird gestiftet von youthpart.eu der IJAB – Fachstelle für Internationale Jugendarbeit der Bundesrepublik Deutschland e.V. für Anwendungen von Jugendlichen sowie Anwen dungen für Jugendliche. (PR) 1/12 34 Schnellere Computer dank SSD-Speicher Computer-Bild hat 32 Modelle getestet. Ergebnis: Windows und Programme starten mit SSD-Speichern doppelt so schnell. Allerdings sind sie teurer als Festplatten. SSD steht für Solid State Drive und gilt als Nachfolger der Festplatte. SSD könnte aber genauso „Super Schnelle Daten“ bedeuten - denn die fixen Speicher machen dem PC ordentlich Dampf. Windows startet doppelt so schnell und auch die Arbeitsgeschwindigkeit von Programmen legt einen Zahn zu. Das zeigt ein Test der Fachzeitschrift ComputerBild, die 32 SSDs ab 87 Euro getestet hat. Die Experten prüften zudem die SSDLebensdauer und erklären, welche Vorund Nachteile die Speichergröße mit sich bringt (Heft 3/2012). SSDs haben Festplatten eines voraus: Sie enthalten keine beweglichen Bauteile und speichern Daten in Flash-Bausteinen, wie sie auch in USB-Speicherstiften zum Einsatz kommen. Dadurch arbeiten sie deutlich schneller, sind völlig geräuschlos und kommen mit gerade mal ein bis zwei Watt Strom aus. Im Computer-Bild-Test erhöhte sich die Arbeitsgeschwindigkeit im Vergleich zu einem Computer mit herkömmlicher Festplatte durchschnittlich um rund 30 Prozent. Voraussetzung für den Tempogewinn sind allerdings ein moderner Computer mit Dual-Core-Prozessor (ab Core i3) und mindestens vier Gigabyte Arbeitsspeicher - bei älterer Hardware verpufft der SSD-Effekt. Die Computer-Bild-Experten stellten SSD-Speicher in den Größen 60, 120 und 240 Gigabyte (GB) auf den Prüfstand. 60 GB-Modelle punkten mit einem relativ günstigen Einstiegspreis, der Test-Sieger in dieser Kategorie kostet 114 Euro (Extrememory XLR8 Express; Note: „gut“). Nachteil: Selbst wenn nur Windows und wenige Programme darauf installiert sind, kann es mit 60 GB schnell eng werden. Mehr Platz bieten SSDs mit 120 GB (Test-Sieger Plextor PX-128M2P; Note: „gut“; 210 Euro) und SSDs mit 240 GB (Test-Sieger Corsair Performance Pro; Note: „gut“; 380 Euro). Sie sind zudem etwas schneller als die 60 GB-Modelle - dafür jedoch relativ teuer. Zum Vergleich: Für 200 Euro gibt es eine herkömmliche Festplatte mit 3000 GB (3 Terabyte) Speicherplatz. Trotz manch anderslautender Gerüchte im Internet sind SSDs nach bisherigen Erkenntnissen nicht unzuverlässiger als Festplatten. Computer-Bild simulierte die SSD-Nutzung über mehrere Jahre. Das Ergebnis: Es traten keinerlei Ausfälle auf - trotz zigtausender Schreib-, Lese- und Löschvorgänge sowie 500-maligem Einund Ausschalten. Die Speicherzellen sind zwar nicht beliebig oft beschreibbar, aber die eingebaute Elektronik verteilt die Schreibvorgänge so, dass die SSD alle Speicherzellen etwa gleich oft benutzt. Die Nutzungsdauer ist deswegen ähnlich wie bei Festplatten. Weil keine Platte vor Ausfällen sicher ist, sollten aber auch SSDNutzer Ihre Daten regelmäßig sichern. (PR) Festplattenlaufwerk (links) und Solid State Drive (SSD) (rechts) SPLITTER Schatten-IT – Flexibilität für Mitarbeiter, Risiko für das Unternehmen Eine zentrale IT-Strategie ist nur dann keine leere Worthülse, wenn sich alle Teile eines Unternehmens mehrheitlich an die Regeln der IT-Strategie halten. Es ist sogar so, dass erfolgreiche Unternehmen weniger Insellösungen beziehungsweise Schatten-IT-Systeme in Fachbereichen aufbauen und somit eher einer zentralen Strategie folgen. Dies zeigte sich in der RAAD-Studie „Fast growing, high profit companies – IT-Strategien erfolgreicher Unternehmen“, die im Frühjahr 2011 in Zusammenarbeit mit SAP, der MT AG und weiteren Partnern entstanden ist. Im Rahmen der Studie wurden Führungskräfte in Unternehmen gefragt, wie hoch sie den Anteil der Prozesse einschätzen, der durch Insellösungen wie beispielsweise durch Schatten-IT-Lösungen in den Fachbereichen betrieben wird. Die Antworten der Befragten zeigen ein klares und signifikantes Ergebnis. Zwar existiert in vielen Unternehmen ein relativ hoher Anteil an Insellösungen und Schatten-IT, auch bei High Performern , bei denen über 50 Prozent der Befragten angaben, dass der Anteil bei über 25 Prozent liegt. Allerdings gaben deutlich häufiger Low-Performer die Einschätzung ab, dass mehr als 50 Prozent der Prozesse durch Insellösungen und Schatten-IT unterstützt werden - Low-Performer meinten dies zu 34 Prozent, Mid-Performer zu 11 Prozent, High-Performer zu 13 Prozent. Ergebnis lässt sich branchenund größenübergreifend bestätigen. „Dies zeigt, dass die IT der Low-Performer weniger Zugriff auf die Prozessgestaltung der Fachbereiche hat, was wiederum ein fehlender Erfolgsfaktor sein kann“, so Dr. Cristian Wieland, Head of Analytics bei RAAD Research. Insellösungen in Fachbereichen beziehungsweise Schatten-IT-Systeme beschreiben IT-Leistungen, die in den Umfrage: Insellösungen bzw. Schatten-IT in den Fachbereichen von Unternehmen Fachbereichen häufig ohne Wissen und meist ohne Zugriff der IT-Organisation erfolgen. Diese können von den allseits bekannten excelbasierten „workarounds“ beispielsweise im Berichtswesen über die lokale Kundendatei bis hin zu weitentwickelten eigenständigen oder ergänzenden Software-as-a-ServiceAngeboten alle möglichen Einsatzszenarien abdecken. Wenn auch solche Angebote durchaus sinnvoll sind und Excel als Weiterbearbeitungsmöglichkeit kaum wegzudenken ist, so ist es dennoch wichtig, einen Zugriff auf diese SchattenIT-Systeme zu bekommen und diese in die IT-Strategie einzubinden. Ohne eine solche Einbindung können erhebliche Risiken für die Unternehmen entstehen. So fehlt bei diesen Lösungen häufig die Integration und Einbindung ins BackEnd wie in das ERP-System. Dadurch können die Daten, die in diesen Systemen erzeugt werden, alt sein und zum Beispiel bei der abgekoppelten Reportinglösung nicht mehr die aktuelle Wirklichkeit widerspiegeln. Neben den häufig redundanten Kosten, die solche Systeme mit sich bringen, steht auch das Risiko von Daten- und Wissensverlusten für die Unternehmen im Raum, wenn die Lösungen nicht auf der ITAgenda stehen. „Unternehmensführung, Fachbereiche und IT sollten sich dieses Risikos bewusst werden und gemeinsam darüber entscheiden, ob der vermeintliche Vorteil der Flexibilität Kosten und Risiko aufwiegt“, rät Dr. Cristian Wieland Unternehmen. (PR) Datenschutz: Höchstes Vertrauen in Banken und Krankenkassen Krankenkassen und Banken genießen besonders hohes Vertrauen beim Datenschutz. Das hat eine Umfrage im Auftrag des BITKOM ergeben. So haben 77 Prozent der Deutschen ein starkes oder sehr starkes Vertrauen in ihre Krankenkasse, wenn es um den Umgang mit persönlichen Daten geht. 75 Prozent der Bürger vertrauen ihrer Bank, 74 Prozent den von ihnen besuchten Ärzten und Krankenhäusern. Im Vergleich dazu erreichen staatliche Stellen, Energieversorger und Î 1/12 35 SPLITTER Î Internetdienstleister lediglich ein mittleres Vertrauensniveau beim Datenschutz. So bringen 59 Prozent der Bundesbürger Behörden wie Finanz- oder Meldeämtern großes Vertrauen entgegen. Jeder Zweite hat hohes oder sehr hohes Vertrauen in Energieversorger und Internet-Provider (50 bzw. 48 Prozent). Soziale Netzwerke fallen demgegenüber mit lediglich 14 Prozent Vertrauenszuspruch stark ab. „Wir wollen und werden mehr Vertrauen aufbauen“, sagte BITKOM-Präsident Prof. Dieter Kempf. „Gerade mit Blick auf die intelligenten Netze der Zukunft gibt es hohen Aufklärungsbedarf.“ So würden Behördendienste, die Energieversorgung, aber auch das Gesundheitswesen sowie Verkehr und Bildung immer stärker über Internet-Technologien gesteuert. „Es werden künftig höhere Datenmengen anfallen, die ein Höchstmaß an Schutz brauchen. Dabei müssen Staat und Unternehmen die Menschen jeweils aktuell und umfassend informieren.“ BITKOM setzt hierbei auf strenge Selbstverpflichtungen der Unternehmen. Kempf: „Mit Selbstverpflichtungen können wir auf neue Technologien schnell, flexibel und international abgestimmt reagieren.“ (PR) Optimalen Viren-Schutz gibt’s nur gegen Geld Computer-Bild testete drei GratisAntiviren-Programme und fünf kostenpflichtige Schutzpakete. Nur der Testsieger schafft die Gesamtnote „gut“. Kostenlose Programme sind auf den hinteren Rängen. Täglich werden laut Norton Cybercrime Report 2011 mehr als 42.000 Nutzer in Deutschland Ziel eines Online-Angriffs. Wer meint, dass er mit einer kostenlosen Antiviren-Software völlig sicher vor Schadprogrammen ist, liegt falsch – das zeigt ein Test der Fachzeitschrift ComputerBild. Die Prüfer haben die drei am weitesten verbreiteten Gratis-Antiviren-Programme gegen fünf kostenpflichtige Schutzpakete in den Ring geschickt und die Versprechen der Hersteller auf den Prüfstand gestellt (Heft 2/2012). Eines haben Bezahlprogramme und Gratis-Software gemeinsam: Deren Hersteller vermitteln den Eindruck, dass man sich nach der Installation keine Sorgen mehr machen muss. Die Computer-BildTester entlarvten aber einige Werbeversprechen als leere Worthülsen. Bei- Bei der BITKOM-Umfrage zum Vertrauen in den Datenschutz kamen „Staat und Behörden“ auf den fünften Rang 1/12 36 spiel McAfee: Laut dem Hersteller sollen Nutzer der Software Internet Security 2012 „Sorglos im Netz surfen“ können. Fakt ist: Bei mehr als 22 Prozent der in Internetseiten versteckten Bedrohungen kam es trotz der McAfee-Software zur Infektion des Computers. G Data wiederum behauptet, seine Internet Security 2012 arbeite „Einfach. Sicher. Ressourcenschonend“. Dabei landete ausgerechnet dieser Testkandidat bei den Geschwindigkeitsmessungen auf dem letzten Platz. Der Aufbau von Internetseiten dauerte anderthalb mal so lang und auch der Computerstart verlangsamte sich erheblich. Insgesamt zeigte der aufwendige Computer-Bild-Test: Wer optimalen Schutz will, muss dafür bezahlen. Im anerkannten Magdeburger Viren-Testlabor AVTest wurden dafür Hunderttausende Schädlinge auf die Kandidaten losgelassen. Dabei wehrten nur die Bezahlprogramme von G Data, Kaspersky und Symantec alle Angriffe erfolgreich ab. Kaspersky Internet Security 2012 (Testergebnis: 2,16; Preis: 49,95 Euro) schnitt mit der besten Virenerkennung als einziger Kandidat mit dem Testergebnis „gut“ ab. Es blockte jeden Schädling, bevor sich dieser in den PC einschleusen konnte, vernichtete als einziges Paket alle aktiven Schadprogramme und sicherte sich so den Computer-Bild-Testsieg. Das günstigste Kaufprogramm im Test kam von McAfee und schaffte in der Endnote ein „befriedigend“ (Testergebnis 3,21; 4. Platz; Preis: 30,95 Euro). Die drei GratisProgramme von AVG, Avast und Avira kamen insgesamt nicht über den 5. Platz hinaus. Zudem beinhalten nicht alle kostenlosen Programme eine verhaltensbasierte Erkennung. Diese Methode entlarvt Schadprogramme anhand typischer, verdächtiger Verhaltensmuster – das wird immer wichtiger. Mehr zu Sicherheits-Software unter www.computerbild.de/tests/it-security (PR) SPLITTER Schwächen der OpenOffice.org Version 3.3.0 bereinigt Am 22. Dezember 2011 veröffentlichte Team OpenOffice.org einen auf OpenOffice.org 3.3.0 aufbauenden Release-Candidate mit wichtigen Security-Fixes. Der Release-Candidate trägt den Namen „White Label Office 3.3.1“, da die Rechte an der Marke „OpenOffice.org“ bei der Apache Software Foundation (ASF) liegen. Eine Einigung zur Nutzung der Markenrechte durch Team OpenOffice .org konnte nicht erzielt werden. Mit der Veröffentlichung von White Label Office 3.3.1 unternimmt Team Open Office.org den ersten Schritt in Richtung eines Maintenance-Releases für OpenOffice.org 3.3.0. Der ReleaseCandidate soll als Ausgangslage dienen, um gemeinsam mit den Usern die bestmögliche aller Versionen zu erstellen. Das Team OpenOffice.org will zudem mit dem für Frühjahr 2012 geplanten Maintenance-Release darauf aufmerksam machen, dass es keine Zeit zu verlieren gilt. Denn nach dem Ausstieg des Hauptsponsors Oracle ist es dringend notwendig, die elementaren und professionellen Entwicklerkompetenzen weiterhin an das Projekt zu binden. Mit Hilfe von Spenden möchte Team OpenOffice.org diese Kompetenzen sichern und langfristig erhöhen. Im Frühjahr 2011 entschied sich Oracle das Projekt nicht weiter zu finanzieren und übertrug die Rechte an OpenOffice.org der ASF, einer ehrenamtlich arbeitenden Organisation zur Förderung von Softwareprojekten. Die eigentlichen Entwickler wurden mit dieser Entscheidung allerdings übergangen. Da die ASF einer Verbreitung des ReleaseCandidates unter dem Namen „OpenOffice.org 3.3.1“ nicht zugestimmt hat, stellt das Hamburger Team ihn als „White Label Office 3.3.1“ bereit, um Rück- meldungen von den Nutzern einzuholen. Der enge Austausch mit der Open-SourceGemeinde und dem verbundenen Netzwerk sind dem Team OpenOffice.org nach wie vor sehr wichtig. „Unser Wunsch ist es, für den Maintenance-Release enger als bei allen vorangegangenen Versionen mit den Usern zusammenzuarbeiten“, erklärt Stefan Taxhet von Team OpenOffice.org. „Mit ihrem Feedback können sie an Nachfolgeversionen mitwirken und Vorschläge für neue Features und Funktionen einbringen, über die eine zeitgemäße Office-Suite verfügen sollte. Um den Austausch zu fördern, sind wir auf allen gängigen Social-MediaPlattformen aktiv und stehen mit den Usern in Kontakt.“ Der aktuelle Release-Candidate beinhaltet wichtige Security-Fixes, wieder farbige Dokument Icons, die zu guter Unterscheidbarkeit führen sowie diverse Fehlerbehebungen. Diese Vorabversion ist mit den Betriebssystemen Windows, Linux und Mac OS X kompatibel und in fünf Sprachen verfügbar: Deutsch, Englisch, Italienisch, Spanisch und Französisch. „Es geht uns um ein positives Signal. Wir wollen den vielen Nutzern, seien es nun private Anwender oder Unternehmen zeigen: Es geht voran. Dabei freuen wir uns über jede Unterstützung.“ so Stefan Taxhet vom Team OpenOffice.org. Taxhet gehört zu den Männern der ersten Stunde und hat bereits an dem Ursprung von OpenOffice.org StarOffice mitgewirkt. Zusammen mit seinen Mitstreitern aus dem Team erlebte er, wie Oracle durch die Übernahme von Sun Microsystems die Rolle des Hauptsponsors zufiel. Die Sponsoren kamen und gingen, das Team blieb - bis heute - bestehen. Ohne Hauptsponsor droht dem Projekt aber nun diese Kompetenz verloren zu gehen. Weil die ASF keine Entwickler beschäftigt, ist das Engagement des Hamburger Teams für die Weiterentwicklung von OpenOffice ein zentraler Beitrag. Das Mitwirken von zahlreichen Mitarbeitern der ersten Stunde sichert das dafür essentielle Know-how. Damit es bewahrt und die gewohnte Qualität gewährleistet werden kann, benötigt Team OpenOffice.org weiterhin Unterstützung auch in Form von Spenden. (PR) Leitfaden zur Installation und Konfiguration von Windows 7 veröffentlicht Das Bundesamt für Sicherheit in der Informationstechnik (BSI) hat im Rahmen der Reihe: BSI-Standard zur Internet-Sicherheit (ISi-Reihe) den Leitfaden zur Installation und Konfiguration von Windows 7 veröffentlicht. In diesem Leitfaden werden zunächst einige Windows 7 spezifische Grundlagen erläutert. Anschließend wird Schritt für Schritt beschrieben, wie ein PC mit Windows 7 installiert und konfiguriert wird. Die konkreten Konfigurationsempfehlungen beziehen sich auf einen Arbeitsplatz-PC, wie er typischerweise für Bürotätigkeiten verwendet wird. Die jeweiligen Konfigurationsschritte werden mit verschiedenen Werkzeugen (GUI, GPO, Registry) durchgeführt. Nach der Konfiguration werden zudem die Erstellung eines Systemabbildes und das Ausrollen dieses Abbildes auf weitere APCs beschrieben. Mit seinen Empfehlungen ergänzt der Leitfaden die Studie „Absicherung eines PC-Clients“ aus dem gleichnamigen Modul der ISi-Reihe. www.bsi.bund.de (PR) 1/12 37 SPLITTER BSI veröffentlicht „Register aktueller Cyber-Gefährdungen und -Angriffsformen“ Die erste Veröffentlichung in der Reihe „BSI-Analysen zur Cyber-Sicherheit“ widmet sich der Analyse aktueller Cyber-Risiken und Angriffsmethoden. Das Bundesamt für Sicherheit in der Informationstechnik (BSI) hat das „Register aktueller Cyber-Gefährdungen und -Angriffsformen“ veröffentlicht. Das Register zeigt in Form einer strukturierten Zusammenstellung auf, welchen Cyber-Gefährdungen Unternehmen und Institutionen ausgesetzt sein können. Die Analyse des BSI orientiert sich dabei an den typischen Phasen eines Cyber-Angriffs und bietet neben Informationen zu potenziellen Angreifern auch Hinweise auf deren Methoden, Angriffsvektoren und mögliche Angriffsziele im Unternehmen. Das Register dient so CIOs, ITPlanern, IT-Architekten, IT-Sicherheitsbeauftragten und anderen professionellen Anwendern von Informationstechnologie sowohl als Einstieg in die Thematik „Cyber-Sicherheit“ als auch als Hilfsmittel bei der eigenen Analyse von IT-Risiken sowie der Einrichtung präventiver und reaktiver Schutz- und Gegenmaßnahmen. Ein wirksamer Schutz vor Cyber-Angriffen ist nur möglich, wenn Gefährdungen im Cyber-Raum sowie die eigene tatsächliche Gefährdungslage zumindest im Überblick bekannt sind. Diesen Überblick ermöglicht das Register des BSI im Hinblick auf die Vielzahl unterschiedlicher Cyber-Gefährdungen und Angriffsformen, die in der Praxis beobachtet werden. Da sich Cyber-Angriffe dynamisch weiterentwickeln, wird auch das Register in regelmäßigen Abständen fortgeschrieben. 1/12 38 Um ein möglichst vollständiges Bild über die Gefährdungen im Cyber-Raum zu gewinnen, hat das BSI Umfragen bei Verbänden, Unternehmen und Forschungseinrichtungen durchgeführt. Die Ergebnisse dieser Umfragen sind zusammen mit eigenen Erkenntnissen des BSI in das vorliegende Register eingeflossen. Neue BSI-Reihe: „BSI-Analysen zur Cyber-Sicherheit“ Das „Register aktueller Cyber-Gefährdungen und –Angriffsformen“ ist die erste Veröffentlichung innerhalb einer neuen Reihe des BSI, den „BSI-Analysen zur Cyber-Sicherheit“. Die Reihe richtet sich vornehmlich an professionelle ITAnwender aus Wirtschaft und Verwaltung. Im Rahmen der neuen Reihe wird das BSI in unregelmäßigen Abständen weitere Analysen rund um das Thema Cyber-Sicherheit veröffentlichen. Das „Register aktueller Cyber-Gefährdungen und -Angriffsformen“ steht zusammen mit weiteren Informationen zur Cyber-Sicherheit auf der Webseite des BSI zum Download zur Verfügung www.bsi.bund.de (PR) Deutsche Internetnutzer setzen auf „Bauchgefühl“ gegen Hackerattacken Laut einer aktuellen Umfrage spielen Schutzprogramme und sichere Browser bei der Verteidigung gegen Angriffe aus dem Netz für deutsche Nutzer kaum eine Rolle. Passwortdiebstahl, Phishing und Trojaner: Deutsche Internetnutzer kennen zwar die Gefahren aus dem Netz – trotzdem verlässt sich knapp jeder Zweite (45 Prozent) noch immer auf sein eigenes Gespür statt auf professionelle Schutzmaßnahmen. Dies hat eine aktuelle TNS Emnid Umfrage im Auftrag von Microsoft Deutschland ergeben. Etwa nur jeder Fünfte setzt demnach auf ein Antivirus-Programm (23 Prozent) oder eine Firewall (18 Prozent). Auf eine aktuelle Version seines Webbrowsers achtet sogar nur jeder Zehnte (10 Prozent). Dabei sind moderne Browser ein effektiver Schutzschild gegen Passwortklau und Webspionage. Einmal installiert warnen sie den Nutzer automatisch vor vermeintlich unseriösen Seiten im Netz oder gefährlichen Downloads. „Cyberkriminelle konzentrieren sich immer stärker auf den Anwender selbst und versuchen ihn zum Beispiel mit gefälschten Websites oder Malware systematisch zu täuschen, um Passwörter oder private Daten zu stehlen“, so Frank Maenz, Produktmanager Internet Explorer bei Microsoft Deutschland. „Diese so genannten Social Engineering Angriffe finden statt, während der Nutzer im Internet surft. Moderne Browser mit sinnvollen Sicherheitsfunktionen gewinnen daher enorm an Bedeutung und sind mittlerweile genauso wichtig wie ein Antivirusprogramm. Nicht aktualisierte Browserversionen können schnell zu einem großen Sicherheitsrisiko werden.“ Dass der Browser eine wichtige Rolle beim Schutz vor Cyberkriminalität spielt, ist vielen Internetbenutzern jedoch nicht bewusst. Entsprechend unbedarft gehen sie bei der Wahl des Browsers vor: Weit über die Hälfte der deutschen Nutzer (64 Prozent) verwendet entweder den einmal installierten Browser oder überlässt anderen die Auswahl, ohne sich über die Vorteile von neuen Internet-Browsern zu informieren. Fällt bei den Männern zumindest noch jeder Zweite (50 Prozent) eine aktive Browser-Entscheidung, sind es bei den weiblichen Nutzern nur 19 Prozent. Und trotzdem ist der Wunsch nach Sicherheit weit verbreitet: Bei Î Die Benutzung eines aktuellen Browsers spielt eine wichtige Rolle beim Schutz vor Cyberkriminalität SPLITTER Î über der Hälfte der Frauen (54 Prozent, Männer: 48 Prozent) steht bei der Browser-ausstattung der Punkt Sicherheit weit vorne. Erst mit deutlichem Abstand folgt das Thema „Schnelligkeit“ (23 Prozent). Ein großer Funktionsumfang und das Angebot an Add-Ons sehen nur 6 Prozent als entscheidendes Auswahlkriterium an. „Angriffe mittels Malware werden weiter zunehmen“, sagt Dr. Markus Schneider, stellvertretender Leiter des FraunhoferInstituts für Sichere Informationstechnologie (SIT) in Darmstadt. „Für Nutzer ist es sehr vernünftig, auf verschiedene Schutzmaßnahmen zu setzen. Hierbei gehören neben der Nutzung eines Antivirenprogramms und einer aktivierten Firewall auch Browser, welche vor dem Herunterladen von Malware schützen.“ Moderne Browser wie zum Beispiel der Internet Explorer 9 bieten umfassenden Schutz vor dem Ausspähen privater Daten. Neben dem neuen Tracking-Schutz wurden im Internet Explorer 9 der SmartScreen-Filter und die Bewertungssysteme stark verbessert. SmartScreenFilter ist eine dynamische Sicherheitsfunktion, die vor Phishing-Angriffen und schädlicher Software schützt. Die InPrivate-Browsen Funktion sorgt zudem dafür, dass Browserhistorie, temporäre Internetdateien, Formulardaten, Cookies, Benutzernamen und Kennwörter automatisch gelöscht werden. Die ActiveX-Filterung im Internet Explorer unterstützt die Nutzer bei der Entscheidung zur Ausführung von ActiveXSteuerelementen. So können die Steuerelemente für alle Websites blockiert oder nur für die vertrauenswürdigen Websites aktiviert werden. Mit dem neuen Download-Manager erhält der Nutzer Kontrolle über die heruntergeladenen Dateien. Er informiert über den Status, bietet einen sicheren Bereich für die Downloads und zeigt den realen Speicherort der Dateien an. (PR) Milliardengewinne durch Datenschutzverstöße Das Xamit Datenschutzbarometer 2011 zeigt: Datenschutzkonform handelnde Unternehmen haben einen Wettbewerbsnachteil von mehr als 7,5 Milliarden Euro gegenüber solchen, die gegen deutsches Datenschutzrecht verstoßen. Die jährlich erscheinende Studie weist erneut einen Anstieg der Datenschutzverstöße im Internet nach. Im Durchschnitt haben die Datenschutzexperten der Xamit Bewertungsgesellschaft mbH 82 Verstöße gegen deutsches Recht oder weitere Fälle von Beanstandungen pro 100 deutsche Webpräsenzen festgestellt. Das ist eine Steigerung von zwölf Prozent gegenüber 2010. Untersucht wurden u.a. die datenschutzkonforme Nutzung von Webstatistiken, die Einbindung von Werbung durch Dritte ohne Hinweis auf die daraus gewonnenen Nutzerdaten und die Verwendung des Facebook „LikeButtons“. „Der seit Jahren zu beobachtende Trend hin zu immer mehr Datenschutzverstößen ist weiter ungebrochen“, sagt Xamit-Geschäftsführer Dr. Niels Lepperhoff. Zugenommen hat u.a. die Verwendung des datenschutzrechtlich bedenklichen Facebook Like-Buttons von 0,6 Prozent in 2010 auf 6,6 Prozent in diesem Jahr. Der Einsatz nicht datenschutzkonformer Webstatistiken ist um insgesamt 12 Prozent gestiegen. Geschuldet ist dieser Anstieg hauptsächlich dem Webstatistikdienst von Google Analytics. Dieser wird auf nunmehr 22 Prozent der deutschen Webseiten in der nicht anonymisierenden Form eingesetzt und ist so nach deutschem Recht nicht datenschutzkonform. „Solange sich Datenschutzverstöße für Unternehmen finanziell lohnen, wird eine Umkehr hin zu mehr Datenschutz nach den Erfahrungen der letzten Jahre wohl nur durch harte Sanktionen erreicht werden“, sagt Dr. Niels Lepperhoff. „Es liegt nun in den Händen der DatenschutzAufsichtsbehörden, ihre gewonnene Unabhängigkeit zu nutzen, um die Grundrechte aller zu schützen und für faire Wettbewerbsbedingungen zu sorgen.“ Seit 2009 dokumentiert das Xamit Datenschutzbarometer die Stellenausstattung der deutschen Datenschutzaufsicht. Dieses Jahr stehen den Aufsichtsbehörden für den nicht-öffentlichen Bereich für die Kontrolle, Beratung und weitere Tätigkeiten bundesweit durchschnittlich 3,6 Vollzeitstellen pro 100.000 Unternehmen zur Verfügung. Etwas mehr als in 2010. „Angesichts der steigenden Fallzahlen ist die Stellenausstattung der Datenschutz-Aufsichtsbehörden immer noch nicht ausreichend“, sagt Dr. Niels Lepperhoff. „Hinzu kommt, dass den Behörden teilweise sogar die Befugnis fehlt, Datenschutzverstöße mit Bußgeldern zu ahnden. Hier müssen sich Î Milliardengewinne für Unternehmen durch Datenschutzverstöße 1/12 39 SPLITTER Îdie Politiker fragen lassen, wie ernst sie es mit dem Datenschutz der ihnen anvertrauten Bürger nehmen.“ Das vollständige Xamit Datenschutzbarometer 2011 steht ab sofort zum kostenlosen Download unter www.xamitleistungen.de/veroeffentlichungen/ studien-und-tests/ zur Verfügung. Neben den detaillierten Untersuchungsergebnissen sind darin auch Handlungsempfehlungen für Webseitenbetreiber zum sicheren, vertrauensbildenden und gesetzeskonformen Umgang mit Personendaten enthalten sowie Tipps für Webseitenbesucher, um ihre Surfspuren zu verringern. (PR) Soziale Netzwerke vermehrt im Visier von Cyberkriminellen Für 2012 prognostiziert Virenschutzexperte Bitdefender eine zunehmende Anzahl digitaler Schädlinge – zum Teil auch Varianten bereits vorhandener Schadprogramme. 23 Prozent mehr Malware wird in diesem Jahr auftauchen. Darüber hinaus werden soziale Netzwerke, das Android-Betriebssystem und technische Neuerungen, darunter Windows 8 und HTML5, ins Visier der Cybergangster geraten. Im Jahr 2012 werden vermutlich etwa 90 Millionen Malware-Typen im weltweiten Netz kursieren, so die Experten von Bitdefender - das wären rund 17 Millionen mehr als im vergangenen Jahr. Der Pool digitaler Schädlinge setzt sich wahrscheinlich aus zwei Arten von digitalen Schädlingen zusammen: zum einen aus überarbeiteten E-Threats, die Technologien ihrer Vorgänger nutzen, aber in neuer „Verpackung“ auftreten, um nicht erkannt zu werden. Zum anderen wird neue Malware auftreten, die speziell Zero-Day-Schwachstellen in Betriebssystemen und Software ausnutzt. 1/12 40 Fokus auf Facebook Darüber hinaus erwarten die BitdefenderExperten, dass sich Internetkriminelle weiterhin auf soziale Netzwerke, insbesondere Facebook, konzentrieren. Mit ca. 800 Millionen Mitgliedern ist die US-amerikanische Plattform aktuell die größte Nutzer-Community im Web. Dadurch bietet sie eine große Angriffsfläche für Spammails, infizierte Links etc. Zwar hat Facebook seine Sicherheitsmaßnahmen intensiviert und reagiert mittlerweile innerhalb kurzer Zeit auf bekanntgewordene Gefahren. Dennoch sind mehr als 400 Millionen User anfällig für kurzzeitige Bedrohungen. Ein weiteres Ziel für Schädlingsattacken im SocialMedia-Bereich ist der MicrobloggingDienst Twitter. Bitdefender rechnet für beide Netzwerke mit mindestens einer neuen Malware-Familie, die die Pinnwände und Timelines der User mit verseuchten Weblinks flutet. Android unter Beschuss Seit Einführung im Jahr 2008 hat Android in den USA und Großbritannien, den Ländern mit dem höchsten SmartphoneVorkommen, seinen Marktanteil auf 25 bzw. 50 Prozent ausgebaut. Seitdem steigen auch die Attacken auf das Google-OS (Operating System). Auf Grund dessen prognostiziert Bitdefender, dass Angriffe auf entsprechende Geräte zunehmen werden. Ein aktuelles Beispiel ist CarrierIQ, eine umstrittene Tracking Software, die vom gleichnamigen Unternehmen programmiert wurde. Sie sammelt Informationen über Nutzungsverhalten, Aufenthaltsorte sowie Tastatureingaben des Smartphone-Besitzers. E-Threats bedrohen HTML5, IPv6 und Windows 8 Auch neue Technologien werden zu Zielen cyberkrimineller Aktivitäten avancieren, so die Bitdefender-Spezialisten. Insbesondere die Einführung von HTML5 und IPv6 sowie der Launch des neuen Betriebssystems Microsoft Windows 8 könnten Internetgangstern als Startschuss dienen, neue Schadcodes und Trickbetrugsstrategien zu entwickeln. Bezüglich HTML5 ist zu befürchten, dass Malware-Autoren die neuen Features ausnutzen, um z.B. User mittels Geopositionsdaten zu tracken. Bei der Realisierung von IPv6 schlummert die Gefahr unter anderem in IPSec. Dieser Mechanismus lässt Traffic zwischen Quelle und Ziel verschlüsselt fließen. Damit soll grundsätzlich Traffic Sniffing verhindert werden. Cybergangster könnten dies jedoch dazu missbrauchen, BotnetzDatenverkehr von und zu der Kommandozentrale zu tarnen. Mit der Aussicht auf das Windows-8-Release kursieren in Web-Sharing-Diensten bereits jetzt gefälschte und verseuchte Versionen des neuen OS. Lädt der User das vorgebliche Programm herunter, untergräbt es das vorhandene System und erschwert damit die Erkennung und Desinfektion. Die komplette Studie „Bitdefender EThreat Landscape Report H2 2011“ steht unter www.bitdefender.com zum Download bereit. (PR) HTML5: Warnung vor Botnetzen im Browser HTML5 wird von vielen sehnsüchtig erwartet. Tatsächlich punktet die neue Generation der Webseiten-Beschreibungssprache mit zahlreichen Neuerungen, auf die Entwickler und Administratoren schon lange gewartet haben. Die Kehrseite der Medaille: HTML5 bietet auch den Cyber-kriminellen völlig neue Möglichkeiten. Eine nicht zu unterschätzende Bedrohung, die mit HTML5 entsteht, sind „Botnetze im Browser“. Trend Micro hat das Infektionsszenario durchgespielt und analysiert, für welche Zwecke Online-Gangster diesen neuen Angriffsweg missbrauchen können. Angreifer sind mit HTML5 in der Lage, ein Botnetz zu erzeugen, das auf je- Î SPLITTER • Phishing: Mittels „Tabnabbing“ kann • Î dem Betriebssystem und auf jedem Gerät funktioniert. Es läuft vorwiegend im Hauptspeicher und berührt daher die Festplatte kaum. Das macht es für Antivirenprogramme, die mit Signaturdateien arbeiten, schwierig, das Botnetz zu erkennen. Da der bösartige Code als JavaScript implementiert ist, das sich technisch gesehen mit wenig Mühe verschleiern lässt, tun sich auch solche Sicherheitslösungen schwer, die auf das Erkennen von Einbruchsversuchen in Netzwerken spezialisiert sind. Zu nennen sind hier die so genannten „Intrusion-Detection-Systeme“ (IDS), die mit Signaturen arbeiten. Und schließlich kann der bösartige Code wegen seiner Einbettung im Browser auch die meisten Firewalls mühelos passieren. Waffenarsenal für Online-Gangster Einmal erfolgreich in das System eines Anwenders eingedrungen, steht den Online-Kriminellen ein ganzes Waffenarsenal zur Verfügung: • DDoS-Attacken: Tausende von An- • • fragen können ohne Wissen des Nutzers an eine Ziel-Website geschickt und diese dadurch lahm gelegt werden. Spamming: Unzureichend gesicherte Kontaktseiten von Websites lassen sich zur Erzeugung von Spam-Nachrichten missbrauchen. Bitcoin-Generierung: Die infizierten Rechner lassen sich als Generatoren zur Berechnung von Bitcoins, der beliebtesten Währung des cyberkriminellen Untergrunds, zweckentfremden. • • das Botnetz Registerkarten („Tabs“) im Browser des Anwenders kapern und ihr Aussehen beliebig gestalten. Dadurch ist es möglich, dem ahnungslosen Anwender jedes Mal, wenn er auf die infizierte Registerkarte klickt, eine Eingabeaufforderung zu einem von ihm genutzten Webdienst vorzutäuschen. Gibt er seine Zugangsdaten ein, fallen seine Webdienst-Konten in die Hände der Kriminellen. Netzspionage: Das Botnetz ist in der Lage, im Netzwerk des Opfers nach Sicherheitslücken zu forschen und die Ports zu scannen. Netzwerke als Proxy: Mit dem Botnetz können die Kriminellen im Cyber-Untergrund Angriffswege verschleiern und Attacken über die infizierten Netzwerke leiten; der Ursprung der Angriffe ist dadurch kaum noch auszumachen. Verbreitung: Die Cyberkriminellen können in das Botnetz zusätzlich eine Wurmkomponente einfügen, die sich dann auf angreifbaren Websites verbreitet. Abwehrmöglichkeiten Diese doch bemerkenswerten Möglichkeiten für Angreifer werden nach Meinung von Trend Micro-Experten bald häufiger eingesetzt, vor allem bei gezielten Attacken. Herkömmliche Sicherheitsmaßnahmen gegen Malware können diese neuen Angriffsvektoren nicht abwehren, doch gibt es zwei kostenlose Tools, die einen sehr guten Schutz bieten: • NoScript (http://noscript.net): Das • Browser-Plug-In ist unter Fachleuten bereits gut bekannt. NoScript schränkt die Funktionsweise von JavaScript und anderen Plug-Ins auf nicht vertrauenswürdigen Seiten ein. BrowserGuard (de.trendmicro.com): Trend Micros eigenes Tool umfasst eine Reihe von Funktionen, um webbasierte Angriffe abzuwehren. Dazu gehören unter anderem fortschrittliche heuristische Techniken. (PR) Facebook ist entscheidender Wirtschaftsfaktor in Europa Zum Abschluss der DLD Konferenz (Digital Life Design) in München hat Sheryl Sandberg, Chief Operating Officer von Facebook, heute eine umfassende Studie zum wirtschaftlichen Einfluss von Facebook in Europa vorgestellt. Die von Deloitte durchgeführte Untersuchung verdeutlicht das große Potenzial der sozialen Plattform für das Wirtschaftswachstum in Europa. Die Studie belegt, dass Facebook in Europa einen direkten Mehrwert von 15,3 Milliarden Euro schafft. Unternehmen können 32 Milliarden Euro Umsatz in Europa durch Facebook-Aktivitäten realisieren. Auch in Arbeitsplätzen schlägt sich dies nieder. Dank Facebook sind bereits über 230.000 Jobs geschaffen worden. In Deutschland beläuft sich die Zahl der aufgrund von Facebook neu entstandenen Arbeitsplätze nach Ansicht der Experten auf 36.000. Facebook steuert in Deutschland 2,6 Milliarden Euro zum Bruttoninlandsprodukt bei. „Die Studie zeigt deutlich, dass Facebook viel mehr ist, als ‚Bilder zu teilen’ und ‚mit Freunden in Kontakt zu sein’. Der Erfolg von Social Media bedeutet Wachstum und Arbeitsplätze“, sagt Sheryl Sandberg. „Die Ergebnisse der Deloitte-Studie sind eindeutig: Soziale Netzwerke bieten besondere Möglichkeiten für kleine und mittelständische Unternehmen – das Rückgrat der europäischen Wirtschaft. Social Media ist ein Lichtblick in schwierigen wirtschaftlichen Zeiten, aber Wachstum passiert nicht von alleine. Nur wenn wir in die richtige Aus- und Weiterbildung, die notwendigen Technologien und Netzwerke investieren, kann Social Media weiterhin Innovationen und Wirtschaftswachstum fördern.“ Untermauert wird dies durch eine aktuelle repräsentative Umfrage des Bundes- Î 1/12 41 SPLITTER Î verbands Informationswirtschaft, Telekommunikation und neue Medien e.V. (BITKOM) und Facebook in Deutschland unter kleinen und mittelständischen Unternehmen mit mehr als 10 Mitarbeitern. 38 Prozent der in Social Media aktiven Unternehmen gaben an, dass sie ein klares Wirtschaftswachstum aufgrund ihrer Facebook-Präsenz verzeichnen konnten. 69 Prozent erklärten, ihren Bekanntheitsgrad durch Facebook signifikant gesteigert zu haben. In München traf Sheryl Sandberg auch auf das traditionsreiche bayrische Trachtenhaus Angermaier. Seit 1963 entwirft Trachten Angermaier moderne und traditionelle Trachtenmode. Die Präsenz auf Facebook hat sich für Geschäftsführer Dr. Axel Munz und sein Team ausgezahlt. Acht neue Mitarbeiter konnten auch aufgrund von Facebook eingestellt werden und der Umsatz erhöhte sich im letzten Jahr um fast 20 Prozent. „Facebook bietet uns die einmalige Möglichkeit, direkt mit unseren Kunden in Kontakt zu treten, auf uns aufmerksam zu machen und neue Trends und Kundenwünsche sofort zu erkennen. Außerdem können wir so sehr einfach auch über die Grenzen hinaus unsere Trachten vermarkten. Das gefällt mir“, erläutert Munz seine Aktivitäten auf Facebook. (PR) Impressums-Pflicht bei Facebook Das Landgericht Aschaffenburg hat im vergangenen Jahr entschieden, dass auch bei Facebook eine Impressumspflicht besteht. Werden Profilseiten in sozialen Netzwerken wie Facebook geschäftlich zu Marketingzwecken und nicht nur rein privat genutzt, gilt für sie die Impressumspflicht nach § 5 des Telemediengesetzes (TMG). Zur Erfüllung dieser Pflicht könne der Nutzer dann auf das Impressum seiner eigenen Website verlinken, sofern gewährleistet sei, dass die Pflichtangaben einfach zu erkennen und ohne langes Suchen zu finden sind. Ein Link mit der Bezeichnung „Info“ erfülle diese Voraussetzungen aber nicht. In dem zu entscheidenden Fall enthielt die Facebookseite der Antragsgegnerin kein eigenes Impressum. Nur der Name, die Anschrift und die Telefonnummer waren angegeben, nicht jedoch die Gesellschaftsform und der Vertretungsberechtigte. Über einen Link mit der Bezeichnung „Info“ gelangte man allerdings zum Webauftritt der Die wirtschaftliche Wirkung von Facebook in Deutschland 1/12 42 Antragsgegnerin und konnte dort das Impressum aufrufen. Der Antragsgegnerin wurde unlauteres Verhalten mit der Begründung vorgeworfen, die Angaben in ihrem FacebookProfil erfüllten nicht die Anforderungen des § 5 TMG. Eine Wettbewerberin mahnte die Antragsgegnerin deshalb ab und forderte sie auf, eine Unterlassungserklärung abzugeben. Nachdem die Antragsgegnerin dieser Aufforderung nicht nachgekommen war, beantragte die Wettbewerberin eine Einstweilige Verfügung. Das Landgericht hat dem Verfügungsantrag stattgegeben. Die Antragsgegnerin habe gegen § 5 TMG verstoßen und damit unlauter gehandelt. Sie sei verpflichtet, die erforderlichen Pflichtangaben auf ihrer Facebookseite leicht erkennbar und unmittelbar erreichbar zur Verfügung zu halten. Denn auch Nutzer von sozialen Netzwerken wie Facebook müssten ein eigenes Impressum vorhalten, wenn sie diese – wie die Antragsgegnerin – für Marketingzwecke und nicht nur rein privat nutzen. Nach Ansicht des Gerichts ist es zur Erfüllung der Informationspflicht nicht erforderlich, dass sich das Impressum auf der Profilseite des sozialen Netzwerkes befindet. Es sei auch zulässig, auf das Impressum der eigenen Webseite zu verlinken. Voraussetzung sei aber, dass die Pflichtangaben einfach und effektiv optisch wahrgenommen und ohne langes Suchen aufgefunden werden können. Diese Anforderungen sieht das LG durch den Link mit der Bezeichnung „Info“ nicht erfüllt. Da die Bezeichnung „Info“ nicht klar erkennen lasse, dass der Link zu den Pflichtangaben führe, liege bereits in ihr ein Verstoß gegen § 5 TMG. (LG Aschaffenburg, Urteil vom 19.08.2011, Az.: 2 HK O 54/11) (PR) SPLITTER Wissensplattform ALEXANDRIA für die allgemeine Nutzung freigegeben Im Rahmen des THESEUS-Abschlusskongresses wurde am 14. Februar in Berlin eine neuartige Wissensplattform für Online-Communities freigeschaltet. ALEXANDRIA stellt dem Anwender strukturiertes Wissen über berühmte Persönlichkeiten, Werke, Orte und Ereignisse zur Verfügung und bietet neue Möglichkeiten zur Exploration und Aufbereitung von Wissen. Die Plattform ist eines der Highlights aus dem THEUSEUS-Forschungsprogramm, in dem seit 2007 rund 60 Partner neue Technologien für ein zukünftiges Internet der Dienste erproben und entwickeln. Der Betrieb der Plattform wird von dem Berliner Software-Spezialisten Neofonie sichergestellt, der maßgeblich an der Entwicklung beteiligt war. „Die Freigabe der Wissensplattform ALEXANDRIA zeigt einmal mehr den Erfolg des THESEUS-Forschungsprogramms für die mittelständische Wirtschaft. Ich freue mich, dass ein mittelständisches Unternehmen aufgrund des THESEUS-Programms neue Dienste anbieten kann und aus semantischen Technologien einen großen Nutzen ziehen kann“, so der Parlamentarische Staatssekretär beim Bundesminister für Wirtschaft und Technologie, Hans-Joachim Otto. ALEXANDRIA verfügt über einen (semi-)automatischen Mechanismus zum Aufbau eines semantischen Wissensspeichers auf Basis von Informationsquellen im Internet (z. B. Wikipedia, Blogs oder Nachrichtenportale). Gleichzeitig stellt sie dem Anwender eine Reihe intelligenter Werkzeuge zur Verfügung, um in einem sozialen Netzwerk den Wissensspeicher kontinuierlich auszubauen und zu pflegen. Herausragendes Merkmal ist das FrageAntwort-System, mit dem Fragen in natürlicher Sprache gestellt werden können. Dazu verfügt ALEXANDRIA über eine sogenannte semantische Autovervollständigung, die natürlich sprachliche Eingaben in Echtzeit interpretieren kann. Darüber hinaus verfügt das System über einen ausgefeilten Suchalgorithmus zur automatischen Informationsextraktion. Vor dem Hintergrund des bereits vorhandenen Wissensspeichers werden deutschsprachige Nachrichten im Web inhaltlich analysiert und automatisch mit vorhandenen Einträgen in der Wissensmaschine verknüpft. So entstehen nach und nach vollautomatisch generierte Nachrichtenprofile zu Personen, Werken, Orten oder Ereignissen, die von Usern der OnlineCommunity gepflegt und bei Bedarf verbessert werden können. als Teil des THESEUS-Forschungsprogramms von den Projektpartnern Neofonie GmbH, Neofonie Mobile GmbH, Siemens IT Solutions and Services GmbH (früher C-LAB; jetzt Atos Origin zugehörig), Siemens AG – Corporate Technology, der DFKI GmbH - sowie der Deutschen Nationalbibliothek realisiert und entwickelt. Die Plattform steht ab dem 14. Februar allen interessierten Besuchern zur Nutzung frei. Wer sich nicht nur für die Inhalte interessiert, sondern aktiv an deren Pflege und Erweiterung beteiligen möchte, kann sich kostenlos für die Online-Community registrieren. http://alexandria.neofonie.de (PR) Das Anwendungsszenario stern.de Wie wichtig die Forschungsergebnisse in Bezug auf eine wirtschaftliche Verwertung sind, zeigen erste Anwendungsszenarien, wie sie derzeit von Neofonie für das Online-Portal stern.de konzipiert werden. Geplant ist hier, sowohl die stern.de-Suche als auch die internen Verlinkungsstrukturen mithilfe der ALEXANDRIA-Logik treffsicherer zu machen. Damit wird dem Nutzer das Auffinden von relevanten Inhalten und Querbezügen erleichtert und der Nutzwert des stern.deAngebotes steigt deutlich. ALEXANDRIA Internet im Die Wissensplattform ALEXANDRIA wurde Screenshot der Wissensplattform ALEXANDRIA 1/12 43 SPLITTER Störerhaftung desAdmin-C Der sogenannte Admin-C ist der bei der deutschen Registrierungsstelle für die DE-Domains anzugebende administrative Ansprechpartner in Bezug auf die Domain. Das heißt grundsätzlich ist der Admin-C derjenige, der gemäß den Nutzungsbedingungen der Denic dieser gegenüber für Abwicklungsfragen als Ansprechpartner zur Verfügung steht. Der Admin-C muss hierbei immer einen Sitz in Deutschland haben. Das verleitet gerade im Falle von Rechtsverletzungen bei einem ausländischen Domaininhaber stets dazu, statt sich an den Domaininhaber zu wenden, eben direkt auf den Admin-C zuzugehen. Doch haftet der Admin-C in solchen Fällen? Wenn er nachweislich selbst gehandelt hat, dann sicherlich. Doch dies ist in der Regel nicht der Fall, zumindest wäre es nicht nachweisbar. Daher dreht sich der juristische Streit darum, ob der Admin-C auch als so genannter Störer haftet, also für die Handlungen Dritter, in erster Linie des Domaininhabers selbst. Als Störer haftet nach der allgemeinen Definition verschuldensunabhängig und unabhängig von Art und Umfang seines eigenen Tatbeitrags jeder, der in irgendeiner Weise willentlich und adäquat kausal an der Herbeiführung der rechtswidrigen Beeinträchtigung mitgewirkt hat, wobei als Mitwirkung auch die Unterstützung oder Ausnutzung der Handlung eines eigenverantwortlich handelnden Dritten genügt, sofern der Inanspruchgenommene die technische und rechtliche Möglichkeit zur Verhinderung dieser Handlung hatte. Wichtig ist allerdings, dass die Haftung des Störers, um die Störerhaftung nicht über Gebühr auf Dritte zu erstrecken, die nicht selbst die rechtswidrige Beeinträchtigung vorgenommen haben, die Verletzung von Prüfungspflichten voraussetzt. Deren 1/12 44 Umfang bestimmt sich danach, ob und inwieweit dem als Störer in Anspruch Genommenen nach den Umständen eine Prüfung zuzumuten ist. Die Gerichte sind mit der Störerhaftung des Admin-C sehr zurückhaltend. Schließlich geht er nur im Innenverhältnis zur DENIC eine Pflicht ein, als Ansprechpartner zu dienen. Das führt in der Regel nicht dazu, dass er die tatsächliche Möglichkeit hat Rechtsverletzungen auf der Domain zu erkennen und vor allem zu verhindern. Der BGH hat in seinem Urteil vom 9. November 2011 (Az. I ZR 150/09) entschieden dass der Admin-C dann zumutbare Prüfpflichten verletzt haben kann, wenn er die Registrierung eines bestimmten Domainnamens ermöglicht. Jedenfalls soll dies dann gelten, wenn der Admin-C für eine hohe Anzahl an solchen Domainnamen für immer dieselbe ausländische Firma zur Verfügung steht und ihm bekannt ist, dass die Registrierung dieser Domainnamen automatisch erfolgt, also immer dann, wenn ein Domainname frei wird, eine Registrierung erfolgt. Dann, so der BGH, muss der Admin-C wissen, dass eine Prüfung des Namens durch den Domaininhaber nie stattfinden kann und es treffen ihn sodann erhöhte Pflichten, die auch die Prüfung der Rechtsverletzung durch den Namen der Domain beinhaltet. (PR) GoogleAnalytics datenschutzkonform einsetzen Google Analytics und andere WebAnalysetools sind für viele Webseitenbetreiber zum Verständnis der Nutzer-Aktivitäten auf ihren Websites unverzicht-bare Werkzeuge. Viele Webmaster setzen diese Informationen ein, um die Websites für die Nutzer zu verbessern. Google will Webmastern mit Google Analytics eine zuverlässige und stabile Web-Analyse- Das Analysetool Google Analytics plattform bieten, die gleichzeitig das Vertrauen und die Privatsphäre ihrer Besucher garantiert. Während der Einsatz von Google Analytics nach Ansicht von Google nicht gegen das deutsche und europäische Datenschutzrecht verstößt, hatten deutsche Datenschutzbehörden in der Vergangenheit dazu eine abweichende Auffassung. Google hat eng mit diesen Behörden – vertreten durch den Hamburgischen Beauftragten für Datenchutz und Informationsfreiheit – hinsichtlich der Bedenken zusammengearbeitet und eine Reihe von Verbesserungen für Google Analytics implementiert. Nach Angaben des Hamburgischen Beauftragte für Datenschutz und Informationsfreiheit, Prof. Dr. Johannes Caspar, kann Google Analytics unter bestimmten Voraussetzungen ohne Beanstandung der deutschen Datenschutzbehörden eingesetzt werden. Deutsche Webseitenbetreiber, die Google Analytics einsetzen, sollten mit folgenden Schritten sicherstellen, dass die Anforderungen der deutschen Datenschutzbehörden erfüllt werden: • In der Datenschutzerklärung erwähnen, dass Google Analytics auf der Webseite eingesetzt wird • Implementieren der IP-MaskenFunktion, die Google Analytics anweist, nicht die vollständige IP-Adresse der Nutzer zu speichern oder zu verarbeiten • In den Datenschutzbestimmungen auf die Möglichkeit der Deaktivierung der Google Analytics-Funktion mittels eines Browser Add-ons hinweisen. Die Installation verhindert, Î SPLITTER Î dass Analyse-Informationen an Google gesendet werden Google Analytics hat seine Nutzungsbedingungen aktualisiert. Nun sind mit den Datenschutzbehörden abgestimmte Regelungen zur Auftragsdatenverarbeitung enthalten. (PR, EB) Googles Datenschutzerklärung nach deutschem Recht angreifbar Zum 1. März 2012 führt Google neue, einheitliche Datenschutzbestimmungen ein. Sie ersetzen die über 60 Datenschutzerklärungen der verschiedenen Dienste. Vorteilhaft für den Nutzer ist das nur auf den ersten Blick, urteilt die Stiftung Warentest in ihrem Online-Portal test.de. Google bleibt in den Formulierungen auffällig vage und räumt sich auf diese Weise weitreichende Rechte ein, die nach deutschem Recht angreifbar sind. Die neue Datenschutzerklärung ist zwar besser strukturiert und insgesamt verständlicher als ihre zahlreichen Vorgänger. Trotzdem gelingt es Google nicht, die versprochene „höchstmögliche Transparenz“ herzustellen. Die etwa neunseitige Erklärung wimmelt geradezu von äußerst dehnbaren Formulierungen wie „möglicherweise“ (15 Mal) und „gegebenenfalls“ (zehn Mal). Breitband-Anschlüsse: Deutschland in der Spitzengruppe Der Breitband-Boom in Deutschland setzt sich fort. Lange Zeit haben deutsche Haushalte schnelle Internet-Zugänge im internationalen Vergleich nur mäßig genutzt. Nun ist man in der Spitzengruppe angekommen. Inzwischen nutzen fast vier von fünf Haushalten (78 Prozent) einen schnellen Breitband-Zugang ins Netz. Damit hat sich die Zahl dieser Anschlüsse seit 2004 mehr als vervierfacht und beträgt nun 31 Millionen. Deutschland liegt klar über dem europäischen Schnitt, auf Rang 6. Dies gab der Bundesverband Informationswirtschaft, Telekommunikation und neue Medien (BITKOM) bekannt. Basis sind neue Zahlen von Eurostat. „Die Breitband-Strategie des Bundes und die Milliarden-Investitionen der Netzbetreiber haben es ermöglicht, dass Deutschland bei der Breitband-Nutzung inzwischen vorne dabei ist“, sagt BITKOM-Hauptgeschäftsführer Dr. Bernhard Rohleder. Schnelle InternetZugänge mit mindestens 1Mbit/s sind in Deutschland für über 99 Prozent der Haushalte verfügbar. Nur jeder fünfte Haushalt nutzt dieses Angebot nicht. „Für Zuwachs bei der Nutzung sorgten außerdem sinkende Preise bei gleichzeitig höheren Bandbreiten“, so Rohleder. Immer höhere Geschwindigkeiten und die Kombination von Fernsehanschluss, Internetzugang sowie Telefonie machen die Paketangebote für immer mehr Kunden attraktiv. Laut Bundesnetzagentur haben die TKUnternehmen zwischen 1998 und 2010 über 93 Milliarden Euro in den Ausbau der Netze investiert. „Für den Wirtschaftsstandort Deutschland ist die flächendeckende Verfügbarkeit von schnellen Internetverbindungen unverzichtbar“, sagte Rohleder. Wichtige Zukunftsprojekte, wie intelligente Strom- und Verkehrsnetze, seien auf ein leistungsfähiges Breitbandnetz angewiesen. Die Bundesregierung will durch Breitbandstrategie den Ausbau der Infrastruktur beschleunigen. Mit dem Ausbau der Mobilfunknetze mit dem neuen Standard LTE (Long Term Evolution) werden auch die letzten „weißen Flecken“ in der Breitbandversorgung geschlossen. In einem zweiten Schritt wird die Entwicklung zu deutlich höheren Geschwindigkeiten forciert. Im Jahr 2014 sollen 75 Prozent aller Haushalte Zugang zu Anschlüssen mit mindestens 50 MBit/s ha ben. (PR) Dies zeigt beispielhaft die Klausel, die zukünftig die umfassende Profilbildung ermöglichen soll: „Unter Umständen verknüpfen wir personenbezogene Daten aus einem Dienst mit Informationen und personenbezogenen Daten aus anderen Google-Diensten.“ Damit weiß ein Nutzer nicht, ob und wann es zu einer Verknüpfung kommt und ob er jemals etwas davon erfährt. Nach deutschem Recht sind solche schwammigen Formulierungen angreifbar. Der vollständige Bericht ist unter www. test.de abrufbar. (PR) Breitband-Anschlüsse: Deutschland in der Spitzengruppe 1/12 45 SPLITTER Löschen leerer Ordner leicht gemacht: Neue FreeWare des Office Manager sorgt für Ordnung auf WindowsComputern Das Dokumenten Management System (DMS) Office Manager hat sich seit vielen Jahren als effiziente, revisionssichere Business-Lösung zur Verwaltung und Archivierung digitaler Dokumente bewährt. Ab sofort können die Anwender der Lösung dank eines neuen kleinen Software-Tools auch in anderer Hinsicht für Ordnung sorgen. Momenten, wo es wirklich mal schnell gehen muss“, weiß Harald Krekeler, Geschäftsführer des Softwarebüros Krekeler, aus Erfahrungsberichten seiner Kunden. Interessierte Windows-Anwender können das neue Tool ganz einfach testen: Da keine Installation benötigt wird, lässt es sich durch Löschen der Programmdatei vollständig wieder entfernen. Das „Clear|Folder|Tool“ steht als Anwendung in einer 32 Bit- und einer 64 BitVersion zur Verfügung. Allerdings sollte darauf geachtet werden, dass nur jene leere Verzeichnisse gelöscht werden, für die keine Verwendung mehr besteht. Hinweise dazu finden Anwender auf der „Clear|Folder|Tool“-Spezialseite unter www.officemanager.de (PR) Die neueste Version des Packers ist jetzt noch kompatibler: beliebte Funktionen des RAR-Formats wurden auf das ZIP-Format ausgeweitet. Der praktische Nutzen des „Clear| Folder|Tool“ liegt auf der Hand: „Je nach Arbeitsweise und Datenaufkommen können auf Rechnern schnell unübersichtliche Ordner- und Verzeichnisstrukturen wuchern. Solch ein Dickicht macht Arbeitsprozesse unnötig kompliziert, zwingt zum nervigen Suchen und kostet wertvolle Zeit – besonders in 1/12 46 Alternativ zu ZIP-Archiven können Anwender auf selbst-extrahierende (SFX) gesplittete RAR-Archive zurückgreifen. Diese können Empfänger unabhängig vom installierten Kompressionsprogramm öffnen. Im Gegensatz zu gesplitteten Archiven im RAR-Format erlaubt das ZIP-Format keine SFX-MultiVolumen. Weitere Neuerungen bei WinRAR 4.10 Finale Version von WinRAR 4.10 steht zum Download bereit Das neue „Clear|Folder|Tool“, das als kostenloser Download verfügbar ist, durchsucht Festplatten nach Ordnern und Verzeichnissen, die vollständig leer sind oder nur verwaiste Systemdateien beinhalten. Diese werden in einer Liste präsentiert und können dann direkt zum Entfernen markiert werden. Um seinen Usern weitreichend entgegenzukommen und die Kompatibilität für andere Formate zu erhalten, ermöglicht WinRAR 4.10 jetzt auch Multi-Volumen im ZIP-Format. Große Archive wie Musiksammlungen oder Filmdateien können damit auf mehrere Archive verteilt abgespeichert und leichter über das Internet verschickt werden. win.rar GmbH und RARLAB präsentieren die finale Version von WinRAR 4.10. Das bekannte Kompressionsprogramm ist unter www.win-rar.com erhältlich. Optimierung des ZIP-Supports Die Entwickler von RARLAB haben bei WinRAR 4.10 insbesondere die ZIPFormat-Unterstützung optimiert. Damit kann RARLAB als einziger Anbieter seinen Usern auch in Zukunft viele Features des RAR-Formats zusätzlich im ZIPFormat bieten. So konnte mit der aktuellen Version die Limitierung des ZIP Formats auf 2 GB Archivgröße und 65.535 Dateien pro Archiv aufgehoben werden. Das RAR-Format kennt selbstverständlich auch in Zukunft weiterhin keine Beschränkungen bei Größe und Dateianzahl. Allgemeine Neuerungen von WinRAR 4.10 beinhalten eine Überarbeitung der Benutzeroberfläche insbesondere im Bereich Volumengröße und verbesserte Sicherheitseinstellungen beim Löschen temporärer Dateien. Zudem wurde die beliebte Funktion „Archive konvertieren“ optimiert, um die Benutzung zu vereinfachen und den Konvertierungsprozess zu beschleunigen. Darüber hinaus hat RARLAB neue Befehle für die WinRAR-Eingabeaufforderung eingeführt sowie die SFXModule für selbst-extrahierende Archive und Installationsprogramme verbessert. „Unsere treuen Anwender wissen inzwischen, dass Sie mit WinRAR einen hochstabilen Packer mit höchsten Kompressionsraten zur Hand haben, der sich durch besonders durchdachte Funktionen auszeichnet. Nun haben wir einige der beliebten Funktionen von WinRAR auch für das ZIP-Format umgesetzt, um eine größtmögliche Kompatibilität mit anderen Packformaten zu bieten. Wir hoffen, damit noch mehr Nutzer für unser Produkt begeistern zu können“, sagt Öncül Kaya, Geschäftsführer der win.rar GmbH. Î SPLITTER Î Das RAR-Format bietet eine Reihe von Vorteilen gegenüber anderen Packformaten: Dazu zählen die solide Archivierung, die Wiederherstellungsvolumen (Recovery Records), die es ermöglichen beschädigte Dateien zu rekonstruieren, Konvertierungsfunktionen für Archive sowie zahlreiche Sicherheitsoptionen. Das Packprogramm WinRAR zeichnet sich durch hohe Kompressionsraten, durch Stabilität und durch den geringen Verbrauch an Speicherplatz aus. Da es neben dem RAR-Format auch eine Reihe von Nicht-RAR-Formaten wie das ZIP-Format unterstützt, bietet es höchstmögliche Kompatibilität. Allen Nutzern der Windows-64-Bit-Version wird dringend empfohlen, die 64Bit-Version von WinRAR zu installieren. Sie bietet mehr Geschwindigkeit und eine bessere Integration als die 32-Bit-Version. Eine 40-tägige Testversion von WinRAR 4.10 kann unter www.win-rar.com herunter geladen werden. Nach Ablauf der 40-Tage-Frist wird der Nutzer auf das Ende der Testzeit aufmerksam gemacht. WinRAR läuft unter Windows 2000/ 2003/XP/Vista/2008/Windows7. Die Befehlszeilenversion von RAR ist für Linux, Linux 64 Bit, FreeBSD und MAC OS X verfügbar. (PR) Laptop-Daten nur verschlüsseln reicht nicht aus Verschlüsselungswerkzeuge wie BitLocker oder True Cypt sollen helfen, sensible Daten auf den Festplatten von Laptops zu sichern. Einen 100prozentigen Schutz gegen professionelle Angriffe bieten sie jedoch nicht. Festplattenverschlüsselung für Laptops ist ein wichtiges Thema. Wer möchte schon, dass die Daten auf seinem Mobilrechner in falsche Hände geraten, wenn dieser verloren geht oder gar gestohlen wird? Das beruhigende Argument „niemand kennt mein Passwort“ zählt hierbei nicht viel, denn professionelle Angreifer können mit wenigen Schritten die komplette Verschlüsselung aushebeln. Haupteinfallstor ist dabei der Speicherdirektzugriff, der sogenannte Direkt Memory Access, kurz DMA. Der müsste bei allen Rechnern, die noch nicht über die aktuellen Speicherverwaltungs-Chips wie IOMMM von AMD oder VT-D von Intel verfügen, eigentlich abgeschaltet werden. „Solange wir mit dieser Sicherheitslücke leben müssen, helfen einige wenige Regeln“, sagt Jürgen Seeger, Chefredakteur des IT-Profimagazins iX. „Gerade mobile Systeme wie Tablets oder Notebooks werden gerne in den Stand-by-Modus versetzt, um schneller wieder arbeiten zu können. Das bedeutet aber, dass sich die Schlüssel noch im Speicher befinden. Das gilt auch für den Desktop-Lock mit der Tastenkombination Windows-L.“ Wenn die Verschlüsselung der Festplatte also nicht sinnlos gewesen sein soll, sollte man Folgendes beachten: • Der Boot-Prozess sollte • • • Benutzeroberfläche von WinRAR immer durch ein BIOSPasswort oder TPM-Passwort gesichert sein – also kein automatisches Booten! Ein laufendes oder im Stand-by befindliches System nie aus den Augen lassen. Stand-by- oder Sleep-Mode sowie Suspend to Disk/Swap niemals bei Geräten mit sensiblen Daten benutzen. Server oder DesktopRechner etwa in Arzt praxen gehören abgeschlossen, ein Zugriff auf die Schnittstelle darf nicht möglich sein. Wenn nicht unbedingt nötig, sollten solche Systeme nicht über Nacht laufen. (PR) 1/12 47 SPLITTER CeBIT, 6.-10. März 2012, Hannover Anschluss an die digitale Zukunft „Die CeBIT baute in diesem Jahr ihre Spitzenposition als weltweit wichtigste Veranstaltung für digitale Technologien weiter aus“, sagte CeBIT-Chef Frank Pörschmann. „Wer in diesem Jahr die CeBIT besucht hat, hielt Anschluss an die digitale Zukunft – sei es unternehmerisch, beruflich oder privat.“ Zahlreiche Trends, Neuheiten und tausende Innovationen erwarteten den Besucher vom 6. bis 10. März 2012 in Hannover. Die von führenden Instituten prognostizierten Zukunftsthemen Big Data, Cloud Computing, Mobilität und Social Media standen im Fokus der Veranstaltung. Eine übergeordnete Rolle spielte das Thema „Managing Trust Vertrauen und Sicherheit in der digitalen Welt“. Neueste Lösungen und Konzepte dazu wurden unter anderem in der CeBIT Security World und im Professional Data Center präsentiert. Darüber hinaus fanden sich Anknüfungspunkte in nahezu allen anderen Ausstellungsschwerpunkten. Sicherheitskonzepte für urbane Ballungszentren sowie die sichere Übertragung und Speicherung von Gesundheitsdaten sind nur einige Beispiele aus dem Bereich CeBIT gov. Das CeBIT lab lockte mit 3DTechnologien, dem Internet der Dinge, Semantic Web und Open Cloud. „Das Forschungszentrum der CeBIT präsentierte sich in diesem Jahr stärker denn je. Erstmals belegte das CeBIT lab eine komplette Halle und integrierte den Schwerpunkt ‚Resources & Career’ mit zahlreichen Aktivitäten und Dienstleistungen rund um Jobs und Recruiting“, sagte Pörschmann. Damit stärkte die CeBIT ihre Position als größter Karrieremarkt der digitalen Welt. 1/12 48 Die CeBIT ist weltweit die einzige Plattform, welche die IT-, Telekommunikations-, Elektronik- und Contentindustrie bündelt und gleichzeitig Synergien aufzeigt, die durch eine immer dynamischere Konvergenz der Märkte entstehen. Besucher können sich schnell und effizient einen Überblick über die ITK-Landschaft verschaffen, Lösungen live testen, Visionen erleben und relevante Kontakte für ihr Business knüpfen. „Denn auf der CeBIT geht es ums Geschäft. Wir haben unsere Position als effizienteste Plattform für Geschäftsanbahnung mit neuen Services weiter ausgebaut. Für unseren Match-and-Meet-Service stand im Herzen des Messegeländes mit dem so genannten IC ein mehr als 3.000 Quadratmeter großes Gebäude exklusiv zur Verfügung. In dieser Qualität war dieser Service weltweit einmalig“, sagte Pörschmann. Zahlreiche Sonderveranstaltungen wie etwa das „CeBIT i-land“ mit Zubehör für Smartphones, die Automotive-Plattform „Destination IST“ und die Innovationsschau „Code_n 12“ luden dazu ein, neue Technologien live und hautnah zu erleben. Visionär wurde es auch bei den CeBIT Global Conferences: Sie boten den CeBIT-Besuchern die Chance, hochkarätige Sprecher aus aller Welt zu treffen. Mehr als 60 führende Köpfe der internationalen ITK-Wirtschaft waren mit Keynotes, Kurzvorträgen und im Rahmen von Podiumsdiskussionen vertreten. Die Liste der Redner reichte von Dr. Werner Vogels, CTO (Chief Technical Officer) von Amazon, und Dr. Michael Gorriz, CIO (Chief Information Officer) von Daimler über Jeremy Doig, Engineering Director bei Google, bis hin zu Jacob Aqraou, Senior Vice President von eBay und Dr. Steve Garnett, Chairman & President von Salesforce Europa. Erstmals war auch das weltweit größte soziale Netzwerk Facebook mit Richard Allan, Director of Policy in Europe, auf dem weltweit bedeutendsten ITK-Kongress dabei. Außerdem hatten Besucher die Möglichkeit, im Rahmen von Guided Tours und Workshops tiefer in die Themen einzusteigen. Antworten auf spezifische Fragestellungen lieferten auch die rund 30 Fachforen. Erstmals wurde auf der CeBIT die branchenübergreifende C3 Confererence durchgeführt. Unter dem Dreiklang Content – Creativity – Convergence suchten Verleger, Spieleentwickler, Musik- und Filmproduzenten Synergieeffekte mit der ITK-Industrie und zukünftige Geschäftsmodelle. Alle Angebote an der Schnittstelle zwischen digitalen Technologien und der Automobilbranche bündelte die Ce- Î SPLITTER Î BIT unter dem Titel Digital Drive. „Die CeBIT ist nicht nur die Plafform für den digitalen Lifestyle, sondern auch für den Digital Drivestyle. Er ist fester Bestandteil der CeBIT“, sagte Pörschmann. Mit dem automotiveDAY am CeBITDonnerstag, 8. März, gab es einen eigenen Kongress zu dem Thema. Als Sprecher wareen unter anderem hochrangige Vertreter von Audi, BMW, Daimler, Lamborghini und Volkswagen zu Gast. Gemeinsam mit Experten der digitalen Wirtschaft tauschten sie sich über die speziellen Herausforderungen der Automobilindustrie aus. CeBIT, 6.-10. März 2012, Hannover Darüber hinaus war die CeBIT fester Treffpunkt für die Chefs der IT-Abteilungen. Sie nutzten die CeBIT, um gezielt Kontakte zu knüpfen, sich in Workshops zu informieren und ihr Netzwerk zu pflegen. „In unserem ‚House of CIO’ in der Halle 4 erwarteten wir mehr als 700 ITVerantwortliche der großen Konzerne aus aller Welt. Keine Veranstaltung verfügt über eine solch hohe C-Level-Dichte wie die CeBIT“, betonte Pörschmann. Im Fokus des MPS-Parks in der Halle 3 standen Neuentwicklungen aus Planung, Implementierung, Betrieb, Wartung und Erneuerung von Druckumgebungen. Albert Brenner, Director Marketing und CRM bei Xerox erklärt: „Schon im Jahr 2011 hat uns besonders das neue themenorientierte Konzept des MPS-Parks überzeugt. Als führender Anbieter im Bereich Managed Print Services freuen wir uns, dass die CeBIT das Konzept auch 2012 fortgeführt hat. Entscheidungsträger in mittelständischen und großen Unternehmen konnten sich an unserem Stand umfassend über optimierte Druckumgebungen informieren und erfahren, wie sie gleichzeitig die Effizienz der Mitarbeiter steigern, Druckkosten reduzieren und ihren CO2-Fußabdruck verringern können. Bürofachhändlern stellten wir unsere Xerox Partner Print Services vor, mit denen sie ein eigenes MPS-Angebot aufbauen und sich so vom Wettbewerb differenzieren können.“ Wie gewohnt stand auch Entertainment wieder auf dem Programm der CeBIT 2012. In der CeBIT life fanden täglich Konzerte auf der Sounds-Bühne statt. Die Barmer GEK lockte mit einem sportlichen Animationsprogramm und die internationale Computerspiel-Fangemeinde traf sich bei den Intel Extreme Masters. Die CeBIT 2012 startete am 6. März. Am Vorabend eröffnete die Bundeskanzlerin Dr. Angela Merkel die Veranstaltung feierlich. Außerdem wurde die brasilianische Staatspräsidentin Dilma Rousseff als Repräsentantin des CeBIT-Partnerlandes 2012 in Hannover erwartet. Die Keynote seitens der Industrie hielt Eric Schmidt, Vorsitzender des Verwaltungsrates von Google. Zudem sprachen der Präsident des deutschen Branchenverbandes BITKOM, Prof. Dieter Kempf, sowie Niedersachsens Ministerpräsident David McAllister im Hannover Congress Centrum zu den mehr als 2.000 Gästen. (PR) CeBIT baute Managed Print Services Park aus Nach dem erfolgreichen Auftakt zur CeBIT 2011 ging der Managed Print Services Park (MPS) nun in die zweite Runde. Vom 6. bis 10. März 2012 präsentierten namhafte Anbieter aus dem Bereich Output-Management Lösungen, mit denen Unternehmen ihre Druckinfrastrukturen nachhaltig optimieren können. Auch Marcus Nickel, Country Manager für MPS bei Canon Deutschland, blickte mit positiven Erwartungen auf die CeBIT 2012: „Nach dem Erfolg von Canon und Océ auf der CeBIT 2011 freuten wir uns, auch in diesem Jahr wieder gemeinsam in Hannover im MPS-Park an Bord zu sein. Unter dem Motto „Aiming higher“ präsentierten wir unsere Consulting-, Outsourcing- und Services-Kompetenz für Unternehmen. Für den PartnerChannel war ebenfalls ein Ansprech- partner vor Ort . Als offizieller Sponsor der UEFA EURO 2012 griffen wir unser Motto auf und gestalteten unsere Präsenz rund um das Thema Fußball.“ Für die Veranstaltung hatten sich bereits zahlreiche neue Firmen angemeldet. So waren unter anderem Brother, Samsung, Sharp und Triumph Adler erstmals im MPS Park vertreten. Außerdem erwartete das Fachpublikum ein erweitertes, eigens auf ihre Bedürfnisse zugeschnittenes Veranstaltungsprogramm. Spezielle Angebote für interessierte MPS-Kunden Im House of CIOs in der Halle 4 wurde am CeBIT-Dienstag, 6. März, ein Workshop zum Thema Multi-Sourcing und Business Process Outsourcing (BPO) angeboten. Geschäftsführer und C-LevelEntscheider konnten sich herstellerneutral über das Potenzial von MPS informieren. Am Messe-Mittwoch, 7. März, fand erstmalig ein Treffen des Anwenderkreises Managed Print Services (MPS) / Managed Document Services (MDS) statt. Der Anwenderkreis ermöglichte den informellen Austausch von Anwendern untereinander. Eingeladen waren Einkäufer und Projektmitarbeiter aus AnwenderUnternehmen, die den Bereich BüroDruckinfrastruktur, Office Output Management oder Managed Services betreuen oder sich dafür interessieren. Im Fokus des ersten Treffens standen Best Practices im Bereich „Ausschreibungen Druckinfrastruktur“. Oliver Jendro, vom Beratungs- und Marktforschungsnetzwerk Dokulife, zur Gründung des Anwenderkreises: „Während Anbieter und Händler sich über Verbände bestens vernetzen, sind Anwender beim Einkauf und dem Management von Büro-Druckinfrastrukturen auf sich alleine gestellt der Anwenderkreis MPS/MDS bietet erstmals eine dauerhafte Plattform zum Wissensaustausch und gemeinsamen Initiativen.“ Anmeldungen für Interessierte und weitere Informationen zum Anwenderkreis gibt es unter www.omskonferenz.de/anwenderkreis Î 1/12 49 SPLITTER Î Wie schon im vergangenen Jahr richtet e der Bundesverband Bürowirtschaft (BBW) seine Arbeitstagung „forum bürowirtschaft“ auf der CeBIT aus. Die Veranstaltung fand am Donnerstag, 8. März im Saal Europa, Tagungsbereich Halle 2 auf dem hannoverschen Messegelände statt. Sie stand unter dem Titel „Managed Print Services - Gutes Personal ist das stärkste Verkaufsargument“. Nur mit hoch qualifizierten Mitarbeitern kann die komplexe Software- und ProzessUmgebung für MPS an den Kunden gebracht werden. Daher sind Persönlichkeitsprofil, Qualifikation, Recruiting und Leistungskriterien Schlagworte der diesjährigen Tagung. Das gesamte Programm mit Anmeldung steht unter www.buerowirtschaft.info zum Download zur Verfügung. (PR) CeBIT, 6.-10. März 2012, Hannover Strategien gegen Fachkräftemangel Für 59 Prozent der Hightech-Unternehmen ist der Mangel an hochqualifizierten Spezialisten das größte Wachstumshemmnis. Wie geht die Besucher auf der CeBIT 2011 1/12 50 Branche damit um? Wie schaffen es Personaler, auf dem komplexen Arbeitsmarkt die richtigen Kandidaten zu entdecken, für das eigene Unternehmen zu gewinnen und langfristig zu binden? Diesen Fragen stellte sich die Human Resources Conference „IT meets HR“, die der Hightech-Verband BITKOM und das FAZ-Institut am 9. März auf der CeBIT in Hannover veranstalteten. „Der Fachkräftemangel ist nach wie vor eine der größten Herausforderungen für die Hightech-Unternehmen“, sagt Rolf Buch, Mitglied des BITKOM-Präsidiums. „Die Konferenz ‚IT meets HR’ hat auf der CeBIT 2012 neue Strategien gegen den Fachkräftemangel diskutiert und konkrete Lösungsansätze geliefert.“ Neben Buch sprachen Experten des Online-Bewertungsportals kununu, der Computerwoche und Kienbaum Consultants u.a. zu den Trends im ITKArbeitsmarkt, Online-Recruiting sowie Mitarbeiterförderung und -weiterbildung. Zum Abschluss wurde erstmals der „European IT Workplace of the Year“Award verliehen, der die besten IT-Abteilungen in Unternehmen und ITDienstleistern würdigen soll. (PR) CeBIT, 6.-10. März 2012, Hannover PDFAssociation informierte über PDFStandards und -Lösungen Erstmals stellte die international ausgerichtete PDF Association ihre Expertise rund um bestehende und künftige PDF-Standards wie PDF/A, PDF/VT, PDF/UA und PDF/X auf der CeBIT 2012 zur Verfügung. Interessenten, die sich über die verschiedenen PDF-Standards informieren wollten, fanden vor allem in der Halle 3 kompetente Ansprechpartner für ihre Fragestellungen und auch standardkonforme Lösungen rund um PDFFormate. Mit dem Schwerpunkt „Managing Trust“ rückte die CeBIT 2012 das Thema Vertrauen und Sicherheit in der digitalen Welt in den Mittelpunkt. Dabei spielt auch das geeignete Dokumentenformat eine wichtige Rolle. Zusätzlich kann dieses auch die Effizienz verbundener Prozesse und Geschäftsbereiche vielfältig beeinflussen. Diese Erkenntnis setzt sich allmählich bei immer mehr Unternehmen durch und führt dazu, dass die Familie der ISOStandards rund um das beliebte PDF zunehmend Aufmerksamkeit erhält. Insbesondere PDF/A hat sich als Langzeitarchivformat etabliert und immer mehr Unternehmen sowie öffentliche Einrichtungen setzen PDF/A strategisch in ihrem Kerngeschäft und als Rahmenbedingung in IT-Projekten um. Daraus resultieren zwangsläufig zahlreiche Fragestellungen im Zusammenhang mit der Realisierung konkreter, individueller PDF-Projekte. Die oft komplexen Zusammenhänge sind dabei nicht ohne weiteres zu erfassen. Hierzu bietet die tiefgreifende Expertise der Spezialisten von der PDF Association umfassende Unterstützung. Sie stehen Rede und Antwort, wenn es beispielsweise um Î SPLITTER Îdie Nutzung der unterschiedlichen Normteile von PDF/A geht, zeigen Einsatzgebiete von PDF/UA (Universal Accessibility, also Barrierefreiheit) auf oder erläutern, wie PDF/VT (V steht für Variablen Datendruck und T für Transaktionsdruck) Output-Management-Prozesse optimieren kann. Olaf Drümmer, Vorstandsvorsitzender der PDF Association, erklärt: „Es gibt so viel Bewegung im Bereich der PDF-Standards, dass ein hoher Aufklärungsbedarf besteht. Die wachsende Bedeutung von PDF als vollständig offenes, digitales Dokumentformat erzeugt zudem Handlungsbedarf für zukünftige Standards, in denen aktuelle Geschäfts- und Compliance-Anforderungen ihren Niederschlag finden müssen.“ Der PDF-Standard (ISO 32000) selbst ist ein wichtiger Meilenstein: Dadurch, dass Adobe die Kontrolle über das PDF-Format an die ISO übergeben hat, hat die internationale PDF-Community die Chance, die weitere Entwicklung von PDF im Rahmen der ISO, wo sich auch Adobe weiter engagiert, auszugestalten. Im Output-Management-Bereich gewinnt der noch relativ junge PDF/VTStandard zunehmenden Einfluss. Er adressiert hochvolumige Druckprozesse mit besonders hohen Anforderungen an die ansprechende Gestaltung der Dokumente. PDF/VT setzt auf den bereits seit einem Jahrzehnt in der Druckindustrie verbreiteten PDF/X-Standard auf und fügt Leistungsmerkmale hinzu, die im Output-Management unentbehrlich sind. Kurz vor seiner Veröffentlichung steht der PDF/UA-Standard. Auch hierzu informierte auf der CeBIT die PDF Association. Der internationale Standard für barrierefreies PDF ist wichtig für Organisationen, die Vorschriften zum barrierefreien Zugang zu Inhalten einhalten müssen (darunter Section 508 in den USA, Kanadas „Common Look and Feel Standard“ und der UK Disability Discrimination Act (DDA) in Großbritannien). Er leistet das, was in der OnlineWelt durch Standards wie WCAG 2.0 und jüngst auch die deutsche Entsprechung BITV 2.0 bereits erreicht wurde: klare Vorgaben dafür, wie eine wirksame Barrierefreiheit nicht nur für Webseiten, sondern auch für PDFs sichergestellt werden kann. Derzeit befindet sich PDF/ UA im DIS-Stadium (Draft International Standard) und soll voraussichtlich Mitte 2012 veröffentlicht werden. (PR) CeBIT, 6.-10. März 2012, Hannover CeBIT wurde zum größten kostenlosen Hotspot der Welt Schnell zwischendurch E-Mails lesen, aktuelle Informationen direkt ins Büro schicken oder per Videotelefonie am Meeting teilnehmen – die CeBIT 2012 machte all das erstmals kostenlos möglich. Gemeinsam mit dem Branchenverzeichnis Gelbe Seiten bot die Deutsche Messe AG den Besuchern vom 6. bis 10. März eine kostenlose WLANNutzung auf dem gesamten Messegelände. Damit verwandelte sich die CeBIT in den größten kostenlosen Hotspot der Welt. Zusatzgebühren durch Datenroaming für ausländische Besucher während der Messe gehörten mit dem neuen kostenlosen Internetzugang der Vergangenheit an. Interessierte registrierten sich mit Ihrer E-Mail-Adresse, erhielten die Zugangsdaten und konnten danach sofort das kostenlose WLAN nutzen. GelbeSeiten.de sowie die Apps von Gelbe Seiten für iPhone, iPad, Android und BlackBerry halfen außerdem mit Informationen zu Hotels und Restaurants bei der Organisation rund um den Messebesuch. Die integrierte Routenplanung sorgte für ein schnelles Ankommen am Ziel. Alle Serviceleistungen unter einem Dach Neben der Gratisnutzung des Internets schuf die Deutsche Messe mit dem Visitor Center im neu gestalteten Informations Centrum (IC) einen zentralen Anlaufpunkt für alle CeBIT-Besucher. Wer Ruhe suchte, fand diese in den Loungeräumen. Auch kurzfristige Hotelreservierungen und Mietwagenbuchungen ließen sich im IC erledigen. Ein Copy-Shop, ein zentrales Informationssystem, ein Media Shop, eine Internetlounge sowie ein „App Station Sales Office“ rundeten das Serviceangebot ab. Um den CeBIT-Gästen die Möglichkeit zu geben, ihren Messebesuch individuell gestalten zu können, bot das Visitor Center themenspezifische geführte Messerundgänge. Je nach Schwerpunkt der Guided Tour präsentierten Aussteller aus dem jeweiligen Fachgebiet die neuesten Produkte, Lösungen und Trends. Ebenfalls im IC war der neue „Match & Meet Onsite Bereich“. Dort trafen sich potenzielle Geschäftspartner zum persönlichen Gespräch. Als Kooperationsplattform bildete dieser Bereich die Ausgangsbasis für Geschäftanbahnung weltweit. Der Matchmaking Support unterstüzte die Kunden dabei umfassend - von der Auswahl wertvoller Kontakte bis zur Terminkoordinierung. Besprechungsräume mit modernster Konferenztechnik sorgten zudem für optimale Verhandlungsbedingungen und eine ruhige Gesprächssituation. Der Onsite Service ergänzte den bereits bestehenden „Match & Meet Online Service“. (PR) 1/12 51 SPLITTER 5. Essener Tagung, 18.-19.4.2012 Mobile Kommunikationsund Informationstechnik im Einsatz Führungs(hilfs-)mittel im Einsatz / Digitalfunk: Einsatzerfahrungen, Repeaterlösungen, Schnittstellen zum Gebäudefunk für Gefahrenabwehrorganisationen (Feuerwehr, Rettungsdienst, Katastrophenschutz, Polizei, Zoll) und Energieversorger Die 5. Tagung vom 18. bis 19. April 2012 im Haus der Technik in Essen vermittelt einen Überblick über derzeit bereits funktionierende sowie mittelfristig zu erwartende Einsatzunterstützungstechniken auf Basis von Soft- und Hardware sowie alles rund um für den Betrieb bzw. Einsatz notwendige Kommunikationsmittel. Die Teilnehmer lernen die damit verbundenen Probleme praxisnah kennen und werden in die Lage versetzt, bei geplanten eigenen Anwendungen teure Fehler zu vermeiden. Als Themen werden u. a. die Einführung des Digitalfunks mit dem Schwerpunkt der Anbindung der Fahrzeuge bzw. Digitalfunkgeräte in einsatztaktische Konzepte, Führungsunterstützungssysteme bzw. Einsatzleitrechner, die Führungsmittel, einschließlich mobiler Datenendgeräte (vom PDA bis zum vollwertigen robusten und damit einsatztauglichen Laptop oder Industrie-PC) und das Web 2.0 mit der Vielzahl von „Apps“ – auch für die Gefahrenabwehr! – behandelt. Die Tagung liefert die Grundlagen und gibt Beispiele für sinnvolle sowie anwenderfreundliche Soft- und Hardware für verschiedene Einsatzgebiete, wie z.B. • Anforderungen an „Car-PC“ und an • • • • • die Fahrzeuge, in die diese verbaut werden sollen Erfahrungen aus Einbauten in Musterfahrzeuge Auswahl geeigneter Führungs(hilfs)mittel Einsatzplanung und Erkundung Navigation Datenübertragung Auf die damit verbundenen Probleme wie Schnittstellen verschiedener Soft- und Hardware, taktische und technische Schwierigkeiten zur georeferenzierten Darstellung von Einsatzfahrzeugen inkl. FMS- bzw. SDS-Auswertung über verschiedene Systeme (ELR, ELW) wird klar eingegangen. Zum ersten Mal wird in der Tagung auch auf die immer stärkere Verbreitung findende „Apple-Welt“ (iPhone, iPad, MacBooks usw.) eingegangen. (PR) 13. Datenschutzkongress, 8.-9. Mai 2012, Berlin Einheitlicher Datenschutz bald europaweit? Strengere Vorgaben für soziale Netze und Institutionen soll es nach EUKommissarin Viviane Reding künftig in ganz Europa geben. Zu den geplanten Neuerungen gehört auch das Recht auf Vergessen. Besonders soziale Netzwerke müssten Daten in Zukunft auf Wunsch ihrer Nutzer wieder löschen. Verstoßen Unternehmen gegen die Datenschutzregeln, so würden ihnen nach den neuen Daten-schutzregeln hohe Strafen drohen. Bundesjustizministerin Sabine Leutheusser-Schnarrenberger begrüßte den Vorstoß der EU-Kommission. Gleichzeitig warnte sie dem Handelsblatt zufolge davor, dass eine europäische Neuregelung das deutsche Datenschutzniveau nicht aufweichen dürfe. Auf dem 13. Datenschutzkongress 2012 (8. und 9. Mai 2012, Berlin) erörtert die Bundesjustizministerin im Detail die neueren Entwicklungen im Datenschutzrecht in Deutschland und der EU. Auch Bundesinnenminister Dr. Hans-Peter Friedrich greift die aktuelle Diskussion um Datensicherheit auf und eröffnet mit seinem Vortrag den etablierten Berliner Datenschutzgipfel. Themen- und Referenten-Highlights des Datenschutzkongresses 5. Essener Tagung: Mobile Kommunikations- und Informationstechnik im Einsatz 1/12 52 Sollten alle EU-Länder den Vorschlägen der EU-Kommissarin zustimmen, so würden vor allem auf Unternehmen einige Änderungen zukommen. Anders als bei einer Richtlinie blieben mit der neuen Verordnung kaum Spielräume für nationale Datenschutzgesetze. Michael Hange (Bundesamt für Sicherheit in der Informationstechnik), Markus Haas (Telefónica Germany), Peter Schaar (Bundesbeauftragte für den Datenschutz und die Informationsfreiheit) diskutieren unter der Leitung des Vorsitzen- Î SPLITTER Î den Dr. Ulrich Wuermeling LL.M. (Latham & Watkins LLP) über Erwartungen der Politik an die DatenschutzCompliance der Unternehmen. Rechtliche Rahmenbedingungen von Social Media aus aufsichtsbehördlicher Sicht erörtert der Hamburgische Beauftragte für Datenschutz und Informationsfreiheit, Prof. Dr. Johannes Caspar, und aus unternehmerischer Sicht Thomas Helfrich (Bayer). Die Risiken und Nachteile des Cloud-Computing beleuchtet der Hessische Datenschutzbeauftragte, Prof. Dr. Michael Ronellenfitsch. Prof. Dr. Thomas Hoeren (Universität Münster) referiert über Folgen der EU- Verordnung für den betrieblichen Datenschutzbeauftragten. Chris Newiger (Deutsche Bahn) berichtet anschließend über Gemeinsamkeiten und Unterschiede von Datenschutzorganisationen in mittleren und großen Unternehmen. Social Media und Datenschutz Datenschützer kritisieren Facebook für den Like-Button, Fangruppen und die automatische Gesichtserkennung. Sie befürchten, dass Daten auch von NichtMitgliedern des Netzwerks ohne deren Wissen gespeichert und zu Profilen kombiniert werden könnten. Lord Richard Allan (Facebook) nimmt am Vorabend des Datenschutzkongresses Stellung zu den Vorwürfen. Gemeinsam mit Dr. Ulrich Wuermeling LL.M., Thomas Helfrich, Edgar Wagner (Landesbeauftragte für den Datenschutz und die Informationsfreiheit Rheinland-Pfalz) und Thomas Mosch (BITKOM) diskutiert der oberste Europa-Repräsentant des Online-Netzwerks über Datensicherheit bei Social Media. EU-Reform und weltweiter Datenschutz Beim separaten European Data Protection Day (7. Mai 2012, Berlin) berichten über 25 internationale Experten unter anderem aus den USA, Russland, Argentinien, Polen und Indien über Herausforderungen im inner- und außereuropäischen Datenschutz. Darüber hinaus geben Dr. Paul Nemitz (Europäische Kommissi- on), Axel Voss (Europäisches Parlament), Peter Hustinx (Europäischer Datenschutzbeauftragter), Peter Fleischer (Google Inc.), Isabelle Falque-Pierrotin (Datenschutzbeauftragte Frankreich), Christopher Graham (Datenschutzbeauftragter Großbritannien), Dr. HansJoachim Rieß (Daimler AG) ihre Einschätzungen zur geplanten EU-Reform ab. Das komplette Programm ist abruf bar unter: bit.ly/A2MrT9 (PR) 10.-11. Mai 2012, Frankfurt/ Main IPv6-Kongress Schon seit 2009 bringt der Deutsche IPv6-Kongress jedes Jahr Praktiker, Anbieter und Entscheider zusammen. Er hat sich vom einfachen Administratoren-Treffen zu Europas größter IPv6-Veranstaltung entwickelt, mit mehr als 500 Teilnehmern im Jahr 2011. Bei der vierten Auflage bietet das Vortragsprogramm in drei parallelen Tracks über zwei Tage wieder reichlich Erfahrungsberichte, Tutorials und Hintergrundinformationen. Die Referenten kommen aus allen Bereichen der Branche und aus der öffentlichen Verwaltung, die in diesem Jahr einen der Schwerpunkte bildet. Neben den Vorträgen gibt es viel Gelegenheit zum direkten Gespräch. Der IPv6-Kongress ist somit nicht nur Treffpunkt einer technischen Community sondern gleichzeitig die zentrale Informationsquelle für alle, die IPv6-Projekte schon begonnen haben oder noch davor stehen. (PR) 10.-11. Mai 2012, Berlin 6. RISER-Konferenz zum Europäischen Meldewesen Die RISER-Konferenz ist das Fachforum für den Austausch zwischen Melde- und Landesbehörden, Daten- schützern und der Privatwirtschaft. Hochaktuelle Schwerpunktthemen sind dieses Jahr das neue Bundesmeldegesetz und seine Auswirkungen auf die Verwaltung, Wirtschaft und Bürger sowie die Anforderungen von Open Data an Meldebehörden. Neben den Fachvorträgen renommierter Referenten wird vor allem der Dialog mit den Teilnehmern im Vordergrund stehen. Die Eröffnungsreden am ersten Tag der Veranstaltung werden Senator Frank Henkel, Senatsverwaltung für Inneres und Sport des Landes Berlin und Staatssekretärin Cornelia Rogall-Grothe, Bundesministerium des Innern, halten. Am ersten Tag wird es um die „Auswirkungen des Bundesmeldegesetzes auf Wirtschaft und Bürger“ sowie die „Auswirkungen des Bundesmeldegesetzes auf die öffentliche Verwaltung und deren IT „ gehen. Der zweite Tag beschäftigt sich mit „Melderegister vs. Social Media“, „Neue EU-Datenschutzrichtlinie – Was ändert sich für Unternehmen und Verwaltung? „ und „Meldebehörde auf dem Weg zu Open Data“. Veranstaltungsort ist das Auditorium Friedrichstraße (af) in Berlin. (PR, EB) 1/12 53 SPLITTER Fallstudie Green IT im ITDienstleistungszentrum Berlin Die Studie richtet sich vorrangig an Praktiker aus IT-Organisationen, die sich mit dem Thema ökologische Nachhaltigkeit und Green IT auseinandersetzen. Aus den erhobenen Fallstudien werden Best Practices zusammengetragen und Handlungsempfehlungen für die Praxis abzuleiten. Durch die Partizipation des ITDZ Berlin an der Fallstudienerhebung und der Offenlegung ihrer Erfahrungen konnte ein wesentlicher Beitrag zur Weiterentwicklung einer Green IT in Praxis und Forschung geleistet werden. In der Fallstudienanalyse wurden u.a. der holistische Green IT-Ansatz des ITDZ Berlin, die Berücksichtigung von Green IT in unternehmerischen Entscheidungen (Green IT Business Case) sowie die Integration der Kunden und Öffentlichkeit im Rahmen der Green IT-Bemühungen des ITDZ Berlin hervorgehoben. Im Rahmen einer Fallstudienanalyse wurde das Umsetzungsvorgehen und der Implementierungsstand einer Green IT im IT-Dienstleistungszentrum Berlin (ITDZ Berlin) von wissenschaftlichen Mitarbeitern des Fachgebiets Informations- und Kommunikationsmanagement der Technischen Universität Berlin (Prof. Dr. Rüdiger Zarnekow) untersucht. Neben dem IT-Dienstleistungszentrum Berlin wurden sieben weitere Fallstudien seitens des Forschungsinstitutes erhoben, die in einem Sammelband unter dem Titel „Green IT – Best Practices und Fallstudien“ im Springer Verlag (Herausgeber: Prof. Dr. Rüdiger Zarnekow und Prof. Dr. Lutz M. Kolbe) veröffentlicht werden. Im Rahmen der Fallstudienanalyse „Green IT im IT-Dienstleistungszentrum Berlin“ werden die Erfahrungen bei der Implementierung und Umsetzung einer Green IT zusammentragen. Dabei wurden sowohl die Handlungsmotive einer Green IT erfasst als auch die organisatorische und prozessuale Verankerung im Unternehmen vorgestellt. Um eine Vergleichbarkeit der erhobene Fallstudie mit anderen Unternehmen sicherzustellen, wurde eine einheitliche Fallstudienstruktur gewählt: Folglich werden zunächst die Eckdaten des betrachteten Unternehmens beschrieben, die unternehmens-, branchen- und markttypischen Herausforderungen erläutert sowie die Rolle der Nachhaltigkeit für das Unternehmen skizziert. Letzteres zeigt die strategische Relevanz eines Nachhaltigkeitsmanagements für das untersuchte Unternehmen und bietet somit einen Referenzpunkt für die Nachhaltigkeitsorientierung in IT-Organisationen. 1/12 54 In der Ausgangssituation werden die Struktur, die Aufgaben und die Ziele der IT-Organisation eingehend beschrieben. Der aufgezeigte Handlungsdruck verdeutlicht in diesem Zusammenhang die Auslöser und Motive, die dazu geführt haben, dass sich die IT-Organisation mit Themen zur ökologischen Nachhaltigkeit auseinandersetzt. Daraufhin wird die Umsetzung ökologischer Ansätze im Rahmen einer Green IT dargestellt. Dabei werden die Initianten, die Projektziele und die Maßnahmen vorgestellt, und das Umsetzungsvorgehen detailliert herausgearbeitet. Die Beschreibung erfolgt in Anlehnung an das Modell eines industrialisierten Informationsmanagements entlang der Bereiche: Governance, Beschaffung, Produktion und Vertrieb und Kommunikation (Zarnekow, R.; Brenner, W.; Pilgram, U. (2005): Integriertes Informationsmanagement: Strategien und Lösungen für das Management von IT-Dienstleistungen, Springer, Berlin). Hierbei werden wesentlichen Aspekte der Projektdurchführung sowie die von den Unternehmen als wesentlich erachteten Erfolgsfaktoren einer Green IT zusammengetragen. Abschließend beleuchtet der Abschnitt Erkenntnisse die zentralen Inhalte und die Besonderheiten der Fallstudie. Download der Studie unter www.ub.tuberlin.de/index.php?id=2804 PROF. DR. RÜDIGER ZARNEKOW, DIPL.ING. KORAY EREK Technische Universität Berlin, Fachgebiet Informations- und Kommunikationsmanagement Einstieg in Google Plus auf unterhaltsame Weise Das soziale Netzwerk Google Plus ist die Alternative für Internetnutzer, die eine funktionierende Alternative zum Platzhirsch Facebook suchen. Doch für Einsteiger sind die vielen Funktionen zunächst verwirrend. Einen fundierten und zugleich unterhaltsamen Zugang in die faszinierende Welt von Google Plus bietet nun Data Becker mit dem Ratgeber „Google Plus Entdecken. Verstehen. Mit Sicherheit richtig mitmischen.“ Das Buch stellt die wichtigsten Funktionen und Anwendungen des sozialen Netzwerks für private Anwender Schritt für Schritt aus der Einsteigerperspektive vor. Î SPLITTER Das DudenStilwörterbuch als App für iPhone und iPad Nachdem Duden und Paragon schon erfolgreich die Wörterbücher zur Rechtschreibung, zu Fremdwörtern und zu Synonymen als App anbieten, können die Nutzer von iPhone und iPad jetzt erstmals auch auf das DudenStilwörterbuch zugreifen. Î Leicht nachvollziehbare Anleitungen und ganz persönliche Tipps des Autors Ralf Wasselowski zeigen dem Leser, wie man ein Profil optimal einrichtet, Freunde findet und sich sinnvoll in Googles Kreisen organisiert. Nachdem die ersten Kreise gezogen sind, erfahren die Leser alles Wissenswerte über Gruppen, Anwendungen, Browser-Erweiterungen und die besten Onlinespiele. Die mobile Nutzung von Google Plus per Smartphone wird ebenso thematisiert wie die Verknüpfung mit den integrierten Google-Diensten rund ums E-Mailen, Suchen und Verwalten von Bildern. Zudem informiert Autor Wasselowski über alles Wissenswerte zum Teilen und Präsentieren von Fotos oder Videos sowie zur Kommunikation per Videochat. Wertvolle Hinweise zum Anlegen von Profil-Seiten für Unternehmen, Marken oder auch Hobbys runden den Ratgeber ab. Der Ratgeber „Google Plus - Entdecken. Verstehen. Mit Sicherheit richtig mitmischen.“ (ISBN: 978-3-8158-3729-0) von Ralf Wasselowski hat 224 Seiten und ist ab sofort für 12,95 Euro erhältlich. Ergänzungen zum Buch und Informationen über aktuelle Änderungen bei Google Plus erhalten Leser auf www.iknow.de/ iknow-staffel-2/iknow-google-plus.php in der Rubrik Updates. (PR) Damit haben die Apple-Nutzer den direkten Zugriff auf über 100.000 feststehende Wortverbindungen, Redensarten und Sprichwörter, die mit zahlreichen Beispielsätzen hinterlegt sind, welche die grammatisch einwandfreie Verknüpfung der Wörter verdeutlichen. Angaben zum Stil und zum Gebrauch helfen zusätzlich bei der Suche nach angemessenen Formulierungen. Damit können die Anwender sicher sein, dass sie die Wörter auch im jeweils richtigen Bedeutungskontext verwenden. Darüber hinaus ist das Duden-Stilwörterbuch wie alle Duden-Apps mit einer ganzen Reihe nützlicher Features ausgestattet, die von akustischen Ausspracheangaben bis zu verbesserten Browsingfunktionen reichen. Zusätzlich gibt es eine „Copy and Paste“- Funktion, neue Kontextmenüs für das Nachschlagen und die Aussprache von Wörtern sowie eine Suchfunktion für Anagramme und ähnliche Wörter. Bei der neuen Platzhaltersuche werden einfach die fehlenden Buchstaben durch die Platzhalter „?“ und „*“ ersetzt. Damit werden auch dann Einträge gefunden, wenn die exakte Schreibweise eines Wortes nicht bekannt ist. Das Duden-Stilwörterbuch ist eine unverzichtbare Hilfe, wenn es darum geht, kurz und treffend zu formulieren. Und das nicht nur für jene, die sich im Umgang mit der deutschen Sprache unsicher fühlen, sondern auch für die große Gruppe der professionellen Schreiber wie Übersetzer und Journalisten, die ihre Texte auf treffsichere Art abwechslungsreich gestalten wollen. Die mobile Version als App sorgt dabei für die notwendige Flexibilität, der es in der heutigen Berufswelt bedarf, um schnell und sicher reagieren zu können. Die Duden-Stilwörterbuch-App unterstützt das Apple-Betriebssystem für iPad und iPhone ab iOS 3.0 und ist zum Preis von 19,99 Euro erhältlich. Die Wörterbücher und Softwareprodukte des Dudenverlags zeigen das breite Spektrum der deutschen Gegenwartssprache und geben Sicherheit in allen sprachlichen Belangen. Seit Ende 2007 kooperiert der Dudenverlag mit der Paragon Software Group und stellt so seine Standardwerke auf Basis der SlovoEd-Technologie von Paragon zur Verfügung, die sich u. a. durch ihre anwenderorientierte Nutzeroberfläche auszeichnet. Die Paragon Software Group bietet Herstellern auch Lizenzen an, um Smartphones bereits ab Werk mit vorinstallierten Duden-Wör terbuch-Apps auszuliefern. (PR) Das Duden-Stilwörterbuch gibt es jetzt auch als App für das iPad 1/12 55 SPLITTER Vor 20 Jahren im SPLITTER Wenn sich Ihre Anschrift ändert, wenden Sie sich bitte an die Redaktion des SPLITTER, Telefon 030 / 90 222-3248 Betr.: Antrag „So könnte zukünftig der Antrag aussehen, der zur Bearbeitung eingereicht wird: Nr. 1 / 2012 Die nächste Ausgabe hat das Schwerpunktthema „Open Data“ und erscheint im Mai. Der Redaktionsschluss ist der 4. Mai 2012. Wir freuen uns immer über Gastbeiträge, vor allem, wenn sie direkt aus der Verwaltung kommen und Anwendungsbeispiele beschreiben. Mailen Sie uns einfach Ihre Texte, faxen Sie sie oder rufen Sie uns an: E-Mail: Telefon: Fax: [email protected] 030 / 90 222-3248 030 / 90 222-3112 Ihre SPLITTER-Redaktion Aktenzeichen, Datum und eventuell weitere Merkmale könnten in diesem Code verschlüsselt werden. Beim Eingang des Antrags müsste dann lediglich über eine geeignete Lesepistole der Code dem Computer bekanntgegeben werden. Die Zuordnung des Antrags zum zuständigen Bearbeiter und zu ventuell vorhandenen Vorgängen übernimmt dann das System. Die Akte wird aus dem Archiv von der optischen Platte zum Arbeitsplatz des Bearbeiters geleitet. Der Sachbearbeiter hat morgens beim Einschalten des Gerätes alle Informationen zur Verfügung und kann die erforderlichen Abstimmungen und Klärungen schnell beginnen. (...) Anwendungen des Barcodes haben auch in der Verwaltung Einzug gehalten: • Kartensystem der Deutschen Oper • Schriftgutarchivierung in Baden-Württemberg • automatisches Kassettenarchiv im LIT“ (EB) IMPRESSUM Herausgeber: IT-Dienstleistungszentrum Berlin, Berliner Straße 112-115, 1O713 Berlin Telefon: +49 3O 9O222-O, Fax: +49 3O 9O222-5864, V.i.S.d.P.: Konrad Kandziora Internet: www.itdz-berlin.de und im Intranet: www.itdz.verwalt-berlin.de Redaktion: Daniel Kämpfe: Pressestelle: Tel: O3O / 9O 222-3248, E-Mail: [email protected] Tel: O3O / 9O 222-6111, E-Mail: [email protected] Druck: IT-Dienstleistungszentrum Berlin, Xerox DocuColor 26O Laserdrucker, Auflage: 2.75O Gastautoren: Cécile Willems (Direktorin Vertrieb Öffentliche Hand, Cisco Deutschland), BDBOS, Andreas Sirtl und Claus-Dieter Spletter (LaStDF), Fraunhofer FOKUS, Hasso-Plattner-Institut, Dr. Michael Dörr (Gesundheitsamt Rhein-Kreis Neuss), Dr. Michael C. Albrecht (entera), BIANCON, Malz++Kassner GmbH, Jenny May, Christian Kühne (Leitender Systemberater, Oracle Deutschland B.V. & Co. KG), Prof. Dr. Rüdiger Zarnekow und Dipl.-Ing. Koray Erek (Technische Universität Berlin, Fachgebiet Informations- und Kommunikationsmanagement) (EB) kennzeichnet Berichte des ITDZ Berlin, (LPD) Mitteilungen des Landespressedienstes Berlin, (PR) sonstige Pressemitteilungen Fotonachweise: Titelfoto/ S. 4: Pixelio, Jörg Klemme, S. 5: Cisco, S. 6: Pixelio, xm318, S. 7: Wikimedia Commons, Gonzosft, cc-by-3.O, S. 8: Wikimedia Commons, Dirk Ingo Franke, cc-by-sa-3.O, S. 9: Pixelio und Fraunhofer FOKUS, S. 11: Hasso-Plattner-Institut, S. 13: Fotolia, Franz Pfluegl, S. 15: Ericsson, S. 16: oben: Institut für Informatik der HU Berlin, unten: InnoSenT GmbH, S. 17: oben: Wikimedia Commons, Richtom8O, cc-by, unten: Wikimedia Commons, Martin Morris, cc-by-sa-2.O, S. 18: beide: PR/ Bundesverband Telekommunikation, S. 19: oben: goBerlin, unten: ITDZ Berlin, S. 21: ADONIS/ ITDZ Berlin, S. 22: oben: GreenIT-BB, unten: Dörr, S. 23: Pixelio, Sassi, S. 25/26: alle: RuheSoft/ Albrecht, S. 27/28: alle: BIANCON GmbH, S. 29: Freedroidz/ tarent, S. 3O: Joscha Häring/ tarent, S. 31/32: beide: Oracle, S. 33: ITDZ Berlin, S. 34: Wikimedia Commons, Rochellesinger, cc-by-sa-2.5, S. 35: PR/ RAAD, S. 36: PR/ BITKOM, S. 37: OpenOffice.org, GNU Lesser GPL, S. 38: Wikimedia Commons, EpiDor, Free Art Licence, S. 39: PR/ Xamit, S. 41: Wikimedia Commons, W3C, cc-by-3.O, S. 43: alexandria.neofonie.de/ ITDZ, Berlin, S. 44: ITDZ Berlin, S. 45: PR/ BITKOM, S. 46: PR/ Krekeler, S. 47: PR/ WinRAR, S. 48/5O/51: PR/ Deutsche Messe Hannover, S. 52: PR/ U.Cimolino, O. Lang, FW Düsseldorf, S. 53: VITAKO, S. 54: TU Berlin, S. 55: oben: PR/ Data Becker, unten: PR/ Apple, S. 56: ITDZ Berlin 1/12 56