Zur Königsklasse des In-memory Computing - T

Transcrição

Zur Königsklasse des In-memory Computing - T
SZENE
In-memory Computing Conference 2012, Düsseldorf
Individuelle Strategien im Umgang mit Big Data
Zur Königsklasse des
In-memory Computing
E
gezielt für ihre Anforderungen nutzen
können. Da es unzählige Möglichkeiten
gibt – von der reinen Datenbereitstellung
für Steuerungszwecke bis zur Entwicklung komplett neuer Wertschöpfungsketten – muss die System- und Prozesslandschaft des Kunden genau unter die
Lupe genommen werden. Auf Basis dieser Ergebnisse wird abschließend für jedes Unternehmen ein individuelles Realisierungskonzept entwickelt.
©
E3
chtzeit-Analytik, optimierte Planung und Simulation, Monitoring,
Ende-zu-Ende-Sichten, neue Geschäftsprozesse,
Vereinfachung
komplexer IT-Landschaften und des
Datenmanagements – die Liste der Vorteile von In-memory Computing ist lang.
Fest steht, dass der Einsatz der neuen
Datenbank-Technologie die IT-Betriebskosten spürbar senkt, die Wertschöpfungsprozesse deutlich verbessert und
die Performanz nachhaltig steigert.
Unternehmen erhalten übergreifend
transparente Informationen, mit denen
sie schnell und flexibel agieren und ihre
Wettbewerbsfähigkeit verbessern können. „Unsere Erfahrung hat gezeigt, dass
ein systematischer und auf die individuellen Bedürfnisse zugeschnittener Plan
für einen erfolgreichen Einstieg in die Inmemory-Technologie entscheidend ist.
Eine ausführliche Beratung im Vorfeld ist
also sinnvoll“, erläutert Ulrich Meister,
Mitglied der Geschäftsführung von TSystems und Leiter Systems Integration
(SI). „Bei der Auswahl eines Systempartners für HANA Projekte sollten Kunden
zudem auf einen Anbieter mit umfassendem Prozess-, SAP- und TechnologieKnow-how setzen, um dies anschließend
gewinnbringend in der eigenen Systemlandschaft einsetzen zu können.“ Im Ergebnis sollte der Kunde den Reifegrad
seiner Architektur sowie seiner operationalen und analytischen Systeme kennen.
Dazu bietet sich ein sogenanntes In-memory Assessment an. Dabei werden zunächst die Systeme eines Kunden analysiert und die individuellen Potenziale
ermittelt. Auf dieser Basis entsteht eine
In-memory Roadmap mit Handlungsempfehlungen für die Umsetzung und
den laufenden Betrieb. Alternativ oder
ergänzend zum In-memory Assessment
sollten Kunden eine individuelle Beratung erfahren, wie sie die neue Technik
44
Individuelle Wege zur
Implementierung
Ein Weg, wie eine solche In-memory-Architektur implementiert werden
kann, sind Upgrade-, Harmonisierungsund Konsolidierungsszenarien sowie die
Vereinfachung komplexer Data-Warehouse-Architekturen wie beispielsweise
T-Systems sie für ihre Kunden verfolgt.
Hierbei ist umfassende Erfahrung als
© Sashkin, MrGarry, Shutterstock.com
20
12
Weltweit verdoppelt sich die Datenmenge alle 18
Monate – auch in Unternehmen. Gerade Global
Player haben häufig unterschiedliche ERP- und
BI-Systeme im Einsatz. Es fehlt eine konsolidierte
Datenbasis. Big Data heißt die Herausforderung,
In-memory Computing die Lösung. Doch
Unternehmen benötigen eine individuelle Strategie,
um das Potenzial erschließen zu können.
Systemintegrator notwendig – nicht zuletzt, um die In-memory-Technologien
nahtlos in die bestehende System- und
Prozesslandschaft einzufügen. Die Erfahrung zeigt, dass die Unternehmen nicht
nur eine technisch saubere und einwandfrei laufende Lösung erwarten – eine
schnelle Amortisierung der Investitionen
ist ebenso wichtig. T-Systems arbeitet
dazu beispielsweise mit den HANA Rapid Deployment Solutions (RDS). Das
sind Leistungspakete, die HANA-Standardlösungen mit dem Know-how und
den Best-Practice-Erfahrungen der Telekom Großkundentochter kombinieren.
Um die Möglichkeiten dieser Technologie voll ausschöpfen zu können, ist
die mobile Nutzung der neuen Datenbank-Technologie fast ein Muss. T-Systems hat hierzu ein Controlling System
in Verbindung mit dem Spend Analysis
Cockpit – zunächst für das Geschäftsfeld Einkauf – entwickelt (siehe Projekt-
HANA Ramp-up-Projekt der Deutschen Telekom auf der In-memory Computing
Conference am 4. und 5. Juni 2012 in Düsseldorf:
„Bericht aus erster Hand: SAP HANA Ramp-up für die Deutsche Telekom“
Montag, 4. Juni 2012, 15.20 – 16.00 Uhr
Dirk Hampel, Procurement Operations, Deutsche Telekom AG
Keynote: „Master of Big Data – Terabyte in der Jackentasche“ – Lösungen und
Innovationen
Montag, 4. Juni 2012, 11.00 – 11.30 Uhr
Ulrich Meister, Geschäftsführer T-Systems und Leiter Systems Integration
Podiumsdiskussionen: „In-memory Datamanagement und Realtime Enterprise“
Montag, 4. Juni 2012, 10.30 – 11.00 Uhr und 17.00 bis 18.30 Uhr
u.a. mit dem Keynote-Sprecher Ulrich Meister, Geschäftsführer von T-Systems
und Dr. Uwe Heckert, Senior Vice President T-Systems
Breakout Session: In-memory Hardware und HANA-Datenbanktechnik
Dienstag, 5. Juni 2012, 14.30 – 15.00 Uhr
Wolfgang Schaber, Lead Architect for Dynamic Services, T-Systems
E-3 JUNI 2012
In-memory Computing Conference 2012, Düsseldorf
Neue Geschäftsprozesse
möglich
„Mit einer optimal angepassten HANA-Architektur erreicht der Kunde die
Königsklasse des In-memory Computing.
Denn die übergreifende Transparenz der
Wertschöpfungsprozesse versetzt ihn in
die Lage, schneller zu werden und seine
Ressourcen wirksamer zu nutzen“, unterstreicht Ulrich Meister. Damit könne
sich das Unternehmen besser am Markt
positionieren. Als Beispiele nennt er die
Ende-zu-Ende-Prozesse Procure-to-Pay
und Order-to-Cash. Ist der erste Schritt
getan, beginnt der Ausbau der HANALösung entsprechend der Roadmap und
» Mit einer optimal an-
gepassten HANA-Architektur erreicht der Kunde die
Königsklasse des In-memory
Computing.
«
20
12
bericht). Diese Reportinglösung ermöglicht es Nutzern, auf die gewünschten
Daten über den Webbrowser vom PC
aus oder über eine VPN-Verbindung von
einem Mobile Device aus zuzugreifen.
Damit können beispielsweise Einkäufer
auch unterwegs auf aktuelle Geschäftsentwicklungen reagieren oder kurzfristig
Skontierungs- und Rabattpotenziale bei
Kunden umsetzen.
SZENE
Ulrich Meister, Mitglied der Geschäftsführung von T-Systems und Leiter Systems Integration.
basierend auf den geschäftlichen Anforderungen. Das zieht in der Regel die Einführung neuer Geschäftsprozesse nach
sich. Damit wird der maximale Nutzen
aus HANA generiert. Unter Kostengesichtspunkten denken die Unternehmensverantwortlichen zudem immer
häufiger daran, die In-memory-Lösung
über eine private Cloud zu realisieren.
Ein wesentliches Thema ist dabei die Si-
cherheit, schließlich handelt es sich um
geschäftskritische und sensible Daten.
Es bedarf also auch hier eines Anbieters,
der die entsprechenden Standorte für
die Rechenzentren zur Verfügung stellt
und die notwendigen Zertifikate für die
Sicherheitsanforderungen
vorweisen
kann.
www.t-systems.de
E3
Auf die richtige Mischung
kommt es an
HANA ist erst kurz am Markt und schon zum Synonym
für einen IT-Paradigmenwechsel geworden. Weltweit ist
T-Systems einer von wenigen HANA-Systemintegratoren
und Ramp-up-Partnern von SAP. Wichtige Erfahrungen für
die Ära der Echtzeit-Datenanalysen sammelt T-Systems im
eigenen Konzern: HANA-Produktivtests laufen im globalen
Einkauf der Deutschen Telekom.
V
©
or dem HANA Ramp-up war die
Business-Intelligence-Systemlandschaft bei der Deutschen
Telekom sehr komplex: Mehrere
Data Warehouses hielten Informationen vor, eine konsolidierte Datenbasis
fehlte jedoch. Daraus können Compliance- und Governance-Risiken erwachsen.
Zugleich behinderte die verteilte Datenmenge die Performanz der Systeme und
trieb die Kosten in die Höhe, da für jedes
Data-Warehouse-System Hosting, Application Management und mehrfache
Personalkosten anfielen. Weitere Mittel
verschlangen das komplexe Schnittstellen-Management und inkonsistente
Daten. Zudem war ein unternehmensweiter IT-Support nicht möglich. Daraus
ergaben sich die Ziele, den globalen Einkauf bei der Telekom zu optimieren und
Best-in-Class-Einkaufsprozesse über 22
E-3 JUNI 2012
© marco mayer, Shutterstock.com
Gesellschaften weltweit hinweg zu implementieren, um so einen nachhaltigen
Beitrag zur Kostensenkung zu leisten.
Daher startete die Deutsche Telekom in
enger Zusammenarbeit mit T-Systems
und SAP einen HANA-Ramp-up. Schnell
war klar: Wer HANA als In-memoryDatenbank verwenden möchte, sollte
dies mit einem Nearline-Storage-Ansatz
kombinieren. Damit ist das Potenzial der
neuen In-memory-Technologie nutzbar,
und die Lösung auf die Investition der Inmemory-Lizenzen hin optimiert.
„Spend Analysis Cockpit“
In enger Zusammenarbeit wurden
bereits ab 2009 die verschiedenen Business-Intelligence-Lösungen im Einkauf
der Telekom-Konzerngesellschaften harmonisiert. Der Ramp-up für HANA er-
folgte auf Basis der zentralen Plattform
Global Procurement BI (GPBI). Diese
Plattform läuft auf der Layered Scalable
Architecture (LSA) für Enterprise Data
Warehouse von SAP. Im Rahmen des aktuellen Ramp-up wurde der Einsatz von
HANA in Verbindung mit dem Spend
Analysis Cockpit von T-Systems getestet.
Diese Reportinglösung, die auch mobil
genutzt werden kann, wurde zunächst
auf Basis der ersten Generation der Inmemory-Technik von SAP, des Business
Warehouse Accelerators, eingesetzt. Sie
ermöglicht es den strategischen Entscheidern und Mitarbeitern im operativen Einkauf, Massendaten in Minuten
oder sogar Sekunden auszuwerten. Mit
der Einführung von HANA (kombiniert
mit BW 7.3 und BI 4.0) als Datenbankersatz für das Global Procurement BI will
die Telekom das Potenzial der neuen In- ▶
45
SZENE
In-memory Computing Conference 2012, Düsseldorf
▶ memory-Technologie weiter ausschöpfen und noch mehr Synergien aus der
Verbindung von In-memory Computing
und Mobile Enterprise fördern.
Die Ramp-up-Tests bestätigten, dass
die Auswertungen im Telekom-Einkauf
mit HANA um ein Vielfaches beschleunigt werden – und dies bei gleicher
Hardware-Ausstattung wie das Referenzsystem, das auf einer normalen OracleDatenbank basiert. „Zudem ist die Flexibilität im Reporting enorm gestiegen, da
alle datenführenden Objekte im Business
Warehouse komplett nutzbar und auswertbar sind“, betont Projektleiter Dirk
Hampel, Program Manager im Bereich
Procurement Operations der Deutschen
Telekom. Von großem finanziellem Vorteil für den Kunden erwies sich auch der
Matthias Zuschlag leitet den Ramp-up bei T-Systems.
Ansatz von T-Systems, HANA mit einer
Nearline-Storage-Lösung (NLS) zu verknüpfen. Dabei handelt es sich um ein
Online-Archiv, das auf neuester Technologie beruht und mit HANA über eine
Standard-NLS-Schnittstelle verbunden
ist. „Eine Nearline-Storage-Lösung komprimiert die Daten um den Faktor 10“,
erläutert Matthias Zuschlag, der den
Ramp-up bei T-Systems leitet und den
Kunden mit seinem Horizontal-FutureMarket-Team (HFM) betreut. „Sie bietet
sich damit als kostengünstige Möglich-
E3
Ramp-up live auf der In-memory
Computing Conference:
Wer die Ergebnisse des Ramp-up und
weiterer HANA-Praxisprojekte live
erleben möchte, hat auf der In-memory Computing Conference (www.
in-memory.cc) am 4. und 5. Juni 2012
in Düsseldorf die Gelegenheit, sich
darüber zu informieren und mit den
T-Systems Experten in den Dialog zu
treten.
20
12
Flexibilität im Reporting
enorm gestiegen
Realtech stellt Beratungspaket für einen
zielgerichteten Einsatz von HANA vor
©
Das SAP-Beratungshaus und Hersteller von Softwareprodukten für
unternehmensweites IT-Management,
Realtech, hat ein neues Beratungspaket für den zielgerichteten Einsatz von
HANA entwickelt. Das Angebot In-memory Computing mit HANA richtet sich
an Entscheider aus dem IT-Management, die sich über die Möglichkeiten
und Vorteile dieser Lösung, bezogen
auf ihr individuelles Einsatzszenario, informieren möchten. Stetig wachsenden
Datenmengen stehen immer kürzere
Entscheidungshorizonte
gegenüber.
SAP bietet nun mit HANA eine revolutionäre Lösung auf Basis von In-memory-Technologie an, die es ermöglicht
große Datenmengen in kürzester Zeit
analysieren zu können. Die Einsatzmöglichkeiten reichen von der ERP-Prozessunterstützung, beispielsweise Verkaufsplanung, bis hin zur Nutzung als
Datenbankmanagementsystem in BW
7.3. Ziel des Realtech-Beratungspakets
In-memory Computing mit HANA ist
es, eine objektive und an den Zielen des
jeweiligen Unternehmens ausgerichtete
Analyse potenzieller Einsatzmöglichkeiten und ein Maßnahmenkatalog für
46
die Einführung von HANA zu erhalten.
Kunden erhalten zudem einen Überblick über die aktuelle Marktsituation,
Releaseplanung der SAP und Roadmap
zu HANA. Best Practices und TCO-Reduktionspotenziale für und mit dem
Einsatz von HANA werden ebenso betrachtet wie Migrationsvoraussetzungen und -mechanismen. Weitere Themen können nach Absprache und nach
Bedarf einbezogen werden.
Als Premiumanbieter für Technologieberatung und Special Expertise
Partner der SAP steht Realtech für hohe
Kompetenz und Fokussierung auf den
Kundennutzen. Realtech ist mit einem
Ausstellungsstand auf der ersten Inmemory Computing Conference, vom
4. bis 5. Juni in Düsseldorf vertreten.
Realtech-CEO Dr. Rudolf Caspary wird
zu diesem Thema an einer Podiumsdiskussion und einem Gespräch unter
anderem mit SAP-Vorstand Gerhard
Oswald am ersten Konferenztag teilnehmen.
www.realtech.de/sap-hana
www.in-memory.cc
keit für die Speicherung von Informationen an, die nicht täglich für Reports,
Planungen, Simulationen und Ende-zuEnde-Sichten auf die Geschäftsprozesse
benötigt werden.“ So empfiehlt T-Systems, alle Daten, die älter als zwei Jahre
sind, in ein Nearline-Storage-System zu
überführen. Damit können kostspielige
Lizenzgebühren für HANA gespart und
bei Bedarf dennoch schnelle Reports
generiert werden. Denn die Auswertegeschwindigkeit einer Nearline-StorageLösung ist nur um den Faktor 4 geringer
als die schnelle HANA-Applikation. Um
den Kunden die Simulation möglicher
Kombinationen aus HANA und Nearline
Storage zu erleichtern, entwickeln die TSystems Experten derzeit eine App für
einen Online-Kalkulator, mit dem sich
die jeweiligen Softwarelizenz- und Hardwarekosten errechnen lassen.
Aus Erfahrungen lernen
Die Ramp-up-Tests zeigten aber
auch, dass es noch Verbesserungsmöglichkeiten beim Einsatz von HANA gibt,
die die Telekom und T-Systems in enger
Zusammenarbeit mit SAP in den kommenden Monaten umsetzen werden.
„Wir sind eines der ersten Unternehmen,
das HANA als produktive Anwendung
mit Echtdaten und unter realistischen Logikbedingungen getestet hat“, beschreibt
Uwe Franzen, Leiter Business Partner &
Solution Design Procurement, die Vorreiterrolle der Telekom. Und Matthias
Zuschlag, sein fachliches Gegenüber bei
T-Systems, fügt hinzu: „Durch den Rampup konnten wir viele wichtige Erfahrungen
gewinnen und unser HANA-Know-how
enorm ausbauen. Bereits heute sind wir
in der Lage, bei Kunden eine sehr große
Produktivumgebung aus HANA und Nearline Storage aufzubauen, mit der das
Potenzial der Echtzeit-Datenanalytik optimal ausgenutzt werden kann.“
www.telekom.com
E-3 JUNI 2012

Documentos relacionados