Zur Königsklasse des In-memory Computing - T
Transcrição
Zur Königsklasse des In-memory Computing - T
SZENE In-memory Computing Conference 2012, Düsseldorf Individuelle Strategien im Umgang mit Big Data Zur Königsklasse des In-memory Computing E gezielt für ihre Anforderungen nutzen können. Da es unzählige Möglichkeiten gibt – von der reinen Datenbereitstellung für Steuerungszwecke bis zur Entwicklung komplett neuer Wertschöpfungsketten – muss die System- und Prozesslandschaft des Kunden genau unter die Lupe genommen werden. Auf Basis dieser Ergebnisse wird abschließend für jedes Unternehmen ein individuelles Realisierungskonzept entwickelt. © E3 chtzeit-Analytik, optimierte Planung und Simulation, Monitoring, Ende-zu-Ende-Sichten, neue Geschäftsprozesse, Vereinfachung komplexer IT-Landschaften und des Datenmanagements – die Liste der Vorteile von In-memory Computing ist lang. Fest steht, dass der Einsatz der neuen Datenbank-Technologie die IT-Betriebskosten spürbar senkt, die Wertschöpfungsprozesse deutlich verbessert und die Performanz nachhaltig steigert. Unternehmen erhalten übergreifend transparente Informationen, mit denen sie schnell und flexibel agieren und ihre Wettbewerbsfähigkeit verbessern können. „Unsere Erfahrung hat gezeigt, dass ein systematischer und auf die individuellen Bedürfnisse zugeschnittener Plan für einen erfolgreichen Einstieg in die Inmemory-Technologie entscheidend ist. Eine ausführliche Beratung im Vorfeld ist also sinnvoll“, erläutert Ulrich Meister, Mitglied der Geschäftsführung von TSystems und Leiter Systems Integration (SI). „Bei der Auswahl eines Systempartners für HANA Projekte sollten Kunden zudem auf einen Anbieter mit umfassendem Prozess-, SAP- und TechnologieKnow-how setzen, um dies anschließend gewinnbringend in der eigenen Systemlandschaft einsetzen zu können.“ Im Ergebnis sollte der Kunde den Reifegrad seiner Architektur sowie seiner operationalen und analytischen Systeme kennen. Dazu bietet sich ein sogenanntes In-memory Assessment an. Dabei werden zunächst die Systeme eines Kunden analysiert und die individuellen Potenziale ermittelt. Auf dieser Basis entsteht eine In-memory Roadmap mit Handlungsempfehlungen für die Umsetzung und den laufenden Betrieb. Alternativ oder ergänzend zum In-memory Assessment sollten Kunden eine individuelle Beratung erfahren, wie sie die neue Technik 44 Individuelle Wege zur Implementierung Ein Weg, wie eine solche In-memory-Architektur implementiert werden kann, sind Upgrade-, Harmonisierungsund Konsolidierungsszenarien sowie die Vereinfachung komplexer Data-Warehouse-Architekturen wie beispielsweise T-Systems sie für ihre Kunden verfolgt. Hierbei ist umfassende Erfahrung als © Sashkin, MrGarry, Shutterstock.com 20 12 Weltweit verdoppelt sich die Datenmenge alle 18 Monate – auch in Unternehmen. Gerade Global Player haben häufig unterschiedliche ERP- und BI-Systeme im Einsatz. Es fehlt eine konsolidierte Datenbasis. Big Data heißt die Herausforderung, In-memory Computing die Lösung. Doch Unternehmen benötigen eine individuelle Strategie, um das Potenzial erschließen zu können. Systemintegrator notwendig – nicht zuletzt, um die In-memory-Technologien nahtlos in die bestehende System- und Prozesslandschaft einzufügen. Die Erfahrung zeigt, dass die Unternehmen nicht nur eine technisch saubere und einwandfrei laufende Lösung erwarten – eine schnelle Amortisierung der Investitionen ist ebenso wichtig. T-Systems arbeitet dazu beispielsweise mit den HANA Rapid Deployment Solutions (RDS). Das sind Leistungspakete, die HANA-Standardlösungen mit dem Know-how und den Best-Practice-Erfahrungen der Telekom Großkundentochter kombinieren. Um die Möglichkeiten dieser Technologie voll ausschöpfen zu können, ist die mobile Nutzung der neuen Datenbank-Technologie fast ein Muss. T-Systems hat hierzu ein Controlling System in Verbindung mit dem Spend Analysis Cockpit – zunächst für das Geschäftsfeld Einkauf – entwickelt (siehe Projekt- HANA Ramp-up-Projekt der Deutschen Telekom auf der In-memory Computing Conference am 4. und 5. Juni 2012 in Düsseldorf: „Bericht aus erster Hand: SAP HANA Ramp-up für die Deutsche Telekom“ Montag, 4. Juni 2012, 15.20 – 16.00 Uhr Dirk Hampel, Procurement Operations, Deutsche Telekom AG Keynote: „Master of Big Data – Terabyte in der Jackentasche“ – Lösungen und Innovationen Montag, 4. Juni 2012, 11.00 – 11.30 Uhr Ulrich Meister, Geschäftsführer T-Systems und Leiter Systems Integration Podiumsdiskussionen: „In-memory Datamanagement und Realtime Enterprise“ Montag, 4. Juni 2012, 10.30 – 11.00 Uhr und 17.00 bis 18.30 Uhr u.a. mit dem Keynote-Sprecher Ulrich Meister, Geschäftsführer von T-Systems und Dr. Uwe Heckert, Senior Vice President T-Systems Breakout Session: In-memory Hardware und HANA-Datenbanktechnik Dienstag, 5. Juni 2012, 14.30 – 15.00 Uhr Wolfgang Schaber, Lead Architect for Dynamic Services, T-Systems E-3 JUNI 2012 In-memory Computing Conference 2012, Düsseldorf Neue Geschäftsprozesse möglich „Mit einer optimal angepassten HANA-Architektur erreicht der Kunde die Königsklasse des In-memory Computing. Denn die übergreifende Transparenz der Wertschöpfungsprozesse versetzt ihn in die Lage, schneller zu werden und seine Ressourcen wirksamer zu nutzen“, unterstreicht Ulrich Meister. Damit könne sich das Unternehmen besser am Markt positionieren. Als Beispiele nennt er die Ende-zu-Ende-Prozesse Procure-to-Pay und Order-to-Cash. Ist der erste Schritt getan, beginnt der Ausbau der HANALösung entsprechend der Roadmap und » Mit einer optimal an- gepassten HANA-Architektur erreicht der Kunde die Königsklasse des In-memory Computing. « 20 12 bericht). Diese Reportinglösung ermöglicht es Nutzern, auf die gewünschten Daten über den Webbrowser vom PC aus oder über eine VPN-Verbindung von einem Mobile Device aus zuzugreifen. Damit können beispielsweise Einkäufer auch unterwegs auf aktuelle Geschäftsentwicklungen reagieren oder kurzfristig Skontierungs- und Rabattpotenziale bei Kunden umsetzen. SZENE Ulrich Meister, Mitglied der Geschäftsführung von T-Systems und Leiter Systems Integration. basierend auf den geschäftlichen Anforderungen. Das zieht in der Regel die Einführung neuer Geschäftsprozesse nach sich. Damit wird der maximale Nutzen aus HANA generiert. Unter Kostengesichtspunkten denken die Unternehmensverantwortlichen zudem immer häufiger daran, die In-memory-Lösung über eine private Cloud zu realisieren. Ein wesentliches Thema ist dabei die Si- cherheit, schließlich handelt es sich um geschäftskritische und sensible Daten. Es bedarf also auch hier eines Anbieters, der die entsprechenden Standorte für die Rechenzentren zur Verfügung stellt und die notwendigen Zertifikate für die Sicherheitsanforderungen vorweisen kann. www.t-systems.de E3 Auf die richtige Mischung kommt es an HANA ist erst kurz am Markt und schon zum Synonym für einen IT-Paradigmenwechsel geworden. Weltweit ist T-Systems einer von wenigen HANA-Systemintegratoren und Ramp-up-Partnern von SAP. Wichtige Erfahrungen für die Ära der Echtzeit-Datenanalysen sammelt T-Systems im eigenen Konzern: HANA-Produktivtests laufen im globalen Einkauf der Deutschen Telekom. V © or dem HANA Ramp-up war die Business-Intelligence-Systemlandschaft bei der Deutschen Telekom sehr komplex: Mehrere Data Warehouses hielten Informationen vor, eine konsolidierte Datenbasis fehlte jedoch. Daraus können Compliance- und Governance-Risiken erwachsen. Zugleich behinderte die verteilte Datenmenge die Performanz der Systeme und trieb die Kosten in die Höhe, da für jedes Data-Warehouse-System Hosting, Application Management und mehrfache Personalkosten anfielen. Weitere Mittel verschlangen das komplexe Schnittstellen-Management und inkonsistente Daten. Zudem war ein unternehmensweiter IT-Support nicht möglich. Daraus ergaben sich die Ziele, den globalen Einkauf bei der Telekom zu optimieren und Best-in-Class-Einkaufsprozesse über 22 E-3 JUNI 2012 © marco mayer, Shutterstock.com Gesellschaften weltweit hinweg zu implementieren, um so einen nachhaltigen Beitrag zur Kostensenkung zu leisten. Daher startete die Deutsche Telekom in enger Zusammenarbeit mit T-Systems und SAP einen HANA-Ramp-up. Schnell war klar: Wer HANA als In-memoryDatenbank verwenden möchte, sollte dies mit einem Nearline-Storage-Ansatz kombinieren. Damit ist das Potenzial der neuen In-memory-Technologie nutzbar, und die Lösung auf die Investition der Inmemory-Lizenzen hin optimiert. „Spend Analysis Cockpit“ In enger Zusammenarbeit wurden bereits ab 2009 die verschiedenen Business-Intelligence-Lösungen im Einkauf der Telekom-Konzerngesellschaften harmonisiert. Der Ramp-up für HANA er- folgte auf Basis der zentralen Plattform Global Procurement BI (GPBI). Diese Plattform läuft auf der Layered Scalable Architecture (LSA) für Enterprise Data Warehouse von SAP. Im Rahmen des aktuellen Ramp-up wurde der Einsatz von HANA in Verbindung mit dem Spend Analysis Cockpit von T-Systems getestet. Diese Reportinglösung, die auch mobil genutzt werden kann, wurde zunächst auf Basis der ersten Generation der Inmemory-Technik von SAP, des Business Warehouse Accelerators, eingesetzt. Sie ermöglicht es den strategischen Entscheidern und Mitarbeitern im operativen Einkauf, Massendaten in Minuten oder sogar Sekunden auszuwerten. Mit der Einführung von HANA (kombiniert mit BW 7.3 und BI 4.0) als Datenbankersatz für das Global Procurement BI will die Telekom das Potenzial der neuen In- ▶ 45 SZENE In-memory Computing Conference 2012, Düsseldorf ▶ memory-Technologie weiter ausschöpfen und noch mehr Synergien aus der Verbindung von In-memory Computing und Mobile Enterprise fördern. Die Ramp-up-Tests bestätigten, dass die Auswertungen im Telekom-Einkauf mit HANA um ein Vielfaches beschleunigt werden – und dies bei gleicher Hardware-Ausstattung wie das Referenzsystem, das auf einer normalen OracleDatenbank basiert. „Zudem ist die Flexibilität im Reporting enorm gestiegen, da alle datenführenden Objekte im Business Warehouse komplett nutzbar und auswertbar sind“, betont Projektleiter Dirk Hampel, Program Manager im Bereich Procurement Operations der Deutschen Telekom. Von großem finanziellem Vorteil für den Kunden erwies sich auch der Matthias Zuschlag leitet den Ramp-up bei T-Systems. Ansatz von T-Systems, HANA mit einer Nearline-Storage-Lösung (NLS) zu verknüpfen. Dabei handelt es sich um ein Online-Archiv, das auf neuester Technologie beruht und mit HANA über eine Standard-NLS-Schnittstelle verbunden ist. „Eine Nearline-Storage-Lösung komprimiert die Daten um den Faktor 10“, erläutert Matthias Zuschlag, der den Ramp-up bei T-Systems leitet und den Kunden mit seinem Horizontal-FutureMarket-Team (HFM) betreut. „Sie bietet sich damit als kostengünstige Möglich- E3 Ramp-up live auf der In-memory Computing Conference: Wer die Ergebnisse des Ramp-up und weiterer HANA-Praxisprojekte live erleben möchte, hat auf der In-memory Computing Conference (www. in-memory.cc) am 4. und 5. Juni 2012 in Düsseldorf die Gelegenheit, sich darüber zu informieren und mit den T-Systems Experten in den Dialog zu treten. 20 12 Flexibilität im Reporting enorm gestiegen Realtech stellt Beratungspaket für einen zielgerichteten Einsatz von HANA vor © Das SAP-Beratungshaus und Hersteller von Softwareprodukten für unternehmensweites IT-Management, Realtech, hat ein neues Beratungspaket für den zielgerichteten Einsatz von HANA entwickelt. Das Angebot In-memory Computing mit HANA richtet sich an Entscheider aus dem IT-Management, die sich über die Möglichkeiten und Vorteile dieser Lösung, bezogen auf ihr individuelles Einsatzszenario, informieren möchten. Stetig wachsenden Datenmengen stehen immer kürzere Entscheidungshorizonte gegenüber. SAP bietet nun mit HANA eine revolutionäre Lösung auf Basis von In-memory-Technologie an, die es ermöglicht große Datenmengen in kürzester Zeit analysieren zu können. Die Einsatzmöglichkeiten reichen von der ERP-Prozessunterstützung, beispielsweise Verkaufsplanung, bis hin zur Nutzung als Datenbankmanagementsystem in BW 7.3. Ziel des Realtech-Beratungspakets In-memory Computing mit HANA ist es, eine objektive und an den Zielen des jeweiligen Unternehmens ausgerichtete Analyse potenzieller Einsatzmöglichkeiten und ein Maßnahmenkatalog für 46 die Einführung von HANA zu erhalten. Kunden erhalten zudem einen Überblick über die aktuelle Marktsituation, Releaseplanung der SAP und Roadmap zu HANA. Best Practices und TCO-Reduktionspotenziale für und mit dem Einsatz von HANA werden ebenso betrachtet wie Migrationsvoraussetzungen und -mechanismen. Weitere Themen können nach Absprache und nach Bedarf einbezogen werden. Als Premiumanbieter für Technologieberatung und Special Expertise Partner der SAP steht Realtech für hohe Kompetenz und Fokussierung auf den Kundennutzen. Realtech ist mit einem Ausstellungsstand auf der ersten Inmemory Computing Conference, vom 4. bis 5. Juni in Düsseldorf vertreten. Realtech-CEO Dr. Rudolf Caspary wird zu diesem Thema an einer Podiumsdiskussion und einem Gespräch unter anderem mit SAP-Vorstand Gerhard Oswald am ersten Konferenztag teilnehmen. www.realtech.de/sap-hana www.in-memory.cc keit für die Speicherung von Informationen an, die nicht täglich für Reports, Planungen, Simulationen und Ende-zuEnde-Sichten auf die Geschäftsprozesse benötigt werden.“ So empfiehlt T-Systems, alle Daten, die älter als zwei Jahre sind, in ein Nearline-Storage-System zu überführen. Damit können kostspielige Lizenzgebühren für HANA gespart und bei Bedarf dennoch schnelle Reports generiert werden. Denn die Auswertegeschwindigkeit einer Nearline-StorageLösung ist nur um den Faktor 4 geringer als die schnelle HANA-Applikation. Um den Kunden die Simulation möglicher Kombinationen aus HANA und Nearline Storage zu erleichtern, entwickeln die TSystems Experten derzeit eine App für einen Online-Kalkulator, mit dem sich die jeweiligen Softwarelizenz- und Hardwarekosten errechnen lassen. Aus Erfahrungen lernen Die Ramp-up-Tests zeigten aber auch, dass es noch Verbesserungsmöglichkeiten beim Einsatz von HANA gibt, die die Telekom und T-Systems in enger Zusammenarbeit mit SAP in den kommenden Monaten umsetzen werden. „Wir sind eines der ersten Unternehmen, das HANA als produktive Anwendung mit Echtdaten und unter realistischen Logikbedingungen getestet hat“, beschreibt Uwe Franzen, Leiter Business Partner & Solution Design Procurement, die Vorreiterrolle der Telekom. Und Matthias Zuschlag, sein fachliches Gegenüber bei T-Systems, fügt hinzu: „Durch den Rampup konnten wir viele wichtige Erfahrungen gewinnen und unser HANA-Know-how enorm ausbauen. Bereits heute sind wir in der Lage, bei Kunden eine sehr große Produktivumgebung aus HANA und Nearline Storage aufzubauen, mit der das Potenzial der Echtzeit-Datenanalytik optimal ausgenutzt werden kann.“ www.telekom.com E-3 JUNI 2012