Bretzke: IT-Systeme im Supply Chain Management

Transcrição

Bretzke: IT-Systeme im Supply Chain Management
IT-Systeme im Supply Chain Management
(White Paper und Unterrichtsmaterial; Stand: Juni 2006)
Von Prof. Dr. Wolf-Rüdiger Bretzke
Zielsetzung
Informations- und Kommunikationstechnik ist ein Schlüsselfaktor für ein erfolgreiches
Supply Chain Management. Moderne Techniken wie das Internet oder RFID (Radio
Frequency Identification) ermöglichen im Prinzip eine mehrere Wertschöpfungstufen
übergreifende Koordination von Geschäftsprozessen auf allen Managementebenen
sowie eine Kontrolle logistischer Prozesse in Echtzeit. Die Technik allein löst freilich
kein einziges Problem. Man muss die durch diese Werkzeuge erschlossenen neuen
Geschäftsprozesse kennen, die sich mit dem Begriff „Supply Chain Management“
verbinden, und man muss die Anwendungsvoraussetzungen sowie gegebenenfalls
noch bestehende Umsetzungsbarrieren kennen, um durch den Einsatz moderne Softund Hardwarelösungen den eigenen Unternehmenserfolg nachhaltig zu steigern.
Die folgenden Kapitel schildern das Basiskonzept des Supply Chain Management,
beschreiben die wichtigsten Teilkonzepte und zugehörigen Tools, identifizieren die
jeweiligen Erfolgsbeiträge und Anwendungsvoraussetzungen und erklären beispielhaft
das Zusammenwirken von Unternehmensorganisation und Informations- und
Kommunikationstechnologie. Dabei wird ausdrücklich auf die zu lösenden
Koordinationsprobleme Bezug genommen, die sich aus der verstärkten weltweiten
Arbeits- und Standortteilung, einer rasant ansteigenden Variantenvielfalt, verkürzten
Produktlebenszyklen und hohen Serviceerwartungen von Kunden ergeben.
Die Leser werden so befähigt, den Nutzen von Supply Chain Management zu
erkennen, die Rolle der IT in diesem Kontext zu verstehen und zu begreifen, wie man
entsprechende Konzepte und Instrumente erfolgreich implementiert.
1
Inhaltsverzeichnis
1 Die Rolle der IT im Supply Chain Management
1.1
Ziele des Kapitels
1.2
Ziele und Aufgabenstellungen des Supply Chain Management
1.3
Der Beitrag von IT zur Verwirklichung von Supply Chain Management
2 Implementierungsansätze für IT-basierte SCM-Konzepte
2.1 Ziele des Kapitels
2.2 IT-relevante Ebenen des Supply Chain Management
2.3 IT-Lösungen auf der Planungsebene
2.4 IT-Lösungen auf der Ausführungsebene („Fulfillment“)
2.5 IT-Lösungen auf der Kontrollebene
3 Beispiele für IT-getriebene Prozess- und Geschäftsmodell-Innovationen im
Supply Chain Management
3.1 Ziele des Kapitels
3.2 Fourth Party Logistics Provider („4PL”)
3.3 Elektronische Marktplätze
3.4 Das „Internet der Dinge“: RFID- basierte Prozessintegration
4 Ansätze zur ökonomischen Bewertung von IT-Investitionen im Supply Chain
Management
4.1 Ziele des Kapitels
4.2 ROI und mehr: Wege zu einem Business Case
6 Literaturverzeichnis
2
1 Die Rolle der IT im Supply Chain Management
1.1 Ziele des Kapitels
Informationstechnologie unterstützt den Vollzug von Prozessen in der Logistik. Supply
Chain Management (SCM) enthält eine Reihe erweiterter Prozessmodelle, die über
den Rahmen der bislang fokussierten logistischen Aufgabenstellungen hinausgehen.
Deshalb muss man zunächst die Ziele und Aufgabenstellungen des Supply Chain
Management sowie die daraus resultierenden Prozessmodelle verstehen, um die
zugehörigen IT-Konzepte einordnen zu können. Nach der Lektüre des ersten Kapitels
sollte der Leser in der Lage sein, die tragenden Leitideen des SCM-Konzeptes zu
verstehen und kritisch einordnen zu können, sowie zu erkennen, welche Rolle die
Informations- und Kommunikationstechologie bei der Umsetzung dieses Konzeptes
spielt.
1.2 Ziele und Aufgabenstellungen des Supply Chain Management
Supply Chain Management (SCM) befasst sich mit der Koordination des
Leistungsaustausches zwischen Unternehmen. Diese Koordination umfasst die
Ebenen der Gestaltung, Planung, Steuerung, Abwicklung und Kontrolle sämtlicher
Aktivitäten, die für die Vorbereitung und erfolgreiche Ausführung eines
Leistungsaustausches vollzogen werden müssen. Kennzeichnend für das SCMKonzept ist dabei die Vision, das Design der zwischenbetrieblichen Koordination nicht
nur bilateral auf die vertikale Verbindung zweier Unternehmen zu konzentrieren, die im
Verhältnis zueinander Kunde und Lieferant sind, sondern auf ganze
Wertschöpfungsketten auszudehnen: von der Ebene der Rohstofflieferanten bis zu
den jeweiligen Endkunden („from sheep to shop“). Im Extremfall kann die Supply
Chain sogar von der Rohstoffgewinnung bis zum Recycling (manchmal auch der
Entsorgung) von Alt-Produkten reichen („from dirt to dirt“). Diese
Wertschöpfungsketten werden als „Systeme“ interpretiert, deren ganzheitliche
Gestaltung einen ganzheitlichen Betrieb ermöglichen und allen Beteiligten damit
Wettbewerbsvorteile verschaffen soll.
Grundlegend für die Erschließung entsprechender Effizienzgewinne ist die Herstellung
einer Supply Chain- weiten Transparenz („Visibilität“) über aktuelle Bedarfe und
verfügbare Kapazitäten auf allen einbezogenen Wertschöpfungsstufen. Schon damit
wird klar, dass IT für die Realisierung von Supply Chain Management ein kritischer
Erfolgsfaktor ist: fundamental geht es um die bessere Versorgung logistischer
Entscheidungsprozesse mit dem „Rohstoff Information“. Im Ergebnis sollen
Lieferketten durch die wechselseitige Versorgung mit planungsrelevanten Daten
überraschungsärmer und Pläne stabiler gemacht werden. Plananpassungen, die sich
nie ganz vermeiden lassen, sollen innerhalb kürzerer Frequenzen auf der Basis
verbesserter Daten so vorgenommen werden, dass nicht nur das einzelne
Unternehmen, sondern das ganze es umgebende Netzwerk an Adaptivität und Agilität
gewinnt. Mit der Reduzierung von Irrtumsrisiken verbindet sich die Erwartung, vormals
benötigte Redundanzen (insbesondere in der Gestalt von Sicherheitsbeständen)
eliminieren und die gesamte Prozesskette nicht nur entstören, begradigen und
beschleunigen, sondern insgesamt konsequenter auf den tatsächlichen
Endkundenbedarf ausrichten zu können.
3
Schon mit diesen wenigen Worten wird klar, welche Erweiterung die Anforderungen an
IT-Lösungen durch das SCM-Konzept erfahren. Unter der Überschrift „EDI“ haben sich
die Bemühungen um eine engere Kopplung der DV-Systeme miteinander im
Leistungsaustausch stehender Unternehmen jahrelang auf unmittelbar
transaktionsbezogene Daten (Avise, Lieferscheine, Rechnungen,…) konzentriert. Bei
EDI-Verfahren erfolgt die Kommunikation immer in einer Richtung: Der Sender sendet
Nachrichten an einen Empfänger. In vielen Anwendungen von EDI sendet später der
ursprüngliche Empfänger seinerseits eine Nachricht zurück, aber dies ist ein anderer
Prozess, der zeitlich getrennt abläuft und wiederum ein reiner Sendevorgang ist.
Anders ausgedrückt erfolgt die Kommunikation bei EDI nach dem Push-Prinzip.
Die Erfolgserwartungen waren begrenzt: man wollte Erfassungs- und Übertragungszeit
sowie Papier sparen, Übertragungsfehler reduzieren und durch die Trennung von
physischen Objektbewegungen und zugehörigen Informationsflüssen vorauseilende
Informationen (z.B. Lieferavise) ermöglichen. Die Projekte waren aufwändig, auch
wegen der immer wieder erforderlichen Anpassungen an die individuellen DV-Systeme
der beteiligten Partner. Da diese sehr unterschiedlich sein können und häufig auch
gegenseitig unbekannt sind, ist die EDI-Realisierung immer ein Projekt. Es bestehen
große Unterschiede zwischen EDI in der deutschen oder der japanischen
Automobilindustrie, oder im Lebensmittelhandel in Spanien, oder im
Interbankenverkehr in Österreich oder der amerikanischen Hightech-Industrie.
Die Erfolge flossen dementsprechend spärlich. Letztlich ist nur innerhalb von Punktzu-Punkt-Verbindungen das Fax durch die elektronische Übertragung einfacher,
standardisierter Nachrichten ersetzt worden – und auch das oft nur in der Verbindung
zu einem Teil der jeweiligen Lieferanten bzw. Kunden.
Unter der Überschrift „Supply Chain Management“ erfolgt nun eine erhebliche
Ausdehnung des Umfangs der Kommunikationsinhalte. Es geht um aktualisierte
Abverkaufsdaten und/oder Bedarfsprognosen, Verfügbarkeitsgrade von Kapazitäten,
Bestandsreichweiten und ähnliche planungsrelevante Daten. Gleichzeitig mit dieser
Erweiterung der Kommunikationsinhalte sind die Erfolgserwartungen um ein
Vielfaches gestiegen. Im Falle des Gelingens ist eine weitere Aufwertung der IT als
„enabling technology“ die Folge.
Die mit der Erweiterung der Kommunikationsinhalte verbundenen, zusätzlich zu
erschließenden Erfolgspotenziale betreffen sowohl die Nutzenseite als auch die
Kosten des Managements von Lieferketten. Besonders hervorgehoben werden meist
die Möglichkeiten einer Bestandssenkung, die aus der besseren Sicht auf aktuelle
Bedarfe und („stromaufwärts“ gesehen) aus einer erhöhten Lieferantenzuverlässigkeit
resultieren. Im Zusammenwirken mit Bestandssenkungen können verkürzte
Planungszyklen zu verringerten Durchlaufzeiten beitragen, die das gesamte
Prozessgeschehen dichter an die Endkunden heranbringen. Die verringerten
Prognoserisiken lassen sich nicht nur in eine Reduzierung von Sicherheitsbeständen,
sondern vor allem auch in eine erhöhte Lieferbereitschaft und Termintreue umsetzen.
Eine Risikominimierung wird auch dadurch angestrebt, dass Lieferketten so weit wie
möglich nach dem „Pull“-Prinzip organisiert werden. Konkret heißt das, dass möglichst
alle Aktivitäten in einer Supply Chain durch bereits artikulierte oder zumindest
erkennbare Kundenbedarfe „gezogen“ werden. Bildhaft gesprochen: beim Scannen
eines Yoghurtbechers an der Supermarktkasse geht ein Signal an das
Produktionssystem des Farbpigmentherstellers, das online eine Information zum
Bedrucken neuer Becher erzeugt.
4
Dabei ist es vor allem ein zentraler Effekt, dessen Eliminierung die Experten des
Supply Chain Management besonders fasziniert. Man weiß seit ersten
Computersimulationen aus den späten 50er Jahren, dass sequenzielle
Entscheidungsprozesse autonom agierender Disponenten über mehrere
Wertschöpfungsstufen hinweg zu einer sich selbst verstärkenden Aufschaukelung von
Bedarfsschätzungen und daraus resultierenden Bestellmengen führen. Dieser
sogenannte „Bullwhip“-Effekt ist in den 90er Jahren bei Proctor&Gamble am Beispiel
der Nachfrage nach Pampers (einem A-Artikel!) wiederentdeckt, empirisch bestätigt
und tiefer erforscht worden. Dabei hat man tiefere Einsichten in die
Reaktionszeitverzögerungen und Nachfrageverzerrungen gewonnen, die dadurch
hervorgerufen werden, dass Informationen in Beständen „geschluckt“ und Bedarfe in
Losgrößen „verklumpt“ werden. Eine Popularisierung dieser Erkenntnisse erfolgte
später durch das „Beer Distribution Game“, in dem die Teilnehmer in den Rollen von
Händlern, Großhändlern, Produzenten und Zulieferern auf der Basis lokaler
Informationen konkret erfahren, dass sich lokale „Optimierungen“ unter den
Bedingungen entkoppelter Prozesse und begrenzter Sichten immer wieder zu
suboptimalen Gesamtlösungen aggregieren. Der Bullwhip-Effekt ist vor diesem
Hintergrund zu einem Musterproblem geworden, anhand dessen der Nutzen von
Supply Chain Management besonders anschaulich demonstriert werden kann.
Das Interesse an Supply Chain Management begründet sich nicht nur durch die mit
diesem Konzept verbundenen neuen Erfolgsverheißungen, sondern auch durch die
geänderten Randbedingungen, unter denen Logistik heute praktiziert werden muss.
Die weltweite Arbeits- und Standortteilung sowie eine ausufernde Variantenvielfalt bei
gleichzeitig schrumpfenden Produktlebenszyklen haben zu steigenden Störungsrisiken
bei der Planung und Durchführung logistischer Prozesse geführt. Diese enorme
Steigerung der logistischen Komplexität traf im Markt auf erheblich wachsende
Anforderung von Kunden an die Qualität logistischer Leistungen. Das
Zusammentreffen dieser Entwicklungen hat einen Bedarf an neuen
Koordinationstechniken ausgelöst. Gleichzeitig haben neue IT-Technologien und
Kommunikationsmedien wie das Internet die Erwartung geschürt, die technischen
Voraussetzungen für eine Vereinfachung und Beschleunigung des Datenaustausches
seien erstmalig im Weltmaßstab verfügbar und deren Ausschöpfung sei nur noch ein
vergleichsweise einfacher Schritt.
Die Frage, inwieweit das SCM-Konzept den so entstandenen Bedarf befriedigen kann,
hängt davon ab, wie hoch man die Ziele steckt, die mit diesem Ansatz verfolgt werden
sollen. Dabei ist es sinnvoll, zwischen zwei verschiedenen Intensitätsgraden der
unternehmensübergreifenden Prozessintegration zu unterscheiden. Die (relativ)
schwächere Variante der Integration beschränkt sich auf die Herstellung einer
unternehmensübergreifenden Transparenz von Bedarfen, Beständen, Kapazitäten und
Prozesszuständen. In dieser Variante bleiben die innerhalb einer Lieferkette
interagierenden Unternehmen autonom und die Entscheidungen werden weiter
dezentral getroffen. Häufig wird in der SCM-Literatur aber eine stärkere Integration der
Supply Chain gefordert, die dann erfüllt ist, wenn sich Manager auf verschiedenen
Wertschöpfungsstufen bei ihren Entscheidungen nicht von eigentumsrechtlich
bedingten „Partikularinteressen“ leiten lassen, sondern auf der Basis der neu
gewonnenen Visibilität ein unternehmensübergreifendes „Gesamtoptimum“ für ganze
Lieferketten suchen. Das klingt dann so: „Die Idee des SCM ist es, das logistische
Netzwerk ganzheitlich zu planen, zu steuern und zu kontrollieren. Dadurch wird das
Ziel verfolgt, ein Gesamtoptimum über alle Unternehmen hinweg... zu erreichen...“.
(Vgl. Scheer/Angeli/Herrmann (2001), S. 45 ff.)
5
Viele Autoren folgern aus den Möglichkeiten einer unternehmensübergreifenden
Gesamtplanung logistischer Abläufe, dass sich der Wettbewerb zukünftig mehr und
mehr von der Ebene einzelner Unternehmen bzw. Wertschöpfungsstufen auf die
Ebene ganzer Supply Chains verlagert. Für eine erfolgreiche Realisierung dieser
stärkeren Integrationsvariante lassen jedoch sich bislang kaum praktische Beispiele
finden. Es gibt auch eine Reihe von Gründen, die diesen sehr weitreichenden
Anspruch als unrealistisch erscheinen lassen (Vgl. hierzu ausführlicher Bretzke (2005
a). Die folgenden Ausführungen konzentrieren sich deshalb auf die Frage, wie mit Hilfe
geeigneter IT-Instrumente Effizienzgewinne in der Prozesskoordination zwischen
einzelnen Unternehmen erzielt werden können, die zwar netzwerkartig miteinander
verbunden sind, sich dabei aber nicht durch exklusive Partnerschaften zu einer
strategischen Gruppe zusammengeschlossen haben. Mit anderen Worten: der
Anspruch auf eine ganzheitliche Optimierung umfassender Lieferketten oder sich als
Systeme höherer Ordnung konstituierender Netzwerke wird hier nicht weiter verfolgt.
1.3
Der Beitrag von IT zur Verwirklichung von Supply Chain Management
Die folgenden Ausführungen werden zeigen, dass wesentliche Elemente des SCMKonzeptes überhaupt nur auf der Grundlage fortschrittlicher IT-Lösungen realisiert
werden können. Der IT können damit verschiedene Rollen zufallen: idealerweise ist
sie ein Befähiger, in der Praxis erweist sie sich aber oft auch ein limitierender Faktor
(z.B. weil sie ad hoc nicht erfüllbare Anforderungen an eine harmonisierte
Stammdatenbasis stellt oder ad hoc nicht lösbare Kompatibilitätsprobleme zwischen
Tools aufwirft). In beiden Fällen ist sie von zentraler Bedeutung. Fraglich ist hingegen,
ob die oft gebrauchte Bezeichnung der IT als „Treiber“ von Supply Chain Management
angemessen ist.
Im Zusammenhang mit SCM-Software ist diese Einstufung eher irreführend. Software
ist als Problemlösung immer die Antwort auf eine Frage. Die eigentlichen Treiber der
Neuerungen sind daher ungelöste Fragen, die zu innovativen Prozessmodellen führen,
aus denen dann Anforderungsprofile für neue Programme abgeleitet werden. Ein
wesentlicher Treiber von SCM in diesem Sinne sind die ungelösten
Koordinationsprobleme, die aus der Vielzahl der Schnittstellen resultieren, die die
weltweite Arbeits- und Standortteilung hervorgebracht hat.
Bei innovativen Hardwarekomponenten oder Infrastrukturlösungen ist dagegen
tatsächlich oft eine umgekehrte Kausalität beobachtbar, die die Einstufung von IT als
Treiber rechtfertigt. Die später ausführlicher diskutierten Themen „RFID“ und „Internet“
liefern anschauliche Beispiele dafür, wie sich auch Technologien (Antworten) ihre
Anwendungen (Fragen) suchen können. Genauer gesagt: die Anwender werden von
den neu eröffneten Opportunitäten einer Technologie getrieben. Die Leitfrage lautet:
Was könnten wir denn damit alles (anders) machen? Kapitel 3 liefert Beispiele für
solche IT-getriebenen Innovationen.
Dort, wo innovative Hard- und Softwarekomponenten ineinandergreifen und IT- und
Prozessinnovationen einander gegenseitig fördern, wird man der Interdependenz von
technologischem und organisatorischem Fortschritt durch einseitige Ursache/Wirkungs-Muster wohl nicht mehr gerecht. In einem SCM-Umfeld erscheint es
deshalb angemessen, die IT generell in der Rolle eines Katalysators zu sehen.
6
Bei solchen grundsätzlichen Überlegungen zur Rolle der IT darf man allerdings nie
vergessen, dass die Integration von Informationsflüssen neben technischen immer
organisatorische und personelle Aspekte aufweist. Nicht selten trifft der Fortschritt hier
auf Barrieren. Eine für das SCM-Konzept typische Barriere dieser Art ist die
notwendige Veränderung der Einstellungen von Managern in Richtung auf eine
Wahrnehmung von Lieferanten als gleichberechtigte Wertschöpfungspartner sowie,
damit eng verbunden, der Aufbau von Vertrauen, ohne das der Austausch von
sensiblen Daten nicht gelingen kann.
Auch IT-Manager müssen deshalb über mehr Bescheid wissen als über IT. Der eher
langsame Fortschritt in der Verbreitung einiger zentraler SCM-Tools, auf die später
näher eingegangen wird, ist auch darauf zurückzuführen, dass die Rolle der IT als
Problemlösungsbestandteil bisweilen deutlich überschätzt worden ist.
2. Implementierungsansätze für IT-basierte SCM-Konzepte
2.1 Ziele des Kapitels
IT ist kein Selbstzweck. Primäres Ziel dieses Kapitels ist es deshalb, innovative
Prozessmodelle innerhalb von Supply Chain Management zu beschreiben und die
Leser damit zu befähigen, resultierende Anforderungen an IT-Lösungen aus ihrem
jeweiligen Problemkontext heraus zu verstehen und die zugehörigen, mittlerweile am
Markt verfügbaren Tools entsprechend beurteilen und einordnen zu können.
Dabei wird Wert darauf gelegt, das notwendige Zusammenspiel zwischen
technologischen und organisatorischen Innovationen herauszuarbeiten, kritische
Erfolgsfaktoren für eine gelungene Implementierung zu identiifizieren und auch den
Blick für die Grenzen der diskutierten IT-Lösungen zu schärfen.
2.2 IT-relevante Ebenen des Supply Chain Management
Unter der Überschrift „Supply Chain Management“ werden Verbesserungsansätze für
verschiedene Managementebenen und Funktionsbereiche diskutiert. Hinsichtlich der
Managementebenen basieren die folgenden Betrachtungen zunächst auf der
grundlegenden Unterscheidung zwischen Planungs-, Ausführungs- und
Überwachungsaufgaben. Diese Ebenen durchziehen die grundlegenden betrieblichen
Funktionsbereiche Beschaffung, Produktion und Absatz, die gleichzeitig auch als
grundlegende logistische Prozesssegmente betrachtet werden können. Unterscheidet
man weiterhin zwischen Managementtätigkeiten in und solchen an einem System, so
ergibt sich eine dritte Dimension der Kategorisierung, die zwischen
systemkonzipierenden („Design“-)Aufgaben, nachfolgenden Implementierungsarbeiten
und dem laufendem Betrieb unterscheidet.
Es ist etwas irritierend, dass auch solche Design-Aufgaben (wie etwa die Konfiguration
eines europaweiten Netzwerkes für die Distribution von Ersatzteilen) immer wieder mit
dem Begriff „Planung“ belegt werden. In den folgenden Ausführungen wird dieser
Begriff reserviert für die antizipierende Schätzung zukünftiger Bedarfe und darauf
aufbauende Entscheidungen über die Beschaffung und Verwendung von Kapazitäten.
Planung bezieht sich damit auf die Vorsteuerung des Vollzuges logistischer
Aktivitäten, nicht dagegen auf die Gestaltung der strukturellen Rahmenbedingungen,
unter denen diese Aktivitäten ablaufen.
7
Beide Varianten von „Planung“ werden von verschiedenen Softwarehäusern oft unter
einem Dach als Komponenten einer SCM-Software-„Suite“ verkauft. Das verdeckt den
völlig unterschiedlichen Anwendungskontext der jeweiligen Tools. Während Software
für die optimierende Strukturierung logistischer Netzwerke projektweise eingesetzt
wird und dabei Lösungen liefern soll, die mehrere Jahre Bestand haben, wird
Planungssoftware im hier verstandenen Sinne im täglichen Einsatz genutzt, um
Kapazitäten bedarfsgerecht einzusetzen und Kundenaufträge wunschgemäß zu
erfüllen.
Da die hier unterschiedenen Kategorien einander überlappen bzw. frei kombiniert
werden können, ergibt sich in zeichnerischer Darstellung ein Würfel (Kubus) mit 27
Elementen, der eine grundlegende Positionierung logistischer Aktivitäten erlaubt. In
Abbildung1 etwa ist neben der Aktivität der Gestaltung eines
Distributionsplanungssystem (oben links) der laufende Betrieb eines
Prozesscontrollings im Beschaffungsbereich (unten rechts) dunkel markiert.
Ein praktisches Beispiel für ein modernes Distributionsplanungssystem liefert die
europäische Ersatzteillogistik eines führenden Landmaschinenherstellers. Aufgrund
kurzer Lieferzeitanforderungen ist dieses Unternehmen gezwungen, in einigen
europäischen Kernregionen
lokale Ersatzteilläger zu unterhalten. Wegen der sporadischen Teilenachfrage und der
begrenzten Prognostizierbarkeit des Teilebedarfs ist es kaum möglich, die von Kunden
geforderte hohe Lieferbereitschaft aus lokalen Sicherheitsbeständen heraus zu
befriedigen. Eine intelligentere Lösung kann darin bestehen, lokale Lager
softwarebasiert zu einem virtuellen europäischen Zentrallager zu verknüpfen. Auf
dieses Beispiel gehen wir in Kapitel 2.4 noch näher ein. Beispiele für den anderen
markierten Würfel werden wir in Kapitel 2.5 ausführlich diskutieren.
Kennzeichnend für alle 3 Dimensionen des SCM-Kubus ist, dass die jeweils
unterschiedenen 3 Teilaktivitäten in einer Reihenfolgebeziehung zueinander stehen,
also als aufeinanderfolgend gedacht werden können bzw. sollten. Um generell gültige
Zwangsabfolgen handelt es sich dabei freilich nicht. Im Handel etwa fehlt das
Zwischenglied „Produktion“, bei „historisch gewachsenen“ Organisationsstrukturen
fehlt die explizite Designphase, und operative Prozesse, die dem Pull-Prinzip
genügen, sind im Grundsatz planungsfrei gedacht (die Prozesse werden von
Kundenaufträgen ausgelöst bzw. „gezogen“). Dennoch ist der Kubus für eine
grundlegende Unterscheidung möglicher Managementaktivitäten in der Logistik sehr
hilfreich.
8
Reifegrad
Design
Funktion
Implementierung
Distribution
Betrieb
Produktion
Beschaffung
Planung
Überwachung
Durchführung
Managementebene
Abbildung 1: Der SCM-Kubus
Die hier vorgenommene analytische Zergliederung von Managementfunktionen und
Betätigungsfeldern hilft bei der „Verortung“ von Problemschwerpunkten und bei der
Fokussierung von Projekten. Sie darf allerdings nicht darüber hinwegtäuschen, dass
die tatsächlichen Geflechte von Flüssen und Prozessen in lebenden Organisationen
nicht derart rigiden Ordnungsschemata genügen. Nach der Philosophie von Supply
Chain Management sollten sie das auch nicht. Denn der Kerngedanke dieser
Philosophie ist der der Integration.
Schnittstellen erscheinen vor diesem Hintergrund als schädlich, und eine der großen
Hoffnungen, die aus der Logistik heraus an die IT herangetragen wird, besteht in der
Erwartung, sie möge durch einen medienbruchfreien Datentransfer zur Überwindung
der Grenzen zwischen Funktions- und Verantwortungsbereichen beitragen. Das gilt
nicht nur für die klassischen „funktionalen Silos“ Beschaffung, Produktion und Absatz,
sondern in besonderem Maße für die Schnittstellen zwischen vertikal verbundenen
Unternehmen, die durch Supply Chain Management unschädlich gemacht werden
sollen. Dass IT-Systeme eine schnittstellenübergreifende Prozessintegration in der
Vergangenheit durch Insellösungen oft eher erschwert haben, hat diesbezüglichen
Erwartungen an die Zukunft keinen Abbruch getan. IT erscheint damit als janusköpfig:
sie kann Komplexität schaffen, aber auch zu deren Überwindung beitragen.
2.3 IT-Lösungen auf der Planungsebene
Dass Planung, Ausführung und Kontrolle üblicherweise als sequenzielle Handlungen
gedacht werden, wurde bereits hervorgehoben. Unter den Bedingungen unsicherer
9
Erwartungen über die Ergebnisse eigenen Handelns, die sich als Folge
unvorhergesehener Umfeldeinflüsse ergeben können, muss dem noch hingefügt
werden, dass solche Sequenzen infolge identifizierter Zielabweichungen in sich
permanent wiederholenden Zyklen organisiert werden müssen. Es ergibt sich dann ein
Prozessmodell, das man in der Kybernetik auch „Regelkreis“ nennt. Abbildung 2 zeigt
ein vereinfachtes Modell eines solchen „Feed-Back-Loops“.
PLAN
ACT
CHECK
Abbildung 2: Der Managementkreislauf
In jeder dieser Phasen gelangen spezifische IT-Konzepte und Softwarelösungen zur
Anwendung. So eröffnet beispielsweise die in Kapitel 3.4 ausführlich behandelte RFIDTechnologie ganz neue Möglichkeiten eines Real-Time-Controlling logistischer
Abläufe, auf die später noch intensiver eingegangen wird.
Planung ist geistiges Vorweghandeln und basiert als solches auf Annahmen über
zukünftig zu erwartende Bedingungskonstellationen (Kundenbedarfe, Rohstoffpreise
etc). Die Herleitung solcher Parameterkonstellationen nennt man Prognosen.
Zwischen Prognose und Planung wird nicht immer trennscharf unterschieden. Der
Unterschied wird jedoch überdeutlich, wenn man die zugehörigen Softwaretools
betrachtet. Innerhalb der im folgenden näher beleuchteten Planungsphase gibt es
spezifische Tools für die Lösung von Prognoseproblemen, die etwa in der
Handelslogistik in der Lage sind, Absatzvorhersagen bis herunter auf die Ebene
einzelner Artikel, Arbeitstage und Filialstandorte zu liefern und dabei die Datenflut aus
einer großen Vielzahl von Scannerkassen zu verarbeiten. Diese Tools sind in der
Lage, aus längeren Zeitreihenanalysen Muster zu erkennen, die dann in eine
Extrapolation in die Zukunft umgesetzt werden.
Der Schritt zum Supply Chain Management im engeren Sinne besteht hier darin, dass
Handelsorganisationen Point-of-Sale-Daten mit den Herstellern von Konsumgütern
teilen und diese damit in die Lage versetzen, ihre Produktionspläne besser mit dem
tatsächlichen Absatzgeschehen zu synchronisieren. Im Idealfall kommt es dabei unter
Ausnutzung des prognoserelevanten Wissens beider Seiten zu einer Situation, in der
Industrie und Handel von einer gemeinsamen, abgestimmten Absatzprognose
ausgehen. Für eine solche „Collaboration“ hat sich der Begriff CPFR („Collaborative
10
Planning, Forecasting and Replenishment“) eingebürgert. Der Nutzen solcher
Abstimmungsprozesse ist insbesondere bei Absatzpromotionen sehr ausgeprägt, die
ohne unternehmensübergreifende Koordination schnell zu unvorhergesehenen
Kapazitätsengpässen führen können.
Gegenüber diesem Collaboration-Szenario in der Konsumgüterwirtschaft nehmen wir
für die weitere Diskussion fortschrittlicher Planungstools im Supply Chain Management
eine zweifache Veränderung vor. Zum einen setzen wir das Problem der
Absatzprognose als gelöst voraus und befassen uns nur noch mit den auf diesen
Vorhersagen aufbauenden Planungsentscheidungen im Bereich der
Ressourcenallokation. Und zum anderen wenden wir uns schwerpunktmäßig
Produktionsverbundsystemen zu, in denen Endproduktehersteller (OEM = Original
Equipment Manufacturer) mit ihren Zulieferern Produktionspläne koordinieren.
Aufgrund der hohen Produktkomplexität und der Vielzahl der beteiligten Unternehmen
stellen sich hier naturgemäß besonders anspruchsvolle Koordinationsprobleme, mit
entsprechend hohen Anforderungen an die einzusetzenden IT-Lösungen. Viele der
unter der Überschrift „Supply Chain Management“ entwickelten und diskutierten
Prozessmodelle und Softwaretools beziehen sich deshalb auch immer wieder auf
Fälle und Beispiele aus der diskreten Fertigung von variantenreichen Produkten wie
Automobilen oder HighTech-Produkten.
Die Ausgangslage vieler unter diesem Namen angegangener Projekte kann man fast
als das „Feindbild“ des Supply Chain Managements bezeichnen: IT-Systeme mit dem
Charakter von „Insellösungen“. Aber auch die vor dem Auftauchen des SCMKonzeptes entwickelten DV-Lösungen waren schon von dem Gedanken der
Integration getrieben. Integrationstatbestände gab es schließlich auch innerhalb der
vier Wälle eines Unternehmens ebenfalls. Als Keimzellen fungierten dabei zunächst
isolierte Lösungen für die Prozesse der Materialbedarfsplanung („MRP-Systeme“) und
der Produktionsplanung (PPS-Systeme). In der Produktionsprogrammplanung (auch
Primärbedarfsplanung) werden dort Art, Menge und Fertigungstermine der
Enderzeugnisse (Primärbedarf) festgelegt. Es erfolgt die Festlegung, welche Produkte
in welchen Mengen in einem bestimmten Planungszeitraum produziert werden sollen.
Ausgehend vom Primärbedarf (Produktionsmenge) wird in der Materialbedarfsplanung
dann ermittelt, wieviele Mengeneinheiten an Zwischenprodukten (Sekundärbedarfe)
und Rohstoffen benötigt werden. Die Beschaffungsplanung für Sekundärbedarfe
erfolgt auf der Basis von Stücklistenauflösungen, Tertiärbedarfe werden stochastisch
(nach Verbrauch) geordert.
Aufbauend auf diesen Tools, für die die Software COPICS von IBM in den 70er Jahren
das Vorbild geliefert hatte, entwickelten sich DV-Systeme, die auf der Basis eines
gemeinsamen Datenbestandes auch andere betriebliche Funktionsbereiche wie
Vertrieb, Finanzen, Controlling, Anlagenwirtschaft, Personaleinsatz,
Auftragsabwicklung und Lagerhaltung mit abdeckten. Für die Bezeichnung dieser
Systeme hat sich später der Begriff ERP (Enterprise Resource Planning) etabliert. Die
Versorgung aller betrieblichen Funktionsbereiche mit den gleichen Informationen in
der gleichen Qualität war ein großer Fortschritt. ERP-Systeme machten es erstmals
möglich, alle informatorischen Maßnahmen, die ein einzelner Geschäftsvorfall
erforderlich macht, in einem Komplex (einer „Transaktion“) zu verarbeiten. Man hat
diese Systeme deshalb bildlich auch als eine Art zentrales Nervensystem von
Unternehmen verstanden.
Die Schwächen dieser Systeme liegen jedoch genau da, wo sie durch SCM-Konzepte
mit neuen Anforderungen konfrontiert werden: im Bereich der Planungs- und
11
Dispositionssysteme. Diese Schwächen wirken schon vor jedem Versuch, Pläne
unternehmensübergreifend zu erstellen oder aufeinander abzustimmen,
unternehmensintern begrenzend auf die Qualität der Planung. Für SCM-Konzepte
erweisen sie sich als K.O.-Kriterien. Drei Schwachpunkte verdienen in diesem
Zusammenhang, besonders hervorgehoben zu werden:
a) die Hierarchisierung der Planung, die sich in der sequenziellen Erstellung von
Teilplänen für interdependente Sachverhalte äußert (der Preis dieser
Komplexitätsreduktion sind suboptimale, häufiger sogar nicht machbare Pläne)
b) die Behandlung wichtiger Gestaltungsvariabler als vorgegebene Parameter
bzw. Restriktionen (typisches Beispiel ist die Behandlung von Durchlaufzeiten
als planungsunabhängige Vorgabewerte) und
c) die als Stapelverarbeitung realisierte Auflösung in lokale Teilpläne und
Handlungsanweisungen.
Im Zusammenwirken führen diese Schwachstellen dazu, dass
-
Wechselwirkungen zwischen Teilbereichen (etwa der Materialbedarfs-, der
Kapazitäts- und der Terminplanung) und daraus resultierende Trade-Offs
negiert werden,
-
Mengenaspekte im Vergleich zu Termin- und Kapazitätsaspekten überbetont
werden,
-
logistische Kerngrößen wie Bearbeitungs- und Wartezeiten als Schätzwerte
vorgegeben werden, obwohl sie ein Ergebnis der Berechnungen sein müssten,
-
die Planungsergebnisse keinerlei Kriterien von „Optimalität“ genügen und
-
dass Anpassungen an geänderte Planungsprämissen sehr aufwändig sind und
so viel Zeit beanspruchen, dass das System Notlösungen (etwa in Form von
„händisch“ erstellten Tabellenkalkulationen) geradezu provoziert, weil die
systemseitig erzeugten Lösungen zum Zeitpunkt ihrer Hervorbringung schon
nicht mehr aktuell sind.
Um klarer herauszuarbeiten, warum sich auf der Basis solcher Systeme kein Supply
Chain Management betreiben lässt, betrachten wir im Folgenden ein zentrales
Prozessmodell des SCM-Konzeptes etwas mehr im Detail.
Wie eingangs bereits hervorgehoben, basiert Supply Chain Management im
Planungsbereich auf der Schaffung von netzwerkweiter Visibilität auf die
planungsrelevanten Parameter im Bereich verbundener Unternehmen. Damit
verbindet sich die Erwartung, Lieferketten überraschungs- und damit störungsärmer zu
machen und dabei gleichzeitig Sicherheitsbestände, Überkapazitäten und
Durchlaufzeiten reduzieren zu können. Ein zentraler Aspekt ist dabei die Substitution
situationsunabhängig geschätzter Standardlieferzeiten durch belastbare
Lieferzeitzusagen. Während Standardlieferzeiten wie etwa ein pauschal zugesagter
24-Stunden-Service infolge der ökonomisch notwendigen Begrenzung von
Sicherheitsbeständen und Überkapazitäten in praxi stets mit einer stochastischen
Fehlerrate behaftet sind, erwartet man von der belastbaren Lieferzeitzusage eine
12
100%-ige Zuverlässigkeit. Schließlich ist sie nach den vereinbarten Spielregeln
lieferantenseitig einzelfallweise gegen alle mögliche Ressourcenengpässe geprüft.
Hinter diesem Konzept verbirgt sich die Idee, dass über mögliche Kapazitätsengpässe
alle Produktionsprozesse im Verhältnis zueinander interdependent sind und dass
jedes „Bottleneck“ die Kapazität einer ganzen Kette limitieren kann. Deshalb ist die
Kenntnis von Engpässen für das Management von Netzwerken grundlegend wichtig.
In der Fachliteratur spricht man in diesem Zusammengang auch von einer „Theory of
Constraints“.
Je nachdem, ob die jeweilige Belastbarkeitsprüfung sich nur auf Lagerbestände als
Speicher bereits abgerufener Produktionskapazitäten oder auch auf diese Kapazitäten
selbst bezieht, sprich man auch von „available“ bzw. „capable to promise“ (Vgl. hierzu
ausführlicher auch Alicke (2003)). Das jeweilige Kundenunternehmen (z.B. ein
Automobilbauer) stellt seinem Lieferanten initial eine aktualisierte Bedarfsprognose zur
Verfügung, die im ersten Schritt dasjenige Produktionsprogramm beschreibt, das man
ohne Versorgungsengpässe innerhalb des betrachteten Planungshorizontes fertigen
würde („unconstrained forecast“). Im Gegenzug prüfen die Lieferanten, ob sie dieses
Programm uneingeschränkt versorgen können oder wo sich gegebenenfalls
kapazitätsbedingte Mindermengen oder Verzögerungen ergeben würden. Daraufhin
passt der Abnehmer seine Produktionspläne an die Lieferfähigkeiten seiner Versorger
an und kommuniziert als vorläufig endgültige Planungsbasis den adaptierten Plan
(„constrained“ bzw. „committed forecast“).
Soweit derartige interaktive Regelkreise erfolgreich installiert sind und
erwartungsgemäß funktionieren, muss kein OEM („Original Equipment Manufacturer“)
mehr halbfertige Produkte bis zur Nachlieferung fehlender Teile auf den Hof stellen,
um sie später im Angesicht wartender Kunden aufwändig nachzurüsten, und die
Zulieferer fertigen nur noch solche Teile, die von ihren Kunden auch wirklich gebraucht
werden. Es gibt weniger Spekulation in der Supply Chain und als Folge davon auch
weniger Blindleistungen. Das Ergebnis ist nicht nur ein Gewinn an Zuverlässigkeit und
Termintreue. Nicht beseitigbare Kapazitätsengpässe sollten dabei durch frühzeitige
Identifikation auch seltener werden. Durch Ausnutzung dieser neuen
Handlungsspielräume wird, neben der Planungsqualität, gleichzeitig auch die Qualität
des „Exception Managements“ besser. Es wird seltener und dabei zunehmend
proaktiv: Prävention statt „Troubleshooting“. (Eine ausführliche Behandlung des
Themas „Supply Chain Event Management“ erfolgt in Kapitel 2.5). Abbildung 3
verdeutlicht die Logik dieses Modells, das relativ leicht zu erklären, im Verhältnis dazu
aber nicht ganz leicht zu implementieren ist.
13
Kapazitäts-Update
tier n
„Ich verarbeite nur
das, was meine
Lieferanten wirklich
liefern können“
„Ich produziere nur
das, was mein
Kunde tatsächlich
verarbeiten will“
tier n-1
1. Forecast-Update
(„unconstrained“)
2. Forecast-Update
(„constrained“)
Abbildung 3: Integriertes Bedarfs-/Kapazitätsmanagement
Die aus diesem Modell resultierenden Anforderungen an die IT-Systeme der Zulieferer
sind nämlich mächtig. Sie müssen in der Lage sein,
-
aus ihren Planungssystemen heraus Kapazitäts- bzw. Lieferzusagen zu
erzeugen, die gegen alle verfügbaren Restriktionen (Mitarbeiter, Material,
Bestände, Maschinenzeiten) geprüft und hinsichtlich der abgeleiteten
Terminzusagen vollständig belastbar sind (ein solches „constrained based
planning“ geben ERP-System üblicherweise nicht her),
-
sie müssen innerhalb kurzer Planungsfrequenzen, gegebenenfalls auch auf
Ad-hoc-Anfragen, auf der Basis von „What-if-Simulationen“ sehr schnell auch
auf Fragen antworten können, hinter denen nur aktualisierte
Bedarfsprognosen, aber noch keine harten Aufträge stecken. Gefordert ist die
Fähigkeit, mit Hilfe von Szenarien Engpässe in der Versorgungskette frühzeitig
zu identifizieren, so dass sie noch vor ihrem Wirksamwerden entschärft werden
können, und
-
sie müssen mit Hilfe einer „Locking-Funktion“ Güter und oder Kapazitäten für
bestimmte Kunden in unterschiedlichen Produktions- oder Distributionsphasen
reservieren können. (Die bloße Mitteilung, man habe derzeit noch freie
Kapazitäten, erfüllt nicht die Funktion der Unsicherheitsreduktion. Wenn
allerdings die Reservierung nicht durch Aufträge, sondern nur durch
aktualisierte Bedarfsprognosen ausgelöst wird, kann es zu einer
Risikoverlagerung auf den Zulieferer kommen, dem im Falle einer nochmaligen
Bedarfsrevision ein Kapazitätsverfall droht.)
Zur Erfüllung dieser Anforderungen ist ein spezieller Typ von Informationssystemen
entwickelt worden, der als Advanced Planning System (APS) bezeichnet wird. Mit
diesen Systemen wird der Schwerpunkt der Management-Unterstützung durch IT
gewechselt: von der Unterstützung bei der Vorbereitung und Ausführung von
Transaktionen und Prozessen auf die Entscheidungsunterstützung. Die unter der
Überschrift APS im Markt von verschiedenen Anbietern wie SAP (APO), i2
Technologies oder Manugistics angebotenen Tools umfassen in der Regel mehrere
14
Teillösungen für segmentierte Anwendungsbereiche (z.B. „Transportation and
Distribution Planning“). Abbildung 4 zeigt ein typisches Bild der Funktionsabdeckung
derartiger Software-„Suiten“.
Abbildung 4: Typischer Funktionsumfang von SCM-Software-Paketen
Die etwas irritierende Zusammenfassung von Planungssoftware für die Vorsteuerung
von Produktionsprozessen mit Tools für die Unterstützung einer Netzwerkkonfiguration
wurde bereits angesprochen. Hier interessiert vor allem der Beitrag dieser
Leistungspakete zu einem unternehmensübergreifend integrierten Bedarfs/Kapazitätsmanagement.
Advanced Planning Systems gewinnen die geforderte Rechengeschwindigkeit vor
allem dadurch, dass sie einen Großteil der planungsrelevanten Daten im
Hauptspeicher des Rechners („Live Cache“) resident halten. Das wird dadurch
möglich, dass sie ERP-Systeme nicht ersetzen, sondern „on Top“ auf ihnen aufsetzen.
Sie beziehen die benötigten Grunddaten aus den operationsnah operierenden
Transaktionssystemen und geben die Ergebnisse ihrer Berechnungen als Pläne zur
Exekution an die ERP-Systeme zurück. Dort werden dann z.B. aus den optimierten
Produktionsplänen über Stücklistenauflösungen und Materialbestandsabgleiche
terminierte Nettosekundärbedarfe, die auf der Basis von hinterlegten Lieferterminen
und Losgrößenformeln in Bestellmengen und schließlich in Bestellungen transformiert
werden. Davon sind Advanced Planning Systeme entlastet. Allerdings benötigen sie
in Teilbereichen auch Daten, die in ERP-Systemen üblicherweise nicht oder nicht in
der benötigt Qualität vorgehalten werden. Darauf muss vor einer Implementierung
sorgfältig geachtet werden.
Schneller werden Advanced Planning Systeme auch dadurch, dass sie einen
inkrementellen Planungsansatz verfolgen: sie schreiben bei einer Veränderungen von
Randbedingungen Pläne fort und erstellen nicht, wie dies in MRP-Systemen üblich ist,
15
jeweils einen neuen Gesamtplan. Zumindest im Prinzip erringen sie durch diesen
Geschwindigkeitsgewinn die Fähigkeit, vormals isoliert behandelte
Produktionsstandorte unter Berücksichtigung wechselseitiger Interdependenzen
simultan zu verplanen. Advanced Planning Systeme haben eine höhere
Integrationsreichweite. Vor allem aber ermöglichen sie jenen Abstimmungs- und
Anpassungsprozess, den wir eingangs als „Available to Promise“ oder „Order
Promising“ beschrieben haben.
Von ihrem eigenen Anspruch (und von den Versprechungen einiger Softwareanbieter)
her müssten Advanced Planning Systeme im Grunde alle relevanten Restriktionen
gleichzeitig berücksichtigen und damit Produktionsprogramme, Materialbedarfe,
Kapazitätsauslastungen, Lagerbestände und Liefertermine in einem Zug optimieren.
Diese Komplexität ist aber in sich zu hoch und damit nicht modellierbar. Auch
Advanced Planning Systems basieren deshalb im Inneren auf einer hierarchischen
Strukturierung der Planung, die ihnen beherrschbare Partialplanungen ermöglicht.
Dabei werden verschiedene Planungsebenen unterschieden. Auf der obersten Ebene
wird ein unternehmensweiter, sehr grober Plan erzeugt. Je tiefer die Planungsebene
ist, des mehr Restriktionen muss ein Plan genügen. Mit jeder Verkürzung des
Planungshoriziontes werden die Pläne detaillierter. Der Unsicherheit wird dabei in der
Regel durch eine rollierende Planung Rechnung getragen, bei der nach Ablauf jeder
Teilperiode diese entfernt und eine weitere Teilperiode „angehängt“ wird.
Nicht nur wegen der Unmöglichkeit einer Erstellung von Totalmodellen ist auch bei
APS-Systemen beim Umgang mit dem Wort „Optimierung“ Vorsicht geboten.
Advanced Planning Systems enthalten neben echten Optimierungsalgorithmen auch
relativ schwächere heuristische Lösungsverfahren, die nur machbare Pläne
garantieren können. Außerdem ist es eine Schwäche, dass sie in einer Welt mit
ausgeprägten Nachfragevarianzen und stochastischen Parametervariationen nur zu
einer deterministischen Planung fähig sind. Das erzwingt in dynamischeren Märkten
häufigere Plananpassungen, auch unterhalb der Rhythmik einer rollierenden Planung,
gegebenenfalls auch als ereignisgetriebene Planrevision. Ihre prinzipielle
Überlegenheit gegenüber ERP-Systemen bleibt dabei aber erhalten.
Im Übrigen muss eine automatisierte „Optimierung“ auch gar nicht das intendierte Ziel
einer APS-Applikation sein. Intelligenter ist ihre Nutzung als
Entscheidungsunterstützungssysteme, bei denen die Interaktion mit dem Benutzer
Vorrang hat vor dem bloßen Vertrauen auf vorprogrammierte Standardabläufe und
Lösungsalgorithmen. Es ist ja gerade einer der großen Vorteile dieser IT-Systeme,
dass sie jederzeitige Eingriffe eines Planers erlauben und unterstützen und damit
zugleich die Möglichkeit eröffnen, das nicht quantifizierbare Hintergrundwissen eines
Disponenten über planungsrelevante Sachverhalte (z.B. die Möglichkeit reiner
zusätzlichen Wochenendschicht) in den Lösungsprozess einzubeziehen.
Allerdings droht Advanced Planning Systems der Verlust ihrer Schnelligkeitsvorteile,
wenn Parametervariationen nicht nur „spielerisch“ simuliert werden, sondern wenn
sich wesentlich Planungsgrundlagen real ändern und dies eine entsprechende
Erfassung und Verarbeitung in den zugrunde liegenden ERP-Systemen erzwingt.
Dann wird der Vorteil der „On-Top-Architektur“ vernichtet und der gesamte RePlanungszyklus läuft wieder nur mit der Geschwindigkeit seines schwächsten Gliedes.
Typische Regelungszyklen betragen dann Stunden bis Wochen. In einem
dynamischen Marktumfeld ist das eigentlich zu wenig.
16
Um Advanced Planning Systems erfolgreich implementieren zu können, muss man
nicht nur datentechnische Vorbereitungen treffen, die sich – wie etwa eine
konzernweite Stammdatenbereinigung und- vereinheitlichung – als überraschend
aufwändig herausstellen können. In der Regel bedingen diese Systeme auch
vorlaufende Anpassungen von Prozessen, Entscheidungsbefugnissen und
Kommunikationstrukturen. Das erklärt, warum die Implementierung von Advanced
Planning Systems in der Regel zu aufwändigen Projekten mit einem sehr
anspruchsvollen Change Management führt. Aufgrund der resultierenden hohen
Implementierungskosten dürften Advanced Planning Systeme auf absehbare Zeit wohl
auch nur für größere Unternehmen interessant sein. Der Anspruch, etwa innerhalb der
Automobilindustrie ganze Zulieferer-Netzwerke über mehrere Wertschöpfungsstufen
nach den Regeln eines modernen Supply Chain Management zu reorganisieren, stößt
hier an eine ökonomische Grenze. Advanced Planning Systeme haben ihre Rolle als
„enabler“ eines echten Supply Chain Management bislang noch kaum ausspielen
können.
Der Implementierungsaufwand spielt auch eine Rolle bei der Beantwortung der Frage,
ob man sich bei der Auswahl eines Advanced Planning Systems für die Software eines
Spezialisten entscheiden sollte oder aufgrund der leichteren Integration zu dem
bestehenden ERP-System beide Systeme aus einer Hand beziehen sollte. Hier hat
SAP mit der kontinuierlichen Weiterentwicklung seiner SCM-Lösung (APO) den
Spezialisten als Verfechtern einer „Best-of-Breed“-Lösung das Leben in der jüngeren
Vergangenheit immer schwerer gemacht.
Als wesentliches Implementierungshindernis erweist sich auch ein Mangel an
standardisierten Schnittstellen im Verhältnis zu anderen Wertschöpfungspartnern. Das
ist in erster Linier kein reines DV-Problem. Wichtig ist vielmehr, dass die
Standardisierung nicht nur DV-technische Schnittstellenfragen löst, sondern auch
Arbeitsabläufe umfasst. Dabei geht es nicht nur um softwarenahe Workflows. Schon
die Klärung der Frage, ob sich Bedarfsinformationen beim Fahrzeugbau auf
Fahrzeugeigenschaften, auf Module, auf Komponenten oder auf Teile beziehen soll,
ist nicht trivial. Und wenn beispielsweise die Planungsrhythmen zwischen
Unternehmen unterschiedlicher Wertschöpfungsstufen nicht nur der Länge nach,
sondern auch kalendertaggenau abgestimmt sind, ergibt sich durch
Synchronisierungsmängel schnell eine kontraproduktive Kumulation von
Planungsdurchlaufzeiten. Die simpel erscheinende Frage, welche Information zu
welchem Zeitpunkt fließen soll, ist schon in der bilateralen Abstimmung zwischen zwei
Unternehmen nicht immer einfach zu lösen. Als Gegenstand einer branchenweiten
Standardisierung wird sie ziemlich komplex. Hier ist in der Praxis noch viel zu tun,
zumal sich die Hoffnung auf eine standardisierende Wirkung elektronischer
Marktplätze in diesem Punkt bislang kaum erfüllt hat. (Zur Funktion und Bedeutung
elektronischer Marktplätze vgl. ausführlicher Kapitel 3.3).
Aus Zulieferersicht sind Standardisierungshemmnisse ein entscheidendes
Innovationshemmnis. Die Furcht, sich vor der Herausbildung eines Standards für das
falsche System zu entscheiden, kann Investitionsentscheidungen ebenso blockieren
wie die Angst, durch die Komplexität einer parallelen Bedienung nicht standardisierter
Kundensysteme alle möglichen Vorteile einer „Supply Chain Collaboration“ gleich
wieder zu verlieren. Standardisierung ist deshalb eine wesentliche Vorbedingung für
eine zügige Verbreitung.
Aus OEM-Sicht ist sie allerdings nicht nur mit Vorteilen behaftet. Bei bereits weit
entwickelten eigenen Systemen mag manches Unternehmen eine nachträgliche
17
„Sozialisierung“ eigener Wettbewerbsvorteile und/oder den Rückfall auf ein
schlechteres Konzept befürchten. Die Haltung vieler OEMs zu Fragen der
Standardisierung ist deshalb ambivalent. Am liebsten hätten sie eine logistische „Plug
& Collaborate“-Welt, in der man die Effizienzvorteile einer vertikalen
Prozessintegration ebenso haben kann wie die Vorteile eines einfachen
Lieferantentausches. Wenn Advanced Planning Systeme sich als Voraussetzungen
einer unternehmensübergreifend koordinierten Bedarfs- und Kapazitätsplanung nur
langsam durchsetzen, ist das insoweit auch auf ein mangelndes Verständnis für die
Nöte von Zulieferern zurückzuführen.
Dass dabei auch Ängste im Zusammenhang mit der für Supply Chain Management
notwendigen Offenlegung sensibler Daten eine restriktive Rolle spielen können, wurde
bereits eingangs erwähnt. Die Herstellung von Vertrauen in einem durch harten
Wettbewerb um Wertschöpfungsanteile geprägten Umfeld ist eine der zentralen
Managementherausforderungen des SCM.
Natürlich ist gelegentlich auch ein Mangel an Wissen über „Supply Chain
Management“ und die Vorteile einer vertikalen Integration von Planungssystemen für
die unzureichende Verbreitung von SCM-Tools verantwortlich. Manche Lieferanten
hängen dem Glauben nach, dass sie auch auf der Basis ausgefeilter
Tabellenkalkulationsprogramme in einem anspruchsvollen
unternehmensübergreifenden Bedarfs-/Kapazitätsmanagement mitspielen können. In
diesem Zusammenhang muss ausdrücklich auf die Nachteile von Spreadsheets
hingewiesen werden:
-
Spreadsheets basieren auf lokaler Datenhaltung. Sie erzwingen deshalb keine
Datenkonsistenz und –integrität.
-
Spreadsheets sind zwar hoch flexibel und einer jederzeitigen Manipulation
offen. Wenn diese Flexibilität jedoch genutzt wird, kennt bald niemand mehr
den aktuellen Planungsstand bzw. die Umstände seiner Veränderung.
-
Aufgrund ihrer Speicherung als individuelle Dateien sind Planungen auf der
Basis von Spreadsheets nicht mit dem in Betrieb befindlichen ERP-System
integriert. Sie können deshalb nur sehr begrenzt (jedenfalls nicht automatisch)
historische Daten als Planungsgrundlage ausbeuten (etwa im Rahmen von
Zeitreihenextrapolationen für eine Absatzprognose).
-
Spreadsheets basieren oft auf „selbstgestrickten“ Planungsmethoden, die
keine Restriktionen berücksichtigen können und deshalb Pläne generieren,
deren Machbarkeit unklar ist.
Auch und gerade für Supply Chain Management gilt deshalb die alte DV-Weisheit
„Garbage in – garbage out“. Zulieferer, die ihren Kunden Terminzusagen auf der Basis
von Tabellenkalkulationsprogrammen übermitteln, werden deshalb dem „Available-toPromise-Konzept“ in keiner Weise gerecht.
Was Zulieferern in diesem Zusammenhang oft nicht hinreichend klar ist, sind die
großen Chancen, die im Rahmen von Supply Chain Management darin liegen, über
IT-basierte Zusatzservices eine engere Kundenbindung zu schaffen und durch
beiderseitige spezifische Investitionen in ihre gemeinsame Schnittstelle die Kosten
eines Lieferantenwechsels zu erhöhen. Ein sehr anschauliches Beispiel hierfür ist ein
weiteres Teilkonzept von Supply Chain Management mit Namen „Vendor Managed
18
Inventory“ (VMI). Auch bei dessen Implementierung können Teilfunktionen von
Advanced Planning Systems nützlich sein. Eine nähere Erläuterung dieses Konzeptes
schafft das notwendige Prozessverständnis und erschließt damit die Sicht auf die ITseitigen Anforderungen zu seiner Realisierung.
VMI entsteht durch die Übertragung eines Versorgungsprozesses auf den Lieferanten
einer Warengruppe. Es kann insoweit als eine Variante des Logistik-Outsourcings
betrachtet werden, bei der der fremd vergebene Leistungsumfang allerdings nicht
einem Dienstleister, sondern einem Produzenten übertragen wird. Kunde und Lieferant
vereinbaren dabei in der Regel einen Bestandsreichweiten-Korridor, innerhalb dessen
der Lieferant den Nachschub für seinen Auftraggeber selbständig organisiert und
steuert. Die Grenzen dieses Korridors sollen sicherstellen, dass es weder zu
Fehlbeständen noch zu Überbeständen kommt. So übernimmt beispielsweise das
Edelstahlwerk Witten Krefeld (EWK) die Bestandsplanung für drei seiner Top-Kunden,
darunter die Flender-Gruppe als Hersteller von Getrieben und Kupplungen. EWK
berichtet von Bestandssenkungen um über 50% bei gleichzeitiger Verkürzung der
Lieferzeiten um 20%.
Innerhalb dieses Reichweitenkorridors kann sich der Lieferant dispositiv frei bewegen.
Eines förmlichen Auftrages als Impuls für das Anstoßen einer Nachlieferung bedarf es
nicht mehr (wohl aber eines Lieferavises). Damit kommt als erste Quelle von
Einsparungen eine Senkung von Transaktionskosten ins Blickfeld, die zusätzlich noch
durch die gleichzeitig erfolgende Automatisierung von Abläufen verstärkt wird. Der
Kunde wird von Bestandsprüfungen, Bestellmengenrechnungen sowie der Erstellung
und Kommunikation von Aufträgen befreit.
Häufig wird VMI mit dem Konsignationsprinzip gekoppelt, demzufolge der
Eigentumsübergang auf den Abnehmer erst nach der Lagerentnahme, dem Verbauen
oder (im Handel) nach dem Weiterverkauf erfolgt. In den beiden letztgenannten Fällen
spricht man auch von „Pay on Production“ bzw. von „Pay on Scan“. Für die Supply
Chain insgesamt ist mit einer solchen Verschiebung der Finanzierungslast allerdings
nicht viel gewonnen. Die entscheidenden Vorteile sind an anderer Stelle zu suchen.
Ihre Grundlagen sind aus Lieferantensicht die verbesserte Visibilität auf zu erwartende
Bedarfe, die Vergrößerung der Dispositionsspielräume in der Produktions- und
Transportplanung und die engere Kundenbindung.
In einer einfachen Grundvariante wird dem Lieferanten ein tagesaktueller Einblick in
die Entwicklung der Bestände seiner Produkte im Lager seines Kunden gewährt.
Damit sieht er zukünftige Bedarfe schon etwas eher auf sich zukommen als im „Status
Quo Ante“, wo Bedarfe erst nach ihrer Konkretisierung in Aufträgen kommuniziert
wurden. Sein volles Potenzial kann das VMI-Konzept jedoch erst entfalten, wenn der
Abnehmer seinen Zulieferer mit zusätzlichen Informationen über sein eigenes
Absatzgeschehen versorgt. Das kann durch die Weitergabe von aktuellen
Absatzzahlen (z.B. Point-of-Sale-Daten) geschehen, die der Lieferant dann allerdings
in Bedarfe nach seinen Produkten umrechnen muss.
In der Praxis dürfte das aber nur bei einfachen, „rezeptartigen“ Stücklisten problemlos
funktionieren. Bei breiteren und tieferen Stücklisten müsste der Kunde seinem
Lieferanten diese Arbeit abnehmen und ihn über die Ergebnisse seiner eigenen
Absatz-, Produktions- und Beschaffungsplanung (technisch gesprochen: seiner MRPLäufe) informieren. Mit einer solchen Transformation von prognostizieren
Bruttoprimärbedarfen in terminierte Nettosekundärbedarfe würden sich dann die
19
Bedarfssignale von den Kunden des Kunden kalenderzeit- und mengengenau auf den
(VMI-)Lieferanten übertragen lassen.
Soweit eine derart weitgehende Prozessintegration technisch zu aufwändig erscheint
oder aus anderen Gründen nicht gewollt wird, sollte der Abnehmer seinen Lieferanten
mindesten mit aktuellen Informationen über bedarfstreibende Sonderereignisse
versorgen, deren Konsequenzen aus vergangenen Lagerabgängen nicht
hochgerechnet werden können. Beispiele hierfür sind etwa Promotionen oder
Großkundenverluste. Wo dies nicht geschieht, kann die dem Lieferanten überlassene
verbrauchsorientierte Umrechnung von Lagermengen in Bestandsreichweiten fallweise
zu nicht belastbaren Werten führen. Mangels Verzahnung der Planungsprozesse wird
die Nachschubsteuerung an „transactional data“ gehängt und die Visibilität bleibt auf
Lagerabgänge beschränkt. Auch das kann jedoch, wie sich inzwischen durch viele
praktische Implementierungen belegen lässt, schon ein beachtlicher Vorteil sein.
Zunächst einmal kann die Reduzierung von Überraschungen für eine Absenkung der
benötigten Sicherheitsbestände genutzt werden. Sofern die Flexibilität der Produktion
des Lieferanten eine Nachversorgung des Kundenbestandes aus laufender Fertigung
ermöglicht, kann aus der Supply Chain sogar eine Lagerstufe komplett eliminiert
werden. Die erhöhten Dispositionsspielräume, die der Zulieferer als Lead-TimeVerlängerung für seine Fertigungsplanung nutzen kann, begünstigen ein solches
Modell. Sie können über Reihenfolge- und Losgrößenoptimierungen ihren
Niederschlag im Prinzip auch in einer Senkung der Produktionskosten finden. Die
rechnerische Antizipation solcher Effekte ist in der Praxis allerdings schwierig. Einen
Business Case wird man auf diesem Effekt deshalb kaum aufbauen können.
Etwas einfacher geht dies dagegen mit den Effekten einer integrierten Bestands- und
Tourenplanung. Im Ausgangszustand werden Entscheidungen des Abnehmers über
Bestellmengen und -zeitpunkte ohne Rücksicht auf die daraus resultierende
Auslastung der Zustellfahrzeuge getroffen. Die durch VMI ermöglichte Strategie, einen
Nachschub situationsabhängig schon vor Erreichen des jeweiligen Bestellpunktes
anzustoßen, um so die Entwertung von freiem Laderaum auf einem LKW zu
verhindern, kann die durchschnittliche Fahrzeugauslastung je nach Ausgangslage und
kritischer Masse in einer Größenordnung von 8 bis 12 % anheben. Bei sehr vielen
Produkten ist eine leichte Erhöhung der Bestandsreichweite als Folge dieses fallweise
praktizierten Pushprinzips ökonomisch weit weniger relevant als die Verschwendung
von Ladefläche. Die Bilanz dieses Konzeptes ist daher in diesem Punkt meist
eindeutig positiv. Allerdings macht es nur Sinn, wenn der Lieferant eigene
Ausliefertouren disponiert (idealerweise auf Basis einer Tourenplanungssoftware) oder
durch einen Dienstleister disponieren lässt. Bei einer Nutzung von speditionellen
Stückgutnetzen, die bei kleineren Sendungsgrößen und weiten Lieferradien üblich ist,
gibt es diesen Effekt nicht.
Die Ausschöpfung des hier beschriebenen VMI-Potenzials basiert zwar auf moderner
Informations- und Kommunikationstechnologie, sollte aber wiederum nicht als reines
IT-Projekt missverstanden werden. Die geänderte Rollenverteilung bedingt nicht nur
eine Überzeugung konventionell geprägter Einkäufer, sondern generell den Aufbau
einer beiderseitigen Vertrauensbasis, ohne die sensible Daten nicht fließen können.
Insoweit stellt auch Vendor Managed Inventory eine Herausforderung an das ganze
Management dar.
20
2.4 IT-Lösungen auf der Ausführungsebene („Fulfillment“)
Obwohl sie auf einer logischen Ebene leicht einsehbar gemacht werden kann, ist die
Trennung zwischen Planung und Durchführung in der Praxis nicht immer ganz
trennscharf möglich. Das liegt daran, dass auch operative, d.h. auf physische
Veränderungen von Gütern (einschließlich der Änderung ihrer Raum-Zeit-Koordinaten)
gerichtete Prozesse immer wieder von Entscheidungen durchsetzt sind. Der
Unterschied liegt insoweit eher in der Länge der „Planungs“-Horizonte als in einem
Wechsel des Prinzips. Ein anschauliches Beispiel hierfür liefert etwa ein
Staplerleitsystem, das die Bewegungen von Flurförderfahrzeugen in einem Lager
unter Echtzeitbedingungen steuert. Etwas stärker zeitlich entkoppelt vom zugehörigen
operativen Geschehen sind in der Regel die Tourenplanungen von Disponenten im
Rahmen der Steuerung von Nahverkehrsfahrzeugen in der Flächendistribution.
Gemeinsam ist beiden Aktivitäten, dass sie nicht auf antizipierten Bedarfen beruhen,
sondern auftragsgetrieben vollzogen werden.
Beide Beispiele zeigen, dass Informations- und Kommunikationstechniken auch im
operativen logistischen Geschehen ihre Bedeutung haben. Das zeigen auch die
namhaften Softwarehersteller, wenn sie Teile ihrer Programmsuiten unter der
Überschrift „Supply Chain Execution“ vermarkten. Heutige Warehouse-ManagementSysteme etwa ermöglichen eine zeitnahe und ortsbezogene Verwaltung von
Lagerbeständen und unterstützen die Prozesse des Ein- und Auslagerns sowie des
Kommissionierens. Weitere Funktionen sind u.a Chargenverfolgung,
Mindestmengenüberwachung und die Unterstützung von Inventuren. Zu einem sehr
großen Teil richten sich diese immer komplexer werdenden Tools jedoch auf
Steuerungsprobleme innerhalb einzelner Unternehmen, d.h. sie fallen nicht unter die
Überschrift „Supply Chain Management“.
Das gilt nicht mehr, wenn man sich von der unmittelbaren Steuerung physischer
Prozesse löst und die darüber liegenden administrativen „Workflows“ mit einbezieht.
Hier gibt es zahlreiche Beispiele für erfolgreiche unternehmensübergreifende
Integrationen von Aktivitäten, die nicht als Ausführung von Plänen verstanden werden
können, weil sie unmittelbar auftragsgetrieben sind. Jeder, der schon einmal ein Buch
bei Amazon bestellt hat, weiß, dass er mit seinem Auftrag unmittelbar einen
Fulfillment-Prozess auslöst, der physische und administrative Aktivitäten umfasst und
weitestgehend automatisiert ist. In einem B2B-Kontext ist das Order Placement bei
fortgeschrittenen IT-Lösungen oft noch verbunden mit Verfügbarkeits- und
Machbarkeitsprüfungen und der Bestätigung von Lieferterminen. Welche innovativen
Lösungen im Bereich Order Fulfillment da möglich sind, lässt sich besonders
anschaulich am Beispiel der Ersatzteillogistik demonstrieren.
Die Ersatzteillogistik zeichnet sich durch das Zusammentreffen einiger Merkmale aus,
die Logistikern Kopfschmerzen bereiten können. Ein breites Artikelspektrum mit einem
hohen Anteil nur sporadisch nachgefragter Teile, hohe Folgekosten der NichtVerfügbarkeit infolge Maschinenstillstands und daraus folgende Anforderungen an
sehr kurze Lieferzeiten sowie hohe Verfügbarkeitsgrade erfordern einerseits eine
weitgehende Zentralisierung der Lagerhaltung. Andererseits sind sehr kurze
Lieferzeiten nur auf der Basis kundennaher, also dezentraler Bestände möglich.
Aufgrund der sporadischen Teilenachfrage und der begrenzten Prognostizierbarkeit
des Teilebedarfs ist es kaum möglich, die von Kunden geforderte hohe
Lieferbereitschaft aus lokalen Sicherheitsbeständen heraus zu befriedigen. Eine
intelligentere Lösung kann darin bestehen, lokale Lager softwarebasiert zu einem
21
virtuellen europäischen Zentrallager zu verknüpfen. Woher der Kunde seine Ware
erhält, kann dann fallweise nach regionaler Verfügbarkeit entschieden werden.
Innerhalb gewisser Grenzen wird dann Lagerhaltung durch grenzüberschreitende
Transporte substituiert. Die Folge: die Lieferbereitschaft des Gesamtsystems liegt
erheblich oberhalb der Lieferbereitschaft jedes einzelnen Lagers.
Ein anderer Ansatz für Effizienzsteigerungen im operativen Bereich betrifft die
automatische Verarbeitung von strukturierten Verwaltungsaufgaben, die in einem
„Execution“-Kontext anfallen. Ein anschauliches Beispiel hierfür liefern sogenannte eProcurement-Systeme. Diese Systeme ermöglichen nicht nur Online-Bestellungen (in
der Regel von häufiger benötigten C-Artikeln, bei denen die administrativen
Bestellkosten schwerer wiegen als der Materialwert) aus einem elektronischen
Katalog, sondern automatisieren und beschleunigen auch die
hierarchiestufenübergreifende „Genehmigungsschleife“, die bestellwertabhängig
notwendig sein kann. Der dadurch ermöglichte Zusatznutzen reicht von einem
komfortablen Navigieren in umfassenderen Katalogen über die Verkürzung von
Verwaltungsdurchlaufzeiten und die ersparten Datenerfassungskosten beim
Lieferanten oft bis hin zu ersparten Lager- und Handlingkosten durch direkte
Arbeitsstättenbelieferungen.
Fortschrittliche „Spend-Management“-Systeme liefern darüber hinaus
Auswertungsmöglichkeiten für die Beschaffungsaktivitäten in einem Unternehmen, die
wiederum Einkäufern und Katalogmanagern bei der Sortimentsbildung und
Preisgestaltung helfen. Ein nicht nur als Nebenwirkung interessanter weiterer Effekt ist
eine Verringerung des sogenannten „Maverick-Buying“ (Kaufen außerhalb offizieller
Rahmenkontrakte). Bei den betroffenen C-Artikeln beträgt der Anteil am
Beschaffungsvolumen oft nur 5%, der Anteil an den Bestellvorgängen liegt dagegen
eher über 60 %. Der Online-Einkauf („Desktop Purchasing“) kann diese
Beschaffungskosten um bis zu 80% senken.
IT-Systeme verbessern Informationsgewinnungs- und Verarbeitungsprozesse. Es ist
insoweit verständlich, dass man sich angewöhnt hat, Anwendungsfälle primär im
Bereich administrativer Prozesse zu suchen. Zum Abschluss dieses Kapitel sei
deshalb ein praktisches Beispiel aufgegriffen, dass aufzeigt, wie eng operative und
darüber liegende informatorische Prozesse verzahnt sein können und wie sehr letztere
helfen können, physische Aktivitäten zu vereinfachen. Das Beispiel ist auch deshalb
interessant, weil es unternehmensübergreifende Prozesse betrifft und weil IT hier eine
grundlegende Rolle beim Redesign gespielt hat.
Ein führender Anbieter von Kinematikprodukten für den Fahrzeuginnenraum
(Aschenbecher, Brillen-, Getränke- und Handyhalter etc.) hat über ein elektronisches
Kanban-System ein nach dem „Go and See-Prinzip“ betriebenes, zweistufiges
Lagersystem durch eine bestandsarme, sequenzgenaue Anlieferung nach dem PullPrinzip ersetzt und dabei unter anderem die Anzahl der Handlingvorgänge von 26 auf
11 reduziert.
Das Kanban-Prinzip selbst ist bereits seit über 50 Jahren industrielle Praxis. Auf der
Basis einer Steuerung durch Karten wird sichergestellt, dass eine Fertigungsstelle mit
Bedarfsträgerstatus sich reibungslos aus einem Teilepuffer versorgen kann, in den
hinein die vorgelagerte Produktionsstufe nie mehr produzieren darf, als gerade
entnommen wurde. Diese im Ursprung IT-freie Steuerung vermaschter Regelkreise
kann durch eine Unterlegung mit Software in mehreren Aspekten verbessert werden.
Zum Beispiel lässt sich der Informationsfluss über erwartbare Aufträge beschleunigen,
22
wenn man ihn vom Fluss der Karten entkoppelt. Vor allem aber sind in einem
elektronischen Kanban-System alle Materialflussdaten in auswertbarer Form
verfügbar. Die Verknüpfung dieser Daten mit Hilfe leistungsfähiger
Simulationswerkzeuge kann dann etwa dazu beitragen, die Kartenanzahl und den
zugehörigen Entkopplungspuffer besser an die Bedarfsschwankungen anzupassen
oder die Reihenfolge der Auftragseinlastung zu verbessern. Das Kanban-System wird
dann zugleich robuster und schneller.
In dem angeführten Praxisbeispiel war freilich weder das Kanban-Prinzip noch dessen
„Elektronisierung“ allein für den Erfolg ausschlaggebend. Erforderlich war vielmehr ein
detailgenaues Redesign ineinander greifender Arbeitsabläufe, wobei das SCMtypische in dem Zwang bestand, einen Geschäftsprozess über Unternehmensgrenzen
hinweg ganzheitlich zu sehen und neu zu gestalten. Aufgrund dieser Notwendigkeit
lautet einer der im Supply Chain Management am häufigsten gebrauchten Begriffe
„Collaboration“.
2.5 IT-Lösungen auf der Kontrollebene
Wie eingangs bereits herausgearbeitet, sind fortgeschrittene Planungssysteme
(„Advanced Planning Systems“) zu einem der Hoffnungsträger des modernen Supply
Chain Managements avanciert. Sie sollen logistische Prozesse überraschungsärmer
machen, indem sie die Planung des Ressourceneinsatzes auf besseren
Bedarfsprognosen basieren, vor allem aber dadurch, dass sie ein Übersehen von
Engpässen im Planungsprozeß als Quelle späterer Überraschungen ausschließen.
Durch „Supply Chain Collaboration“ sollen dabei auch vor- und nachgelagerte
Wertschöpfungsstufen integriert werden. Auch knappe Zuliefererkapazitäten können
dann nur noch begrenzt zum Anlass nachträglicher Planrevisionen werden.
Innerhalb dieser Vision eines durchgehenden, ganze Supply Chains umfassenden
„Constrained Based Planning“ gibt es schließlich nur noch belastbare
Lieferzeitzusagen („Available to Promise“). Als hauptsächlich störender Restfaktor, der
die Supply Chain zu Planrevisionen veranlassen könnte, verbleibt der Kunde. Da die
Planungssysteme gleichzeitig immer leistungsfähiger werden, erscheint dieses Risiko
jedoch im Prinzip verkraftbar. Man generiert einfach bei unvorhergesehenen
Bedarfsverschiebungen in immer kürzeren Abständen neue Planaufwürfe, die dann
wiederum zwar nicht gegen abweichende Kundenwünsche, wohl aber gegen
Überraschungen aus dem Bereich der Supply-Chain-Kapazitäten gefeit sind. Wie
weiter oben bereits angedeutet, wird sich diese schöne neue Welt jedoch nie
vollständig durchsetzen lassen. Die Barrieren liegen dabei nicht primär auf dem Felde
der Planungstechnik.
Zunächst wird es in einer wettbewerbsgetrieben Wirtschaft, in der bei aller Rede von
den Vorteilen der Integration auch weiterhin Geschäftspartner gewechselt werden,
kaum möglich sein, immer alle „Spieler“ einer Supply Chain auf dem gleichen
Integrationsniveau in den Planungsprozeß einzubeziehen. Damit bleibt der Supply
Chain aber das Risiko verborgener Bottlenecks im Prinzip erhalten. Zum anderen kann
auch bei den integriert planenden Supply-Chain –„Gliedern“ das Leistungsvermögen
der verplanten Kapazitäten unterhalb der Sollwerte bleiben (Maschinen können
ausfallen, Material sich als unbrauchbar erweisen, Schiffe in schwere See kommen
etc.). Und schließlich sind erfahrungsgemäß viele der unter Einsatz dieser Kapazitäten
ablaufenden Arbeitsprozesse in ihren Zeitbedarfen nicht hinreichend stabil.
23
Rein theoretisch kann man auf Abweichungen zwischen dem planerisch unterstellten
Leistungsvermögen von Produktions- und Logistikkapazitäten und dem, was diese
Ressourcen dann tatsächlich hergeben, genauso reagieren wie auf nicht antizipierte
Bedarfsverschiebungen: indem man unter Ausnutzung der gewaltig angewachsenen
Rechnerkapazitäten die Planungszyklen immer weiter verkürzt und dabei die
Planungsbedingungen immer häufiger aktualisiert. Man käme so schließlich von einer
weiter vorausgreifenden Planung, die mit auskömmlichen „Einfrierzeiten“ und
zugehörigen Puffern operiert, zu einer nahezu permanenten, weitgehend reaktiven
Real-time-„Planung“. Das erscheint verlockend, weil es dann keine Ad-Hoc-Lösungen
plötzlich auftretender Probleme mehr gäbe, sondern nur noch „Entscheidungen“, die
einer rechnergestützten Optimierung entspringen.
Drei Gründe lassen diesen Ansatz scheitern:
-
Wie im Zusammenhang mit der Beschreibung der Leistungsfähigkeit von
Advanced Planning Systemen bereits hervorgehoben, verlieren diese Systeme
in dem Moment ihre (Anpassungs-) Geschwindigkeitsvorteile, indem sie mit
den ihnen zugrunde liegenden ERP-Systemen kommunizieren müssen, um
Basisdaten über veränderte Rahmenbedingungen als Planungsgrundlage
hochzuladen und/oder um das Ergebnis der Planung an die Exekutionsebene
herunter zu reichen.
-
Hochreagible, unternehmensübergreifend integrierte Planungssysteme, die
auch auf kurzfristige Änderungen des „Datenkranzes“ immer wieder mit einem
neu aufgeworfenen Gesamtplan antworten könnten, würden den
Managementprozess in letzter Konsequenz nicht besser, sondern nur nervöser
machen und in eine ungesunde operative Hektik umschlagen.
-
Selbst wenn sich die Anpassungsfrequenz von Plänen in Richtung auf eine
Real-Time-Planung vorantreiben ließe, wäre die Reaktionsgeschwindigkeit bei
ad hoc auftretenden Lieferverzögerungen immer noch unakzeptabel hoch.
Infolgedessen wird es auch bei einer weit vorangetriebenen Perfektionierung unserer
Planungssysteme immer die Notwendigkeit eines ergänzenden „Exception
Management“ geben, das nach einer anderen Logik funktioniert und das
dementsprechend mit einer anderen Systemunterstützung ablaufen muss. Die Logik
ist die des Feuerwehreinsatzes: schnelles „lokales“ Ad-Hoc-Handeln unter Preisgabe
des Anspruchs, alle Randbedingungen, Determinanten und Optionen in einem
aktualisierten Gesamtplan vollständig zu berücksichtigen.
Damit taucht das „Supply Chain Event Management“ (SCEM) als „Zwilling“ des Supply
Chain Planning auf, der immer dann für seinen Bruder einspringen muss, wenn der es
mal wieder nicht geschafft hat. Wenn man Supply Chain Execution als die
realisierende Umsetzung von Plänen begreift, erscheint SCEM als ein ergänzender
Ansatz, der eine methodische Lücke zwischen Planung und Realisierung schließt.
SCEM kompensiert Planungsversagen, setzt dabei aber eine bestimmte Art von
„Planung“ voraus. Um aus Statusinformationen, also den Ist-Werten, wesentliche
Abweichungen vom Sollprozess, also die „Events“, zu erkennen, muss man vorher
einen geplanten Ablauf und damit hinreichend präzise Zielvorgaben generiert haben.
„Planung“ ist in diesem Kontext allerdings nicht in dem bislang gebrauchten Sinn als
ein zu einer Ressourcenallokation führender vorsteuernder Entscheidungsprozess zu
verstehen, sondern als Zeitbudgetierung für logistische Prozesse. Es muss z.B. vorab
24
festgelegt werden, wie lange ein Containerumschlag in einem Seehafen maximal
dauern darf, damit es für die Identifikation von kritischen Zeitverlusten ein „Benchmark“
gibt.
Diese Budgetwerte (im Sinne von zulässigen Höchstdauern für einzelne
Teilaktivitäten) lassen sich dann nach dem konkreten Start einer logistischen
Prozesskette zu kalendarisch fixierten Termingrenzen umwandeln. (Ein bestimmter
Container muss dann etwa bis Donnerstag Abend aus dem Hafen herauskommen).
Informationstechnisch erfüllen solche Planwerte noch zwei weitere wichtige
Funktionen:
-
in ihrer Gesamtheit können sie zu einem Filter umgewandelt werden, mit
dessen Hilfe die Informationsflut gemessener Prozesswerte auf diejenigen
Statusmeldungen reduziert werden, die kritisch sind.
-
Das System kann proaktiv ausgestaltet werden. Der User muss nicht mehr
selbst nachfragen, ob bei einem kritischen Prozess alles in Ordnung ist,
sondern kann darauf setzen, dass er unaufgefordert benachrichtigt wird, wenn
dies nicht der Fall ist. Damit werden Informationen über „in time“ verlaufende
Prozesse ökonomisch wertlos: sie beseitigen keine Unsicherheit mehr.
Wer die Entwicklung in der Logistik im letzten Jahrzehnt verfolgt hat, dem fällt ein
Paradoxon erster Güte ins Auge: Entwicklungsgeschichtlich betrachtet fallen die
Bemühungen um eine Verbesserung der Planungssysteme im Supply Chain
Management zusammen mit organisatorischen Veränderungen, die die Planbarkeit
logistischer Abläufe nachhaltig verschlechtern: zunehmende Variantenvielfalt und
abnehmende Produktlebenszyklen überlagern sich in ihrer Wirkung auf
Planungsprozesse mit dem Abbau von Entkopplungspuffern („Just in time“), der
Reduktion der Kontrollspanne in Fertigungsprozessen („Outsourcing“) und der
weltweiten Standortteilung („Globalisierung“).
Die hochgradig arbeitsteiligen und gleichzeitig pufferarmen Wertschöpfungsketten
unserer Tage haben ihren Preis, der sich in einer gestiegenen Störanfälligkeit bei
gleichzeitig steigenden Fehlerfolgekosten manifestiert. Logistikmanager merken dies
im Tagesgeschäft dadurch, dass sie einen immer größeren Anteil ihrer Arbeit nicht mit
Planung, sondern mit „Exception Management“ verbringen. Der dunkle, in den oberen
rechten Quadranten weisende Pfeil in Abb. 5 zeigt, wo die Entwicklung hingeht, wenn
wir nicht gegensteuern. SCEM kann vor diesem Hintergrund als ein methodischer
Ansatz verstanden werden, Planabweichungen in logistischen Abläufen seltener und
die Reaktionen darauf intelligenter zu machen.
25
Folgekosten
hoch
JIT, Outsourcing,
Globalisierung,...
mittel
Supply Chain Event
Management
niedrig
niedrig
mittel
Fehlerwahrscheinlichkeit
hoch
Abbildung 5: Zielrichtung des Eventmanagement
Obwohl es eigentlich vielversprechender erscheint, im ersten Schritt alle Kraft darauf
zu verwenden, die Eintrittswahrscheinlichkeit von Fehlern zu reduzieren (dies ist nicht
nur eine Frage wirklichkeitsnäherer Pläne, sondern vor allem auch eine Frage
stabilerer Prozesse, also ein Organisationsproblem), liegt der Fokus der bislang
entwickelten SCEM-Ansätze eindeutig in einer Reduktion der Folgekosten
eingetretener Fehler. Der Hauptansatzpunkt hierfür ist die Gewinnung von
Reaktionszeit nach einer manifest gewordenen Soll-Ist-Abweichung. Aufgrund dieses
Fokus lassen sich die bisherigen SCEM-Ansätze in methodischer Betrachtung auch
als informationslogistische Konzepte einstufen: sie sind darauf gerichtet,
Fehlermeldungen schnellstmöglich dorthin weiterzuleiten, wo Gegenmaßnahmen
eingeleitet werden können.
Aus solchen Systemen heraus können auch Maßnahmen zur Reduktion der
Fehlerwahrscheinlichkeit angestoßen werden, dabei dienen diese SCEM-Systeme
jedoch zunächst nur als Impulsgeber. Sie verdichten einzelne Fehlermeldungen auf
einer „höheren“ Ebene zu Statistiken und geben damit Signale, wenn sich das
Qualitätsniveau eines Prozesses insgesamt verschiebt. Was darauf hin gemanaged
wird, ist nicht mehr das einzelne „Event“, sondern der Prozess „als solcher“. Ob man
die so angestoßenen Reorganisationsprozesse und die daraus resultierenden
Fehlerprophylaxen noch als Teil des SCEM betrachtet, ist eine Definitionssache. Wir
gehen am Ende dieses Kapitels auf die Kennzahlenthematik noch ausführlicher ein.
Tatsache ist, dass die bisherigen SCEM-Konzepte, soweit sie sich in entsprechenden
Softwaretools niederschlagen, allesamt um die Frage kreisen, wie man durch einen
Gewinn von Reaktionszeit Fehlerfolgekosten reduzieren kann. „Events“ werden nicht
unwahrscheinlicher gemacht oder gar verhindert, sondern entschärft. Fehlerstatistiken
erscheinen vor diesem Hintergrund eher als „Abfallprodukt“, obwohl sie in
methodischer Hinsicht natürlich von großer Wichtigkeit sind. Sie sind die
26
Voraussetzung dafür, dass eine Organisation aus ihren Fehlern (genauer: aus deren
Wiederholung) lernen kann.
Im Gegensatz zu APS-Systemen basieren SCEM-Systeme nicht primär auf Daten
über die Verfügbarkeit von Kapazitäten, sondern auf Informationen über
Prozesszustände („Status“). Typische Informationen dieser Art sind „Tracking-Signals“
von den Produktionssystemen logistischer Dienstleistungsunternehmen wie
Ablieferbestätigungen oder Hinweise auf sich abzeichnende Verspätungen innerhalb
einer mehrstufigen Transportkette.
Statusinformationen beschreiben Prozesszustände nach vorgegebenen Merkmalen.
Diese Merkmale können die Qualität von Produkten als Logistikobjekten betreffen
(etwa die Kerntemperatur eines zu transportierenden Speiseeises). Insbesondere bei
Zwischenschritten mehrstufiger Prozessketten, an denen es nicht zu Eigentums- und
Gefahrübergängen kommt, beschreiben sie jedoch oft nur die Koordinaten eines
Logistikobjektes (z.B. eines Fahrzeuges oder eines Teiles seiner Ladung) in Raum
und Zeit („Wann ist das betrachtete Objekt wo?“).
Statusinformationen sind die Grundlage für das Reporting kritischer Ereignisse, der
sogenannten Events. Der entscheidende Unterschied zwischen Status und Event ist
das Merkmal der „Wesentlichkeit“ und, daraus abgeleitet, das Merkmal der Häufigkeit.
Jeder Prozeß lässt sich als unendliche Abfolge von Status interpretieren, von denen
jedoch nur wenige als Handlungsimpulse relevant sind: eben die fokussierten
„Events“. Zur Illustration mag ein Beispiel aus dem Alltagsleben dienen: Die Nachricht
einer Verspätung in einem ICE wird von einem Status zu einem Event, wenn diese
Verspätung ein Ausmaß erreicht, dass man den geplanten Anschlusszug zu
verpassen droht.
Eine weitere wichtige Eigenschaft von Events ist am gleichen Beispiel ableitbar,
nämlich die Kontextabhängigkeit ihrer Bedeutung. Nicht jeder Reisende benötigt den
gleichen Anschlusszug, daher ist auch nicht jede Verspätung für jeden Reisenden
gleich wesentlich. Mit anderen Worten: Events sind für bestimmte Adressaten
wesentliche Statusveränderungen.
Aufgrund der Kontextabhängigkeit der Bedeutung von „Events“ ist mit der Auswahl des
richtigen Adressaten ein eigener Wertschöpfungsprozess verbunden (zumal dies
innerhalb größerer Organisationen und langer Prozessketten kein leichtes
Unterfangen ist). Damit werden interne Informationswege und umständliche
Rückfragen eliminiert, die verzögernd wirken, und somit wird der faktische Zeitwert
erhöht. Die Methode, Events an alle Instanzen zu versenden, ist demgegenüber als
Sackgasse zu werten. Selbst bei einer Begrenzung der kommunizierten Statusdaten
auf „Alerts“ kostet die nicht-selektive Informationsflut auf den Einzelnen noch unnötig
viel Lesezeit. (Nicht umsonst beklagen immer mehr Unternehmen z.B. die e-Mail-Flut,
die ihre Mitarbeiter überschwemmt.)
Die Steuerung des richtigen Weges, in den Statusinformationen gelenkt werden sollen,
bedingt rein logisch betrachtet eine Antizipation des Wertes, den diese Information für
einzelne Adressaten haben kann. Beispiel: Die verspätete Anlieferung eines Artikels
im Lager führt zu einer Out of Stock-Situation. In diesem Fall ist der disponible
Bestand (=physischer Bestand + Bestellbestand) zwar hinreichend hoch, weil ja die
erwartete Lieferung mit berücksichtigt wird, der physische Bestand ist aber null und
somit könnte kein Produktionsprozess starten, der diesen Artikel benötigt. Für die
Einkaufsabteilung und Produktionsabteilung hat dieselbe Statusinformation also einen
27
anderen Kontext. Die Einkaufsabteilung wartet weiter auf die Lieferung und muss
nichts tun, während die Produktionsabteilung ihre Planungen verschiebt und dabei
auch Liefertermine verändert, die wiederum die Vertriebsabteilung dem Kunden
beichten muss.
Das Beispiel zeigt, dass auch die Bestimmung der Instanz, für die das Event
interessant ist, nicht trivial ist und immer vom übergeordneten logistischen Prozess
abhängt. Aus der Tatsache, dass die Interpretation von Statusinformationen und die
Ableitung entsprechender Anpassungsmaßnahmen nur auf der Ebene der jeweiligen
Prozesseigner stattfinden kann, folgt auch, dass Logistikdienstleister ihre
„Eindringtiefe“ in die Verladerorganisation erhöhen müssen, wenn sie den Schritt vom
Zulieferer von Statusdaten zum Eventmanager anstreben. Das in Kapitel 3.2
beschriebene Modell eines „Fourth Party Logistics Provider“ zeigt einen möglichen
Weg dorthin.
In den Marktprognosen der einschlägigen Institute werden SCEM-Tools durchgängig
sehr hohe Wachstumspotenziale zugewiesen. Der in der Praxis unbezweifelbar
zunehmende Bedarf stößt freilich auf eine Landschaft noch entwicklungsbedürftiger
Instrumente. Man kann die noch einer Lösung harrenden Probleme gut einkreisen,
wenn man von der Plattform der in sich bereits gut entwickelten Tracking and TracingSysteme der Logistikdienstleister startet und fragt, was man über die aus diesen
Systemen heraus bereits verfügbaren Informationen denn noch zusätzlich braucht, um
ein voll funktionsfähiges SCEM im hier verstandenen Sinne betreiben zu können. Das
nachstehende Schaubild (Abbildung 6) beschreibt die Defizite herkömmlicher Tracking
& Tracing-Systeme und zeigt damit indirekt auf, was man von einem Supply Chain
Event Management-Sytem zusätzlich erwarten sollte.
Begrenzung
Begrenzungauf
aufTransportsektor
Transportsektor
Mangel
dienstleisterübergreifendenLösungen
Lösungen
Mangelan
andienstleisterübergreifenden
Mangel
verkehrsträgerübergreifendenLösungen
Lösungen
Mangelan
anverkehrsträgerübergreifenden
Unzureichende
UnzureichendeStandardisierung
Standardisierungbei
beiDatenidentifikation,
Datenidentifikation,
--übertragung
und
-verarbeitung
übertragung und -verarbeitung
Begrenzung
Begrenzungder
derInformationen
Informationenauf
aufSchnittstellen-Ereignisse
Schnittstellen-Ereignisse
Aufwendige
Referenzierung
Geringe Datenaktualität
Mangelhafte
MangelhafteDatenqualität
Datenqualität
Mangel
Mangelan
anproaktiven
proaktivenLösungen
Lösungen(passive
(passiveAbfragesysteme)
Abfragesysteme)
Keine
Keineanwenderspezifische
anwenderspezifischeVerteilung
Verteilungder
derInformationen
Informationen
Keine
Keineaktive
aktiveEntscheidungsunterstützung
Entscheidungsunterstützung
Keine
Keineautomatische
automatischeProblemlösungsfunktion
Problemlösungsfunktion
28
Abbildung 6: Defizite herkömmlicher Tracking&Tracing-Systeme
Werden diese Anforderungen allesamt erfüllt, so wird der derart versorgte
Logistikmanager in eine Art „Cockpit“-Situation versetzt, in der ihm
Instrumententafeln jederzeit Eingriffsnotwendigkeiten und Handlungsbedarfe
anzeigen. Idealerweise nimmt ihm das System dabei jede Art von
Referenzierungsarbeit ab (d.h. er muss nicht mehr von eigenen Lieferschein- auf
fremde Paket- oder Collinummern schließen, um den Schlüssel für Recherchen zu
erhalten). Und in der Endausbaustufe wird ihm das System dann auch noch
Vorschläge für die Lösung eines akut aufgetretenen Problems machen (etwa den
Vorschlag, nach einer unerwarteten Stockout-Situation einen benötigten Artikel von
einem anderen Lagerort per Expressfracht zu verschicken, um durch
Transportbeschleunigung einen Teil der verlorenen Zeit wiederzugewinnen).
Aus dem bisher Gesagten folgt, dass die technologische Innovation moderner SCEMSysteme von einer organisatorisch-institutionellen Innovation begleitet werden muss,
um wirksam zu werden. Das primär zu lösende organisatorische Problem besteht
darin, die unmittelbare Weitergabe von Störmeldungen an eine entsprechende ITPlattform als Bringschuld auf der Ebene der logistischen Prozesseigner zu verankern.
Das kann konkret bedeuten, dass man einem selbstfahrenden Fuhrunternehmer, der
als Subcontractor eines großen Speditionsunternehmens in Südspanien mit der
Zustellung einer Palette unterwegs ist, dazu bringt, nach einer Reifenpanne eine
Handynachricht auszulösen (das Beispiel zeigt, dass umfassende und durchgehende
Prozesssichten sich nicht vollständig auf Auto-Identifikationssysteme wie etwa den
Barcode aufbauen lassen).
Die Rückkopplung von Zustandsbeschreibungen eines laufenden Prozesses ist, wie
oben bereits erwähnt, zu unterscheiden von der Messung des Prozessniveaus über
einen längeren Zeitraum. Hierzu werden einzelne Prozessresultate zu Kennziffern
verdichtet, die dem Management Hinweise geben, wann einzelne Fehlerkorrekturen
nicht mehr ausreichen, sondern an der Wiederholungswahrscheinlichkeit (also nicht
mehr nur im, sondern am System gearbeitet werden muss). Auch hier geht es um
Reaktionszeiten, aber nicht mehr um die Erfüllung eines einzelnen Auftrags, sondern
um die Anpassung des gesamten Fulfilment-Prozesses mit dem Ziel der Erreichung
eines neuen Stabilitätsniveaus. Alarmzeichen der hier angesprochenen Art sind etwa
ansteigende Terminüberschreitungsquoten oder sinkende „Fill Rates“
(Lieferbereitschaftsgrade). Die Versorgung entsprechender Kennzahlensysteme mit
Daten zählt zu den grundlegenden Anforderungen, die man nicht nur an spezialisierte
Supply Chain Event Management-Software, sondern auch an Supply Chain Execution
Systeme richten muss. Was man nicht messen kann, kann man letztlich auch nicht
vernünftig managen - weil man mit seinen Maßnahmen chronisch zu spät kommt und
sich des Erfolges der eigenen Eingriffe nicht vergewissern kann.
29
Target
Time
Target
4
Time
Abbildung 7: Kennzahlen als Frühwarnsysteme
Kennzahlen sind nicht nur unverzichtbare Kontrollgrößen, die Zielerreichungsgrade
widerspiegeln, sondern erfüllen darüber hinaus eine wichtige Funktion als
Führungsinstrumente. Sie unterstützen ein „Management by Objectives“ (Führung
durch Zielvorgaben), etwa durch die Verankerung in einer „Balanced Scorcard“ oder
durch die Kopplung mit Prämiensystemen. Eine besondere Art der Konkretisierung
von Zielvorgaben ist ihre Gewinnung aus Wettbewerbsvergleichen („Benchmarking“).
Solche Anreizsysteme können nicht nur zur Steuerung eigener Mitarbeiter, sondern
auch im Rahmen eines Lieferantenmanagements eingesetzt werden. Beides setzt
voraus, dass man nicht nur einzelne isolierte Kennzahlen definiert, sondern ein
Kennzahlensystem entwirft, dass
a) aus den strategischen Zielen des Unternehmens abgeleitet ist,
b) die Beziehungen der „KPI’s“ (Key Performance Indicators) untereinander
(insbesondere Wirkzusammenhänge) definiert, und neben den so
entstehenden Hierarchien
c) ihre Verbindung zu den einzelnen Kosten- und Erlöskategorien der Gewinnund Verlustrechnung offen legt.
Vervollständigt wird ein brauchbares Kennzahlensystem durch klare Messregeln sowie
durch Festlegungen der Datenquellen, der Aktualisierungsfrequenzen und der
Berichtswege.
Beim Arbeiten mit Kennzahlen muss man sich bewusst sein, dass gemessene
Zielabweichungsgrade in der Regel zunächst nur Symptome wiedergeben und eine
Ursachenanalyse nicht ersetzen, sondern nur anstoßen sollen. So kann beispielsweise
eine verschlechterte Termintreue auf eine reduzierte Lieferbereitschaft zurückzuführen
sein, die ihrerseits aus Lieferengpässen eines Zulieferers folgen. Oft sind die zu
30
untersuchenden Performancedefizite nicht monokausal bewirkt. So kann eine
reduzierte Lieferbereitschaft etwa auch von einer gesunkenen Qualität der
Absatzprognose herrühren, die ihrerseits mit einer veränderten ABC-Struktur des
Sortimentes (einem erhöhten Anteil schlecht prognostizierbarer C-Artikel) einhergeht.
Das hier angesprochene Beispiel zeigt, dass Kennzahlen sowohl zur Messung von
wirtschaftlicher Effizienz herangezogen werden als auch Leistungsqualitäten erfassen
können. Letzteres ist besonders relevant bei Unternehmen, die sich durch innovative
Services Wettbewerbsvorteile verschaffen wollen, die sie auf der Ebene ihrer
ursprünglichen (Hardware-)Produkte kaum noch erringen können. Hierfür lassen sich
besonders prägnante Beispiele in der Ersatzteillogistik finden, wo
Verfügbarkeitsdefizite hohe Folgekosten (z.B. ein „Aircraft on Ground“) auslösen.
Qualitätsziele werden hier oft zu entscheidenden Vorgaben für das ganze Supply
Chain Design.
Ein grundlegendes Modell für ein ausgewogenes logistisches Kennzahlensystem stellt
das SCOR-Konzept bereit. Dieses vom Supply Chain Council entwickelte Modell
basiert auf einem unternehmensübergreifend konzipierten, hierarchisch strukturierten
Referenzmodell zur Beschreibung logistischer Prozesse („Supply Chain Operations
Reference Model“). Eine wesentliche Meßgröße im SCOR-Modell ist die Cash-to-cashcycle-time. Diese beschreibt den Zeitraum, wie lange Kapital vom Materialkauf bis zur
Bezahlung durch den Kunden gebunden ist.
3. Beispiele für IT-getriebene Prozess- und Geschäftsmodell-Innovationen im
Supply Chain Management
3.1 Ziele des Kapitels
Anhand der Ausführungen dieses Kapitels wird deutlich, wie IT-Lösungen innovative
Geschäfts- und Prozessmodelle im Supply Chain Management nicht nur ermöglichen,
sondern als Treiber sogar provozieren können. Dafür werden drei Beispiele
ausführlicher beschrieben, von denen zwei sich auf das neue Kommunikationsmedium
Internet und eines auf die Autoidentifikationstechnologie RFID beziehen.
Um das insbesondere für eine erfolgreiche IT-Implementierung relevante, komplexe
Zusammenspiel aus technologischer und organisatorischer Innovation besser zu
verstehen, ist ein kurzer vorbereitender Ausflug in die Geschichte der IT-basierten
Geschäftsabwicklung sinnvoll.
Entwicklungsgeschichtliche Vorbemerkungen
In den Anfängen der Nutzung elektronischer Datenverarbeitung war der dadurch
ausgelöste Innovationsschub äußerst begrenzt. Die ersten Softwarelösungen bildeten
im Wesentlichen nur die bestehenden Prozesse ab und erschöpften sich damit
weitgehend in einer „Elektrifizierung des Ist-Zustandes“. Der Ersatz von Karteikästen
durch computergedruckte Listen mag zu Arbeitserleichterungen führen, nachhaltige
Prozesswirkungen unterblieben aber - vor allem deshalb, weil die weit
vorangetriebene Arbeitsteilung in den Unternehmen auf der Softwareebene zunächst
nicht überwunden, sondern nur widergespiegelt wurde.
Erst mit der Überwindung dieser Form der Datenorganisation durch die
ablaufübergreifende Nutzung einer gemeinsamen Datenbasis wurde es möglich,
31
einmal erfasste Daten mehrfach zu nutzen und im Prinzip allen am Prozessgeschehen
Beteiligten zur Verfügung zu stellen. Dadurch konnten Mehrfacherfassungen und
zeitkonsumierende Datenübertragungsprozeduren eliminiert und die DV-gestützten
Abläufe entsprechend beschleunigt werden. Eine Folge dieser Innovation war, dass
ehemals getrennte Teilfunktionen wieder arbeitsplatzbezogen zusammengeführt
werden konnten. Beide Effekte zusammen, die Datenintegration und die
Funktionsintegration, wurden zum Fundament des computergestützen
Prozessredesigns bzw. der daraus erzielbaren Effizienzgewinne.
Als Musterbeispiel einer computergestützten Integration wurde dann ein Konzept
entwickelt, das aufgrund überzogener Ansprüche in die Geschichte der gescheiterten
IT-Innovationen eingegangen ist: „Computer Integrated Manufacturing“ (CIM). Wie so
oft im Leben, kann man auch hier aus Fehlern besonders viel lernen.
Innerhalb des CIM-Modells sollten alle Daten, die von den später so genannten ERPSystemen im Rahmen der Fertigungssteuerung benötigt und verarbeitet werden (von
der Kapazitätsterminierung über die Produktionsablaufplanung bis hin zur
Versandsteuerung) mit den entsprechenden Daten aus der Konstruktionsabteilung
(CAD = Computer Aided Design) zusammengeführt werden. Arbeitsplandaten und
Stücklisten, die etwa als Ergebnis der Produktentwicklung „abfallen“, könnten dann
konsistenzsichernd sofort in PPS-Systemen weiterverarbeitet werden. Der Phantasie
in der Ausschöpfung der hier nur angedeuteten Integrationspotenziale waren keine
Grenzen gesetzt. Dementsprechend hoch war bis Anfang der 90er Jahre auch die
CIM-Euphorie. Genau daran ist CIM aber im ersten Ansatz gescheitert.
Die ins Auge fallende Gemeinsamkeit von CIM und Supply Chain Management
besteht in dem Anspruch, alle irgendwie interdependenten Funktionen, Daten und
Abläufe innerhalb eines Systems „ganzheitlich“ abzubilden. Trotz der inzwischen
dramatisch gestiegenen Leistungen von Datenspeichern und Rechnern sollte man sich
in Erinnerung halten, dass „ganzheitliche Integration“ eine Anforderung ist, die zwei
gravierende Nachteile nach sich ziehen kann: sie kann zur Herausbildung nicht
realisierbarer Pflichtenhefte („Bau von Systemkathedralen“) führen, und die enge
Verzahnung zu vieler Prozesse kann das gesamte System unflexibel machen
gegenüber häufigen Parametervariationen.
3.2 Fourth Party Logistics Provider („4PL”)
Die Beschreibung des 4PL-Konzeptes kann unmittelbar an die in Kapitel 2.5
entwickelte Erläuterung des Supply Chain Event Management-Ansatzes anknüpfen.
Dort ist dieser Ansatz als Funktionsmodell und Prozessbeschreibung dargestellt
worden. Offen geblieben ist dabei die Frage, wer diese Konzepte „zum Fliegen“
bringen kann. Diese Frage zielt auf die Trägerschaft des Leistungsbündels ab, das mit
dem Kürzel SCEM umrissen wird. Eine der innovativen Antworten, die man zur
Beantwortung dieser Frage entwickelt hat, besteht in dem Entwurf eines neuen Typus
von Logistikdienstleister, dessen Kernkompetenz im Bereich der IT-Integration
angesiedelt ist. Das Interessante daran ist, dass IT hier nicht eine Entwicklung neuer
Prozesse, sondern eine institutionelle Innovation vorangetrieben hat. Da Verladern
immer die Option offen steht, Event-Management-Funktionalitäten auch selbst
abzudecken (etwa auf der Basis eines entsprechenden SAP-Moduls oder eines
Application Service Providing), verbirgt sich hinter diesem neuen
Dienstleistungsangebot die Make-or-Buy-Frage.
32
„Fourth Party Logistics Provider” ist die Bezeichnung für ein neues Geschäftsmodell.
Im engeren Wortsinne setzt dieses Modell zunächst nicht mehr voraus als eine weiter
vorangetriebene Arbeitsteilung in der Logistikkette, gekoppelt mit einer
„Hierarchisierung“ der Beziehungen zwischen Verladern und ihren
Logistikdienstleistern. Ähnlich dem aus der Fertigungswirtschaft bereits länger
bekannten Konzept des Modular Sourcing, wo einzelne Hersteller als „First-tiersupplier“ ganze Module des jeweiligen Endproduktes (etwa komplette Türen eines
Autos) vormontiert an die Endmontage eines Herstellers liefern und damit die
Zulieferer der zugehörigen Teile ins zweite Glied drängen, wird hier eine neue
Generation von Dienstleistern konzipiert, sich zwischen die Logistikanbieter
herkömmlicher Prägung und deren Kunden zu schieben.
Dies kann nur gelingen, wenn aus einer solchen Zwischenposition heraus für die
Kunden ein echter Mehrwert generiert werden kann. Worin kann nun der „added
value“ einer vierten Partei im Logistikgeschehen begründet sein? Ein möglicher Ansatz
resultiert aus einer verbleibenden Schwäche der großen Speditions- und
Logistikkonzerne, die mit ihrem Aufbau weltumspannender Full-Service-Angebote
nicht so schnell vorangekommen sind, wie der entsprechende Kundenbedarf nach
einem „One-stop-shopping“ gewachsen ist. Solange Großanbieter nicht wirklich alles
auf dem Niveau der jeweils besten Spezialisten leisten können, ist beim Einkauf
logistischer Dienstleistungen aus Verladersicht nach wie vor eine MultiLieferantenstrategie angesagt – es sei denn, ein fremder Dritter übernimmt sozusagen
treuhänderisch die Aufgabe, für einzelne, sachlich und/oder regional abgegrenzte
logistische Teilaufgaben die jeweils besten Dienstleister zu identifizieren und deren
Angebote zu einem Leistungspaktet zusammenzuschnüren.
Im Kern basiert die Position eines 4PL also auf einem Outsourcing der typischen
Aufgaben einer Versandabteilung. Die hiermit verbundene größere Eindringtiefe in die
Kundenorganisation wird einerseits durch eine immer weiter vorangetriebene
Konzentration vieler Industrie- und Handelsunternehmen auf ihr Kerngeschäft
unterstützt. Auf der anderen Seite locken 4PL’s ihre Kunden damit, dass sie mehr
Service bieten als nur die Bequemlichkeit einer einzigen Schnittstelle zum
Logistikmarkt und Kostendegressionseffekte, die dadurch entstehen mögen, dass ein
Dienstleister Tätigkeiten wie das Beibringen von Abliefernachweisen oder das
Abwicklen von Transportschäden für mehrere Kunden gleichzeitig erbringt.
Eine wesentliche Grundlage für diesen Mehrwert ist die unternehmensübergreifende
Integration von Planungs-, Steuerungs- und Überwachungsprozessen auf der Basis
leistungsfähiger IT-Systeme. Ein Beispiel hierfür ist die Bereitstellung einer einzigen
Plattform, in die hinein Spediteure und Transporteure als 3PL’s Statusinformationen
liefern. Der 4PL übernimmt die Aufgabe, diese Informationen zum Fließen zu bringen
und bereitet sie so auf, dass sein Kunde, wie vor einem Cockpit sitzend, proaktiv mit
Warnhinweisen („Alerts“) versorgt wird, wenn durch unvorhergesehen
Kapazitätsengpässe oder Minderleistungen Qualitätsziele im Lieferservice bedroht
sind. One-stop-shopping wird somit durch ein “One-stop-viewing” angereichert, für
das es in der alten Welt logistischer Dienstleistungen kein vergleichbares Vorbild gab.
Obwohl sie diese ins zweite Glied drängen wollen, haben Fourth Party Logistics
Provider also mit den großen Netzanbietern im Paket- und Expreßfrachtsegement eine
Gemeinsamkeit: sie profilieren sich über das Thema „Integration“. Während die
„Integrators“ klassischer Prägung jedoch eine durchgehende Qualitätssicherung qua
Eigentum an den logistischen Kapazitäten und Prozessen versprechen, ist es gerade
umgekehrt ein typisches Merkmal von 4PL’s, im operativen Bereich überhaupt keine
33
logistischen Ressourcen ihr eigen zu nennen. 4PL’s integrieren Prozesse
informationstechnisch, wobei der fehlende Besitz von Transport-, Lager- und
Umschlagskapazitäten ihren Anspruch unterstreicht, neutral die jeweils besten
„Produzenten“ der operativen Dienstleistungen auszusuchen.
In vielen der frühen Veröffentlichungen zu diesem Konzept wurden die Ziele, die 4PL’s
erfüllen sollen, freilich noch deutlich höher gesteckt. Fourth Party Logistics Provider
sollen, so las man häufiger, für ihre Kunden das gesamte Supply Chain Management
einschließlich aller zugehörigen Planungs- und Steuerungsaktivitäten übernehmen, ja
sogar vorher für ein kreatives Redesign der Supply Chain sorgen. Letzteres brachte
auch Spieler auf den Plan, die man früher als Anbieter logistischer Services nicht auf
der Agenda hatte: Softwarehäuser etwa, oder größere Beratungshäuser, die
strategische Allianzen mit Verladern oder 3PL’s eingehen und dem Markt substanzielle
Quantensprünge in der logistischen Performance versprechen.
Das Ziel einer ganzheitlichen, von Dienstleistern gesteuerten und verantworteten
Supply Chain, die vom Rohstofflieferanten über mehrere Wertschöpfungsstufen bis
zum Endkunden reicht, hat sich jedoch als überzogen erwiesen und den 4PL-Begriff
eher in Misskredit gebracht. Über das endgültige Schicksal dieses Modells ist aber
noch nicht entschieden. Wahrscheinlich ist es auch „kontingent“ in dem Sinne, dass
seine Marktchancen von den jeweiligen Randbedingungen der Auftraggebersituation
abhängen.
Eine eher günstige Konstellation ist etwa dann gegeben, wenn der zu managende
Supply Chain-Abschnitt keine größeren Produktionskapazitäten umfasst. Die Planung
der weltweiten Warenströme eines Sportartikelunternehmens mit outgesourcten
Produktionkapazitäten im asiatischen Raum und Handelskunden in Europa und
Amerika kann man sich jedenfalls eher in den Händen eines koordinierenden
Dienstleisters vorstellen als die outgesourcte Steuerung der weltweit verteilten und
ineinander verzahnten Produktionsprozesse eines Herstellers von Computern.
General Motors sieht für sein Konzept der „Long Range Supply in Line Sequencing“
den Einsatz von 4PLs ausdrücklich vor, denen die Verantwortung für die Supply Chain
von Produzenten von Teilen in Übersee bis zum Montageband übergeben werden soll.
Das ist eine reine Überwachungs- und Risikomanagementaufgabe.
Man sollte den Anspruch an Fourth Party Logistics Provider jedoch nicht zu hoch
hängen und von ihnen eine unternehmensübergreifenden Integration von Supply
Chains erwarten, zu der in vielen Branchen die betroffenen Unternehmen selbst noch
nicht in der Lage waren. Schließlich gibt es auch unterhalb dieses hohen Anspruchs
für innovative Angebote von Dienstleistern ohne eigene Logistikkapazitäten noch
genug Marktchancen.
Ausschlaggebend für den Erfolg von 4PL’s dürfte im Gegensatz zu klassischen
Speditionsgesellschaften auch die Eigentümerstruktur sein. Die sehr weitgehende
Übertragung logistischer Prozesse koppelt die outsourcenden Unternehmen
zunehmend von den Primär-Märkten für originäre logistische Dienstleistungen ab und
schafft damit Abhängigkeiten, die man nur durch eine Beteiligung des Kunden am
Service Provider neutralisieren kann. Nicht zufällig sind wohl auch einige der
erfolgreicheren Beispiele für Dienstleister der vierten Art wie die Lufthansa Technik
Logistik GmbH oder die vertriebslinienübergreifende „Shared Services“ anbietende
METRO Gruppenlogistik (MGL) als Fourth Party aus den Kundenunternehmen selbst
hervorgegangen. In solchen Konstellationen gibt es von Anfang an das, was Start-ups
oft fehlt: Vertrauen und Momentum.
34
Eine Zwischenposition zwischen 4PL und klassischen Spediteuren (3PL) nehmen
Lead Logistics Provider (LLP) ein. Das sind Dienstleistungsanbieter, die zwar über
eigene Kapazitäten in der operativen Logistik verfügen, diese aber gezielt mit den
Leistungen anderer Anbieter zu einem „Best-of-Breed-Ansatz“ verknüpfen. Solchen
Serviceprovidern fällt dann naturgemäß die Rolle zu, auf der Ebene einer horizontalen
Integration auch die Statusreportsysteme der verschiedenen anderen originären
Prozesseigner zu verknüpfen und den eigenen Kunden damit in eine Cockpitsituation
mit einem One-stop-Viewing-Angebot zu versetzen. LLP’s können sich mit einem
solchen Konzept eine Vorrangstellung unter den 3PL’s sichern und ein
„Dazwischenschieben“ von Plattformbetreibern als neuartigen Intermediären
verhindern. Gegenüber reinen 4PLs haben sie den Vorteil der glaubwürdigen
Kompetenz eines Machers, d.h. sie spielen den Ressourcenbesitz als
Wettbewerbsvorteil aus.
Ermöglicht durch das Internet, treten des weiteren offene Logistikplattformen neutraler
Intermediäre als weitere Wettbewerber neuer Prägung auf den Plan. Sie werden
Extranets größerer Verlader oder 4PL’s nicht verhindern, können jedoch insbesondere
Vorteile für kleine und mittelständische Zulieferer und Logistikdienstleister erschließen.
Das Prinzip dabei ist einfach. Die Plattform bietet den angeschlossenen Unternehmen
(mit Imitatoren-Rolle) standardisierte Dienste, um Informationen zu erheben, zu
verarbeiten und anderen Geschäftspartnern zur Verfügung zu stellen. Um den
standardisierten Dienst zu nutzen, muss man sich einmalig an das System
anschließen. Unternehmen in der Initiator-Rolle können Daten für ihre individuellen
Systeme aus der Plattform beziehen bzw. Grunddaten (z.B. Auftragsrumpfdaten) in
der Plattform einstellen, brauchen dazu aber nur eine zentrale Schnittstelle.
Der Intermediär integriert also über standardisierte Dienste eine Vielzahl von kleinen
und mittleren Unternehmen und stellt die gefilterten Daten den mächtigen EventManagement-Systemen der großen Player zur Verfügung bzw. übernimmt die
Verteilung der Grunddaten an die Geschäftspartner. Die Reduktion der
Implementierungskosten und die Darstellung eines „Managed Service“ (im Sinne eines
Outsourcings von IT-Leistungen zur Abwicklung von Geschäftsprozessen) für diese
Datendienste sind die Wertschöpfungsbasis. Die sich dadurch ergebende Neutralität
bezüglich der Basis-Logistikdienstleistung ist Teil der organisatorischen Innovation.
3.3 Elektronische Marktplätze
Das im vorangegangenen Abschnitt beschriebene Modell einer IT-basierten
institutionellen Innovation vermittelt einen ersten Eindruck davon, wie neue
Informations- und Kommunikationstechniken zur Entwicklung innovativer
Geschäftsmodelle führen können. Eines der meist beachteten neuen
Geschäftsmodelle waren elektronische Marktplätze, eine neue Form von
Intermediären, die auf ihren Internetplattformen nahezu alle Phasen der Entstehung
und Abwicklung einer Geschäftsbeziehung bzw. Transaktion zu unterstützen
versprachen. Auch wenn sich das ursprünglich erwartete Volumen der „Virtualisierung“
des Handels nicht in dem betrachteten Zeitrahmen realisiert hat, beweisen die heute
noch aktiven Marktplätze die Potenziale, die in diesem Geschäftsmodell stecken.
Um Internet-basierte Geschäftsmodelle ganz zu verstehen, ist eine gewisse
Grundkenntnis der Funktionsweise dieses Mediums hilfreich.
35
Das Internet („INTERconnected NETworks“) hat seine Ursprünge im ARPANET der
„Advanced Research Projects Agency“ (ARPA), einer Forschungsstelle des
amerikanischen Verteidigungsministeriums, durch das 1969 die ersten Computer
vernetzt wurden. Das so entstandene Netz war über viele Jahre nur einem kleinen
Kreis von Wissenschaftlern und Technik-Freaks zugänglich, bis es in den 90er Jahren
als „Information-Highway“ breiteren Schichten zugänglich wurde. Das heutige „Netz
der Netze“ basiert auf der Verknüpfung lokaler Netze auf der Basis eines
gemeinsamen Kommunikationsprotokolls (TCP/IP) und fasziniert vor allem durch drei
Eigenschaften: es hat keinen zentralen Eigner oder Betreiber, es ist durch flexible
Kopplungen lokaler Server nahezu ausfallsicher, und es auf eine sehr einfache Weise
für jedermann zugänglich.
Eines der ersten Anwendungssysteme mit breiter Nutzung war das E-Mail. Heute ist
einer der am meisten genutzten Dienste das 1989 von Berners-Lee am CERN in Genf
entwickelte WWW, das auf drei Stützpfeilern basiert: der Programmiersprache HTML
(Hypertext Markup Language), dem Netzwerkprotokoll HTTP (Hypertext Transfer
Protocol) und dem Identifikationssystem URL (Universal Resource Locator). Diese
Komponenten erlauben die Darstellung graphisch angereicherter Dokumente, die
durch Querverweise (Hyperlinks) beliebig miteinander verknüpft werden können. Aus
dieser Verknüpfung und der eindeutigen Bezeichnung jedes Dokumentes mittels einer
eindeutigen Adresse (URL) ergibt sich ein einfacher Zugriff auf Informationen, die
weltweit auf verschiedenen Hostrechnern verteilt sind.
Eine wichtige Weiterentwicklung von HTML ist das Dateiformat XML, das insofern
wesentlich flexibler ist als ältere Datenübertragungs-Standards wie EDIFACT, als es
keine feste Anordnung der Inhalte eines Dokumentes (wie Adresse, Artikelnummer
oder Datum) mehr vorsieht (wohl aber eine entsprechende Struktur voraussetzt). XML
ist für viele Anwender deshalb etwas schwer "greifbar", weil es eigentlich nicht viel tut.
Seine Leistung besteht darin, dass man mit den Konzepten und Regeln, die es
bereitstellt, eigene Auszeichnungssprachen definieren kann, die ähnlich funktionieren
wie HTML. All diese Sprachen bestehen immer wieder aus Elementen, markiert durch
Tags, deren Verschachtelungsregeln, und aus Attributen mit erlaubten
Wertzuweisungen. Das übermittelte Dokument informiert dann den Empfänger vor
jedem neuen Element, welcher Inhalt sich in dem Tag befindet. Damit wird das
Dokument dechiffrierbar, allerdings hat es damit noch nicht das Benutzerformat für die
unmittelbare Weiterverarbeitung in einer bestimmten Applikation. XML bietet die
Möglichkeit, Daten so zu strukturieren, dass sie Regeln entsprechen, die man selbst
festlegen darf: standardisierte Datenfreiheit. Das erleichtert die Kommunikation über
das Web, hinterlässt aber noch Konvertierungsprobleme.
Mit dem Auftreten des Internet als neuem, global verfügbaren Kommunikationsmedium
verbanden sich um die Jahrhundertwende extrem ausgeprägte Erwartungen. „Der
Kapitalismus“, schrieb 1996 der amerikanische Cyber-Guru Don Tapscott, „wird von
Grund auf neu erfunden werden müssen“. Sehr schnell und weitgehend ohne
Widerspruch wurde die Welt der Wirtschaft in eine „New“ und eine „Old Economy“
eingeteilt. „Adapt or Die“ war die Devise. Diese Erwartungshaltung schlug sich auch in
den Bewertungen von Unternehmen der „New Economy“ an den Börsen nieder. AOL
war innerhalb kürzester Zeit doppelt so wertvoll wie Time Warner und erreichte Ende
1999 einen Börsenkurs, der um 81.152 % über dem Ausgabekurs lag. Yahoo war sehr
schnell um das siebenfache wertvoller als die alterwürdige New York Times, und der
Internetbuchhändler Amazon erzielte den 24-fachen Börsenwert des größten „Bricks &
Mortar“-Buchladens der USA, Barnes&Nobles.
36
Diese Entwicklung betraf insbesondere auch die Softwareindustrie, die sich als
„Enabler“ der neuen Welt des „Electronic Commerce“ erfolgreich zu positionieren
wusste. Der auf Electronic Procurement spezialisierte Anbieter ARIBA etwa war als
Newcomer sehr schnell bei einer Börsenkapitalisierung von über 9 Mrd. US $
gelandet. Inzwischen ist sein ähnlich aufgestellter und bewerteter Wettbewerber
CommerceOne von der Bildfläche ganz verschwunden, und der Aktienkurs von Ariba
ist von über 180 $ auf (inzwischen wieder) 10 $ abgestürzt. War die damalige
Einschätzung der ökonomischen Potenziale des Internet grundlegend falsch?
Die Antwort aus heutiger Sicht lautet: nein. Falsch war in erster Linie das
angenommene Timing der Entwicklung. Und natürlich war nicht jedes damals
entwickelte Geschäftsmodell belastbar. Nach der ersten großen Enttäuschung und
dem dadurch ausgelösten Börsen-Crash gewinnen Internet-basierte SCM-Lösungen
jedoch stetig an Bedeutung. Zwei Erfolgsbeispiele aus den beiden E-CommerceSegmenten „Business-to Consumer“ (B2C) und Business-to-Business“ (B2B) mögen
belegen, wie der Fortschritt nunmehr kommt, wenn auch auf leiseren Sohlen.
Die Otto-Gruppe ist (nach Amazon) mit ihrem virtuellen Versandhandel der zweigrößte
deutsche Verkäufer von Ware über das Internet. Offensichtlich schätzen die Kunden
die Möglichkeit, per Mausklick flexibel in Katalogen zu navigieren und per Mausklick
ohne großen Aufwand zu bestellen. Und Otto selbst wird die Möglichkeit schätzen, von
dem schwerfälligen und teuren Medium „Katalog“ wegzukommen und nunmehr im
Prinzip in der Lage zu sein, sowohl die Angebotsstruktur als auch die Preisstruktur
nach Bedarf und Wettbewerbssituation jederzeit ändern zu können. Auch die Nutzung
präziserer Kundenprofile für ein „One-to-one-Marketing“ ist verlockend: Man kann
proaktiv neue Produkte anbieten, von denen man weiß, dass sich ein Kunde dafür
interessiert. Der Erfolg ist eindeutig: Otto prognostiziert für die Neuen Medien bis 2010
einen Umsatzanteil von 20 Prozent am gesamten Distanzhandelsgeschäft.
Der Reichtum des neuen Mediums zeigt sich dabei insbesondere in solchen ServiceAngeboten, die auf der für das Internet typischen Kombination von hoher
Informationsreichweite und Informationstiefe („Media Richness“) basieren. Man kann
heute eben einen nahezu unbegrenzten Adressatenkreis mit einer nahezu
unbegrenzten Fülle an Informationen zu Grenzkosten nahe Null versorgen. Der
Internethändler Zooplus etwa liefert nicht nur Futter, Accessoires, Spielzeuge, Bücher,
Hygieneartikel, und vieles mehr bequem direkt ins Haus, sondern bietet weitere
Services wie Online Tierarzt, Gesprächsforen und unterhaltsame Informationen rund
um das Hobby. Amazon ködert Buchkäufer mit Buchrezensionen.
Das Beispiel zeigt, dass der Nutzen von E-Commerce immer auf zwei Seiten liegen
kann: er kann in der Senkung von Transaktionskosten liegen (Amazon hat sich die 1Click-Bestellung patentieren lassen), und er kann in neuen Wertschöpfungsformen
begründet sein (Community-Building ist dafür nur ein Beispiel). Letztere werden oft als
„Soft Facts“ behandelt, was ihrer ökonomischen Bedeutung vielfach nicht gerecht wird.
Dell und Cisco, die ihren Kundendienst überwiegend auf das Internet verlagert haben,
beweisen, dass beide Effekte oft Hand in hand gehen. Cisco hätte vermutlich gar nicht
so schnell wachsen können, wenn es den Kundenservice durch Menschen hätte
erbringen müssen. Dell ermöglicht seinen Kunden ein „Online-Customizing“ der
gefragten Produkte, nutzt diesen Vorgang gleichzeitig als Order-Taking und integriert
damit den Kunden mit der eigenen Produktionsplanung. (Dass das Unternehmen mit
seinem Built-to-Order-Konzept und der damit verbundenen Eliminierung des
Großhandels gleichzeitig eine Supply Chain Revolution ausgelöst hat, sei hier nur am
Rande vermerkt).
37
Bei den als Treiber internet-basierter Geschäftsmodelle oft primär hervorgehobenen
Transaktionskosten gibt es Anhaltswerte für eine Schätzung relevanter
Größenordnungen. Laut einer US-amerikanischen Studie ist der Anteil der inner- und
zwischenbetrieblichen Transaktionskosten am Bruttosozialprodukt der USA von 25%
im Jahre 1870 auf 55% im Jahre 1970 gestiegen und wird mittlerweile auf über 60%
geschätzt. Das ist zugleich ein Indikator für die volkswirtschaftliche Bedeutung der
Informations- und Kommunikationstechnologie.
Auch im Geschäft zwischen produzierenden Unternehmen gibt es inzwischen
beeindruckende Erfolgsgeschichten. Die SupplyOn AG, Anbieter von Internet-Services
für die Automobil- und Fertigungsindustrie, feiert ihr fünfjähriges Jubiläum und
verzeichnet dabei ein enormes Wachstum: Die Anzahl der Kunden ist in den letzten
zwölf Monaten um 50 Prozent auf 9.000 Unternehmen gestiegen (Stand: Anfang 2006)
und der Benutzerkreis hat sich um 80 Prozent auf 25.000 erweitert. Die Zahl der SCMTransaktionen nahm um 75 Prozent zu und liegt nun bei 260.000 pro Monat.
SupplyOn hat sich seit seiner Gründung von einer reinen Handelsplattform zu einer
umfassenden Kollaborationsplattform entwickelt.
Ähnliche Erfolgsmeldungen liefert Elemica, der führende elektronische Marktplatz der
chemischen Industrie. Das Unternehmen berichtet über eine Volumenverdopplung alle
6 Monate und ein inzwischen erreichtes Transaktionsvolumen von 35 Mrd. US-Dollar.
Als erfolgsentscheidend wird die durch Elemica bereitgestellte „Connectivity“
herausgestellt: eine universale Übersetzungskapazität ermöglicht weltweit
Verbindungen trotz unterschiedlicher Datenformate und Protokolle. Wer sich mit
Elemica verbindet (die derzeitigen Anschlusskosten liegen zwischen 10.000 und
30.000 Dollar) hat damit sofort Zugang zu einem großen User-Netz mit Unternehmen
wie Bayer, BASF, Dow Chemical, Dupont oder BP. Das Ausmaß der so ermöglichten
Komplexitätsreduktion lässt sich leicht mit Hilfe einer einfachen Formel
veranschaulichen. Wenn sich n Unternehmen jeweils bilateral untereinander direkt
vernetzen, ergeben sich als Folge der „Point-to-Point-Communication“ n*(n-1)
Schnittstellen. Kommunizieren diese Unternehmen über eine einheitliche Plattform, so
sinkt die Anzahl der Schnittstellen auf 2*n.
Elemica fungiert dabei aber nicht nur als Übersetzungsmaschine, sondern stellt auf
der eigenen Plattform Softwareapplikationen bereit, die ein integriertes Supply Chain
Management unterstützen. So wird berichtet, dass Dow Chemical über das von
Elemica bereitgestellte VMI-Modul bei einigen Großkunden Bestandssenkungen von
über 30 % realisieren konnte. Ähnlich erfolgreich ist im Hightech-Bereich die Plattform
e2open, die über 12000 Kunden betreut und von über 45.000 Nutzern berichtet.
Kunden wie IBM, Panasonic, Hitachi und Matsushita nutzen nicht nur die Möglichkeit
vollständig automatisierter Auftragsabwicklungsprozesse („untouched orders“),
sondern vor allem die vergleichsweise einfache Herstellung einer netzwerkweiten
Visibilität auf die Kapazitäten von Handelspartnern. Das in Kapitel 2.3 beschriebene
Bedarfs-/Kapazitätsmanagement mit den permanent durchlaufenen „Forecast-CommitCycles“ wird auf dieser Plattform von IBM intensiv genutzt bzw. betrieben. Nicht zuletzt
auf dieses Modell stützt sich der Werbeslogan „Business on demand“, mit IBM seine
Supply Chain Management Kompetenz propagiert.
Wie andere elektronische Marktplätze auch wirbt e2open mit dem Vorteil, „on
demand“ Software als ein Service zu bieten. Gegenüber dem traditionellen „License
and Install“-Modell hat ein solches „Application Providing“ die Vorteile niedriger
Installationszeiten und –aufwändungen, vereinfachter Updates und eines
38
entsprechend ausgeprägten ROI. Selbst im Falle enttäuschter Erwartungen zeitigt
dieses Modell noch Vorteile: die „Exit-Kosten“ liegen erheblich unter denen gekaufter
Software. Neben dem offenen Marktplatz hosted e2open auch sogenannte „private
Marketplaces“, auf denen große Firmen in einem abgegrenzten Bereich ihre Zulieferer
oder Kunden anbinden. Strukturell sind solche Marktplätze durch eine 1:n-Beziehung
geprägt.
Für solche IT-basierten Dienstleistungen gibt es keine historischen Vorbilder. Auch die
Propheten des Internet waren sich hinsichtlich der Wirkungen des Internet auf Struktur
und Funktionsweise von Supply Chains ursprünglich nicht sicher. Sehr häufig
sprachen sie in diesem Zusammenhang von einer zu erwartenden „Disintermediation“,
also einem Funktionsverlust von Absatzmittlern jeglicher Couleur. Elektronische
Marktplätze sind jedoch Intermediäre einer ganz neuen Art. Sie tragen dabei nicht nur
zur Lieferkettenintegration bei, sondern bieten auch Services an, die zu einer
Fragmentierung von Supply Chains führen. Diese Services fokussieren
Marktfunktionen im klassischen Sinne: Unterstützung bei der Partner- und
Preisfindung.
Elektronische Plattformen für Ausschreibungen („Request for Quotation“, Reverse
Auctions“) reduzieren nicht nur die Transaktionskosten von Einkäufern, indem sie etwa
Suchkosten minimieren. Sie erzeugen vor allem eine vorher nie gekannte
Wettbewerbsintensität und einen dementsprechenden Preisdruck. Das fördert nicht
Partnerschaft und Ganzheitlichkeit, sondern Austauschbarkeit und Desintegration.
Häufig werden Online-Auktionen und Supply Chain Services sogar auf
einundemselben Marktplatz angeboten. Tendenziell führt das zu einer Spaltung von
Zulieferern: während Anbieter schwer austauschbarer Produkte in Supply Chains
integriert werden, müssen Anbieter von „Commodities“ sich in Auktionen immer wieder
neu um Aufträge bewerben.
Von besonderer Bedeutung sind Online-Auktionen im Einzelhandel und in der
Konsumgüterwirtschaft. Handelsorientierte Marktplätze versuchen hier, dieses
Geschäftsmodell als nutzbringend für beide Marktseiten zu positionieren (was in der
Regel von herstellern/Anbietern anders gesehen wird). Ein typisches Beispiel hierfür
ist der Text, mit dem der Marktplatz GNX sein diesbezügliches Service-Angebot im
Internet beschreibt:
„GNX ist darauf spezialisiert, Einzelhändlern bei der Implementierung von OnlineVerhandlungsplattformen als Standard-Geschäftsprozess zu unterstützen. Mit GNX
Negotiations, einer Full-Service-Auktionslösung, können Sie den strategischen
Einkaufsprozess um ein Vielfaches effizienter gestalten. GNX bietet die Lösung und
den Support, die ein Unternehmen benötigt, um auf seine Bedürfnisse zugeschnittene
Online-Auktionsprozesse nahtlos zu integrieren. Das GNX Negotiations-Tools ist
webbasiert, benutzerfreundlich und lässt sich schnell und mühelos implementieren.
Die GNX-Auktionsexperten stehen sowohl Einkäufern als auch Anbietern mit einem
Service in mehreren Sprachen rund um die Uhr, an fünf Tagen pro Woche zur
Verfügung. GNX hilft Einkäufern bei der Planung und Strukturierung von Auktionen,
bietet Anbietern vor, während und nach Auktionen Schulungen und Support und
versetzt somit alle Teilnehmer in die Lage, aktiv zum Verhandlungsprozess
beizutragen. Gemeinsam spielen die GNX-Mitarbeiter eine aktive Rolle bei der
erfolgreichen Durchführung jeder Online-Auktion.“
GNX ist inzwischen mit dem ehemaligen Wettbewerber Worldwide Retail Exchange
(WWRE) zu der einheitliche Plattform Agentrics verschmolzen worden, einem
39
Marktplatz, der auf seiner Homepage stolz verkündet, Händler mit einem
Gesamtumsatz von weltweit über einer Trillion Dollar zu repräsentieren. Wie um den
Anbietern ob dieser Größenordnung den Schrecken zu nehmen, adressiert Agentrics
im ersten Satz seines Mission Statement den eigenen Beitrag zum Supply Chain
Management: Primäre Aufgabe sei es, „to offer the Single Technology Platform for
Collaboration: A "Retail Interface" that connects retailers and manufacturers to their
trading partners to more effectively and efficiently share information and manage
collaborative work processes“. Dass man auf Bidding-Plattformen auch
Transaktionskosten sparen kann, wird nicht alle Lieferanten beruhigen.
Als ein besonders erfolgreiches Anwendungfeld für elektronischen Handel haben sich
Transportmarktplätze erwiesen. Hierfür sind primär drei Gründe ausschlaggebend
gewesen:
1. Sowohl die Anbieterseite von Transportleistungen als auch die Seite der
Verlader ist, gemessen an den jeweiligen Marktanteilen einzelner Teilnehmer,
stark fragmentiert. Das gibt neutralen Plattformbetreibern die Chance, sich als
Intermediäre zu etablieren (Zwar betreiben einige Großverlader auch „private
marketplaces“ bzw. „buy-side-solutions“, die meisten Verlader finden auf
offenen elektronischen Marktplätzen jedoch das, was sie selbst nicht schaffen:
Volumen und „Liquidität“).
2. Reine Transporte sind „commodities“, bei deren Einkauf der Preis eine
herausragende Rolle spielt.
3. Wie bei jeder Dienstleistung entfällt bei Transporten die Möglichkeit eines „load
levelling“ (Versenken von Nachfragespitzen in Nachfragetälern durch
verzögerte Auftragsdurchführung und/oder Bildung von Bestandspuffern).
Insbesondere bei der Suche nach Rückfrachten droht ein Verfall von
Kapazitäten, aber auch der umgekehrte Fall von Ladungsüberhängen muss ad
hoc gelöst werden.
Es leuchtet ein, dass das Medium Internet geradezu ideal ist, für einen Ausgleich von
Angebot und Nachfrage zu sorgen. Ebenso klar ist, dass die Attraktivität eines
virtuellen Transportmarktplatzes von der Wahrscheinlichkeit bestimmt wird, auf einer
bestimmten Transportrelation (wie Finnland-Ruhrgebiet) ad hoc einen Partner zu
finden, der den freien Laderaum oder die (überhängende) Ladung hat. Damit wird die
Größe des elektronischen Marktplatzes zum entscheidenden Attraktivitätsmerkmal.
Ökonomen sprechen hier auch von Netzwerkeffekten: jeder zusätzliche Kunde macht
das Produkt besser.
Das bewirkt naturgemäß eine Konzentration der Anbieter virtueller Laderaumbörsen.
Die Zahlen der Marktführer sind inzwischen beeindruckend. Teleroute berichtet von
70.000 Angeboten täglich bei 45.000 Nutzern in 25 Ländern und gibt das jährlich
vermakelte Transportaufkommen mit 200 Millionen Tonnen an. Der Wettbewerber
Timocom spricht auf seiner Internetseite von bis zu 100.000 Laderaum- und
Frachtangeboten und zählt 19.000 Kunden mit 58.000 Nutzern (Stand Anfang 2006).
Bei solchen Zahlen muss man sich allerdings zwei Spezifika des Transportmarktes vor
Augen halten: a) die jeweils platzierten Angebote zergliedern sich in eine große Anzahl
von Verkehrsrelationen und können insoweit nicht aggregiert werden, und b)
Kapazitätsangebote verfallen schnell.
Typisch für die beiden hier erwähnten Marktführer ist, dass sie einzelne Ad-hocAufträge vermitteln, in den Preisbildungsprozess dabei selbst nicht eingreifen und ihre
Services nur Spediteuren und Transporteuren anbieten. Online-Auktionen bieten sich
40
eher für Rahmenkontrakte an, bei denen dann Verlader direkt involviert sind. Hierfür
gibt es Spezialisten. Der Verladernutzen liegt primär in der Erzielung niedriger
Frachtraten bei gleichzeitig sinkenden Kommunikationskosten und verkürzten
Ausschreibungsdauern.
Erfolgreiche Beispiele für online vermittelte Rahmenkontrakte gibt es besonders
zahlreich im Seefrachtbereich, wo für einen großen Tender bisweilen über 10 Leute
beschäftigt sind. Neben erfolgreichen, carriergetriebenen e-Commerce-Portalen wie
Inttra und GT Nexus gibt es Anbieter wie Glomap, die sich von einem offenen
Marktplatz für die Schifffahrt in einen Anbieter für Verlader gewandelt hat, der
elektronische Ausschreibungsportale konzipiert. So schreibt etwa die Wieland Werke
AG in Ulm monatlich 80 40-Fuss-Container zur Verschiffung nach Südostasien über
Glomap aus. Auch die Bayer Gruppe Material Sciences hat ihre Beschaffungs-ITPlattform (Sourcing Cockpit) um ein Ausschreibungsportal für Seefracht ergänzt, von
dem aus 2005 90 Linienreedereien in aller Welt eingeladen wurden, einen Tender
herunterzuladen und ihr Angebot wieder hochzuladen. Inttra bietet ein DecisionSupport-Tool an, mit dem Frachtmanager die Angebote der Carrier unter diversen
Gesichtspunkten (Transitzeit, Abfahrtsfrequenz, Rate, Routing) analysieren und einem
Ranking unterziehen können. Konkurrent GT Nexus liefert konkrete Vorschläge für die
Frachtzuteilung auf einzelne Carrier und produziert sogar digitale Vertragsentwürfe.
An dieser Stelle stößt des Internet freilich an seine Grenzen. Spotgeschäfte kann man
vollständig elektronisch tätigen, bei größeren Rahmenkontrakten bleibt der persönliche
Kontakt zwischen beiden Marktseiten in der Regel unverzichtbar.
Auch bei Transportmarktplätzen stellt sich Anbietern die Aufgabe, beiden Marktseiten
Nutzeneffekte zu versprechen. Beispielhaft soll hier ein Angebot von Timocom zitiert
werden, das in den hier gegebenen Kontext passt, weil es ebenfalls TI-Basiert ist:
„Das Kalkulationstool TC eMAP ist vollständig in die Fracht- und Laderaumbörse
TimoCom TRUCK & CARGO® integriert. Auf diese Weise erhalten die TimoComKunden einen großen Zusatznutzen. Dieses Modul erlaubt es den Börsen-Nutzern,
sich für jedes Frachtangebot sowie für selbst gewählte Routen Zusatzinformationen
bezüglich der Kosten und des Streckenverlaufs anzeigen zu lassen. Passend zu den
individuellen Vorgaben gibt es außerdem eine detaillierte verbale und grafische
Wegbeschreibung.“ Auf weitere Erfolgsfaktoren wie eine vorlaufende Bonitätsprüfung
der Teilnehmer sei hier nicht weiter eingegangen.
3.4 Das „Internet der Dinge“: RFID- basierte Prozessintegration
Obwohl diese Technologie nicht neu ist, steht der aktuelle „Hype“ um das Thema
„Radio Frequency Identification“ (RFID) in einem deutlichen Kontrast zu dem
allgemein verbreiteten Wissen über ihre Funktionsweise und Anwendungsbreite. Die
folgenden Ausführungen sollen den Leser mit den neuen Chancen vertraut machen,
die sich durch RFID insbesondere im Bereich logistischer Prozessinnovationen in dem
Moment erschließen, wo diese Technologie „bezahlbar“ wird. Getrieben durch Projekte
großer Einzelhändler wie Walmart und METRO und daraus resultierende Stückzahlen
wird die Frage der Bezahlbarkeit schon in naher Zukunft ihre Eigenschaft als
Implementierungsbarriere verlieren. Deshalb wird man sich schon jetzt in sehr vielen
Branchen mit dem Einsatzmöglichkeiten von RFID beschäftigen müssen.
Ausgelassene Wettbewerbsvorteile werden sonst sehr schnell zu ausgeprägten
Wettbewerbsnachteilen.
41
Ähnlich dem bekannten Barcodesystem ist RFID eine Technologie, die primär der
automatischen Objektidentifizierung dient. Der wesentliche technische Unterschied
besteht darin, dass RFID zur Datenübertragung anstelle von Lichtstrahlen Funkwellen
nutzt. Von einer Basisstation mit Energie versorgt, geben die am Objekt angebrachten,
aus einem Mikrochip und einer Antenne bestehenden Datenträger („Transponder“
bzw. „Tags“) ihren Inhalt an das Lesegerät zurück. Wie beim Barcode enthält dieser
Inhalt zunächst eine eindeutige Kennnummer („electronic product code“), die bei
Ergänzung um eine Seriennummer nicht nur die Unterscheidung von Objekttypen
(z.B. Artikeln), sondern sogar von einzelnen Objektausprägungen (z.B. einzelnen
DVD-Spielern) ermöglicht. Elektronische Etiketten können dabei aufgrund ihrer
Speicherkapazität über wesentlich mehr informieren als Strichcodes, beispielsweise
über produktbezogene Qualitätsdaten (Chargennummern,
Mindesthaltbarkeitsdaten,...), über Objektziele („Routing“), über Prozesssequenzen
oder über Handlungsanweisungen. Je nach technischer Ausstattung können sie dabei
auch noch „unterwegs“ mit neuen Inhalten (z.B. über zwischenzeitliche
Kontrollresultate oder Warenvereinnahmungsdaten) angereichert werden.
Elements of an RFID
Antenna
Reader
Tag
Abbildung 8: Funktion einer RFID-basierten Objektidentifikation
Aus diesem Technologiewechsel resultieren einige gravierende Vorteile wie
insbesondere der Wegfall der Notwendigkeit einer genauen Objektpositionierung
gegenüber dem Lichtstrahl eines Lesegerätes und die Möglichkeit eines sehr
schnellen Einlesens einer großen Vielzahl von Objekten („Bulkscanning“ mit einer
hohen Leseleistung auf der Basis sogenannter „Antikollisionsmechanismen“).
Gegenüber der Barcodetechnologie kann man hier auch von einer vollständigen
Automatisierung von Objektkontrollen (Identifikations- und Zählprozessen) sprechen.
Die damit verbunden Vorteile gegenüber einem Barcodesystem lassen sich nüchtern
als Zeit- und Qualitätsgewinne aufzählen. Gesamthaft betrachtet, kann man diesen
technischen Fortschritt aber auch als einen Paradigmenwechsel bewerten. METROVorstand Mierdorf spricht von einer „Zeitenwende“. Um den Umbruch in einem Bild zu
veranschaulichen: Die Welt der Gegenstände fängt selbständig an, mit unseren
Planungs- und Überwachungssystemen zu kommunizieren, sich auszuweisen und
über den eigenen Status zu informieren. In einer Automobilfabrik spricht ein Einbauteil:
„Ich bin ein Tachometer, Artikel-Nummer 79351, und habe nach dem Einbau gerade
42
erfolgreich die Qualitätskontrolle passiert.“ Das Regal wird dem Supermarktpersonal
zurufen „Befülle mich jetzt!“ Und der Koffer wird in einem Labyrinth von Förderbändern
in einem Flughafen einer Weiche mitteilen, wohin er als nächstes fliegen will.
Im logistischen Umfeld sind Tags und zugehörige Peripheriegeräte der Ebene der
materialflussnahen Hardware zuzuordnen. Die Peripheriegeräte („Basisstation“)
werden über ein Datenmanagementsystem mit der jeweiligen Applikationssoftware
verbunden. Dort können ereignisabhängige Workflows für das Auslösen von
Folgeprozessen sorgen. So wird etwa nach einem Selfscanning von Kunden am
Checkout eines Einzelhandelsgeschäftes automatisch der Zahlungsmitteltransfer
angestoßen und Warteschlangen an Kassen gehören irgendwann der Vergangenheit
an. Die durch Transponder stimulierte „Prozessintelligenz“ kann aber auch an anderer
Stelle installiert sein. So können etwa im Transponder hinterlegte Produktdaten in
einem Automobilwerk Schweißroboter erkennen lassen, ob als nächstes ein Kombi
oder eine Limousine zu fertigen ist und welche Schweißpunkte entsprechend zu
setzen sind. Damit entfallen bislang notwendige, aufwändige Umrüstvorgänge.
Die positionierungsfreie Objektidentifikation ermöglicht eine Vergrößerung der Zahl der
installierten Messpunkte und damit eine Erhöhung der Kontrolldichte logistischer
Abläufe. Das kann auch zur Entwicklung gänzlich neuer Prozessmodelle führen. Im
Haushaltsbereich etwa könnten „intelligente Mülltonnen“ aus entsorgten
Verpackungen Impulse für Nachbestellungen generieren und damit zwischen Handel
und Konsument ein „Continuous Replenishment“ von Versorgungsgütern ermöglichen.
Neben Kontrolldichte kann auch die Kontrollfrequenz erhöht werden. RFID könnte
beispielsweise in einem Lager eine tägliche Inventur ermöglichen (wenn diese
angesichts der verbesserten Handlingskontrolle überhaupt noch nötig ist). Unklar ist
jedoch noch, wie mit der Datenflut umzugehen ist, die aus einer Kombination von
erhöhter Informationsdichte pro Chip, erhöhter Kontrolldichte je Prozess und erhöhter
Kontrollfrequenz verbunden wäre.
Bulkscanning ohne vorhergehende Objektpositionierung ist nicht die einzige
Vorteilsquelle funkbasierter Identifikationstechniken. Zu den in einem ersten
Durchgang erwähnenswerten, technologiebedingten Vorteilen von RFID zählen auch
noch die weitgehend fehlende Beeinträchtigung durch äußere Einflüsse wie
Verschmutzung sowie die bereits angedeutete Möglichkeit, größere Datenmengen
(wie Adressdaten, Handlungsanweisungen oder Objekthistorien) am Objekt zu
verankern und gegebenenfalls „unterwegs“ zu verändern. Im Ansatz ergibt sich damit
ein Trend zu einer stärker dezentralisierten Datenhaltung.
Außerdem ermöglichen Tags über eine sensorische Datenerfassung die Kontrolle von
Qualitätsparametern wie etwa der Temperatur von Speiseeis. Keine schlechte Lösung,
wenn man bedenkt, dass nach einer Studie von Langnese-Iglo überhaupt nur 50
Prozent der Eisartikel in unbedenklicher Form in den Tiefkühltruhen des Handels
landet. Sie bedingt allerdings den Einsatz einer energieautonomen Tag-Variante, die
nicht nur nach externer Aktivierung innerhalb der Reichweite von Basisstationen
funktioniert. Mit solchen Tags ließe sich grundsätzlich ein Nachteil ausschalten, den
„normale“ Tags ansonsten nach wie vor mit Barcodesystemen teilen: beide lassen
logistische Prozesse über längere Strecken unbeobachtet.
Die Fachdiskussion um das Thema RFID ist stark auf den Einsatz von Tags an
Produkten und Ladungsträgern fokussiert. Transponder werden jedoch auch an
Transportmitteln (z.B. Gabelstaplern) und an Werkzeugen und Betriebsmitteln
eingesetzt. Über fest integrierte Tags am Werkzeug lassen sich produktions-,
43
instandhaltungs- und steuerungsrelevante Daten speichern. RFID kann hier z.B.
Falschbestückungen verhindern, Werkzeugbegleitkarten ersetzen und die exakte
Terminierung von Wartungsintervallen unterstützen.
In der bislang am weitesten entwickelten Vision wird die RFID-Technologie mit
künstlicher Intelligenz in Gestalt von Multi-Agenten-Systemen gekoppelt. Diese Vision
führt zu einer Art „Internet der Dinge“, einer enthierarchisierten, dezentral gesteuerten
Prozesswelt, in der sich logistische Objekte durch eingebettete Intelligenz ihren Weg
durch verzweigte Netzwerke selbst suchen. Die Steuerung von Paketen wird in dieser
Welt von einer Steuerung durch die Pakete abgelöst. Denkbar ist dabei auch, dass
entsprechend ausgestattete Objekte in mehrstufigen Systemen mit wechselnden
Engpässen Sortierreihenfolgen und Verteilstrategien jeweils ad hoc selbständig
„erfinden“. Erste Versuche in dieser Richtung laufen bereits in enger Anbindung an
Systeme der Materialflusstechnik.
Die Fülle der hier zunächst nur angerissenen Einsatzmöglichkeiten von RFID führt
unmittelbar zu der Frage nach dem Reifegrad dieser Technologie, von der man schon
vorab sagen, kann dass sie auf jeden Fall erheblich komplexer ist als der Barcode (Im
RFID Innovation Center der Metro Group allein sind Geräte und Dienste von über 30
Firmen im Einsatz). In welchen grundlegenden Varianten ist RFID verfügbar und
welchen Einschränkungen unterliegt diese Technologie gegebenenfalls heute noch?
Die technischen Realisierungsmöglichkeiten für das Systemelement „Transponder“
lassen sich nach verschiedenen Kriterien gliedern. Eine erste, grundlegende
Unterscheidung ist die zwischen nur lesbaren und auch beschreibbaren Tags, ein
Unterschied, der naturgemäß ebenso mit erheblichen Kostendifferenzen einhergeht
wie die Unterscheidung von passiven und aktiven (energieautonomen) Tags.
Unterschiedliche Einsatzspektren und Wirtschaftlichkeitsprofile verbinden sich vor
allem auch mit einem weiteren, wichtigen Differenzierungskriterium, der
Sendefrequenz.
Im niedrigen Frequenzbereich zwischen 125 – 134 kHz angesiedelte RFID-Systeme
verfügen über eine Speicherkapazität von bis zu 32 kByte bei einer maximalen
Lesereichweite von 100 cm. Letzteres beschränkt ihre Anwendung auf Spezialfälle wie
etwa die Steuerung geschlossener Mehrwegbehältersysteme. Auch die schon im
Hochfrequenzbereich angesiedelten 13,56 MHz-Systeme erreichen keine höheren
Lesedistanzen.
Die für viele Anwendungsfälle in der Logistik erforderlichen Lesereichweiten von 2 – 5
Metern bedingen den Einsatz einer Ultrahochfrequenztechnologie (UHF). EPCglobal,
eine Gemeinschaftsorganisation der Standardisierungsgremien EAN international und
Uniform Code Council (heute GS1; EPC steht für „electronic product code“) hat bereits
einen Standard im Frequenzbereich zwischen 850 und 930 MHz ratifiziert. Wegen der
erforderlichen Steigerung des Energie-Outputs von 0,5 auf 2 Watt muss diese
Technologie innerhalb der europäischen Union noch genehmigt werden, sie wird sich
dann aber in der Logistik wahrscheinlich als Variante mit der größten
Anwendungsbreite durchsetzen.
Das Frequenzband um 2,4 GHz ist für bestimmte Einsatzbereiche bereits freigegeben.
Hier werden in der Regel batteriegetriebene, komplexe Transponder eingesetzt, mit
denen man Reichweiten von mehreren 10 Metern erreichen kann. Ein wichtiges
praktisches Einsatzfeld ist die Containeridentifikation.
Die hier nur grob skizzierten Varianten der RFID-Technologie zeigen, dass der erste
Schritt in praktischen RFID-Projekten immer eine sehr sorgfältige Technologieauswahl
44
sein muss. „Plug & Play“-Lösungen gibt es im Markt (noch) nicht. Dass man darüber
hinaus aus technischen Gründen immer mit einer begrenzten Pilotanwendung starten
sollte, hat weniger mit der Variantenvielfalt als mit dem Reifegrad der RFID-Technik zu
tun.
Einen Karton in der Mitte einer Palette mit Schrauben kann man nach derzeitigem
Stand der Technik über Radiofrequenzen nicht identifizieren. Auch Waren, die in
Aluminiumfolie verpackt sind, sich in Gitterboxen befinden oder stark wasserhaltig
sind, zeigen derzeit noch Machbarkeitsgrenzen der RFID-Technologie auf, an denen
gearbeitet wird. Weiterhin beklagen Praktiker nach ersten Feldversuchen, dass es
keine Fehlermeldungen gibt, wenn RFID-Tags beim Passieren von Funkschleusen
nicht gelesen werden. Gelegentlich beeinträchtigen auch Störungen durch andere
Maschinen die funkbasierte Datenübertragung. Die noch unbefriedigenden
Leseleistungen, die sich in ersten Pilotinstallationen auch bei technisch eher
unproblematischen Gütern (z.B. im Konsumgüterbereich) gezeigt haben, sind dagegen
möglicherweise schon durch einfache Experimente mit der Positionierung von Tags
und der Gestaltung des Installationsumfeldes behebbar. Von einer vollständig
ausgereiften Technologie kann man jedoch insgesamt noch nicht sprechen. Aber wohl
auch nicht von unlösbaren Barrieren.
Unabhängig von der Frage der einzusetzenden Technologievariante ist der Nutzen
von RFID hochgradig unternehmensbezogen und szenarioabhängig. Der Verlauf der
Stückkosten von Peripheriegeräten und Tags wird die wirtschaftlichen Einsatzfelder
dabei zunächst noch begrenzen. So ist etwa im Konsumgüterbereich zunächst nur ein
RFID-Einsatz auf Paletten- und Kartonebene geplant. Um auf der Ebene von
Verkaufseinheiten einsetzbar zu sein, müssen die Preise für Tags auf wenige Cent
sinken. Der bevorstehende Technologiewechsel von siliciumbasierten Chips auf
bedruckte Polymere kann hier den Durchbruch beschleunigen. Der Einsatz von
aktiven Transpondern und Tags mit „read/write-capability“ wird wohl dennoch bis auf
weiteres auf Produkte mit einer hohen Wertdichte beschränkt bleiben. Bei allen
Einschätzungen dieser Art sollte man jedoch die schnelle Verbreitung von
Mobiltelefonen im Hinterkopf haben, mit der anfangs auch niemand gerechnet hatte.
Zu den wichtigen Nutzenprofilen nicht-logistischer Art zählen insbesondere die durch
RFID ermöglichten Verbesserungen beim Diebstahlschutz und beim Schutz vor
Markenpiraterie, wobei letzteres zumindest indirekt mit dem Thema „Supply Chain
Management“ zusammenhängt: die Kunst wird darin bestehen, Plagiaten weltweit den
Zugang zu Supply Chains zu verwehren. Man schätzt, dass gefälschte Produkte
zwischen 5 – 7 % des Welthandels ausmachen. Die im Wesentlichen auf Diebstahl
zurückzuführende Schwundquote im Handel wird zwischen 2-4 % geschätzt und liegt
damit oberhalb der Umsatzrendite vieler deutscher Einzelhändler.
Für hochwertige Produkte dürften sich damit keine Schwierigkeiten ergeben, einen
entsprechenden Business Case für den RFID-Einsatz aufzubauen. Indirekt ist damit
aber auch schon ein Implementierungsproblem angesprochen. Wenn die
Wirtschaftlichkeit einer Technologie von einzelnen Produktmerkmalen wie der
Wertdichte abhängt, droht ein paralleler Einsatz von neuer und alter
Identifizierungstechnologie (Barcode), ein Szenario, das geeignet sein könnte, die
verantwortlichen Träger der zu treffenden Investitionsentscheidung etwas zu irritieren.
Die oben bereits angesprochene Differenzierung zwischen Pallet-, Box- und ItemLevel-Tracking führt in die gleiche Problematik.
Zwei weitere Nutzenprofile nicht primär logistischer Natur sind noch erwähnenswert.
So mag die für den Einzelhandel wichtige Erstellung individueller Verbraucherprofile
durch RFID noch trennschärfer möglich sein. Verbraucher selbst können durch ein am
Einkaufswagen angebrachtes Display über eine RFID-basierte Objektidentifikation
45
reichere Produktinformationen abfragen (z.B. sich als Diabetiker über die
Zusammensetzung von Lebensmitteln informieren). Die im Verbraucherbereich noch
zu lösende Datenschutzprobleme müssten eigentlich lösbar sein. Selbst wenn ein Tag
nach dem Verlassen eines Ladenlokals nicht deaktiviert worden ist, entsteht dem
Kunden schließlich insofern kein Schaden, als ein elektronischer Produktcode
außerhalb seiner spezifischen Systemumgebung für Dritte nur eine völlig
bedeutungslose Zahlenfolge ist.
Weiterhin kann das vom Gesetzgeber forcierte Thema „Rückverfolgbarkeit“ im
Lebensmittelsektor neue Einsatzfelder für RFID erschließen, wenngleich der Zwang,
hier schon ab dem 1.1.2005 Lösungen implementieren zu müssen, die Unternehmen
zunächst einmal wohl überwiegend zu „RFID-freien“ Lösungen greifen lassen wird.
Dass die Grenze zwischen Qualitätssicherungsthemen und Logistik fließend ist,
zeigen übrigens Rückrufaktionen in anderen Branchen. Der Rückruf von über 14
Millionen Reifen durch die Firma Firestone im Jahre 2000 hätte mit Sicherheit
schneller und treffgenauer realisiert werden können als dies damals möglich war
(wobei der Hauptnutzen bei denjenigen Autofahrern gelegen hätte, die weiterhin
unidentifiziert mit den betroffenen Reifen durch die Gegend gefahren sind!).
Etwas komplexer stellt sich die Frage nach dem Business Case für RFID in einem rein
logistischen Kontext. Ein Hauptgrund dafür liegt schlicht darin begründet, dass ein Teil
der Funktionsumfänge von RFID durch die inzwischen etwa 30 Jahre alte
Barcodetechnologie abgedeckt wird und einige Unternehmen zögern werden, ihre
bestehenden Investitionen in diese Technologie einfach abzuschreiben. Die RFIDVorteile zeigen sich innerhalb logistischer Systeme mit besonderer Deutlichkeit an den
jeweiligen Schnittstellen.
Transshipmentpoints innerhalb von speditionellen Netzen oder Handelsnetzwerken
haben einen hohen Durchsatz an Sendungen bzw. Packstücken. Hier ist aktuell die
Barcodetechnologie
Standard.
Dabei
werden
meist
Sendungsund
Routinginformationen einzeln von Mitarbeitern mit Scannern ausgelesen. Auf
Packstückebene ist hier aufgrund der hohen Stückzahlen ein hoher Zeitaufwand zu
verzeichnen. Angenommen RFIDs würden flächendeckend eingesetzt, könnten alle
Sendungen quasi gleichzeitig auf dem LKW ausgelesen werden. Damit wäre eine
Vollständigkeitskontrolle „auf Knopfdruck“ möglich. Die Durchlaufzeit im Wareneingang
reduziert sich erheblich, die Ware wird unmittelbar nach ihrem physischen Zugang
disponibel. Ebenso könnte per Knopfdruck überprüft werden, ob sich auf dem LKW
überzählige (z.B. fehlverladene) Packstücke befinden. Fehlende Kartons auf einer
Palette werden nicht erst beim Wareneingang des Käufers entdeckt, sondern bei
jedem Kontrollpunkt.
In einem Pilotprojekt des britischen Handelsunternehmens Tesco konnte z.B. der
Zeitbedarf für eine komplette LKW-Entladung von durchschnittlich 23 auf 3 Minuten
reduziert werden. Besonders ausgeprägt sind dabei die Zeitgewinne im
Zusammenhang mit dem Abgleich zwischen physischem Wareneingang und
elektronisch übermittelten Versandavisen (DESADV). Diese Beispiele zeigen die für
RFID
typische
Doppelwirkung:
operative
Effizienzgewinne
durch
Prozessverschlankung paaren sich mit Informationsgewinnen, die sich in besseren
(z.B. schnelleren) Entscheidungen und einer erhöhten Adaptivität niederschlagen.
Weitere logistische Vorteile erschließen sich erst auf den zweiten Blick. So werden
z.B. heute oft noch notwendige, aufwändige Referenzierungsprozesse bei
Statusrecherchen (von der Lieferscheinnummer des Versenders zur Sendungs- oder
Collinummer des Logistikdienstleisters und zurück) überflüssig. Und bei
Umsortierungen wie etwa der Bildung von Mischpaletten in einem regionalen
46
Distributionscenter oder einer Cross-Docking-Operation muss nicht jedes Mal eine
neue NVE (Nummer der Versandeinheit) gebildet werden. Bei standardisierten,
wiederverwendbaren Ladungsträgern würde es z.B. genügen, den Ladungsinhalt mit
der elektronischen Ladungsträgernummer („Global returnable/indidividual asset
identifikation“ – GRAI) zu „verheiraten“.
Auf Transportverpackungsebene entfaltet der Einsatz von RFIDs seine Stärke
besonders bei Mehrwegbehältersystemen. Die Wiederbeschreibbarkeit und hohe
Haltbarkeit machen eine langfristige Identifikation eines Mehrwegbehälters möglich,
und der Chip kann gleichzeitig temporäre Routinginformationen aufnehmen. So kann
in Behälterkreisläufen nachvollzogen werden, wo sich welcher Behälter befindet bzw.
an welcher Stelle ein Behälter „untergegangen“ ist. Voraussetzung ist die Ausstattung
der Teilnehmer am System mit RFID-Lese/Schreibgeräten. Über die Identifikation des
Behälters kann man auf der Basis von Datenbanken Inhalt, Herkunft und Ziel der
jeweiligen Logistikobjekte ableiten.
Innerhalb eines Lagers werden „Real-time“-Inventuren möglich. Dabei könnte je nach
Anforderung ein RFID auf Artikel- oder Umverpackungsebene zur Identifikation eines
Lagerstücks dienen. Den höchsten Nutzen versprechen Echtzeit-Inventuren auf der
Ebene von Verkaufsregalen, wo zu spät entdeckte Fehlbestände immer noch – trotz
Barcodeeinsatz - unnötige Umsatzverluste (und zugehörige Kundenfrustrationen)
auslösen. Wie bereits erwähnt, wird ein „Item-Level-Tracking“ allerdings aus
Kostengründen im Konsumgüterbereich auf absehbare Zeit noch nicht möglich sein.
Zeitgewinne ergeben sich durch RFID-Einsatz nicht nur bei kompletten Inventuren,
sondern auch bei der gezielten Suche eines einzelnen Objektes. So verwundert es
nicht, dass die Bibliothek des Vatikans diese Technologie inzwischen ebenso nutzt wie
die Strandkorbverwaltung von Westerland. Auch die Identifikation einzelner Fahrzeuge
auf den großflächigen Pufferzonen von Automobilspediteuren bietet sich für einen
Einsatz dieser Technologie an. Auch bei dem Beispiel „Bibliotheksverwaltung“ wird der
Nutzen aber wahrscheinlich nicht erst bei der schnellen Identifizierung falsch
einsortierter Objekte anfallen, sondern schon bei der Verhinderung solcher Irrtümer.
Suchoperationen werden nicht effizienter, sondern seltener.
Nicht nur bei „außerlogistischen“ Systemvorteilen wie „Schutz vor Markenpiraterie“ ist
eine vollständige monetäre Nutzenbewertung von RFID schwierig, oder genauer
gesagt: nur auf der Basis einiger mehr oder weniger spekulativer Annahmen möglich.
Auch die von vielen Projekten zunächst verfolgten rein logistischen Effekte lassen sich
leichter verbal beschreiben als monetär bewerten. Welchen ökonomischen Wert hat
beispielsweise der Reaktionszeitgewinn, der sich Supply Chain Managern durch
verstärkte, RFID-basierte Echtzeitkontrollen logistischer Prozesse erschließt? Und in
welchem Umfang schlagen sich reduzierte Stockouts in einem Handelsregionallager
oder am Point of Sale über verhinderte Umsatzverluste in Rohertragssteigerungen
nieder? Die Aufbereitung entsprechender Business Cases vor dem RFID-Einsatz ist
eine anspruchsvolle Aufgabe, deren Lösung genaue Prozessanalysen und sehr
sorgfältige, nach Einzeleffekten (z.B. im Umsatz- und im Kostenbereich) differenzierte
Schätzungen bedingt.
Die Branche der Logistikdienstleister kann ihren Business Case nicht auf „außerlogistischen“ Systemvorteilen aufbauen. Auf der anderen Seite müssten insbesondere
die Betreiber von Stückgut- und Paketnetzen mit besonders hohen
Investitionsaufwendungen rechnen, da nicht nur in Tags, sondern an vielen Terminals,
Toren und gegebenenfalls Fahrzeugen auch in die zugehörige Systemperipherie
(Schreib- und Lesegeräte) investiert werden muss. Hinzu kommt, dass die bislang
47
entwickelten, barcodebasierten Sendungsverfolgungssysteme für die eigene
Qualitätskontrolle im Grunde ausreichend sind. Um eine Palette unbeschädigt und
rechtzeitig von A nach B zu bringen, muss man nicht unbedingt Detailkenntnisse über
ihren Inhalt haben.
Zumindest für netzbasierte Transportdienstleistungen wird die Wertschöpfung also
weniger in der weiteren Rationalisierung der eigenen Prozesse liegen als vielmehr in
der Marktanteilssicherung oder -steigerung durch verbesserte Nutzenprofile für
Kunden (s. auch das oben angesprochene Merkmal einer vereinfachten
Referenzierung). Für Anbieter komplexerer, nicht netzbasierter „Added-ValueServices“ dagegen ergibt sich ein anderes Bild. Diese Dienstleister moderner Prägung
operieren als Konsequenz immer weiter reichender Outsourcingkonzepte innerhalb
verladerspezifischer logistischer Prozessketten und können, etwa aus einer 4PLPosition heraus, für ihre Kunden sogar zu beratenden Treibern einer RFID-Einführung
werden. Von einer fehlenden branchenweiten oder branchenübergreifenden
Technologie-Standardisierung wären sie weit weniger betroffen als die Betreiber
offener Transportnetze, durch die hindurch Güter ganz unterschiedlicher Branchen
fliessen.
Es zählt zu den Wesensmarkmalen der RFID-Technologie, dass sie ihr volles
Potenzial erst in der unternehmensübergreifenden Gestaltung logistischer
Prozessketten entfaltet. Die von großen Handelsunternehmen aktuell angestoßenen
Projekte setzen denn auch die System-Integration der Hersteller zwingend voraus.
Aus deren Sicht mag die Vorteilhaftigkeit von RFID deutlich schwächer ausgeprägt
sein als für ihre Handelskunden. Insbesondere für kleinere und mittelständische
Lieferanten geht es dabei wohl oft weniger um das Ausschöpfen eigener Vorteile als
vielmehr um die Erfüllung kundenseitig erhobener Forderungen („compliance“). Wie
auch für die bereits erwähnten Netzspediteure wird es für diese Unternehmen
kriegsentscheidend sein, dass die schnelle Herausbildung von Branchenstandards sie
von dem Zwang befreit, kundenseitig verschiedene Technologien bedienen zu
müssen.
Einige der wesentlichen Erfolgsvoraussetzungen für den RFID-Einsatz sind in den
vorausgegangen Abschnitten bereits erwähnt worden: Sinkende Systemkosten
insbesondere für die Tags als Informationsträger, der technische Reifegrad und die
Beseitigung der klassischen Investitionsblockade bei neuen Technologien in Gestalt
unzureichender Standardisierung. Als weitere Erfolgsvoraussetzung ist noch der
Hinweis auf die Notwendigkeit des Erreichens einer kritischen Masse anzubringen. In
vielen Branchen wird es der Marktmacht einzelner „Spieler“ bedürfen, um den Rollout
so zu beschleunigen, dass sich (möglichst für alle Beteiligten) ein schnelles Erreichen
des Break-Even-Punktes ergibt. Dabei wird sich das Muster eines sich selbst
verstärkenden Prozesses ergeben: Im Zuge des Rollout ergeben sich
Kostendegressionseffekte bei der Produktion von Transpondern und
Peripheriegeräten, die Preissenkungen zur Folge haben, die dann ihrerseits wieder die
wirtschaftliche Attraktivität der Technologie verbessern usw.
Lediglich innerhalb geschlossener logistischer Kreisläufe, also beispielsweise bei der
unternehmensinternen Sendungsverfolgung von getagten Mehrwegtransportbehältern,
spielen Fragen der Standardisierung und der kritischen Masse nur eine
untergeordnete Rolle. Bei offenen Systemen (und damit im Supply Chain
Management) sind sie „kriegsentscheidend“.
Seltener erwähnt wird der Tatbestand, dass die vollständige Ausschöpfung des
Potenzials von RFID in vielen Fällen ein vorbereitendes Prozessredesign im Umfeld
48
des Einsatzes von Tags bedingt. Ein anschauliches Beispiel hierfür liefert der
Einzelhandel, bei dem die RFID-gestützte Warenvereinnahmung eine vorauseilende
Information durch den Hersteller in Form eines elektronischen Lieferavises bedingt.
Ohne eine entsprechende EDI-Nachricht sind automatisierte Soll-Ist-Vergleiche im
Zuge der LKW-Entladung nicht möglich. Bislang sind hierzu aber kaum mehr als 10%
der Lieferanten des Konsumgüterhandels in der Lage. Für die zurückhinkenden
Hersteller wird es demzufolge bei der RFID-Einführung oft um mehr gehen als nur um
die Bestückung von Paletten mit Tags.
Aus einzelwirtschaftlicher Sicht liegen weitere Erfolgsvoraussetzungen vor allem in
Fragen eines professionellen Projektmanagements, auf die deshalb abschließend
noch eingegangen wird.
Wie bereits oben angeklungen, ist die Implementierung von RFID alles andere als ein
hochstandardisierter und auch heute noch nicht wirklich standardisierbarer Prozess.
Dies liegt sowohl in der enormen technischen und funktionalen Applikationsbreite als
auch in der sehr unterschiedlichen Komplexität der möglichen Anwendungsszenarien
begründet.
Viel zu häufig beginnen RFID-Implementierungen mit der Diskussion und Bewertung
der Preis-/Leistungsfähigkeit von Tags und Lesegeräten. Wesentlich wichtiger jedoch
als die Qualität einer Einzelkomponente (bestes Lesegerät, billigster Tag) ist das
funktionierende Zusammenspiel aller Hard- und Software-Komponenten innerhalb des
Gesamtsystems in bezug auf Integrierbarkeit, Kombinierbarkeit und Skalierbarkeit.
In Wahrheit stehen wir in vielen Fällen vor dem vollständigen Neubau einer sehr
komplexen IT-Infrastruktur, in der die sogenannten ‚Savants’ als spezifische RFIDMiddleware das zentrale Nervensystem des Systems darstellen. Sie fungieren als
Bindeglied zwischen den Lesegeräten, der konventionellen Unternehmens-Middleware
und den ERP-Systemen und ermöglichen die Anbindung von Servicediensten wie z.B.
‚Object Naming Services’ (ONS) oder anderen Web-Applications. Ihre Hauptaufgabe
besteht in der intelligenten Filterung und Regulierung der gigantischen
Ereignisdatenströme. Sie zielen im Sinne eines Event Managements darauf, genau die
steuerungsrelevanten Ereignissätze (und nur diese) an nachgelagerte Systeme
weiterzugeben und bewahren z.B. die transaktionalen ERP-Systeme vor
unbeherrschbaren Terrabytefluten.
Eine weitere Herausforderung an das Design der Systemarchitektur liegt meist im
Fehlen von gesicherten Annahmen hinsichtlich der zu erwartenden Datenvolumina
und –ströme. Bereits kleinere Änderungen im IT-Prozessdesign können zu
nachhaltigen Auswirkungen auf die Performanz und die Funktionsfähigkeit zuvor
störungsfrei funktionierender Systeme führen. Die vollständige Planbarkeit ist hier a
priori illusorisch, die flexible Skalierbarkeit ein Erfolgsfaktor.
Insgesamt werden die Kosten der RFID-Systemarchitektur vermutlich die
Gesamtverfahrenskosten stärker determinieren als die Kosten für Tags und HardwarePeripherie. Die Entwicklung vom ‚Laborbetrieb’ zum ‚gesicherten Einsatz im Feld unter
Produktivbedingungen’ wird nicht überraschungsfrei sein. Die Gründe hierfür liegen
primär in der Physik.
Neben den bekannten potentiellen Störquellen Flüssigkeiten und Metalle, spielt die
Positionierung des Tags am Objekt eine wesentliche Rolle, deren Optimalität letztlich
durch systematisches Austesten herauszufinden ist. Daraus ergibt sich für die
Implementierungsplanung auch eine abweichende und erweiterte Projektplanung und
–phasenaufteilung gegenüber anderen IT Einführungsprojekten (wie z.B. der
Einführung einer ERP-Software). Neben den üblichen Anforderungen bzgl. Klarheit
49
von betriebswirtschaftlichen und konzeptionellen Spezifikationen muss das
‚Dazulernen’ im Projekt institutionalisiert werden.
Die schrittweise technische Verfeinerung darf nicht in späte Implementierungs- oder
gar Rollout-Phasen des Projekts geschoben werden, sondern muss quasi von der
ersten Projektminute als Parallelstrang mitkonzipiert und im Projekt gelebt werden.
Das ‚Labor unter Realbedingungen’ hat einen noch höheren Stellenwert als die
‚Sandbox’ zur Demonstration von Musterprozessen, wie man sie aus der Einführung
von ERP-Systemen kennt. Auch vor dem Hintergrund von Komponentenauswahl- und
somit Beschaffungsentscheidungen ist dies wichtig.
Ein projektbezogenes strukturiertes und kontinuierliches Steigern der technischen und
verfahrensseitigen Komplexität ist daher sinnvoll. Dies gilt sowohl bei der Selektion
und Priorisierung der Anwendungsszenarien (Cases) als auch bei der
Meilensteinplanung für einen konkreten Einführungs-Case: ‚Think big, start small, pilot
early, verify at each stage and extend continuously’.
So gesehen werden proprietäre Einzellösungen wie z.B. das Management und die
Verfolgung von teuren Spezialbehältern schneller zum Erfolg geführt werden können
als ein komplexes Kunden-Lieferanten-übergreifendes Kollaborationsszenario zur
Abbildung einer Supply Chain, bei dem sich zu den genannten technischen
Schwierigkeiten noch Fragen der Aufteilung von Benefits unter den Beteiligten stellen.
.
Vermutlich wird man in einigen Fällen auch dann die proprietäre
unternehmensspezische Lösung bauen, wenn sich mittelfristig durch das Schaffen von
Standards und die Verbesserung der technischen Produktreife bessere Lösungen
abzeichnen. Das Durchleben der Kinderkrankheiten stärkt das Immunsystem, will
sagen, der frühzeitige Know-How-Aufbau und die erlebte Erkenntnis des ‚im Feld’
Machbaren sind – gut gemanaged - sicherlich keine Fehlinvestition. Perspektivisch
können sie möglicherweise sogar ein Wettbewerbsvorteil sein, weil man
a) gegenüber einem Warten auf den Standard schneller vorankommt und
b) die Gelegenheit nutzt, die Lösung konsequent auf die individuellen Bedürfnisse
des eigenen Unternehmens anzupassen.
Obwohl solche individuellen Lösungen dann Partnern auf der Lieferantenseite die
hohen Set-up-Kosten der Bedienung verschiedener Schnittstellen zumuten, wird man
in solchen Fällen wenig Neigung zeigen, den eigenen Vorsprung über einen Standard
oder auf einer öffentlich zugänglichen IT-Plattform nachträglich „sozialisieren“ zu
lassen. Ein solches Verhalten bedingt freilich Marktmacht.
In Bezug auf die Standardisierung der Produkt-Codifizierung ist die entscheidende
Frage nicht, ob es einen Standard geben wird oder nicht. Die Frage wird eher sein, wie
schnell diese Standards ausdefiniert und z.B. über die ‚Mandate’, (WalMart, Tesco,
Metro, DoD) konkret umsetzbar sind und ‚market practice’ werden. Die hohen
Erwartungen an EPCglobal sind hier vermutlich gerechtfertigt.
Die teilweise noch recht unklaren Business Modelle einiger Anbieter (insbesondere im
Service-Bereich) tragen derzeit nicht zur Transparenz bei. Dies gilt insbesondere für
Fragen der Data-Ownership, Data Privacy, Kryptologie sowie des Pricing und der
Leistungsverrechnung. Letztlich werden neben Geschwindigkeit am Markt,
Produktqualität und Leistungsfähigkeit des Business Modells vor allem
Vertrauenswürdigkeit und Seriosität in Ruf und ‚gelebtem Beweis’ perspektivisch
relevant sein.
Ein weiteres Problem ist das bereits aus den Zeiten des e-Hypes bekannte ITRessourcen-Management Problem. Aufgrund der Vielzahl der technischen
50
Spezialfragestellungen gilt es für den RFID-Projektmanager, eine im Vergleich hohe
Anzahl von Experten mit hochgradigem Spezialwissen aber geringem
Projekteinsatzvolumen (über den Projektzeitraum) trotz der beschriebenen unsicheren
Planungsdeterminanten effizient zu koordinieren und punktgenau bedarfsorientiert
einsetzbar zu machen.
Ein sinnvoller Ansatz ist hier, die strategischen Partner nicht nur als Lieferanten,
sondern in einer klaren Mitverantwortung für die Projektziele – z.B. als Alliance-Partner
- mit einzubinden und ihre Mitwirkung vertraglich festzuschreiben. Die Chancen hierzu
stehen gut, wenn man bedenkt, dass fast jeder Technologie- und Serviceanbieter im
RFID-Umfeld geradezu nach Projektreferenzen lechzt und demzufolge auch bereit ist,
einen gewissen Investitionsanteil zu übernehmen. Ein gutes Beispiel hierfür ist die
Einführung der Brandklappenüberwachung am Frankfurter Flughafen, in denen SAP
und Psion (als Handheld-Lieferant) nicht nur partnerschaftlich und mit relevantem
Eigeninvest eingebunden waren, sondern ihrerseits sogar erhebliche Projektleistungen
(z.B. im Bereich Testing und Projektdokumentation, ja sogar Produktentwicklung)
eingebracht haben.
Viele Unternehmen interessieren sich für die Möglichkeiten dieser neuen Technologie,
sehen sich aber nicht in der Lage, deren Nutzenpotenzial genauer abzuschätzen und
unter den vielen Einsatzmöglichkeiten (Sparten, Teilprozessen,...) die lukrativsten
Teilbereiche für ein Pilotprojekt einzugrenzen. Die erste Unterstützung sollte deshalb
in der Bereitstellung eines Kriterienrasters für eine Grobbewertung sowie eines
methodischen Bezugsrahmens für die Erstellung eines Business Case bestehen.
Die „Lukrativität“ eines RFID-Einsatzes hängt wesentlich von der Prüfung der
nachstehenden 25 Kriterien ab. Die Kriterien fokussieren logistische Aspekte der
Prozesskontrolle. Andere mögliche Werttreiber wie „Verhinderung von
Markenpiraterie, „Diebstahlkontrolle“, „gläserne Kunden“ oder „Personenschutz“
werden hier nicht betrachtet.
Die Anwendung dieser Checkliste macht nur Sinn, wenn drei Voraussetzungen erfüllt
sind:
-
RFID muss im betrachteten Falle technisch machbar sein
-
Es darf keine anderen Ausschlusskriterien geben wie etwa ungeklärte
Missbrauchsrisiken (Fremdeinwirkung auf den Speicherinhalt von Tags) oder
ungeklärte Datenschutzprobleme
-
Das Unternehmen muss in seiner Entscheidung über den RFID-Einsatz frei
sein (kein Fall von „Compliance“ gegenüber den Anforderungen von
Großkunden).
Die wichtigsten Kriterien/Fragestellungen lauten:
1. Integrierbarkeit der Technologie (lassen sich Tags und Peripheriegeräte
problemlos in der gegebenen Prozess- und IT-Landschaft, in den
Verpackungssystemen etc. verankern?)
2. Geschlossenheit der Objektkreisläufe (verlassen die Kontrollobjekte den
Bereich selbstorganisierter Kontrollinstanzen?)
3. Notwendigkeit eines unternehmensinternen Prozessredesigns (müssen
wesentliche Arbeitsabläufe sowie gegebenenfalls deren softwareseitige
51
Abbildung neu gestaltet werden, damit das Nutzenpotenzial von RFID voll
ausgeschöpft werden kann?)
4. Notwendigkeit eines unternehmensübergreifenden Prozess- bzw.
Lösungsdesigns (tritt der Nutzen nur ein, wenn Unternehmen auf vor- oder
nachgelagerten Wertschöpfungsstufen die Technologie ebenfalls einsetzen
und ihre Prozesse entsprechend anpassen?)
5. Kooperationsbereitschaft von Partnern (sind die als „Mitspieler“ benötigten
Kunden oder Lieferanten bereit, ebenfalls in diese Technologie zu investieren?)
6. Verteilung des Wissens über RFID (verfügen alle benötigten Partner über
einen ähnlichen Wissenstand? Sind sie darauf aufbauend in der Lage, für sich
selbst einen konsistenten Business Case zu erarbeiten?)
7. Win-Win-Situation ( ergäbe sich ohne Ergebnisumverteilung zwischen den
Partnern eine annähernd symmetrische Verteilung der Benefits von RFDI?)
8. Netzwerkkomplexität (sind die zu beteiligenden Unternehmen jeweils Teile
unterschiedlicher Supply Chains, etwa, indem sie verschiedene Absatzkanäle
bedienen? Sind die benötigten Datenerhebungspunkte über eine große
Vielzahl unterschiedlicher Standorte/Firmen/Institutionen verteilt?)
9. Verfügbarkeit von Standards/Investitionssicherheit (gibt es für den RFIDEinsatz einen allgemein akzeptierten Branchenstandard?)
10. Existenz eines Break-even-Punktes/einer kritischen Masse (muss für das
Erreichen der Gewinnschwelle eine Mindestanzahl von Objekten -Artikeln,
Verpackungseinheiten, Tonnage – und/oder „Spielern“ erreicht werden?)
11. Erreichbarkeit der kritischen Masse (kann der Break-even-Punkt innerhalb
einer wirtschaftlich vertretbaren Zeit erreicht werden?)
12. ROI-Sensitivität des Break-even-Punktes (ist die Lage der Gewinnschwelle
stark abhängig von der Entwicklung der Preise für Transponder?
13. Wertdichte der Objekte/ Kostentragfähigkeit (stehen die Kosten je Transponder
in einem angemessenen Verhältnis zum Wert der Kontrollobjekte?)
14. Senkung von Informationsbeschaffungskosten (lassen sich benötigte
Informationen – z.B. über den Inhalt einer LKW-Ladung – auf RFID-Basis mit
reduziertem Aufwand erheben? Fällt diese Ersparnis aufgrund der Häufigkeit
entsprechender Vorgänge wirtschaftlich ins Gewicht?)
15. Mehrkosten zusätzlicher Informationen (wären die Kosten für die Beschaffung
zusätzlich durch den RFID-Einsatz zu erwartender Informationen im Ist-System
sehr hoch – etwa im Rahmen einer täglichen Inventur? )
16. Rückverfolgbarkeit (ist es aus Sicherheitsgründen notwendig, bestimmte
Objekte auf ihren Herkunftsort oder auf ihren Herstellungsprozess – z.B. eine
bestimmte Chargennummer – zurückzuverfolgen?)
17. Rückholaktionen (ließen sich durch RFID Rückholaktionen schneller und
zielgenauer abwickeln? Sprechen Häufigkeit und Ausmaß solcher Aktionen für
einen Technologiewechsel?)
18. Störanfälligkeit der Prozesse ( sind gegenüber der Fehlerhäufigkeit im IstZustand erhebliche Stabilisierungseffekte zu erwarten?)
19. Ausmaß der Reaktionszeiten ( ist die übliche Zeitspanne, die im Ist-Zustand
zwischen dem Auftreten eines Fehlers, seiner Entdeckung, seiner Meldung und
seiner Beseitigung verstreicht, unakzeptabel lang und/oder schwankend?)
20. Höhe der Fehlerfolgekosten ( spricht die wirtschaftliche Tragweite von
Verzögerungen/Verfügbarkeitslücken etc. im Ist-Zustand für den Einsatz einer
neuen Technologie?)
21. Messbarkeit der Fehlerfolgekosten (lassen sich die Folgekosten von
Bestandslücken, Prozessverzögerungen etc. nachvollziehbar abschätzen?)
22. Fehlertoleranz der Kunden (sind die Kunden besonders anspruchsvoll im
Hinblick auf Leistungsmerkmale wie Termintreue oder Warenverfügbarkeit?)
52
23. Quantifizierbarkeit der Fehlerfolgekosten (sind die Kosten der
Nichtverfügbarkeit – z.B. Umsatzausfälle durch Bestandslücken - ausreichend
genau abschätzbar?)
24. Wettbewerberverhalten ( sind wichtige Konkurrenten in der Nutzung von RFID
schon weiter fortgeschritten? Entsteht dadurch ein gewisser
Implementierungsdruck?)
25. Marketingeffekte (würde ein RFID-Einsatz zur Profilierung Ihres Unternehmens
gegenüber Wettbewerbern als besonders „fortschrittlich“ beitragen?)
Die hier vorgelegte Checkliste kann Unternehmen helfen, mögliche Einsatzfelder von
RFID nach den Kriterien „Auswirkung auf das Ergebnis“ und „Einfachheit der
Umsetzung“ einer ersten Bewertung zu unterziehen und daraus z.B. eine Priorisierung
von möglichen Projekten abzuleiten. Unterscheidet man diese beiden Merkmale
einfach in den Kategorien „niedrig“ und „hoch“, so entsteht eine vielseitig verwendbare
Positionierungsmatrix, mit deren Hilfe man auch innerhalb eines anderen Kontext zu
einem nachvollziehbaren Ranking konkurrierender Maßnahmen kommen kann.
Abbildung 9 zeigt beispielhaft das Ergebnis einer solchen Positionierungsarbeit.
Anwendungsfelder für RFID werden sich hier eher unter den „Must haves“ als unter
den „Quick Wins“ oder den „Low Hanging Fruits“ finden.
Beispielhaft hierfür sei nur der Einführungsprozess für RFID im
Lebensmitteleinzelhandel angesprochen. Hier beginnt die Konsumgüterwirtschaft mit
der Nutzung von Transpondern auf Palettenebene, um dann (im Zuge der
fortschreitenden Verbilligung von Tags) über die Umkartonebene schließlich auf der
Ebene einzelner Verkaufseinheiten zu landen. Erst dort wird sich das volle Potenzial
von RFID entfalten (etwa in der Gestalt einer Reduzierung von Leerständen in den
Regalen von Filialen).
53
Ergebniswirkung
„Must-Have“
10
„Quick-Wins“
11
9
hoch
8
5
1
2
7
4
niedrig
3
5
6
„Money-Pitfalls“
niedrig
„Low-Hanging-Fruits“
hoch
Einfachheit der
Umsetzung
Abbildung 9: Priorisierungsmatrix
Dieses Schema vermittelt einen ersten Eindruck relativer Wertigkeiten. Für die
Freigabe größerer Mittel ist es jedoch zu grob. Im folgenden Kapitel wenden wir uns
deshalb der Frage zu, wie man im Zusammenhang mit SCM-Innovationen zu
belastbaren Zahlenwerken kommen kann, die den zu erwartenden Return on
Investment und die Kapitalrückflussdauer der notwendigen Investitionen
widerspiegeln.
4. Ansätze zur ökonomischen Bewertung von IT-Investitionen im Supply Chain
Management
4.1 Ziele des Kapitels
In diesem Kapitel wird aufgezeigt, wie man Investitionen in IT-Lösungen in einem
SCM-Kontext kaufmännisch rechnen kann, d.h. wie die einzelnen Wirkungen einer
verbesserten Informationsversorgung so bis in die Kategorien einer Gewinn-undVerlust-Rechnung durchverfolgt werden können, dass sich auf der Basis plausibler
Annahmen ein „Business Case“ rechnen lässt.
54
4.2 ROI und mehr: Wege zu einem Business Case
Die durch Supply Chain Integration ermöglichten Ergebnisverbesserungen werden
häufig auf der Ebene von Effizienzsteigerungen beschrieben, die sich in
Kostensenkungen niederschlagen. Das ist aus zwei Gründen unzureichend. Zum
einen fehlt die Berücksichtigung möglicher Umsatzwirkungen. Und zum anderen
besagen Kostensenkungen noch nicht allzu viel, solange unberücksichtigt bleibt,
welche Investitionen aufgewendet werden müssen, um diese Potenziale zu
erschließen. Entscheidungsreife kann ein SCM-Projekt mit einer größeren ITInvestition folglich erst dann erlangen, wenn die zu erwartende Verzinsung und die
daraus resultierende Kapitalwiedergewinnungsdauer „Pay-Back-Period“) ermittelt ist.
Die Frage, welche Klippen auf dem Weg dorthin in der Praxis zu umschiffen sind, wird
im Folgenden beispielhaft erläutert.
Stellen Sie sich vor, Sie leiten als Logistikleiter bei einem Produzenten von
Stahlröhren ein Projekt, in dem über die Einführung eines APS-Systems entschieden
werden soll. Die Softwareanbieter, die Sie in die engere Wahl gezogen haben,
berichten Ihrem Team, dem auch der IT-Leiter, der kaufmännische Leiter und der
Leiter Vertrieb angehören, von beeindruckenden Effizienzsteigerungen, die sie mit der
Einführung ihrer Tools in anderen Unternehmen erzielt haben. Von
Bestandssenkungen und Durchlaufzeitverkürzungen ist dort die Rede, von einer
Stabilisierung der Produktionsplanung und einer daraus resultierenden Verbesserung
der Termintreue sowie von einer besseren Auslastung der Fertigungskapazitäten. Für
die Verbesserungsraten werden auf der Ebene entsprechender KPIs jeweils attraktive
2-stellige Prozentzahlen versprochen. Reicht das, um das Projekt in Ihrem
Unternehmen durchzusetzen? Natürlich nicht.
Der kaufmännische Leiter will als erstes wissen, welche Spuren es denn in der
Ergebnisrechnung hinterlassen würde, wenn man die Planungszyklen um die Hälfte
verkürzen könne. Dann fragt er noch, was das für Kosten und Erlöse konkret bedeutet,
wenn die Auftragsabwicklungszeit einer Röhrenproduktion von 8 auf durchschnittlich
5-6 Wochen gesenkt werden kann und wenn damit eine Verkürzung von
Bestandsreichweiten auf der Ebene von Rohstoffen und Vormaterialien in Höhe von
25 % einhergehen wird. Sie schaffen es, diese Zielgrößen über eine Schätzung der
Cash-to-cash-Cycle-Time halbwegs nachvollziehbar in finanzielle Werte zu
übersetzen, stellen bei dieser Gelegenheit aber fest, dass Einsparungen auf der
Ebene der Supply Chain Kosten nicht ausreichen werden, um zu einer angemessenen
Verzinsung dieser Investition zu gelangen, zumal Ihr IT-Kollege darauf hinweist, dass
in einigen ihm bekannten Unternehmen die Kosten der Softwareeinführung erheblich
über den ursprünglichen Schätzungen gelegen hätten und man die Umstellungsrisiken
in der Schätzung der Pay-back-Periode angemessen berücksichtigen müsse. (Sie
versuchen, die komplexe Frage nach Dauer und Aufwand der Implementierung zu
umschiffen, weil Sie a) die SCM-Readiness Ihres Unternehmens selbst mit einem
Fragezeichen versehen, und b) solange keinen ausführlichen Implementierungsplan
entwickeln wollen, wie offen ist, ob das Projekt überhaupt eine Chance auf
Genehmigung hat).
Sie verlagern den Schwerpunkt der Diskussion auf die Leistungsseite der Logistik und
heben hervor, dass das Unternehmen durch eine Kombination von verkürzter
durchschnittlicher Lieferzeit und erheblich verbesserter Termintreue seinen Kunden
einen geldwerten Vorteil verschaffen könnte, der sich in höheren Umsätzen und
Marktanteilen niederschlagen würde und dem Unternehmen Wettbewerbsvorteile und
55
Alleinstellungsmerkmale verschaffen kann. Ihre Kollegen verstehen zwar nach einer
entsprechenden PowerPoint-Präsentation das „Available-to-Promise-Konzept“, aber
auf die Frage des kaufmännischen Leiters, mit welchen Mehrumsätzen er denn infolge
des besseren Service rechnen würde, zuckt der Vertriebsmann mit den Achseln. So
etwas sei Kaffeesatzleserei. Man beschließt, derartige Effekte als „Soft Facts“
einzustufen und sie in der quantitativen Ergebnisschätzung nicht ausdrücklich zu
berücksichtigen.
Obwohl das Unternehmen in der Vergangenheit häufiger Kapazitäten hat verfallen
lassen müssen, weil es bei wichtigen Lieferanten zu Lieferengpässen und
Verzögerungen gekommen ist, die man auf der Basis einer verbesserten
Informationsversorgung vermutlich hätte entschärfen können, verlässt Sie der Mut,
nun noch ergänzend auf die Potenziale einer Supplier-Integration hinzuweisen. Sie
ahnen, dass Sie, auch wenn Sie noch so intelligent über die Effekte einer zeitnahen
„bilateral change propagation“ sprechen, sich damit wieder im Bereich der Soft Facts
bewegen und Ihre Pro-Argumente damit als „nice to have“ eingestuft werden. Wer
garantiert denn, dass die Lieferanten zu einer entsprechenden Supply Chain
Collaboration überhaupt willens und in der Lage sind? (Auf einer allgemeineren Ebene
über den grundsätzlichen Nutzen von Transparenz in Netzwerken, über die
Schädlichkeit von Bullwhipeffekten und über die globale Notwendigkeit einer erhöhten
Adaptabilität zu reden, hatten Sie sich schon länger abgewöhnt, weil das einsam
macht).
Was läuft da schief? Man kann aus dieser fiktiven Geschichte dreierlei lernen.
Zunächst einmal zeichnen sich SCM-Projekte immer wieder dadurch aus, dass
wesentliche Effekte auf der Leistungsseite der Logistik angesiedelt sind, damit Fragen
der Servicequalität betreffen, nicht über die Kosten, sondern über den Umsatz auf den
Gewinn wirken und schwer quantifizierbar sind. Es ist ein Fehler, solche Effekte allein
aufgrund eingeschränkter Messbarkeit aus der Bewertung auszuschließen. Dass man
die Wirkungen einer verbesserten Prognosegenauigkeit, Lieferbereitschaft oder
Termintreue nicht genau abschätzen kann, heißt ja weder, dass es diese Effekte nicht
gibt, noch dass sie für das Unternehmensergebnis irrelevant sind. „Nicht alles, was
zählbar ist, zählt“, sagte schon Einstein, „und nicht alles was zählt, ist zählbar“.
Wenn man eine Runde von Experten etwa aus dem Vertrieb ernsthaft mit der Aufgabe
betraut, die Wirkungen einer erhöhten Warenpräsenz bestimmter Konsumgüter in den
Handelsregalen auf den Umsatz zu schätzen und diese Aufgabe dahingehend
präzisiert, man möge Wahrscheinlichkeiten dafür angeben, dass ein Kunde im
Stockout-Fall a) zu einem Konkurrenzprodukt greift, b) in einem anderen
Handelsgeschäft nach demselben Produkt sucht, c) noch einmal wiederkommt, oder
d) dem Händler aufgrund wiederholt schlechter Erfahrungen als Kunde ganz verloren
geht, dann wird man feststellen, dass diese Experten relativ schnell einen Konsens
darüber herbeiführen können, wie diese Verhaltensweisen vermutlich ausgeprägt und
verteilt sind. Man kann dann die jeweiligen Effekte quantifizieren (wofür man wiederum
Annahmen braucht: was kostet ein verlorener Kunde?), sodann mit ihren
Eintrittswahrscheinlichkeiten gewichten und die so errechneten Erwartungswerte zu
Kosten der Nichtverfügbarkeit aggregieren. Eine Möbelhandelskette hat eine solche
Übung einmal gemacht und dabei zu ihrer Überraschung festgestellt, dass die zu
erwartenden Umsatzsteigerung aus einer besseren Warenverfügbarkeit für das
zukünftige Unternehmensergebnis dramatisch wichtiger sind als die aus der
Installation besserer Dispositionstools zunächst primär erwarteten
Bestandssenkungen. Das erste Fazit lautet also: Serviceverbesserungen nicht als Soft
56
Facts abtun, sondern über Expertenschätzungen und Annahmen in plausible
Wertgrößen übersetzen.
Dieses Beispiel führt uns direkt zu einem zweiten Problem, das auf eine ähnlich
pragmatische Weise gelöst werden kann. Die einem Prozessredesign unmittelbar
zuzurechnenden Performancesteigerungen wirken oft erst über mehrere
intervenierende Variable in die Kategorien einer Gewinn- und Verlustrechnung hinein.
Eine verbesserte Prognosegenauigkeit etwa erlaubt eine Absenkung von
Sicherheitsbeständen (in beiden Fällen ist die Beantwortung der Frage: „Um wieviel?“
nicht ohne „Guesswork“ möglich), und daraus resultieren wiederum eine Freisetzung
von Umlaufvermögen sowie ein reduzierter Lagerraumbedarf. Solche Wirkungsketten
haben die unangenehme Eigenschaft, nicht nur mehrstufig zu sein, sondern auch noch
Interdependenzen zwischen KPIs auf einer Stufe oder Rückkopplungen zu zeigen.
Auch hier ist der Anspruch auf Perfektion schädlich und die Flinte gehört nicht ins
Korn. Das nachstehende Schaubild (Abbildung 10) zeigt beispielhaft, wie man
projektbezogen mit Blick auf die wichtigsten Kenngrößen einen Wirkungsbaum
definieren kann, der es erlaubt, von logistischen Primäreffekten auf „Bottom-LineEffekte“ in einer kaufmännischen Ergebnisrechnung zu schließen.
KPI Korrelation mit
EVA
KPI
Lieferbereitschaft
Umsatz
Termintreue
Durchlaufzeit
Automatisierungsquote
Produktions
Kosten
EBIT
-
Verwaltungs
Kosten
Steuern
-
Prognosegenauigkeit
Umschlagshäufigkeit
Wareneingangsdauer
NOPAT
Umlaufvermögen
Ergebnis
Kapitalbindung
Kapital
Kosten
Anlagevermögen
Zinssatz
LKW-Auslastung
(NOPAT = net operating profit after tax)
Abbildung 10: Wirkungsanalyse-Diagramm
Die dritte, aus der einführenden Beispielsituation ableitbare Einsicht ist nicht ganz so
offenkundig. Wenn ein wesentlicher Teil der zu erwartenden Effekte einer SCM-
57
Innovation im Bereich der Kundenbindung durch Servicequalität liegt, dann ist es ein
Gebot der Klugheit, das Soll-Serviceprofil aus der Unternehmensstrategie abzuleiten
bzw. dort zu verankern und auf dieser Basis einen Projektsponsor auf
Unternehmensführungsebene zu gewinnen. Man verhindert so, dass gute Ideen am
Bedenkenträgertum auf mittleren Führungsebenen scheitern. Das ROI-Konzept kann
leicht dazu verführen, infolge einer Überfokussierung auf kurzfristige, messbare Ziele
eine wettbewerbsentscheidende langfristige Ressourcenentwicklung zu verhindern.
Abschließend sei noch darauf hingewiesen, dass eine ROI-Analyse nur dann eine
brauchbare Entscheidungsgrundlage sein kann, wenn sie eine angemessene
Risikoanalyse umfasst. In diesem Rahmen muss geprüft werden, wie robust ein
Konzept gegenüber möglichen Veränderungen wichtiger Randbedingungen ist. Dabei
kann zu Tage treten, dass ein bei statischer Betrachtung optimales Konzept seine
Vorziehenswürdigkeit verliert, weil es zu unflexibel ist.
5 Literaturverzeichnis
Basisliteratur
-
-
Alicke K. (2003): Planung und Betrieb von Logistiknetzwerken, Berlin Heidelberg - New York 2003.
Bretzke, W.-R. (2005a): Supply Chain Management: Wege aus einer
logistischen Utopie, in: Logistikmanagement, Heft 2 (2005), S. 22 ff.
Bretzke, W.-R. (2005b): Supply Chain Integration: Chancen und Grenzen einer
logistischen Leitidee, in: Logistik Management. Innovative Logistikkonzepte,
hrsg. von R. Lasch und G. Janker, Wiesbaden 2005, S. 65 ff.
Busch, A., Dangelmaier, W. (Hrsg.): Integriertes Supply Chain Management,
Wiesbaden 2002.
Cohen, S., Roussel, J. (2006): Strategisches Supply Chain Management ,
Berlin-Heidelberg-New York 2006.
Stadtler, H., Kilger, Ch. (Hrsg.): Supply Chain Management and Advanced
Planning, 3. Aufl., Berlin Heidelberg New York 2005.
Straube (2004): e-Logistik. Ganzheitliches Logistikmanagement, BerlinHeidelberg-New York etc 2004.
Vertiefende Literatur
-
An, Ch., Fromm, H. (Hrsg): Supply Chain Management on Demand, BerlinHeidelberg 2005.
Seifert, W., Decker, J. (Hrsg.): RFID in der Logistik. Erfolgsfaktoren für die
Praxis, Hamburg 2005.
58

Documentos relacionados