Tagungsband 6.

Transcrição

Tagungsband 6.
J. Biethahn, J. Kuhl, A. Lackner (Hrsg.)
Soft-Computing in Wissenschaft und Wirtschaft
Tagungsband zum
6. Göttinger Symposium
Soft-Computing
am 01. Juli 2003 an der Universität Göttingen
?
?
?
?
1
0
100
150
200
(Arbeitsgemeinschaft Fuzzy Logik und Soft-Computing Norddeutschland)
J. Biethahn, J. Kuhl, A. Lackner (Hrsg.)
Soft-Computing in Wissenschaft und Wirtschaft
Tagungsband zum
6. Göttinger Symposium
Soft-Computing
am 01. Juli 2003 an der Universität Göttingen
Eine Gemeinschaftsveranstaltung des Arbeitskreises
„Soft-Computing in der Betriebswirtschaft“ in der
AFN
(Arbeitsgemeinschaft Fuzzy Logik und Soft-Computing Norddeutschland)
Vorwort
Soft-Computing in Wissenschaft und Wirtschaft heißt das diesjährige Motto der
AFN-Jahrestagung. Die Methoden des Soft-Computing haben sich mittlerweile
weit über den Forschungsbereich hinaus in Anwendungen etabliert und sind somit
eine feste Größe in der Welt der anwendungsorientierten Forschung geworden.
Nicht zuletzt durch Tagungen wie dieser mit dem möglichen Austausch zwis chen
Forschern und potentiellen Anwendern der Methoden der evolutionären Algorithmen, Neuronalen Netze und der Fuzzy Systeme wurde der Erfolg dieser innovativen Methoden begründet. Alleine schon der Austausch und der direkte, unverbindliche Kontakt zu den Forschungseinrichtungen bieten interessierten Anwendern
die Möglichkeit, schon lange vor einer kostenträchtigen Analyse auf hohem Fachniveau Anwendungsfälle und deren Lösungsansätze zu diskutieren. Und Forschern
auf dem Gebiet der intelligenten Informationssysteme wird wiederum eine Plattform geboten, an Hand derer Sie die Anwendungsfreundlichkeit der Methoden
unter Beweis stellen können und so Feedback als Basis für die weiteren Forschungsbemühungen erhalten.
So wird auch in diesem Jahr bei der Tagung viel Platz für angeregte Diskussionen,
fachlichen Austausch und geselliges Beisammensein geboten. Der vorliegende
Tagungsband gibt einen Eindruck über die möglichen Anwendungsgebiete der
Methoden des Soft-Computing. Der Tagungsband, den Sie in Ihren Händen halten, bietet Einblicke in die Mustererkennung mittels Fuzzy-Softwarebibliothek,
die Darstellung eines Verfahrens (NetLIN) zur Einschränkung des Spread of Fuzziness, die Möglichkeit des ASP für Data Mining Applikationen. Auch finden
induktive Ansätze zur Erstellung von Szenarios in der Szenariotechnik sowie
ausgewählte Aspekte des Wissensmanagements ebenso Platz wie die Darstellung
eines speziellen Optimierungsverfahrens auf Basis von selbstorganisierenden
Karten (SOMs) und ein Verfahren des Data Mining bei graphischen Modellen.
Mit dem Tagungsband wird gleichzeitig die interdisziplinäre und forschungsübergreifende Zusammenarbeit innerhalb der AFN unterstrichen. Gleich auf welchem
Gebiet sich Forschung und Wirtschaft treffen wird der wesentliche Gedanke, das
Arbeiten im Netzwerk, als Potential für überzeugende und gute Lösungen ges ehen.
Wir danken den Autoren für Ihre Beiträge, nur dadurch und durch die gute organisatorische Leistung des Lehrstuhls für Wirtschaftsinformatik I der Universität
Göttingen konnte dieser Tagungsband in seiner Form entstehen.
Göttingen im Ju li 2003
Die Herausgeber
III
Inhaltsverzeichnis
Jens Dobras, Jens Strackeljan, Detlef Mitzschke:
Implementierung einer LabVIEW -basierten FUZZY-Softwarebibliothek
zur numerischen Mustererkennung................................................................................... 1
Werner Brockmann:
NetLiN – Eine effektive und effiziente Methode zur Einschränkung des
Spread of Fuzziness........................................................................................................... 13
Tanja Falkowsk:i
Application Service Providing for Data Mining Applications................................... 23
Albert Heinecke:
Die Szenario-Technik als entscheidungsunterstützendes Instrument ....................... 41
Dr. Volker Nissen:
Unterstützung ausgewählter Aspekte des Wissensmanagements .............................. 53
Matthias Reuter:
Ruling Robots by the Activity Patterns of Hierachical SOMs................................... 77
Frank Rügheimer:
Data Mining mit Graphischen Modellen........................................................................ 91
V
Soft-Computing in der Betriebswirtschaft
Der Arbeitskreis (AK) „Soft-Computing in der Betriebswirtschaft“ ist ein Arbeitskreis im Rahmen der Arbeitsgemeinschaft Fuzzy Logik und Soft-Computing
Norddeutschland (AFN). Die AFN dient der Zusammenarbeit von Unternehmen
und Hochschuleinrichtungen sowie Einzelpersonen insbesondere bei der praktischen Umsetzung der Fuzzy Logik sowie anderer Verfahren des Soft-Computing.
Der AK „Soft-Computing in der Betriebswirtschaft“ hat sich zum Ziel gesetzt, die
praktische betriebswirtschaftliche Anwendung des Soft-Computing, vor allem der
Fuzzy-Logik (FL), der Evolutionären Algorithmen (EA) sowie künstlicher Neuronaler Netze (NN) zu fördern. Das schließt die weitere Erforschung dieser Verfahren ein. Der Schwerpunkt soll jedoch sein, ihren praktischen Einsatz in Unternehmen zu unterstützen, z.B. im Rahmen von Kooperationsprojekten zwischen Hochschule und Praxis. Dabei dient der AK gleichzeitig als Forum für den Informationsaustausch zwischen Praktikern und Wissenschaftlern.
Evolutionäre Algorithmen sind Such- und Optimierungsverfahren, die wesentliche
Mechanismen des natürlichen Evolutionsprozesses auf abstrakter Ebene nachahmen. Sie haben sich in unterschiedlichsten komplexen Anwendungen als leistungsfähige Lösungsverfahren erwiesen. Künstliche Neuronale Netze orientieren
sich an der Informationsverarbeitung von biologischen Neuronen. Man setzt dabei
auf einfache Verarbeitungselemente (korrespondieren zu Nervenzellen), die auf
bestimmte Weise vernetzt werden. Ein wichtiges Ziel besteht darin, Systeme zu
entwickeln, die aus Beispielen lernen, und das Gelernte verallgemeinern können,
um zu guten Leistungen in der praktischen Anwendung zu kommen. Grundsatz
der Fuzzy Logik ist die Berücksichtigung unscharfer Sachverhalte bei der Modellierung realer Problemstellungen. So können beispielsweise Unschärfen in verbalen Ausdrücken (z.B. „hoher“ Sicherheitsbestand oder „ungefähr“ 120 Grad)
rechnergestützt verarbeitet werden.
In allen drei angesprochenen Teilgebieten des Soft-Computing dominieren heute
technisch-naturwissenschaftliche Anwendungen. Dennoch liegen auch zahlreiche
innovative Beiträge zur Lösung betriebswirtschaftlicher Problemstellungen vor.
Zukünftig werden insbesondere auch von Kombinationen mehrerer dieser Techniken in sogenannten Hybridsystemen innovative Beiträge zur Lösung praktischer
betriebswirtschaftlicher Probleme erwartet. Damit erschließt sich Innovationspotential, das zu Kostenvorteilen und Effizienzsteigerungen führen kann.
Die Aktivitäten des AK beinhalten insbesondere:
Unterstützung der Anbindung von Wissenschaft und Praxis im Rahmen von Kooperationsprojekten
VI
Mitgliedertreffen zum Austausch über neue Entwicklungen des Soft-Computing
Ausrichtung von Workshops/Symposien
anwendungsorientierte Soft -Computing - Publikationen
Die Anschrift der Ansprechpartner lauten:
Dr. rer. pol. Vo lker Nissen
Dr. rer. pol. Jochen Kuhl
DHC Business Solutions GmbH,
Saarbrücken
Selbständiger Unternehmensberater
Tel.: 0681 9 36 66-22
Tel.: 05505 2922
E-Mail: [email protected]
E-Mail: [email protected]
VII
Implementierung einer LabVIEW-basierten
FUZZY-Softwarebibliothek zur numerischen
Mustererkennung
Jens Dobras , Jens Strackeljan, Detlef Mit zschke
Institut für Technische Mechanik der TU Clausthal
Graupenstr. 3
38678 Clausthal-Zellerfleld
Phone: + 49 5323 72-2053, Fax: + 49 5323 72-2203
E-Mail: {jens.dobras}{jens.strackeljan}{detlef.mitzschke}@tu-clausthal.de
Kurzfassung
Bei einer Vielzahl von Anwendungen im Bereich der Meß- und Automatisierungstechnik besteht der Wunsch über die eigentlich Datenerfassung und Visualisierung
hinaus auch eine automatische Beurteilung des mit der Messung verbundenen
Zustandes durchzuführen. Dieser Vorgang kann sich auf die Erkennung bzw.
Qualitätsprüfung eines technischen oder nicht-technischen Objektes, aber auch auf
die Situation eines Prozesses oder gar einer kompletten Anlage beziehen. Das
Programmsystem LabVIEW ist ein sehr leistungsfähiges Tool zur Meßdatenaufnahme, Verarbeitung und Visualisierung, verfügt aber nur in unzureichendem
Maße auch über Werkzeuge zur Klassifikation speziell auf der Basis unscharfer
Musterkennung. In diesem Beitrag soll daher eine von den Autoren erstellte Softwarebibliothek vorgestellt werden, die diese Lücke schließt. Als Anwendung wird
die Entwicklung eines „intelligenten“ Ultraschallgerätes zur automatischen Oberflächendetektion mit Methoden der unscharfen Mustererkennung unter Anwendung der Entwicklungsumgebung LabVIEW 6.i näher beschrieben. Dieses
System kann für die Erkennung und Therapie von Parodontalerkrankungen von
großer Bedeutung sein. Immerhin stellen diese Erkrankungen bei Personen über
40 Jahre heute den Hauptgrund für Zahnverluste dar.
Keywords : FUZZY-Logic, numerische Mustererkennung, LabVIEW
1
1
Einleitung
Eine der zentralen Herausforderungen, die mit dem sinnvollen Einsatz von Rechnern zusammenhängt, ist das Bereitstellen von Software-Werkzeugen, die sich
nicht an der zugrunde liegenden Hardware, sondern an den kognitiven Fähigkeiten
des Menschen orientieren. Dazu gehört auch die Einsicht, dass das menschliche
Gehirn bildhafte Darstellungen und Eindrücke leichter erfassen kann als abstrakte
Beschreibungen.[3] Dies formulierte schon Ludwig Wittgenstein (*1889-†1951)
wie folgt:
„Es ist eine Hauptquelle unseres Unverständnisses, dass wir den Gebrauch unserer Wörter nicht übersehen und dass es unserer Grammatik an Übersichtlichkeit
fehlt.
Die übersichtliche Darstellung vermittelt das Verständnis, das eben darin besteht,
daß wir die Zusammenhänge sehen.“
Dieses Wissen haben sich Wissenschaftler und Ingenieure zu nutze gemacht, und
verwenden traditionell in der Vorphase der Realisierung von Anwendungen die
ihnen vertrauten papierbasierten Visualisierungsschemata wie Ablaufdiagramme,
Signalflußdiagramme und Petri-Netze.
Abbildung 1: klassische Visualisierungsschemata
Diese Visualisierungsschemata sind aber in der Realisierungsphase von SoftwareIngenieuren wieder in den Code einer textorientierten Programmiersprache zu
übersetzten. Interessanterweise basieren aber alle ursprünglichen Beschreibungsmittel auf bildorientierten Paradigmen, da diese eine vertraute und natürliche Art
der Formulierung von Gedankengängen sind.
2
2
Die LabVIEW-Entwicklungsumgebung
Ausgehend von der o. g. Einsicht führte 1983 der damalige Mitarbeiter der Universität von Texas, Jeff Kodosky, mit einer kleinen Gruppe von Studenten auf der
Basis einer grafischen Datenflussprogrammierung eine völlig neue Art der
Mensch-Maschinen-Schnittstelle ein: die Softwareentwicklungsumgebung LabVIEW.
Die LabVIEW zugrunde liegende Idee kommt aus dem Bereich der Meßtechnik
und verwendet das vertraute Denkmodell der grafischen Blockschaltbilder. Mit
LabVIEW wird dem Anwender aus dem Bereich der Meß-, Steuerungs- und Regelungs-Technik (MSR-Technik) ein leistungsfähiges Werkzeug in die Hand gegeben, mit dem technische und wissenschaftliche Applikationen gelöst werden können, ohne sich dabei mit Syntax und Semantik einer textorientierten Programmiersprache auseinandersetzen zu müssen.
Dabei stellt LabVIEW ein völlig neuartiges Kommunikationsmittel zwischen
Anwender und Maschine dar. Es verknüpft die graphische Datenflußprogrammierung mit den Elementen einer modernen graphischen Benutzeroberfläche (GUI),
und integriert sie in eine einzige grafische Programmierumgebung. Die Möglichkeit, Prozesse und Algorithmen durch Diagramme darzustellen, erlaubt es dem
Ingenieur und Wissenschaftler, seine Ideen in einer sehr natürlichen und intuitiven
Art mit Hilfe von Datenflußdiagrammen zu programmieren.
Dabei ist LabVIEW eines der leistungsfähigsten Entwicklungstools für rechnergesteuerte MSR-Anwendungen mit den Aufgaben der:
•
Datenerfassung,
•
Datenanalyse und
•
Datenpräsentation.
Diese Formulierungen der Ideen hinter LabVIEW klingen zunächst vielleicht
etwas abstrakt, doch wird ihre Bedeutung hoffentlich durch die folgenden Darstellungen klarer. Ein Lab-VIEW -Programm wird als Virtuelles Instrument (VI) bezeichnet, da sich sein Aussehen und die Funktionalität an ein reales Instrument
anlehnen. In einem LabVIEW -Programm spiegelt sich die Struktur einer Hierarchie von Virtuellen Instrumenten in Form von Software-Modulen wider, deren
Einzelbestandteile interaktive Benutzeroberflächen, gesteuert von Signalflußdiagrammen, den sog. Blockschaltbildern, sind. Somit besteht ein VI aus folgenden
zwei Hauptbestandteilen:
•
Frontpanel,
•
Blockschaltbild.
3
Das Frontpanel ist die interaktive Benutzerschnittstelle (Mensch-MaschineInterface) des VIs. Es wird so genannt, weil es an das Aussehen eines Frontpanels
eines physikalischen Messgeräts erinnert. Das Frontpanel kann grafische Steuerund Bedienelemente wie z.B. Schieberegler, Schaltflächen und viele andere Eingabeobjekte - durch welche die Benutzereingaben erfolgen - sowie Anzeigen für
Ausgaben des Programms, z.B. Graphen, enthalten.
Abbildung 2: a) Frontpanel, b) Bolkschaltbild [1]
Das Blockdiagramm enthält die Programmierlogik, d.h. das Steuerprogramm des
VIs, entworfen in der LabVIEW -eigenen grafischen Programmiersprache G. Das
Blockdiagramm ist das tatsächlich ausführbare Programm, vergleichbar mit dem
Quelltext einer textorientierten Programmiersprache. Die Bestandteile eines
Blockdiagramms sind untergeordnete VIs, die sog. SubVIs – dargestellt durch ein
graphisches Symbol bzw. den Anschlussblock. Vordefinierte Funktionen, Konstanten und Ablaufstrukturen wie z.B. Verzweigungen, Fallunterscheidungen und
Schleifen sind ebenfalls graphisch programmierbar. Das Steuerprogramm entsteht
durch die Verbindung von SubVIs und elementaren Operatoren. FrontpanelObjekte haben korrespondierende Anschlüsse im Blockdiagramm, so dass Daten
vom Benutzer an das Programm und umgekehrt übergeben werden können.
Neben dieser intuitiven Blockdiagramm-Programmierung vereinfacht die umfangreiche Ausstattung Lab-VIEWs mit Datenerfassungs- und Analyse-VIs die Entwicklung von MSR-Anwendungen ganz erheblich. Das Angebot an einer Vielzahl
von Datenanalysemethoden in eigenständigen SubVI-Bibliotheken ermöglicht
dem Wissenschaftler, sich auf die Lösung der eigentlichen Aufgabenstellung zu
4
konzentrieren, ohne sich - wie in den meisten textbasierten Programmiersprachen
- über Implementierungsdetails den Kopf zerbrechen zu müssen.
Es werden die folgenden Hauptanwendungsgebiete durch SubVI -Bibliotheken
abgedeckt:
analoge und digitale Datenerfassung,
•
digitale Signalverarbeitung,
•
digitale Filterung,
•
statistische Analyse,
•
Kurvenanpassung,
•
lineare Algebra,
•
numerische Analysen im Zeit und Frequenzbereich, ….
Zusätzlich zu diesen mitgelieferten und sehr umfangreichen SubVI -Bibliotheken
entwickelte die Abteilung für Schwingungsmechanik und Maschinendiagnostik
des Instituts für Technische Mechanik eine eigene SubVI -Bibliothek zur numerischen Mustererkennung.
2.1
Unscharfes Klassifikationskonzept innerhalb der FuzzySubVI-Bibliothek
Formal läßt sich die Softwareseite dieses Mustererkennungssystem in die Funktionsblöcke Signalerfassung, Merkmalserzeugung, Merkmalsextraktion und den
Fuzzy-Klassifikator unterteilen. Diese vier Stufen sind alle in LabVIEW realisiert,
jedoch soll im folgenden schwerpunktmäßig auf die Umsetzung des FuzzyKlassifikators in eine SubVI-Bibliothek eingegangen werden.
In einer Vielzahl schwingungstechnischer Untersuchungen konnte beobachtet
werden, dass die Struktur der durch die Merkmalsvektoren gebildeten Punktmengen, auch Cluster genannt, häufig konvexe, elliptische, einfachzusammenhängende Gebiete mit beliebiger Orientierung im multidimensionalen Merkmalsraum RN
bilden (Abb. 3 a).[9]
5
Abbildung 3: a) Merkmalsebene mit Punktmengen (Cluster) zweier Klassen, b) Zugehörigkeitsfunktionen der beiden Cluster
Diese Struktur der Punktmengen ist dabei die Basis zur Bestimmung aller freien
Parameter einer sog. Zugehörigkeitsfunktion (Abb. 3b), die eben diese relevanten
Eigenschaften der Cluster mathematisch beschreibt.
Da bei der in Abschnitt 3 beschriebenen Aufgabenstellung mindestens zwei Oberflächen bzw. Klassen Ok (k=1, ..., K), Zahnstein O1 und Zahnwurzelsubstanz O2 ,
zu unterscheiden sind, werden die skalaren Zugehörigkeitswerte zu einem eindimensionalen Zugehörigkeitsarray µk zusammengefasst. Die Zuordnung der zu
klassifizierenden Zahnoberfläche zu einer der Referenzoberflächen erfolgt dann
ausschließlich auf Basis dieses Zugehörigkeitsarrays:
Die Bestimmung der funktionalen Ähnlichkeit einer gerade abgetasteten Zahnoberfläche zu der zuvor gelernten Referenzoberflächen erfolgt in der obigen Gle ichung mittels der Festlegung eines geeigneten Distanzmaßes dk im multidimensionalen Merkmalsraum. Dies ist ein für Klassifikationsaufgaben intuitiv nahe liegender und, wie wir später noch sehen werden, mathematisch sinnvoller Ansatz.
Dabei sollte das gewählte Distanzmaß verschiedene rand-ständige Stichproben
innerhalb eines solchen Clusterellipsoides mit einem ähnlichen Objektabstand
zum Schwerpunkt versehen. Eine richtungsabhängige Gewichtung des euklidischen Abstandes über die Streuung in der jeweiligen Raumachse ermöglicht dieses. Aus diesem Grund basiert der in LabVIEW implementierte unscharfe Klassifikationsalgorithmus im Prinzip auf einem Abstandsklassifikator, welcher auf dem
von MAHALANOBIS [6] abgeleiteten Distanzmaß
6
beruht. Die Bestimmung der freien Parameter der Zugehörigkeitsfunktion als
beschreibende klassenspezifische Größen beschränkt sich also auf die Berechnung
der freien Parameter dieses Abstandsmaßes. Sie werden in der Lernphase mit
Hilfe von Merkmalsarrays von Referenzobjekten mit bekannter Klassenzugehörigkeit ermittelt.
Der zunächst augenscheinlichste Lageparameter der Klasse Ok im mehrdimensionalen Merkmalsraum ist der Schwerpunktvektor
Die Struktur der Lernmenge unter Berücksichtigung der möglicherweise vorhandenen statistischen Abhängigkeiten spiegelt sich in der symmetrischen, positiv
semidifiniten Stichprobenkovarianzmatrix
wieder. Weiterhin ist unmittelbar einsichtig, dass der oben geprägte Begriff der
Randständigkeit im allgemeinen Fall am einfachsten in einem an die Lage des
Clusters angepassten Koordinatensystem definiert werden kann. Der Anschauung
entsprechend, sollten die Basisvektoren dieses Koordinatensystems durch die
Hauptachsen des Clusterellipsoides festgelegt werden. Die rechnerische Bestimmung der gesuchten Basisvektoren des angepassten Koordinatensystems erfolgt
durch die Lösung des folgenden Eigenwertproblemes:
Nach bisherigen Erfahrungen erlaubt diese Struktur eine gute Adaption der gewählten Zugehörigkeitsfunktion an die Lernmengenverteilung der im folgenden
Abschnitt beschriebenen Anwendung.
7
3
Subgingivale Zahnsteinerkennung mittels Ultraschallscaler
Gingivitis bzw. Parodontitis sind heute bei Erwachsenen über 40 Jahre in Deutschland der Hauptgrund für Extraktionen und stehen nach neueren Untersuchungen
auch in Verbindung mit systemische Erkrankungen wie z. B. Herzinfarkt, Zuckerkrankheit und Frühgeburten. Man weiß mittlerweile, dass praktisch jede Parodontitis auf eine Besiedelung durch Bakterien zurückzuführen ist. Sie bilden auf der
Zahnwurzel einen Belag, die sog. „Plaque“. Diese unterhalb des Zahnfleischsaumes (subgingival) befindliche Plaque wandelt sich, wenn sie nicht entfernt wird,
in weniger als zwei Tagen in Konkremente (Abb. 4 a) um.
Abbildung 4: a) extrahierter Zahn mit Konkrementen, b) geschädigten
Zahnoberfläche
Diese dienen den Bakterien als Nährboden für die weitere Besiedelung der Zahnfleischtaschen. Stoffwechselgifte lösen dort Entzündungen aus, die bei Nichtbehandlung zum Zahnverlust führen. Die harten, ausmineralisierten Konkremente
können nur durch professionelle Reinigung in der Zahnarztpraxis entfernt werden.
Dazu verwendet man heute sog. Ultraschallscaler. Diese Scaler entfernen die
Konkremente mechanisch durch den Kontakt der schwingenden Arbeitsspitze mit
der Zahnoberfläche. Durch die periodische Schwingbelastung des Konkrementes
bzw. der Zahnoberfläche mit Frequenzen zwischen 20 und 40 kHz kommt es zu
Mikrogleitungen im oberflächennahen Bereich, zu Rissbildung, Materialermü dung und letztendlich zum Bruch des Konkrementes bzw. zur Beschädigung der
Zahnoberfläche (Abb.4 b). Der Abtrag der Zahnhartsubstanz führt zur Freilegung
der Dentintubuli und damit zur Zahnüberempfindlichkeit. Daneben kann die fehlende optische Kontrolle in den Zahnfleischtaschen gleichzeitig zu einer Untertherapie führen, die Konkremente untherapiert zurücklässt [4].
Zur Lösung der o. g. Probleme entstand an der Abteilung für Parodontologie der
Universität Greifswald und am Institut für Technische Mechanik der TU Clausthal
die Idee, einen Ultraschallscaler zusätzlich mit einer automatischen Erkennung der
8
Zahnoberfläche auszustatten. Dieses „intelligente“ Ultraschallgerät kann Zahnstein schonend entfernen, da es am Schwingungsmuster der Nadel die je weils
berührte Oberfläche erkennt, und somit auch in den für den Behandler nicht einsichtigen Bereichen der Zahnfleischtaschen Konkrement ohne Schädigung der
Zahnoberfläche abtragen kann.
3.1
Grundprinzipien der automatischen Zahnoberflächene rkennung
Das System zur automatischen Zahnoberflächenerkennung besteht hardwareseitig
aus dem Ultraschallscaler, der sowohl als Actor als auch als Meßsensor verwendet
wird, dem Anregungssystem und dem Datenaufzeichungs- und -analysesystem
(Abb. 5).
Abbildung 5: System zur automatischen Zahnoberflächenerkennung mittels
Ultraschallscaler
Das Anregungssystem produziert eine Rechteckimpulsfolge mit einer Amplitude
von 200 V und einer Impulsdauer von 10-4 bis 10-5 Sekunden, die das Piezosystem
des Scalers circa 10mal in der Sekunde zu Schwingungen anregt. Die Oberflächeantwort auf die Impulsfolgenanregung induziert eine mechanische Deformation
der Piezokeramik, was wiederum zu Spannungsänderungen an den Elektroden der
Keramikelemente führt. Das Gesamtsignal aus Impulsanregung und Rückwirkung
wird mittels des Datenerfassungssystem gemessen [2].
3.2
Klassifikationsergebnisse
Mittels einer geeigneten Merkmalserzeugung, die durch die Transformation des
Zeitsignals in den Spektralbereich erfolgt, ist eine prinzipielle Unterscheidbarkeit
9
der Zahnoberflächen möglich. Jeder der in diesem Fall 400 Magnitudenwerte
(Abb. 6) kommt als mögliches Merkmal für den Klassifikationsalgorithmus in
Betracht. Der hier verwendeten Merkmalsauswahl kommt die entscheidende Aufgabe zu, aus dieser Vielzahl der möglichen Merkmalskombinationen diejenigen zu
ermitteln, die eine möglichst fehlerfreie Trennung der Klassen erlaubt. Nach unseren Erfahrungen sind für diesen Vorgang der Mustererkennung vor allem die in
den letzten Jahren entwickelten so genannten „Wrapper-Ansätze“ [9], bei dem
schon für die Gütebewertung innerhalb der Merkmalsauswahl der später zum
Einsatz kommenden Klassifikator Verwendung findet, besonders geeignet. Ein
großes Problem bei dieser Klassifikationsaufgabe liegt in der Variabilität des
Schwingungssignales [7], das nicht nur von den Zahnoberflächen, sondern auch
vom Handling des Handgerätes z.B. den Anpresskräften, dem Winkel und Umg ebungsparametern wie der Temperatur beeinflusst wird. Schwingungsmerkmale,
die auf diese Größe sensitiv reagieren, dürfen im Merkmalsauswahlprozess nicht
berücksichtigt werden. Da dies nicht über den gesamten Schwankungsbereich
funktioniert, müssen in einem nächsten Schritt noch adaptive Verfahren der Mustererkennung und Merkmalsgewinnung implementiert werden. Das wichtigste
Bewertungsmaß bei der Beurteilung der Klassifikationsergebnisse ist die Reklassierungsgüte GR, die dem Quotienten aus den korrekt klassifizierten Stichproben
zur Gesamtstichprobenmenge der Referenzoberflächen entspricht. Derzeit können
Reklassierungsraten bei der Unterscheidung von Zahnhartsubstanz und Konkrement von ca. 80% erreicht werden (Abb. 6, rechts), die sich etwa in gleicher Größenordnung in die für medizinische Diagnosen wichtigen Klassifikationsraten der
Sensitivität und der Spezifität aufteilt. Dies ist gegenüber der Erkennungsrate
erfahrener Zahnärzte von ca. 50-60% schon eine erhebliche Steigerung in der
Therapie der Parodontalerkrankungen.
Abbildung 6: Lernmengen (Spektren) der Klassen „Zahnhartsubstanz“
und „Konkrement“ mit zugehöriger klassifikatorbezogenen optimalen
Merkmalskombination, GR ˜ 80%
10
Einen Eindruck von der derzeit verwendeten Oberfläche liefert die Abbildung 7.
Dargestellt ist das Virtuelle Instrument, das von der Signalerfassung über die
Merkmalserzeugung und -auswahl bis hin zum Fuzzy-Klassifikator alle notwendigen Funktionsblöcke zur automatischen Zahnoberflächendetektion beinhaltet.
Abbildung 7: Frontpanel des „DentaPuls“-VIs zur automatischen Zahnoberflächendetektion
4
Zusammenfassung
Die bisher geleisteten Arbeiten zur Erstellung des Softwaresystems DentaPuls
erbrachten ein Virtuelles Instrument, das die gesamte Funktionalität von der Signalerfassung über die Merkmalserzeugung und -auswahl bis hin zum FuzzyKlassifikator umfasst. Es lässt sich dank sei-ner großen Variabilität mit geringen
Modifikationen, z. B. bezüglich der gewählten Anregungssignale, auch auf eine
Vielzahl weiterer Problemstellungen beispielsweise aus den Gebieten Qualitätskontrolle und Maschinenüberwachung [1] anwenden. Speziell für Aufgaben der
Maschinenüberwachung kann mittel dieses Software-Ansatzes die Portabilität
eines einmal erstellten Systems auf andere Anlagen deutlich erhöht werden. Der
Ausbau dieser adaptiven Komponenten wird in Zukunft im Mittelpunkt der weiteren Entwicklungsarbeit stehen.
11
Literaturhinweis
[1]
Behr, D., Dobras, J., Strackeljan, J.
Aktuelle Entwicklungen zum Einsatz von Softcomputing Methoden
in der Maschinenüberwachung. In : Unschärfe in Wirtschaft und
Technik, Proc. zum Göttinger Symposium Soft-Computing 2002.
[2]
Dobras, J., Strackeljan, J.
Implementierung eines Mustererkennungsverfahrens mittels FuzzyMethoden in Lab-View. Eine Anwendung zur nondestruktiven subgingivalwen Zahnsteinerkennung. In : Virtuelle Instrumente in der
Praxis. Hrsg. Jaschinski, H., Seiten 412-416. Hüthig Ver-lag, 2003.
Jamal, R., Krauss,
Ph., LabVIEW. Prentice Hall, 1998.
Ferrereo, F., Strackeljan, J., Oehme, B.,
Unconventional feature extraction for dental surface pattern recognition. In : Un-schärfe in Wirtschaft und Technik, Proc. zum Göttinger Symposium Soft-Computing 2002
Kocher, Th., Rühling, A., Momsen, H., Plagmann, H. C.
Effectiveness of subgingival instrumentation with power-driven instruments in the hands of experienced and inexperienced operators.
TA study on manikins. J Clin Peridont 24, 498 – 504, 1997.
[3]
[4]
[5]
[6]
Mahalanobis, P. C.
On the generalized distance in statistics. Poc. Indian Nat. Inst. Sci.
Calcutta, 1936, S. 49-55.
[7]
Mitzschke, D., Strackeljan J, Ferrero, F., Oehme B.:
User dependent adaptibility for Implementation of an intelligent
dental device. Proc. 2. EUNITE Conference, Sept. 2002.
[8]
Strackeljan, J., Kocher, Th., Behr, D.
Feasibility of computer assited recognition of different dental hard
tissues. Journal of Dental Research, Vol. 79, No 3, 829-834, 2000.
[9]
Strackeljan, J.:
Einsatzmöglichkeiten von Softcomputing- Methoden zur Auslegung,
Optimierung und Überwachung von Rotorsystemen. Habilitationsschrift, 2002.
12
NetLiN – Eine effektive und effiziente Methode
zur Einschränkung des Spread of Fuzziness
Werner Brockmann
Universität zu Lübeck
Institut für Technische Informatik
Ratzeburger Allee 160
23538 Lübeck
Tel.: 0451 / 500-3691, Fax: -3687
Mail: [email protected]
Kurzfassung
1
Einleitung
Fuzzy Systeme sind zwar universelle Funktionsapproximatoren, wie u.a. [Buc932]
und [Wan94] gezeigt haben. Allerdings wächst wegen der Partitionierung des
Eingangsraums die Regelanzahl exponentiell mit der Anzahl der Eingangsvariablen an. Dieser als Curse-of-Dimensionality bezeichnet Effekt hat mehrere Konsequenzen. Zum einen wird entsprechend viel Speicher- und Rechenaufwand erforderlich. Zum anderen wird die Handhabbarkeit großer Fuzzy Systeme deutlich
erschwert. Dieser Knowledge-Engineering-Bottleneck wird i.allg. an der schieren
Anzahl von Regeln festgemacht. Doch ist es sinnvoller, zur Beurteilungder Handhabbarkeit eines Fuzzy Systems die Anzahl interagierender Regeln heranzuziehen[BrH99]. Das sind die Regeln, die für eine gegebene Kombination von Eingangssignalen(Eingangssituation) gleichzeitig (mehr oder weniger stark) feuern.
Die Gründe dafür sind, dass einerseits die Erstellung einer ersten Regelbasis relativ grob ist und auch relativ schnell erfolgt. Kritischer für den Entwurf eines Fuzzy
Systems ist andererseits das Feintuning. Das gilt gerade für Kontrollanwendungen,
bei denen möglichst der ganze Eingangsraum mitsinnvoll zusammenspielenden
Regeln abgedeckt sein muss. Für große Fuzzy Systeme heißt das, die große Anzahl von Regeln kann durch eine entsprechend verlängerte Entwicklungsphase
kompensiert werden. Dahingegen stellt die
13
Anzahl interagierender Regeln eine harte Grenze dar, weil die Komplexität, die
ein Mensch zielgerichtet, d.h. ohne blind zu probieren, beherrschen kann, ganz
natürlich durch seine kognitiven Fähigkeiten begrenzt ist. Entsprechende Unters uchungen (z.B. bereits [Mil56]) haben gezeigt, dass die Anzahl der Einträge, die ein
Mensch in seinem Arbeitsspeicher gleichzeitig verarbeiten kann, auf 7 bis 8 Einträge begrenzt ist. Folglich stößt ein Fuzzy System bereits bei 3 Eingangsvariabeln
(mit z.B. dreieckigen Zugehörigkeitsfunktionen) an Grenzen, weil für die meisten
Kombinationen von Eingangssignalen zwei (oder je nach MSF auch mehr) Fuzzy
Mengen je Eingangsvariable aktiviert werden und dadurch acht Regeln feuern.
Bedenkt man, dass neben den Konklusionen der Regeln auch deren Aktivierungsgrade berücksichtigt werden müssten, ist die Handhabbarkeitsgrenze bereits bei 3
Eingangsvariablen überschritten. Üblicherweise werden große Fuzzy Systeme
dekomponiert. Dadurch entsteht eine mehrstufige Struktur von Fuzzy Subsystemen, die intern Fuzzy Mengen austauschen. Die Dimensionalität der Subsysteme
ist deutlich kleiner als die eines einzigen, monolithischen Fuzzy Systems, wodurch
die Summe aller Regeln i.d.R. deutlich reduziert wird. Weil aber eine einzige
ausgegebene Fuzzy Menge in den nachfolgenden Subsystemen auch Kompatibilitäten größer 0 zu benachbarten Fuzzy Mengen der Eingangsvariablen aufweist,
werden mehrere Regeln aktiviert. Dieser Spread-of-Fuzziness (z.B. [MYN95])
genannte
Effekt bewirkt eine lawinenartige Regelaktivierung von Stufe zu Stufe. Dadurch
steigt dieAnzahl der aktivierten und damit interagierenden Regeln sehr stark an
und beschränkt so nicht nur die Handhabbarkeit stärker als erwartet. Es werden
außerdem auch mehr Regeln aktiviert als auf der semantischen Ebene spezifiziert.
Das Verhalten des Gesamtsystems entspricht dadurch nicht mehr dem, was der
Experte in den Regelbasen spezifiziert hat, und damit nichtmehr seiner Intuition,
wie das kleine Beispiel unten zeigt.Die Ansätze, um den Spread-of-Fuzziness zu
beherrschen, lassen sich unterscheiden in:
?
spezielle Inferenzmethoden, z.B. [DrH95,MiZ82,MYN95]
?
Einschränkung
[Kav93,KaW95]
?
Propagierung
numerischer
[HuB97,HuB98]
der
Netzwerkstruktur,
z.B.
Zwischenvariablen,
ASMOD-Ansatz
z.B.
NetFAN
Durch spezielle Inferenzmethoden sollen die Überlappungen eingeschränkt werden. Dadurchwird die Verarbeitung, das Verständnis und die Implementierung
dekomponierter FuzzySysteme unnötig erschwert. Die Einschränkung der Netzwerkstruktur behindert die Anpassung an eine spezifische Anwendung und
schränkt dadurch ebenfalls die Handhabbarkeit ein. Die genannten Nachteile hat
der NetFAN-Ansatz zwar nicht. Er impliziert aber ein anderes Wissensmodell, als
14
es der Fuzzy Verarbeitung normalerweise zugrunde liegt. Außerdem ist in jedem
Subsystem eine Fuzzifizierung und Defuzzifizierung von Zwischenvariablen nötig, wodurch der Rechenaufwand steigt. Er ist zwar immer noch kleiner als für ein
großes, monolithisches Fuzzy System, kann aber wie der NetLiN-Ansatz zeigt,
weiter reduziert werden.
2
Der NetLiN-Ansatz
Der NetLiN-Ansatz (Network of Linguistic Nodes) verfolgt mehrere Ziele gleichzeitig:
?
gute Beherrschbarkeit komplexer Fuzzy Systeme durch
o Reduktion des Curse-of-Dimensionality
o Reduktion des Knowledge-Engineering-Bottlenecks
o Vermeidung des Spread-of-Fuzziness
?
keine strukturellen
?
Einschränkungen
?
Verarbeitung möglichst nahe am Fuzzy Vorbild
?
keine „kontra-intuitiven“ Ausgaben
?
einfach zu verstehen und anzuwenden
?
einfache und schnelle Implementierung
Die Kernidee des NetLiN-Ansatzes ist die Vermeidung der Ausbreitung der Unschärfe dadurch, dass als interne Variablen keine Fuzzy Variablen, sondern linguistische Variablen benutzt werden. D.h., auf beiden Seiten einer Zwischenvariablen, also ausgangs- wie eingangsseitig, wird die gleiche Menge linguistischer
Terme verwendet und nur der Erfülltheitsgrad der einzelnen linguistischen Terme
propagiert. Dadurch treten nicht nur keine Überlappungen mehr auf. Es entfällt
auch die Fuzzifizierung in nachfolgenden Subsystemen. Folglich ist eine Fuzzifizierung nur an den Eingängen des Gesamtsystems erforderlich, und eine Defuzzifizierung nur an den Ausgängen des Gesamtsystems. Bei der Spezifikation, insbesondere dem Feintuning, der Regelbasen müssen die Erfülltheitsgrade der Regeln
nicht so unmittelbar berücksichtigt werden wie bei der klassischen Dekomposition
von Fuzzy Systemen. Dadurch bekommen die Regeln eher einen etwas symbolischeren Charakter. Das ist der Handhabbarkeit sehr dienlich, weil sie quasi auf
einer abstrakteren Ebene erfolgt. Ansonsten können die Regeln genauso wie bei
der klassischen Dekomposition spezifiziert werden.
15
3
Einfaches Beispiel
Zur Veranschaulichung des Spread-of-Fuzziness und des NetLiN-Ansatzes soll als
einfaches Beispiel die nichtlineare, zweidimensionale Funktion (1), Abbildung 1,
approximiert werden.
OUT = 0.5sin(? IN_1)+0.5cos(? IN_2) mit (IN_1, IN_2) ? ?[-1,1] X[-1,1]
(1)
Abbildung 1: Zu approximierende Funktion
Durch ein einfaches Fuzzy System mit 4 bzw. 3 Fuzzy Eingangsmengen, wie es in
Abbildung 2 dargestellt ist, ergibt sich bei max-prod-Inferenz und ScherpunktDefuzzifizierung das in Abbildung 3 dargestellte Approximationsergebnis.
16
Abbildung 2: Schematische Darstellung des Fuzzy Systems
Abbildung 3: Approximationsergebnis
Nutzt man die Symmetrien der Testfunktion gezielt aus, lässt sich ein Struktur für
ein dekomponiertes Fuzzy System wie in Abbildung 4 finden. Es enthält je Ein17
gangsvariable ein Subsystem, das die Anzahl der Fuzzy Mengen reduziert. Ein
nachgeschaltetes Subsystem fasst die Ausgänge beider Subsysteme zusammen und
generiert das Ausgangssignal.
Abbildung 4:Dekomponiertes Fuzzy System
Abbildung 5: Approximationsergebnis
18
Das Approximationsergebnis (Abbildung 5) des dekomponierten Fuzzy Systems
in Abbildung 4 weicht deutlich von dem des einstufigen Fuzzy Systems (Abbildung 3) ab, obwohl der semantische (logische) Inhalt der Regelbasen in beiden
Fälle äquivalent ist, wie man leicht zeigen kann. Die Ursache für die Unterschiede
ist der Spread-of-Fuzziness, der zu einer Verflachung der Abbildung führt. Um
dies zu veranschaulichen, sei in Abbildung 4 eine günstige, konkrete Eingangssituation mit IN_1 = -1 und IN_2 = 0 angenommen, wodurch von jedem Subsystem
am Eingang nur eine Fuzzy Menge zur zweiten Stufe propagiert wird. Eigentlich
sollte dort dann auch nur eine Regel feuern. Weil aber auch die benachbarten
Fuzzy Eingangsmenge Kompatibilitäten größer als 0 aufweisen, feuern alle Regeln mehr oder weniger stark, wie die Höhe der Grauschattierung in Abbildung 4
zeigt. Die dadurch generierte unscharfe Ausgangsmenge liefert bei SchwerpunktDefuzzifizierung einen Ausgabewert von 0,16, anstatt 0,5. Das Ergebnis entspricht
damit nicht der Intuition, die der Experte in den Verknüpfungen in den Regelbasen spezifiziert hat, ist also „kontra-intuitiv“.
Abbildung 6: Dekomposition nach dem NetLiN-Ansatz
19
Abbildung 7: Approximationsergebnis
Erfolgt die Dekomposition nach dem NetLiN-Ansatz, wird in den Subsystemen an
den Eingängen nur ein linguistischer Term aktiviert und im oben genannten Beispiel nur für diesen eine Erfülltheit größer als 0 propagiert (s. Abbildung 6). Folglich feuert in der zweiten Stufe genau eine Regel, und zwar die, die der Experte
auch für die gegebene Eingangssituation vorgesehen hatte. Gleiches gilt für den
gesamten Eingangsraum, wodurch sich exakt das gleiche Approximationsergebnis
ergibt wie im einstufigen, nicht-dekomponierten Fall (Abbildung 7).
4
Zusammenfassung
Mit Hilfe des NetLiN-Ansatzes wird in dekomponierten Fuzzy Systemen der
Spread-of-Fuzziness vermieden. Durch ihn erfolgt zwar intern eine Verknüpfung
der Regelbasen der Subsysteme auf einer logischen Ebene, aber mit fließenden
Übergängen durch die Fuzzifizierung an den Eingängen des Gesamtsystems und
durch die Propagierung der Erfülltheitsgrade linguistischer Terme. Das hat mehrere Vorteile. Zum einen wird die Handhabbarkeit erhöht, ohne die Ausdrucksmö glichkeiten einzuschränken. Zum anderen ist ie Berechnung in den Subsystemen
vergleichsweise einfach und nur an den Eingängen des Ge samtsystems eine Fuzzifizierung und an dessen Ausgängen eine Defuzzifizierung nötig. Dadurch ist nicht
nur die Handhabung recht einfach, sondern auch die Implementierung und der
Rechenaufwand für ein NetLiN-System sehr gering. Außerdem erfolgt die Wissensverarbeitung sehr nahe am Archetyp der Fuzzy Verarbeitung.
20
Literatur
[BrH99] W. Brockmann, O. Huwendiek: Rating the Handiness of Rule -Based
Function Approximators. Proc. IASTED Int. Conf. On Artificial Intelligence and SoftComputing - ASC, 113-118, Honolulu, USA1999
[Buc92] J.J. Buckley: Universal Fuzzy Controllers. Automatica 28 (1992), 12451248
[DrH95] D. Driankov, H. Hellendoorn: Chaining of Fuzzy if-then Rules in Mamdani-Controllers. 4. IEEE Int.Conf. On Fuzzy Systems, 1995, 103108
[HuB97] O. Huwendiek, W. Brockmann:: On the Applicability of the NetFANApproach to Function Approximation. Proc. of the 6th IEEE Int.
Conf. on Fuzzy Systems, 1997, 477-482
[HuB98] O. Huwendiek, W. Brockmann: Multi-staged Neuro Fuzzy Control of a
Pneumatically Actuated
Robot Arm. Proc. 4th Joint Conf. on Information Sciences - JCIS, 1998, 68-72
[Kav93] T. Kavli: ASMOD – An Algorithm for Adaptive Modelling of Observation Data. Int. Journal of Control, Vol. 58(4), 1993, 947-967
[KaW95] T. Kavli, E. Weyer: On ASMOD – An Algorithm for Empirical Modelling Using Spline Functions. In: K.J. Hunt, G.R. Irwin, K. Warwick
(eds.): Advances in Neural Networks for Control Systems. Springer
Series on Advances in Industrial Control, Springer, 1995
[Mil56] G.A. Miller: The magical number seven plus or minus two: Some limits
on your capacity for processing information. Psychological Review
63, 1956, 81-96
[MiZ82] M. Mizumoto, H.J. Zimmermann: Comparison of Fuzzy Reasoning
Methods. Fuzzy Sets and Systems, Vol. 8, 1982, 253-283
[MYN95] H. Meada, H. Yonekura, Y. Nobusada, S. Murakami: A Study on the
Spread of Fuzziness in Multifold Multi-stage Approximate Reasoning. 4. IEEE Int. Conf. on Fuzzy Systems, 1995, 1455-1460
[RZK91] G.V.S. Raju, J. Zhou, R.A. Kisner: Hierarchical Fuzzy Control. Int.
Jorunal of Control, Vol. 54(5), 1991, 1201-1216
[Wan94] L.-X. Wang: Adaptive Fuzzy Systems and Control – Design and Stability Analysis. Prentice Hall, Englewood Cliffs, NJ, 1994
21
Application Service Providing for Data Mining
Applications
Tanja Falkowski
Otto-von-Guericke University Magdeburg, Faculty of Computer Science
Department of Technical and Business Information Systems
PO Box 4120, 39016 Magdeburg, Germany
Phone: +49.391.67.18173, Fax: +49.391.67.18110
E-Mail: [email protected]
Abstract
In the late 1990s, the development of the application service providing business
model was a prominent trend in the software industry. Application service providers (ASPs)1 offer their customers access to software applications via a network
instead of installing them on the organization's in-house computer system. ASPs
host and manage applications from a central location and charge a – usually
monthly – fee for their services. Despite the obvious benefits this model may
produce for ASP customers, there are nevertheless currently serious reservations
and myths about what ASP can mean for companies and whether it can be applied
in the context of data mining to support the decision making process for businesses. In this paper we discuss the fundamentals and possible benefits of application service providing. Furthermore, we investigate the impact of the ASP business model on data mining applications and provide a survey of ASP issues regarding data mining methods.
1
We shall use the acronym ASP for both the task of application service providing as well
as the application service provider, i.e., the company.
23
Keywords : Application Service Providing, Data Mining, Outsourcing, Customer
Intelligence
1
Introduction
Companies are looking for means to maintain (or achieve) their competitive advantage in order to succeed in business. Since the competitive pressure was getting stronger over the last years, organizations realized that data is the raw material that needs to be ‘mined’ to allow them to gain inside and to obtain the information required to maintain their competitiveness.
Even though humans have been seeking for patterns in data for a long time, data
mining is a business technology trend that evolved with the increasing opportunities such as the growth of databases, the development of affordable powerful machines for searching and the availability of refined methods to mine the data. Patterns such as linear equations, rules, clusters, graphs, trees etc. are structures or
relationships derived through a data mining process. These extracted hitherto
unknown relationships may contain useful information for the organization. Information technology and its facets are vital components and important enablers
for data mining. The abundance of data and the savings that arise due to sophisticated analysis of these data are factors that have initiated the current interest in
data mining technologies (see, e.g. [11]).
Data mining allows – neglecting the necessary data pre-processing which very
often can be a tedious time consuming task – an automated analysis of data bases.
Various data mining methods have been developed and applied in several business
fields such as customer relationship management or marketing (customer segmentation, cross-selling optimization, direct marketing, market basket analysis) (see,
e.g. [2]), product line analysis, competitive analysis, credit assessment, fraud detection and Web usage analysis (see, e.g. [23]) 2 .
2
For further reading on the several aspects of data mining see, e.g. [1, 1, 1, 1, 1].
24
The first step in a data mining process is to define a business goal and to turn it
into one or more of the following data mining tasks and the respective techniques
to solve these tasks (see [2]):
?
Classification – using decision trees or memory-based reasoning e.g. to
assign keywords to articles or to classify credit card applicants, etc.
?
Estimation – using e.g. (artificial) neural networks to estimate the number
of children in a family or the lifetime value of a customer, etc.
?
Prediction – using e.g. market basket analysis or decision trees to predict
which telephone subscriber will order a value-added service, etc.
?
Affinity grouping – using market basket analysis to generate association
rules in order to determine what products go together in a shopping cart
or to identify cross-selling opportunities, etc.
?
Clustering – e.g. dividing the customer base into clusters with similar
buying habits as a first step for market segmentation, etc.
?
Description – useful for large or complicated databases as a start to look
for explanations.
Since data mining encompasses a wide variety of methods that have to be applied
– e.g. data management, data pre-processing and cleansing, different methods to
mine data (statistics, machine learning approaches, softcomputing techniques) –
organization often do not have the in-house expertise to cover all these fields.
Furthermore, as respective data mining applications are usually very complex, the
deployment of sophisticated data mining tools is connected with high – for many
companies even prohibitive high – investments.
Today, several ASPs are offering data mining software or packages with varying
tools. Companies have to decide which features are most important to their business and then choose systems that support their needs. However, many companies
need to modify these packages to fulfill their special requirements.
In the following we will present the ideas on which the ASP business model is
based. Furthermore, we elaborate on some of the benefits as well as current deficiencies of the ASP model.
2
The ASP Business Model
The remote delivery of software applications was applied firstly in the 1960s.
Several businesses shared mainframe computer resources by remotely accessing
their services on an as -needed basis. In the 1980s, the development of networked
desktop computing placed software applications on the personal computer and
25
upgrading and maintaining software grew to costly tasks. As client/server computing spread during the 1990s these tasks were shifted to a more centralized place at
the server level. However, usually only the data was shared on a central server.
The software was still installed on every machine in the network due to mis sing/inappropriate software distribution methods. The pervasiveness of the Internet
in combination with cheaper bandwidth in the late 1990s has reasserted the idea of
network-based computing in which the information is mostly processed and stored
in central locations on a network. Users can access the network from an ordinary
PC or from a simple terminal ("thin-client"), which is equipped only with basic
desktop software applications and a Web browser. ASPs made use of this development and the first ASPs entered the market in the late 1990s.
2.1
Fundamentals of ASP
The term ASP has been defined by several organizations from different points of
views. The ASP Industry Consortium (ASPIC) and the Information Technology
Association of America (ITAA) built a relationship to support the ASP industry.
They agreed to the following definition: "An Application Service Provider, or
ASP, is any company that delivers and manages applications and computer services to subscribers/clients remotely via the Internet or a private network." All
definitions emphasize that an ASP delivers and centrally manages applications to
clients via a network. The client accesses remote, centralized computer servers
hosting the application via a regular Internet connection, a virtual private network,
and/or dedicated lines (T1, T3). The type of service is consent in a rental agreement, even if it is not specified in full details. It allows the user to rent a software
component or a suite of applications from a range of vendors from a Web site
rather than buying and maintaining it in-house. The customer pays, e.g., a monthly
fee for the software use, hosting, and management services provided by the ASP.
Furthermore, ASPs usually charge a one-time set-up or installation fee. The emphasis is on the use, not the ownership of the application, even if some customers
buy the software to be able to use it after the contract period ends.
In theory, a broad range of applications might be available through the ASP
model. Sometimes ASPs are called "Enterprise ASPs", "Collaborative ASPs", or
"Personal ASPs" according to the application they offer. Enterprise ASPs provide,
e.g., customer relationship management (CRM) software or supply chain management (SCM) applications, Collaborative ASPs provide, e.g., groupware or
conferencing applications, and personal ASPs provide, e.g., productivity tolls such
as office suites. These applications might be Web-native or Web-enabled and
some ASPs provide client/server applications. Several ASPs focus on a horizontal
market, i.e., they specialize in one type of application and provide this for a broad
26
range of industries or they focus on a vertical market which means that they offer
a broad range of applications to a specific industry.
ASPs deliver transparent software services including the deployment, integration,
access, training, management, and support of applications at guaranteed service
levels. From a customer's perspective, whether provisioned by the ASP alone or in
conjunction with partners, the customer purchases a single service from a single
point of contact: the ASP. Behind the scenes, however, a complex ASP supply
chain exists to deliver a variety of competencies in different areas such as services,
networking, and applications. We can distinguish between service firms (system
integration and consulting), network providers (providing network infrastructure,
network and system management, deploying and managing data centers), and
application vendors [8].
2.2
ASP Benefits
Usually, ASPs are seen as faster, more cost-effective, and reliable than in-house
resources. Especially specialized and experienced ASPs are able to meet these
expectations. They developed rapid-deployment strategies that shortened the implementation time and – due to leveraging economies of scale – ASPs can reduce
costs, especially labor costs, for implementation and maintenance. Furthermore, to
ensure good references, ASPs are usually anxious to deliver their best-effort services to meet their customers’ expectations and the binding agreement for service
delivery (service level agreements, SLA).
Companies of all sizes may benefit from this business model since they share the
need to manage the cost and quality of computing resources across their organizations. However, in the beginning ASPs focused on small and medium-sized enterprises (SME) as one supposed that ASPs would enable especially SMEs to use
business software that they otherwise would not be able to afford. But, according
to a study conducted by PMP Research in 2001 on behalf of the ASPIC, larger
businesses are – contrary to the common perception – more like ly to buy ASP
services than smaller businesses. Over 40% of the 3,000 interviewed companies
recorded as ASP users have turnovers in excess of US$100 million and 44% employ more than 500 people [18]. The reasons for this trend are diverse and depend
on the particular organization. In general, most of the large companies already
have outsourcing contracts and are, therefore, more familiar with the idea of outsourcing than smaller companies [4, 17].
In the following, we present some possible benefits companies may have turning
over from an in-house application deployment to ASPs [3, 5, 25].
Rapid Deployment. Since the company benefits from ASP implementation expertise and the deep understanding of the applications, the implementation time for
27
new applications and upgrades can be reduced, and thus a faster time to market
can be realized. This expectation is – in particular for the SME and start-ups – still
one of the main driving-forces for the acceptance of the ASP model. However, as
rapid implementation technologies rely heavily on the fact that the solutions are
pre-configured, sometimes companies have to forgo much of the customization
that would otherwise tailor the application to their needs.
Lower Cost of Entry for Applications. Cost savings were the primary reason for
companies to outsource applications or business processes in the early 1990's. In
light of the economic slowdown that has occurred in the high tech sector over the
past twelve months, cost reduction has once again become a primary business
benefit that ASPs offer. Mandating ASPs, companies may reduce overall cost of
application lifecycle considerably.3
Particularly labor costs – which usually are the largest IT costs – can be reduced,
since installation and ongoing maintenance of applications are performed by
ASPs. The Gartner Group has estimated that as a result of these reduced costs, the
total cost of ownership (TCO) for enterprise applications can be as little as 70% to
50% of a non-ASP purchase cost [19]. Datamonitor is less optimistic and estimates that over a five-year period, the TCO (including maintenance and upgrades)
is between 10% and 40% lower than for a purchased application [27]. The business value ASP provides will vary according to the market segment and the functional needs.
Raise Return on Investment (ROI). ROI is the most common used metric by
which organizations assess investment opportunities. IDC fielded a study to measure the ROI realized by organizations that have successfully implemented and
utilized ASP-delivered application services. They conducted 54 in -person interviews during summer 2001 with information systems managers, business managers, department managers, and system users spanning a range of industries (e.g.,
chemical manufacturer, hardware manufacturer, Internet start-up). IDC revealed
that ASP implementations yielded an average five-year ROI of 404% and almost
3
For instance, Myfujifilm.com, part of Fuji Photo Film, has derived a great deal of value
from using an ASP. It needed an application to deliver integrated graphics so that customers could trim their digital pictures over the Internet. Building and maintaining an application from scratch would have cost at least US$2 million a year. Instead, Myfujifilm opted
for an ASP, leasing the service at a fraction of the cost [1].
28
half of the companies had payback within six month. 56% of the organizations
included in the study experienced an ROI greater than 100%, while 12% reported
ROI returns of more than 1,000%. The average payback for an ASP-outsourced
solution was 1.33 years on an average total investment of $4.2 million. The average initial investment was around $400,000. Truly powerful solutions not only
achieve payback quickly, but also establish solid competitive advantages in their
respective markets [20].
Primary Business Focus. As competitive pressures are increasing, businesses
focus on their core competencies. In most enterprises, IT enables critical business
activities, but is not a core function itself. The ASP model allows a business to
focus time and resources on its core competencies and to offload functions that are
difficult to manage. IT administrators might shift their free internal resources from
maintenance and support roles to more strategic functions to focus on core business issues and thus improve the efficiency of internal IT staff. 4
Affordable Access to High-end Applications and Technology. Companies
might be able to access the latest business applications and the ASP's IT expertise
to level the competitive playing field. Even though the technology change can be
very rapid, the ASP model may allow businesses to gain a much higher technology level without the need of high investments.
The ITAA interviewed 118 current ASP customers and 532 non-ASP customers
that plan to adopt an ASP offering [13]. Companies that are currently not using an
ASP and planned to adopt an ASP offering in the future consider, besides the
access to high-end applications (62%), the reduced initial capital outlay (62%),
and lower IT costs over time to be the main benefits. Companies currently using
an ASP also name the access to high-end applications as the main benefit. However, only about 51.7% determine reduced initial capital outlay and lower IT costs
over time as benefits. This may lead to the question, whether the assumptions
about cost-savings are too optimistic and ASP users already noticed that the cost
benefits are not that high or maybe even less important than benefits such as cost
predictability, access to high-end applications, and reduced implementation times.
4
Examples in this respect are widespread. Early ideas in this spirit include the joint operation of a computing center (as, e.g., performed by IBM, Continental, and Gesis in Lower
Saxony, Germany, for more than a decade). In this respect even universities become customers of ASP as intended, e.g., by the recent SAP Education Alliance for Universities.
29
Predictable Costs. Since organizations pay only a predetermined monthly fee
instead of huge upfront expenditures, they are able to predict IT support costs
more accurately and can furthermore increase the predictability of cash flows.
According to InformationWeek research, more than 90% of all respondents mentioned that the cost predictability was one reason for the company to rent the application from a third-party provider. Furthermore, the reduced implementation
time was named by 80% of the respondents. However, only about 55% stated that
renting or leasing is more cost-effective than buying [26].
3
Impact of ASPs in Data Mining: Successfully Realized
Business Model s
In this section we briefly discuss some successfully realized business concept for
typical data mining applications for business purposes in the field of marketing
and customer relationship management in particular how to anticipate customer
behavior, to increase marketing efficiency, and to enhance competitive advantage.
3.1
Anticipate Customer Behavior
Predictions about customer behavior such as which customers are most likely to
opt into a loyalty programme or which customers are most likely to switch to
another provider are very important indicators for the decision making process in
several field.
Revenue Science (formerly DigiMine) a Seattle, Washington, based company
offers eBusiness organizations data-driven, on-demand services to increase or
ideally maximize the organization’s revenue (from online and offline transactions)
by predicting customer’s behavior, scoring customer potential and triggering customer responses. The high volume of traffic on the Internet provides vast amounts
of customer data that can be used to understand preferences and buying behavior.
The company combines in its service model several technologies in predictive
analytics, data mining, and contextualization with expertise in merchandising,
media, financial services, and other industries.
Revenue Science delivers so-called Switched-On Services in an outsourced business model. Pricing is primarily on a subscription basis. Nordstrom.com was looking for better methods to increase the sales revenue and developed the ‘Related
Items’ feature a product listing, which recommended additional items to visitors
(for more information on recommendation systems see, e.g. [14, 22]). Even
though the Related Items were popular with their customers, this was a inefficient
manually driven process that occurred at only a fraction of its real potential. Nordstrom.com lacked the in-house expertise to automate and fully capture this oppor30
tunity and was unwilling to make significant investments in hardware, software,
and system maintenance. Revenue Science provided Nordstrom.com with an
automated, integrated method of contextually engaging and selling to their online
customers. Nordstrom.com reported a revenue increase by 41% in Related Items
sales and units sold through Related Items increased by 54%. The total cost of
ownership (TCO) through the ASP model is roughly one third of the cost of building and managing an in-house system.
Since many companies such as Nordstrom.com are reluctant to make high upfront
investments, ASPs may be a viable alternative for this companies, since they offer
specialized applications for a predictive monthly fee without the need for significant investments.
3.2
Customer Intelligence
Measuring marketing effectiveness enables organizations to identify the most
valuable or vulnerable customer groups and then target marketing campaigns
directly to those groups to increase sales that drive revenue or retain customers.
Established in 1998, LeadMaster is a privately held company based in Roswell,
GA. LeadMaster delivers a web-based sales and marketing system for distribution,
tracking and data mining of sales leads. Leads can be tracked in real time throughout the sales cycle, from demand generation to lead closure. The web-based application can be accessed by all participants across the enterprise including the sales
and marketing team, such as predefined channel partners, sales representatives and
field sales management. The sales process becomes more transparent and comp anies are able to determine which campaigns are generating the mo st qualified
leads and closed sales to point out the most profitable programs.
The product is delivered via the Internet through the ASP model which allows for
a very short implementation time. As a niche industry ASP LeadMaster is able to
meet the operational needs of companies across different industries and business
functions.
Interelate, founded in 1999, provides so-called relationship marketing solutions
for customers in different industries such as retail, telecommunications, financial
services, pharmaceutical or automotive. Interelate’s offers several marketing solutions such as marketing analytics. This tool performs customer segmentation (behavioral, demographic, attitudinal), build customer profiles (predictive modeling,
life span, growability indexing) and calculates the customer value (average order,
80/20 split, lifetime value, high profitability). Furthermore, the company offers
several other solutions in the marketing field.
31
Nissan observed, that even though many people shopping for cars would visit the
Nissan Web site, the company found no way to funnel their leads to the nearest
dealer in time to capture the sale. Interelate built a model for corporate-dealer lead
generation and follow-up. Now, every customers gets at some point, e.g., when
he/she clicks on an special offer to learn more, an I.D. and will be tracked from
that point with click-stream analysis. The Web site offers the prospect customer to
customize an ideal vehicle and submits the lead, indicating relatively serious interest. Interelate’s personalization engine uses analytics keyed to model type and
assigns a score to flag hot prospects and submits the lead to the nearest Nissan
dealer for follow-up. Within 24 hours, the prospect gets an e-mail survey, asking
whether a dealer has made contact, and how satisfied he or she was with that contact. Dissatisfied prospects are referred to Nissan Consumer Affairs, which sends a
campaign piece designed just for lead recovery. All e-mail is handled automatically and using a Web-based interface with Interelate, Nissan can go in and
change campaign parameters or message content at any time.
After eight months, the new process at Nissan was generating nearly 300 leads a
day for dealers across the country and the conversion rates (from interest to purchase) are between 13% and 17%.
Interelate’s strategy is to pre-build analytics solution for specific business issues
in specific industries. The customer data is then moved into this analytics engine,
rather than trying to build the solution on each client location from scratch. Therefore, Web-enabled data mining applications provided by an ASP focusing on a
specific industry might be a solution for many companies searching for appropriate and affordable solutions.
4
ASP Issues Regarding Data Mining
The stated concerns about the ASP model vary only slightly depending on the type
of customer and the type of application. First of all, customers worried mainly
about security and availability of the application and data. Meanwhile, concerns
about the long-term viability of the ASP, possible integration problems, and customization issues become important, too. Furthermore, customers take the possible
loss of control and the fact that they are bound by a contract into consideration
when evaluating the ASP model as an alternative to an in-house operation.
Data Mining as a service model introduces several challenges which are e.g. the
additional overhead of remote data access, building an infrastructure to guarantee
data privacy, and the design of an user interface for such a service. However, the
concerns regarding ASP are frequently not data mining specific but apply for
different types of applications. Therefore, we discuss some of the most commonly
investigated ASP issues.
32
4.1
Data Security
Security and privacy of sensitive corporate data is an obvious concern when applications are hosted remotely at a provider’s data center and accessed over the
Internet. Especially virus and distributed denial of service (DDoS) attacks are
examples of potential security problems.5 The Computer Security Institute (CSI)
study “2003 Computer Crime and Security Survey” [21] revealed that 251 organizations that were able to quantify their losses reported a total of almost $203 million. This is down significantly from 503 respondents reporting $456 million last
year.6
However, despite the drop in financial losses, the overall number of significant
incidents remained roughly the same as last year and the threat from computer
crime and other information security breaches continues unabated.
Other
33%
Network Security
26%
Solution
Scalability
3%
Network
Capacity
4%
Reliability/
Availability
23%
High Costs
11%
Figure 1. Concerns about Outsourcing Applications (Source: Datamonitor
[27])
5
According to the Yankee Group, in 2000 the cumulative revenue loss because of DDoS
attacks on Yahoo, eBay, Amazon.com, and other Web sites was US$1.2 billion.
6
75% of organizations acknowledged financial loss, though only 47% could quantify them.
33
Due to these issues, many companies hesitate to adopt the ASP model for applications that are mission-critical for their daily business operations.7 Security risks
are cited as the main reason for companies not to switch to the ASP model (see
also Figure 1). Leading ASPs use a number of security measures such as system,
physical, and network security measures to address these concerns and to safeguard their customer’s data. However, procedures such as data encryption entail
costly – sometimes even critical – performance issues that have to be considered.8
On the other hand it is questionable if the customer demands on data security to an
ASP are really as high as they are within their own companies. Many companies
do not look after security within their enterprise as good as they expect the ASP to
do. Due to possibility to leverage its economies of scale and scope, an ASP may
be able to build a more sophisticated security architecture compared to those of its
customers. At least smaller companies usually do not have as many security standards for their in-house data and communication as hosting providers do [5].
Many companies do not realize that not only hackers or unauthorized users are
potential risks, but also careless or inappropriate use of information within the
enterprise. Companies usually have policies and procedures but if employees do
not obey them, security issues emerge and data security cannot be guaranteed [24].
ASPs try to enhance access control by performing personnel screenings, installing
biometric access systems and video surveillance systems, etc. For further information on data privacy and the subsequent critical performance issue see [9].
ASPs need to establish their own security architecture dependent on several factors such as target group, experience and knowledge, and how much security they
will offer their customers.
4.2
Application Availability and Performance
As shown in Figure 1, service reliability is an important criterion in selecting an
ASP. Reliability encompasses availability (uptime) and performance (speed), both
of which should be spelled out in a service level agreement between the ASP and
7
According to an ITAA survey 39.7% of all non-ASP users who will not consider using an
ASP say one drawback of using an ASP is the security issue [1].
8
For further information on data privacy and the subsequent critical performance issue see
[1].
34
the customer (see also references on SLA [1, 6, 12]). However, in the mid-market
the network is often the limiting factor as bandwidth outside of the LAN is very
costly. ASPs are forced to use computing architectures such as Web-based applications, thin-client server, and Java-based applications that require less bandwidth
than, e.g., conventional client/server applications.
The above mentioned ITAA survey revealed that 15.1% of non-ASP users who
would not consider using an ASP say that one drawback of using an ASP is the
"Performance/Uptime" issue. ASPs address this issue by, e.g., deploying load
balancing systems and dynamic failover solutions and by constantly monitoring
their infrastructure, applications, and databases. However, ASPs are not able to
influence the reliability and performance of the customer's ISP, they can try to
reduce the bandwidth needed to minimize the risk of performance bottlenecks.
4.3
Application Integration
To carry out effective data mining, companies need integrated data shared by
multiple applications, e.g., applications offered by the ASP and existing applications customers want to keep and integrate. Therefore, it is necessary to provide
mechanisms to exchange data between applications within the legacy systems. To
allow this communication, ASPs have to undertake a so-called “back-end integration”. For example, data collected in enterprise resource planning systems should
be accessible for data mining applications. Therefore, ASPs need to seamlessly
integrate and deliver applications that are managed and supported internally with
those provisioned externally. However, well done integrations can simplify the
usually time consuming data pre-processing and cleansing steps drastically.
The integration with client’s legacy systems can be very troublesome and requires
good knowledge about different systems. Especially smaller ASPs may not have
the staff and expertise to integrate their customer's legacy solutions with their own
application. For this reason ASPs often team with system integrators (SIs) or value
added resellers to enable various types of integration.
An ITAA Survey unveiled that 31.1% of non-ASP users who will not consider
using an ASP say one drawback of using an ASP is the “integrating of the ASP
offering with existing applications” issue. Therefore, ease of integration with
existing applications will have a major impact on any ASPs chances for success
[13].
Companies such as Jamcracker offer a platform that enables customers and partners to deploy, integrate, manage, and support web applications from different
sources. The platform serves as an access point for Web-enabled applications
within and outside a company's firewall.
35
We can furthermore observe that some ASPs try to increase customer retention by
providing additional services and by expanding their application portfolio by offering applications that cover the entire enterprise. For instance, SAP announced
that it continues to improve business processes with integration between mySAP
CRM and mySAP SCM (cf. the Advanced Planner and Optimizer (APO) module).
To successfully create and manage such a diverse set of applications and objectives is difficult and thus ASPs will weigh up ease of integration, market share,
and available skills vs. ‘best-of-breed’ when thinking about different possibilities.
However, in any case, customers will not have the possibility to choose an application from whatever vendor they like, as ASPs will not be able to support integration services for every application.
4.4
Vendor’s Stability / Longevity
Due to the fact that since 2001 a lot of ASPs had to close down their businesses,
worries about the long-term viability are obvious and common. Many ASPs
stopped their services because revenues were not high enough to cover the costs.
Furthermore, venture capitalists were more reluctant to invest in ASPs, as most of
the ASPs customers were struggling dotcom companies whose financial situation
was not promising either.
For a long time, ASPs were simply expanding revenues at any costs in order to
achieve higher market shares rather than focus on achieving profitability. Comp anies that deliver their own proprietary software consider it much easier to make
money than companies that offer third -party applications to customers. In the
latter case it is more difficult to achieve and sustain profit margin. But even if
margins are improving – for an average ASP contract from 28 to 47% according to
IDC – most providers are not profitable. Internet-native Web service vendors may
have better chances to reach long-term profitability. At least the willingness of
venture capital groups to invest money into their business model is obviously
higher than to invest in third-party application.
Many of the ASPs ranked in IDC's Top 15 ASPs had revenues of US$20 million
or below, and measured by revenue accounted for only 48% of the market overall.
Accordingly, many ASPs have revenues under US$20 million which illustrates
that the ASP market is still in its infancy. ASPs need to offer unique value-added
elements to their offerings to maintain their customer base. Customers will also
evaluate the provider's financial model as well as the companies that are backing
the ASP. They suppose that the risk of a sudden closure is reduced when the ASP
is financially backed by a solid company.
Another demur concerns the question, what possibilities the customer has to ensure a failure -free operation in case the ASP strikes out. Customers often face
36
short deadlines under which to make a decision whether to take over the management themselves or search for a new ASP to avoid downtime and lost productivity. Even though prospective ASP customers may try to get detailed information
about their ASP, e.g., by carrying out extensive upfront verification of the provider (seek for information about business model, financial situation, partners,
etc.) or by meeting other customers to get some feedback regarding their experiences and satisfaction with the services, uncertainties about the viability of the
ASP will remain.
4.5
Customization
As the ASP model is based on the one-to-many idea, ASPs offer the same application to many customers. Thus, any customization efforts – i.e., the adaptation of
application software to customer-specific needs and often accomplished in coding
and/or configuration – challenge this model and reduce ASP’s profitability. Each
additional resource that is mobilized for customization for only one customer also
means lower profits for the ASP. Nevertheless, customers will require application
customization especially for non-standard software.
For example, reporting capabilities using off-the-shelf packages usually do not
satisfy organization’s needs. A number of common reasons which include the lack
of flexibility in reporting, the inability to quickly deliver beyond standard reports,
the inability to address specific needs of management. To meet the individual
needs in a specific industry, data mining software must be highly customizable,
which raises the cost and complexity of these software applications.
5
Conclusion
In this paper we have discussed the impact and issues of application service providing regarding data mining applications. We have shown that application service
providers represent a viable alternative to the in-house deployment of software
applications. Especially companies that do not have sufficient skilled personnel at
their disposal to implement enterprise application software or companies that try
to reduce the burdens of their IT department may take ASPs into consideration
when planning to introduce new application software. Even though, large comp anies are the early adopters of the ASP model, the benefits for small and mid-sized
enterprises are likewise strong.
So far, small and medium-sized companies usually do not apply sophisticated data
mining software, since they usually have only small IT departments – if any – and
their investment budget is rather small. Especially for smaller companies with low
budgets ASPs are expected to become an important alternative for information
37
technology in general as costs are controlled at a fixed monthly fee even though
the maintenance services such as data quality monitoring, user support, reports,
etc. keep the solution up to date.
In former work, we could observe that in the field of business applications, such as
customer relationship management or supply chain management most successful
ASPs were either vertical providers or horizontal providers. This observation is,
according to our study, transferable to the data mining market. Staying ahead of
the competition is viable for companies to stay in business. To understand customers and the improvement of the relationship with customers is one important
aspect in this field and we therefore assume that the growing interest in data mining applications will continue in the future.
However, the ASP development in the last two years was not very promising and
especially some bigger or even publicly traded application service providers went
out of business or filed for bankruptcy protection. The main reason for this development was that ASPs evolved during the boom days of the Internet and many of
their customers were newly established start-ups. During the economic downturn,
many dotcoms got into financial trouble and ASPs were strongly affected by this
development because they were closely related to the Internet and often dependent
on dotcoms as their main customers. When revenues decreased and venture capitalists judged more skeptical about Internet related firms in general and ASPs in
particular, companies were no longer able to cover the high expenses especially
for technology investments and had to close down their businesses.
Nevertheless, the perspectives for the future might be more promising, since the
market predictions for ASPs as well as the estimations stating a growing demand
for data mining applications are encouraging. Furthermore, a strong interest to
utilize the huge amount of collected data to gain a competitive advantage by using
‘hidden information’ and improving services can be observed. The ASP model
offers an affordable and predictable subscription-based fee model, whereby customers can avoid upfront capital investments for hardware, software, end-user
licenses, etc. and may profit from significantly shorter implementation cycles.
References
[1]
[2]
[3]
ASP
Industry Consortium, 2000, Service Level Agreements,
http://www.allaboutasp.org/, as of 06/21/2002.
Berry, M. J., and Linoff, G., 1997, Data Mining Techniques, Wiley, New
York.
CIO, 2000, The Value of Opting for an ASP, CIO (Special Supplement),
October 2000.
38
[4]
[5]
[6]
[7]
[8]
[9]
[10]
[11]
CyberAtlas, 2001, Large Companies Showing Interest in ASP Services,
http://cyberatlas.internet.com/big_picture/applications/article/0,1323
,1301_868091,00.html, as of 05/06/2003.
Factor, A. L., 2002, Analyzing Application Service Providers, Prentice
Hall, Upper Saddle River.
Falkowski, T., and Voß, S., 2003, Application Service Providing as Part of
Intelligent Decision Support for Supply Chain Management, In: R.
H. Sprague (edt.), Proceedings of the 36th Annual Hawaii International Conference on System Sciences (CD/ROM), Computer Society Press, Los Alamitos.
Fayyad, U. M., Piatetsky-Shapiro, G., Smyth, P., and Uthurusamy, R.,
1996, Advances in Knowledge Discovery and Data Mining, MIT
Press, Cambridge.
Gillan, C., Graham, S., Levitt, M., McArthur, J., Murray, S., Turner, V.,
Villars, R., and McCarty Whalen, M., 1999, The ASPs' Impact on
the
IT
Industry:
An
IDC-Wide
Opinion,
IDC,
http://www.idc.com.au/.
Hacigümüs, H., Iyer, B., and Mehrotra, S., 2002, Providing Database as a
Service, In: Proc. of the Int'l Conf. on Data Engineering, ICDE.
Han, J., and Kamber, M., 2001, Data Mining: Concepts and Techniques,
Morgan Kaufmann Publishers, San Francisco.
Hand, D., Mannila, H., and Smyth, P., 2001, Principles of Data Mining,
MIT Press, Cambridge.
[12]
ITAA, 2000, ITAA's Application Service Provider (ASP) Service Level
Agreement (SLA) Guidelines, http://www.itaa.org/asp/itaasla.pdf, as
of 05/06/2003.
[13]
ITAA,
[14]
[15]
2000, The ITAA ASP Customer Demand Survey,
http://www.itaa.org/asp/reportwp/aspwp1.pdf, as of 05/06/2003.
Lawrence, R., Almasi, G., Kotlyar, V., Viveros, M., and Duri, S., 2001,
Personalization of Supermarket Product Recommendations, In: Kohavi, R., and Provost, F. (eds.), Applications of Data Mining to
Electronic Commerce, pp. 11-32, Kluwer Academic Publishers,
Dordrecht.
Liebmann, L., 2000, Next IT Challenge: Integrating Multiple ASPs,
InformationWeek, June 26, 2000.
[16]
Lipschultz, D., 2001, IT Sees Beyond ASP Crash, InternetWeek,
http://www.internetweek.com/indepth01/indepth070201.htm, as of
05/06/2003.
[17]
Samuels, D., 2001, ASPs Offer More Than Hosting, ASP Island,
http://www.aspisland.com/opinion/samuels1.asp, as of 10/09/2001.
39
[18]
[19]
[20]
[21]
[22]
[23]
[24]
[25]
[26]
[27]
[28]
Newcomb, K., 2001, Consortium's ASP Tracking Study Released, ASPnews, http://www.internetnews.com/asp-news/article/0
,,3411_867291,00.html, as of 05/06/2003.
Gartner Group, 2000, ASP Trends: The ASP Model Moves Closer to 'Prime
Time', ,
http://gartner11.gartnerweb.com/public/static/hotc/hc00085643.html
, as of 10/30/2001.
IDC, 2002, IDC's Findings Reveal ASP Implementations Yielded an Average
Return
of
Investment
(ROI)
of
404%,
http://www.idc.com.au/idcpulse/Archives_2002/idcpulse
20022002_ASP.htm, as of 09/14/2002.
Richardson, R., 2003, 2003 CSI/FBI Computer Crime and Security Survey,
Computer Security Institute, http://www.gocsi.com/.
Schafer, J. B., Konstan, J. A., and Riedl, J., 2001, E-Commerce Recommendation Applications, In: Kohavi, R., and Provost, F. (eds.), Applications of Data Mining to Electronic Commerce, pp. 115-153,
Kluwer Academic Publis hers, Dordrecht.
Spiliopoulou, M., and Pohle, C., 2001, Data Mining for Measuring and
Improving the Success of Web Sites, In: Kohavi, R., and Provost, F.
(eds.), Applications of Data Mining to Electronic Commerce, pp.
85-114, Kluwer Academic Publishers, Dordrecht.
Sweeney, T., 2000, ASPs Answer the Security Question, InformationWeek,
June 5, 2000.
Toigo, J. W., 2002, The Essential Guide to Application Service Providers,
Prentice Hall PTR, Upper Saddle River.
Weiss, P., 2001, ASPs: They Do More Than Just Save Money,
InformationWeek, November 5, 2001.
Williams, I., 2001, Future Trends in Enterprise Networking: Benchmarking
for the Latest Technological Advances in Local and Wide Area
Networking, Reuters Business Insight, http://www.silicon.com/
Ecommerce/pdf/r07.pdf, as of 12/06/2001.
Witten, I. H., and Frank, E., 2000, Data Mining, Morgan Kaufmann Publishers, San Francisco.
40
Die Szenario-Technik als entscheidungsunte rstützendes Instrument
Albert Heinecke
Professor an der Fachhochschule Braunschweig/Wolfenbüttel
Fachbereich Wirtschaft
Wielandtstr. 1-5
38844 Wolfsburg
Telefon: +49(0)5361/83-1528, Fax: +49(0)5361/83-1502
E-Mail: a.heinecke@fh-wolfenbüttel.de
Kurzfassung
Im Rahmen der Unternehmensführung kommt der langfristigen Planung eine
zentrale Rolle für den Erfolg zu. Es müssen strategische Entscheidungen getroffen
werden, deren Ausmaß und Richtigkeit erst zu einem späteren Zeitpunkt deutlich
werden. Wäre es möglich, die zukünftigen Rahmenbedingungen für eine Unternehmung, deren Erfolgskriterien und Entwicklung sowie die Auswirkungen der
einzuleitenden Handlungen bereits zum Zeitpunkt der notwendigen Entscheidung
zu kennen, so ließen sich mögliche Opportunitätskosten, resultierend aus Fehlentscheidungen, erheblich senken.
Mit der Szenario-Technik, die auf Hermann Kahn zurückgeht, vermag man diesbezüglich zwar nicht die Zukunft exakt vorauszusagen, dennoch verhilft ihre
"richtige Anwendung" dazu, die Tragweite, die möglichen Ursachen und Wirkungen strategischer Entscheidungen besser beurteilen zu können. Im folgenden Beitrag wird die Szenario-Technik erläutert und einige Algorithmen aus dem Bereich
der induktiven Ansätze vorgestellt.
Keywords : Cross-Impact-Algorithmus, induktive Ansätze, Konsistenzanalyse,
unkritische und kritische Deskriptoren, Szenario-Entwicklung
41
1
Einführung in die Thematik
Die Szenario-Technik kann als ein Verbund aus verschiedenen Prognosemethoden, unter Einsatz unterschiedlicher Planungsinstrumente, verstanden werden, bei
der die Unsicherheit der Zukunft als gegeben akzeptiert wird. Bei ihrer Anwendung werden mögliche Umfeldsituationen der Zukunft entwickelt und es wird aus
der Gegenwartsperspektive eruiert, wie der Weg zu diesen zukünftigen Situationen zustande kommen kann.[1] D.h., die Szenario-Technik ist als ein (Planungs-)
Instrumentarium zu verstehen, mit der Szenarien gestaltet und im weiteren Prozess
verarbeitet werden, um daraus alternative Zukunftssituationen zu analysieren und
Strategien abzuleiten.[2] Damit Entwicklungen - deren genaue Vorhersage unmöglich ist - mit aufgenommen werden können, lassen sich in dieser Technik vor
allem auch qualitative Aussagen integrieren.[3] Dadurch bleiben Faktoren, die
bedeutenden Einfluss auf den Untersuchungsgegenstand nehmen, nicht ausgegrenzt. Ein weiterer wesentlicher Vorteil der Szenario-Technik ist, im Gegensatz
zu den meisten Prognosemodellen, eine sehr große Anzahl von Informationen
verarbeiten und auswerten zu können, wodurch eine validere Basis für die Prämissenbildung in der Unternehmensplanung erzielt wird.
Bevor die unterschiedlichen methodischen Ansätze und die gemeinsamen charakteristischen Merkmale der Szenario-Technik aufgezeigt werden, soll zunächst das
Kernstück dieser Technik -die Szenarien- näher erörtert werden.
Als einer der ersten definierte Kahn den Begriff Szenarien, als "hypothetische
Folge von Ereignissen, die konstruiert werden, um die Aufmerksamkeit auf kausale Prozesse und Entscheidungspunkte zu lenken“.[4] So müssen Szenarien alternative, plausible und konsistente Zukunftsbilder sein, die aus in sich stimmigen,
logischen zusammenpassenden Prämissen (-bündel) bestehen sowie die Beschreibung der Entwicklungspfade einer möglichen Zukunftssituation aus der gegenwärtigen Struktur heraus, die zu diesen Zukunftsbildern hinführt, aufzeigen. Sie liefern keine Voraussagen der Zukunft, die wie herkömmliche Prognosen aussagen,
was passieren wird, sondern nur in sich stimmige Bilder dessen, was sein könnte,
als Möglichkeiten ohne Bewertung hinsichtlich der Wahrscheinlichkeit des Eintretens.[5]
2
Vorgehensweise in der Szenario-Technik
Durch die Verwendung der Szenario-Technik haben Planungsträger die Möglichkeit, ihre Planungsannahmen bzw. Planungsprämissen systematisch im Hinblick
auf deren Konsistenz zu prüfen. Hierzu wird zunächst ein Themengebiet definiert,
über das man Informationen über die zukünftige Entwicklung erhalten möchte
(Phase 1). Der nächste Schritt ist die Festlegung von Einflussbereichen, die dieses
Themengebiet determinieren (Phase 2) (siehe Abbildung 1).
42
In einem weiteren Schritt werden nun einzelne Deskriptoren und deren unterschiedliche Ausprägungen für jeden Einflussbereich erarbeitet und die einzelnen
Deskriptorausprägungen in einer Matrix in Beziehung gesetzt (Phase 3). Die Einflussbereiche werden so anhand von mehreren Deskriptoren fixiert.
In der anschließenden Phase der Annahmen- bzw. Alternativenbündelung werden
in der Szenario -Technik optional Softwareprogramme eingesetzt, die die Konsistenz bestimmter Deskriptorausprägungen prüfen. Das Ergebnis dieser Programme
ist ein Ranking von sehr konsistenten bzw. wahrscheinlichen Kombinationen von
Ausprägungen (jeweils im Kontext des applizierten Algorithmus zu verstehen),
die dem „berühmten“ Zukunftsbild entsprechen und als Planungsprämisse genutzt
werden können (Phase 4).
Anschließend lassen sich dann die Ergebnisse in der Szenario-Interpretation ausformulieren und im Hinblick auf mögliche Konsequenzen bzgl. der gewählten
Strategien und Ziele analysieren (Phase 7 und 8). Hierzu ist vorab eine Konzentration auf wenige Szenarien erforderlich. Optional kann den Phasen 7 und 8 auch
noch eine Störfallanalyse vorangestellt werden, die inhaltlich eine Modifikation
der Alternativenbündelung darstellt. Dazu wird die Trendprojektion nochmals
durchgeführt, indem i.d.R. eine Erweiterung der Deskriptorliste mit sogenannten
unkritischen Deskriptoren vorgenommen wird. D.h., Deskriptoren, die nur eine
einzige Ausprägung zulassen.
43
Abbildung 1: Ablauf des Szenario -Prozesses
3
Methoden der Szenario-Erstellung
Die methodischen Ansätze der Szenario-Technik unterscheiden sich mehr oder
weniger in ihrer Vorgehensweise und Zielintention. Im Prinzip lassen sie sich in
zwei Hauptgruppen unterteilen. Zum einen, die "harten Methoden", die überwiegend quantitative Daten verwenden und mittels Computersimulation die Szenarien
erstellen, wie z.B. System Dynamics nach Forrester, und zum anderen die "weichen Methoden". Letztere verwenden zusätzlich qualitative Annahmen, wobei das
Konzept zur Ermittlung von Szenarien entweder vorwiegend intuitiv, nicht formalisiert, wie z.B. bei Kahn[6], oder systematisch formalisiert ausgerichtet ist. Die
systematischen Vorgehensweisen lassen sich noch weiter aufspalten in Methoden,
denen eine intuitive Logik zugrunde liegt und Szenario-Techniken mit modellgestützter Logik.
Intuitive Logik bedeutet, dass man zur Annahmebündelung von alternativen zukünftigen Entwicklungen nicht auf Hilfsmittel zurückgreift, sondern Szenarien aus
den zuvor bestimmten Faktoren vorwiegend qualitativ ableitet. Um diese intuitive
44
Bildung von Szenarien zu ermöglichen, dürfen nicht zu viele Informationen vorliegen. Deshalb ist damit i.d.R auch eine deduktive Betrachtungsweise[7] verbunden. Es werden zuerst die wichtigsten Umfelder mit den jeweiligen Schlüsselfaktoren bestimmt, diese in die Zukunft projiziert und dann aus dessen Gegenüberstellung sinnvolle Kombinationen gefunden. Aus diesen werden einige sehr konsistente gewählt, mit weiteren Faktoren ausgefüllt, und zu Szenarien ausgearbeitet.
Die Verfahren von SRI[8], McNulty[9] und der Royal Dutch Shell Group[10]
zählen beispielsweise zu diesen deduktiven Ansätzen mit intuitiver Logik.
Im Gegensatz dazu erfordern induktive Ansätze meistens den Einsatz von Rechenprogrammen, wie Cross-Impact, denn hier werden zueinander konsistente
Sätze der möglichen Entwicklungen der einbezogenen Faktoren konstruiert, ohne
vorher dafür einen Rahmen festgelegt zu haben. Es werden dadurch mehr Informationen berücksichtigt, als bei deduktiven Ansätzen. Um diese große Anzahl der
Faktoren zu Szenarien auszuarbeiten, liegt somit vorwiegend eine modellgestützte
Logik zu Grunde. Abbildung 2 soll diese Unterteilungen nochmals graphisch
verdeutlichen.
Die Klassifizierung der einzelnen Modelle erfolgte nach der jeweiligen Ausrichtung der Szenario-Erstellung, was bedeuten soll, dass die Methoden sich vorwiegend nach den genannten Merkmalen richten, aber auch Elemente enthalten können, die in andere Bereiche fallen. Die weitere Darstellung beschränkt sich auf die
weichen Methoden und hier insbesondere auf die modellgestützte Logik, da Modelle, die extrem quantitativ und intuitiv vorgehen, die Anforderungen der strategischen Planung nur unbefriedigend erfüllen.
Aus dem Vergleich dieser Ansätze lassen sich einige Gemeinsamkeiten erkennen.
Sie unterstützen alle den vorab beschriebenen Prozess der Szenario -Erstellung
spätestens ab der Phase der Trendprojektion (Phase 3), in der rechnergestützt die
einzelnen Deskriptoren und ihre Ausprägungen definiert werden. Im Vorfeld wird
häufig zusätzlich auf der Ebene der Einflussbereiche mit der sogenannten Vernetzungsmatrix gearbeitet, um so die Interdependenzen grob zu charakterisieren. Die
Phase der Alternativenbündelung wird gleichsam durch den Transfer der Ausprägungen in die entsprechende Matrix mit getragen. Der differente Kern dieser Ansätze besteht allerdings in der Verwendung unterschiedlicher Algorithmen zur
Berechnung spezifischer Ausprägungskombinationen, die im Rahmen der Szenario-Technik auch als „Zukunftsbilder“ bezeichnet werden und sich in der Literatur
im „Trichtermodell“ zur Szenario-Technik wieder finden.[11]
Einige Methoden zählen definitorisch den Szenario-Transfer (Phase 8), d.h., die
Umsetzung der Szenarien in Strategien noch zu einem abschließenden Element
der Szenario -Technik. Dazu gehören die Battelle Institute, Reibnitz, SRI, McNulty
und Linneman/Kennell. Bei Verfahren, die diese Phase nicht mit einschließen,
45
wird jedoch einheitlich darauf hingewiesen, dass eine Umsetzung der Ergebnisse
in die strategische Planung in jedem Falle sinnvoll ist.
In der Szenario-Technik werden somit „komplexe Probleme dekomponiert und in
eine neue Ordnung gebracht“.[12] Es wird versucht, die Frage zu beantworten,
wie eine hypothetische Situation Schritt für Schritt zustande kommen kann.[13]
Methoden der Szenario-Erstellung
harte Methoden
System
dynamics nach
Forrester
weiche Methoden
intuitive, nicht
formalisierte
Vorgehensweisen
Club of Rome
(Meadows)
Mesarovic,
pestel
...
HudsonInstitut
Herman Kahn
...
systematisch,
formalisierte
Vorgehensweisen
intuitive Logik
(deduktive Ansätze)
Stanford Research
Institut
(SRI) 4,5
über Cross-Impact
Batelle Frankfurt
(BASICS) 5
Future Group
(SMIC 74´) 1,2,4
Batelle Columbus
Royal Dutch Shell
Group
McNulty
Batelle Genf
5
5
Centers of Future
Research (INTERAX)
4,5
Porter
1
Wilson (General Electric)
Makro-/ Globalszenarien
Vanston, Frisbee
Becker
modellgestützte Logik
(induktive Ansätze)
4
1,2,4,5
Kaiser Aluminium
...
Southern California
Edison
über Konsistenzmatrix
Batelle Frankfurt
(CAS, INKA)
...
Reibnitz (SAR)
4
über andere
Linnemann u. Kennel
...
1 = dynamische Einbeziehung der Zeitdimension
2 = Verwendung von Trend-Impact
3 = geringe Anzahl von Deskriptoren
4 = ohne Einbeziehung von Wahrscheinlichkeiten
5 = mit Implementierungsphase
unternehmensspez.-/ Branchenszenarien
Abbildung 2: Klassifizierung der Szenario-Technik
46
3,4,5
3.1
Der Konsistenzalgorithmus
Der Konsistenzalgorithmus in Verbindung mit der zu definierenden Konsistenzmatrix ist innerhalb der rechnergestützten Applikationen der Szenario-Technik
sehr verbreitet. Hierbei erfolgt die Fixierung der Zusammenhänge einzelner Deskriptorausprägungen nach folgendem Prinzip:
Ausgangspunkt ist die Festlegung der Konsistenzwerte in der Konsistenzmatrix
zwischen den Deskriptorausprägungen der unterschiedlichen Deskriptoren. Die
Werteskala verläuft z.B. ganzzahlig zwischen +2 (starke Konsistenz) und –2 (starke Inkonsistenz). Da eine Wirkungsrichtung bzw. die Reihenfolge des Eintritts der
Ereignisse bei diesem Algorithmus nicht berücksichtigt wird, reicht es aus, die
Konsistenzmatrix nur halb zu füllen, typischer Weise unterhalb der Diagonalen
(siehe Abbildung 3).
Abbildung 3: Definition einer Konsistenzmatrix[14]
Das Ziel ist nun die Berechnung eines Konsistenzmaßes für ein Zukunftsbild, d.h.,
für eine spezielle Ausprägung der definierten Deskriptoren. Anschließend erfolgt
die absteigende Darstellung der speziellen Deskriptorausprägungen anhand der
zugehörigen berechneten Konsistenzmaße, so dass zwischen den „Zukunftsbildern“ ein Ranking erzeugt wird.
Für jede Ausprägungskombination und dabei jeweils bei Betrachtung aller möglichen Anfangspunkte innerhalb dieser Kombination werden die Konsistenzwerte
aus der Matrix gelesen und summiert.
Dies setzt voraus, das alle möglichen Kombinationen der Deskriptorausprägungen
im Vorfeld über den Algorithmus erfasst werden. Also ein Verfahren, das auf
einer vollständigen Enumeration beruht und deshalb bei größeren Szenarien sehr
schnell zu Problemen bei der Rechnerleistung führt. Z.B. lassen sich bei einer
47
Deskriptoranzahl von 20 mit jeweils zwei Ausprägungen 1.048.580 Kombinationen (220 ) ableiten, deren Konsistenzmaße bestimmt werden müssen.
Da in diesem Algorithmus keine Eintrittswahrscheinlichkeiten berechnet und
damit berücksichtigt werden, wird methodisch implizit angenommen, dass eine
Gleichverteilung der Eintrittswahrscheinlichkeiten aller Deskriptorausprägungen
zu einem Deskriptor vorliegt.
3.2
Der Cross-Impact-Algorithmus
Auch bei dem Cross-Impact-Algorithmus wird der Zusammenhang der unterschiedlichen Deskriptorausprägungen in einer Matrix (Cross-Impact-Matrix) beschrieben. Eine spezielle Variante stellt die Klasse der kausalen Cross-ImpactAlgorithmen dar. Die Standardskalierung ist hierbei das Intervall (+3;...;-3). Allerdings werden bei diesen Algorithmen die Wirkungsrichtungen beachtet, was
dazu führt, dass die gesamte Matrix definiert werden muß.
Zudem arbeitet der Algorithmus explizit mit Eintrittswahrscheinlichkeiten für die
jeweiligen Deskriptorausprägungen eines Deskriptors. Da eine der Ausprägungen
mit Sicherheit eintreten wird, muß die Summe der Eintrittwahrscheinlichkeiten für
einen Deskriptor „1“ ergeben. D.h., der Ereignisraum für einen Deskriptor muß
vollständig sein, andernfalls hätte man bei der Deskriptordefinition nicht alle Ausprägungsoptionen erfasst. Die folgende Abbildung zeigt ein Beispiel für eine
Cross-Impact-Matrix.
Abbildung 4: Die Cross-Impact-Matrix [15]
Im weiteren Verlauf wird nun jede Deskriptorausprägung als Ausgangspunkt für
eine Szenariobestimmung gewählt. D.h., eine Ausprägung tritt mit der Wahrscheinlichkeit 1 auf, was dazu führt, das alle anderen Eintrittswahrscheinlichkeiten
48
der Ausprägungen dieses Deskriptors auf „0“ gesetzt werden. In Abhängigkeit von
dieser Deskriptorausprägung wird nun geprüft, inwieweit die Eintrittwahrscheinlichkeiten der Ausprägungen anderer Deskriptoren verändert werden. Die Werte
werden dabei aus der Cross-Impact-Matrix gelesen und über eine Koeffiziententabelle in einen Koeffizienten umgewandelt, der in die Formel zur Berechnung der
neuen Eintrittswahrscheinlichkeit eingeht. Z.B. bewirkt der Wert –2 eine Verringerung der Eintrittswahrscheinlichkeit einer Ausprägung des anderen Deskriptors.
Da natürlich eine Ausprägung eines Deskriptors eintreten muß, wird im nächsten
Schritt die mit der höchsten berechneten Eintrittwahrscheinlichkeit gewählt und
das Ereignis mit der Wahrscheinlichkeit 1 versehen. Diese Vorgehensweise erfolgt
iterativ für einen Ausgangspunkt bei allen Deskriptoren, so dass letztlich als Ergebnis eine Kombination bestimmter Ausprägungen (jeweils eine pro Deskriptor)
entsteht. Man erhält also pro Ausgangspunkt ein Szenario.
Darüber hinaus berechnet der Algorithmus den Nichteintritt einer Deskriptorausprägung als Ausgangspunkt. In diesem Falle werden bei mehr als zwei definierten Ausprägungen pro Deskriptor die anderen Eintrittswahrscheinlichkeiten
nach einem Verfahren auf die Summe von „1“ normiert und ein gewichteter Koeffizient für die Neubestimmung der Eintrittswahrscheinlichkeit ermittelt.
Insgesamt benötigt also ein Cross-Impact-Algorithmus genau doppelt so viele
Berechnungen, wie Deskriptorausprägungen in der Matrix definiert worden sind.
Es werden also 2 x n Szenarien, die auch identisch sein können, bei n Ausprägungen erzeugt, die nach der Häufigkeit des Auftretens in ein Ranking gebracht werden. Z.B. würden bei diesem Verfahren mit einer Matrix von 20 Deskriptoren mit
jeweils zwei Ausprägungen 80 Szenarien erzeugt. Eine vollständige Enumeration
wird hierbei also nicht durchgeführt. Zudem werden anhand dieses Ergebnisses
neue Eintrittswahrschinlichkeiten für die Deskriptorausprägungen bestimmt.
3.3
Vergleiche nde Beurteilung des Konsistenz- und CrossImpact-Algorithmus
Wie in den vorangegangenen Ausführungen schon deutlich wurde, unterscheiden
sich beide Algorithmustypen, die auch noch in unterschiedlichen Varianten bzgl.
der Skalierung vorzufinden sind, sehr stark voneinander, obwohl mit beiden Algorithmen die gleiche Zielsetzung verfolgt wird.
Bei einer genaueren Betrachtung wird auch deutlich, dass beide Typen im Hinblick auf ihren Anwendungsbezug Schwächen aufweisen. So kann man zunächst
einmal festhalten, dass die Konsistenzanalyse methodisch dazu verleitet, Ereigniskombinationen zu ermitteln, die aufgrund des beschriebenen Zusammenhangsmaßes in der dazugehörigen Matrix gut zueinander passen. Hierbei bleibt die Eintrittswahrscheinlichkeit unberücksichtig. Das Resultat dieser Vorgehensweise
49
führt dann zu typischen Kombinationen von Deskriptorausprägungen, die den
Extremszenarien in der Szenario-Technik zuzuordnen sind. D.h., entweder ein
sehr positives oder negatives ‚Zukunftsbild’ zeichnen, da hier nun mal die für
diese Kombinationen hohe Konsistenzmaße zu erwarten sind. Auch eine zusätzliche Clusterung der Kombinationen, verspricht hierbei keine Abhilfe.
Ein weiterer Schwachpunkt ist die implizite Gleichverteilung der Eintrittswahrscheinlichkeiten einzelner Ausprägungen, indem völlig auf eine Berücksichtigung
von Wahrscheinlichkeiten im Algorithmus verzichtet wird.
Die bisher aufgezählten Nachteile lassen sich nicht auf den Cross-ImpactAlgorithmus übertragen. Nichtsdestotrotz beinhaltet dieses Verfahren einen methodischen Fehler, der noch nicht sinnvoll gelöst worden ist. Es handelt sich um
die zwingende Voraussetzung, dass immer eine eindeutige Auswahloption für das
nächste mit der Wahrscheinlichkeit „1“ zu versehende Ereignis im Algorithmus
vorliegen muß. Mit anderen Worten, der Algorithmus funktioniert nur einwandfrei, wenn der Abstand mehrerer Eintrittswahrscheinlichkeiten der Ausprägungen
eines Deskriptors in der Iteration nicht identisch ist. Dies ist allerdings dann der
Fall, wenn die Koeffizienten den gleichen Wert aufweisen, hervorgerufen durch
identische Werte in der Matrix, und gleichsam alle Eintrittswahrscheinlichkeiten
der Ausprägungen des betreffenden Deskriptors gleichverteilt sind. Derartige
Konstellationen müssen deshalb im Vorfeld innerhalb der Matrix erkannt und
modifiziert werden.
Zusammenfassend kann daher festgehalten werden, dass eine alleinige Anwendung der Konsistenzanalyse aus den genannten Gründen zu sehr plausiblen, aber
nicht zwingend sehr wahrscheinlichen Kombinationen führt. Dies ist eher bei der
Cross-Impact-Analyse zu erwarten. Andererseits kann allein schon eine geringe
Änderung der notwendigen Eintrittswahrscheinlichkeiten in diesem Verfahren zu
sehr differenten Ergebnissen führen, so dass auch hier von einer alleinigen Nutzung abzusehen ist, gerade weil die Szenario-Technik im weiteren Verlauf die
Beschränkung auf wenige Kombinationen erfordert, die über derartige Algorithmen selektiert werden sollen. Kurzfristige Verbesserungen des algorithmischen
Verhaltens könnten allerdings in diesem Fall möglicherweise das Handling von
Wahrscheinlichkeitsintervallen, statt festen Wahrscheinlichkeiten darstellen.
Eine „praktikable“ Einschränkung dieser Gesamtproblematik stellt die Verwendung beider Algorithmen dar, indem zunächst über die Cross-Impact-Analyse die
häufigsten Kombinationen ermittelt werden und anschließend eine Berechnung
der Konsistenzmaße dieser Kombinationen vorgenommen wird. Die Selektionsregel wäre dann die Priorisierung von häufigen Kombinationen mit hohen Konsistenzmaßen.
50
4
Fazit
Die Szenario-Technik stellt nach wie vor ein sinnvolles Instrument im Rahmen
der Entscheidungsunterstützung dar. Gerade weil mit ihr systematisch die Determinanten für den Entscheidungsraum bzw. die Planungsprämissen innerhalb des
Planungsprozesses analysiert werden können, was ohne diese Technik nur intuitiv
von einem Entscheidungsträger vorgenommen werden kann.
Die Schwächen dieser Technik sind allerdings offensichtlich. Sie betreffen die
semantische Interpretation der Ergebnisse und den sich anschließenden Selektionsprozess für die weitere Beschränkung auf wenige Kombinationen, denen man
momentan nur durch die gleichzeitige Verwendung verschiedener Methoden der
induktiven Ansätze begegnen kann.
Hier kann ein Forschungspotenzial ausgemacht werden, welches dieses Defizit
reduziert, indem über die Modifikation bestehender Algorithmen oder gar über
alternative Algorithmen für die Szenario-Technik nachgedacht wird.
Literatur
[1] Meyer-Schönherr: Szenario-Technik, München 1992, S. 72 und Reibnitz, U.v.:
Szenarien - Optionen für die Zukunft, Hamburg, New-York,u.a.
1987, S. 15
[2] Mobasheri, F., u.a.: Scenario Planning at Southern California Edison, in: Interfaces, Vol. 19, Heft 5, 1989, S. 31-44
[3] Götze, U.: Szenario-Technik in der strategischen Unternehmensplanung, 2.
Aufl., Wiesbaden, 1993, S. 34f (bzw. 47); Taylor, B.: Scenario
Planning to the Rescue, in: Hahn/Taylor (Hrsg.), strategische Unternehmensplanung, Wien 1980, S. 183 und Angermeyer-Naumann,
R.: Szenarien und Unternehmenspolitik, München 1985, S 124
[4] Kahn, H.;Wiener, A.J.: The Jear 2000, New York 1968, S. 6
[5] Angermeyer-Naumann, R., a.a.O., S. 111; S. 5; Geschka, H./ Winkler, B.:
Szenarien als Grundlage strategischer Untenehmensplanung, in:
Technologie und Management, Heft 4, 1989, S. 17 Leemhuis, J.P.:
Using Scenarios to Develop Strategies, in: LRP, Vol. 18, Heft 2,
1985, S. 30
[6] Kahn, H., Kahn, H.: Die Zukunft der Welt, Wien 1979, S. 107-110
[7] unter deduktiv versteht man in diesem Zusammenhang eine Vorgehensweise,
bei der anfangs ein Rahmen der realisierbaren Möglichkeiten des
Unternehmens für jedes Szenario abgesteckt ist, um auf dieser Basis
die einzelnen Zukunftsbilder zu erstellen
51
[8] zu SRI vgl. Stokke, P.R., u.a.: Scenario-Planning for Norwegian Oil and Gas,
in: LRP, Vol. 23, No. 2, 1990, S. 18-26 und Huss, W. R./ Honton,
E. J., Scenario Planning - What Style Should You Use?, in: Long
Range Planning, Vol. 20, No. 4, 1987, S. 21-29
[9] zu McNulty vgl. Zenter, R.D.,: Scenarios, Past, Present and Future, in: Long
Range Planning, Vol. 15, No. 3, 1982, S. 12-20 ; S. 16
[10] zu Royal Dutch Group vgl. Leemhuis, J.P., a.a.O., S. 30-37
[11] Reibnitz, u.v., a.a.O., S. 30
[12] Angermeyer-Naumann, R.,a.a.O., S. 121
[13] Meyer-Schönherr, a.a.O., S. 16
[14] Erstellt mit dem Softwaretool Szeno-Plan der Sinus Software und Consulting
GmbH, www.sinus-online.com
[15] Erstellt mit dem Softwaretool Szeno-Plan, der Sinus Software und Consulting
GmbH, www.sinus-online.com
52
Unterstützung ausgewählter Aspekte des Wissensmanagements
Dr. Volker Nissen
DHC Business Solutions GmbH
Landwehrplatz 6-7
D-66111 Saarbrücken
[email protected]
www.dhc-gmbh.com
Zusammenfassung
Nach einer Einführung in die Thematik des Wissensmanagements und Anmerkungen zur aktuellen Situation in der Praxis werden im vorliegenden Beitrag mehrere zentrale Handlungsfelder des Wissensmanagements aufgegriffen und gezeigt,
wie sie mit geeigneten Methoden und Werkzeugen unterstützt werden können.
Dabei steht zum einen die Bewahrung und Verteilung von Wissen mit Hilfe des
prozessorientierten Werkzeuges CognoVision im Mittelpunkt. Zum anderen werden Überlegungen vorgestellt, wie man die heute problematische Messung und
Bewertung von Wissen mittels der Fuzzy Set Theorie unterstützen kann.
Schlüsselwörter: Wissensmanagement, Wissensverteilung, Wissensmessung,
Fuzzy Set Theorie, CognoVision
1
Begriff und Ziele von Wissensmanagement
Jeder besitzt ein intuitives Verständnis davon, was „Wissen“ ist. Aus der wissenschaftlichen Diskussion soll hier die Definition des Begriffes Wissen nach Probst
et al. [1999, S. 46] zugrunde gelegt werden:
53
„Wissen bezeichnet die Gesamtheit der Kenntnisse und Fähigkeiten, die Individuen zur Lösung von Problemen einsetzen. (...) Es wird von Individuen konstruiert
und repräsentiert deren Erwartungen über Ursache-Wirkungs-Beziehungen.“
Die Ressource „Wissen“ als wichtiger Produktions- und Wettbewerbsfaktor hat in
den letzten Jahren einen steigenden Stellenwert erfahren. Ursächlich dafür sind
verschiedene Gründe. Strukturelle Veränderungen in den Industriegesellschaften
führen einerseits hin zu einer stärkeren Betonung des Dienstleistungssektors mit
einer steigenden Anzahl wissensintensiver Dienstleistungen. Auch im Umfeld
industriell gefertigter Produkte steigt die Bedeutung komplementärer Serviceleistungen, da sie oft die einzige Möglichkeit sind, sich in gesättigten CommodityMärkten von der Konkurrenz zu differenzieren. Ein hoher Wissensanteil in den
vermarkteten Produkten und Dienstleistungen bedeutet eine hohe Wissensintensität in der Unternehmensleistung.
Wachsende Konkurrenz aus Schwellenländern führt andererseits dazu, dass der
Produktionssektor in den Industrieländern sich stärker auf Produkte konzentriert,
die einen komplexen und damit wissensintensiven Herstellprozess aufweisen.
Hierfür sind gut qualifizierte Beschäftigte eine notwendige Voraussetzung.
Gleichzeitig nimmt der Grad der Spezialisierung zu. In Summe steigt die Wissensintensität in der Wertschöpfungskette.
Globaler Wettbewerb, kontinuierlicher Kostendruck, eine fortschreitende Verkürzung von Produkt- und Technologielebenszyklen sowie steigende Kundenanforderungen führen dazu, dass die Ressource Wissen für das Überleben von Unternehmen immer wichtiger wird. Auf der Ebene individueller Mitarbeiter entsteht daraus die Forderung nach lebenslanger Bereitschaft zu lernen. Auf Unternehmensebene gilt es, durch Wissensmanagement dafür zu sorgen, komparative Vorteile
gegenüber Wettbewerbern aufzubauen. Dabei sind Unternehmen mit dem Phänomen konfrontiert, dass die potenziell verfügbare Wissensmenge exponentiell steigt
(Wissenexplosion), während die „Halbwertszeit“ des Wissens, also seine praktische Verwertbarkeit, tendenziell sinkt.
Vielfach verhindern hierarchische Organisationsstrukturen und Egoismus einze lner Wissensträger einen effizienten Wissensfluss im Unternehmen. Gleichzeitig
steigt die Fragmentierung des Wissens. In der Praxis führt dies heute oft dazu,
dass zwar viel Wissen in einem Unternehmen vorhanden ist, dieses Wissen jedoch
entweder nicht bekannt ist (mangelnde Transparenz) oder die räumliche Verteilung dessen effizienten Einsatz im Sinne der Unternehmensziele erschwert.
Gleichzeitig bedarf es einer offenen Unternehmenskultur sowie einer geeigneter
Unterstützung durch IT-Systeme, um Wissensmanagement erfolgreich umzusetzen.
54
Dabei wird im Folgenden die Wissensmanagement-Definition von Peterson [2002,
S. 165] zugrunde gelegt:
„Wissensmanagement ist die gezielte Steuerung der Teilprozesse der Wissensgenerierung, des Wissenstransfers und der Wissensanwendung im Sinne der übergeordneten, unternehmerischen Ziele durch Schaffung geeigneter organisationaler
und prozessualer Rahmenbedingungen sowie deren Integration in einen ganzheitlichen Prozeß zur Förderung des bewußteren Umgangs mit der Ressource Wissen
in der unternehmerischen Wertschöpfung.“
In Analogie zur Situation in der Logistik kann man als ultimatives Ziel des Wissensmanagements formulieren: Das richtige Wissen ist zur richtigen Zeit am richtigen Ort verfügbar zu machen. Dabei werden unter anderem folgende Teilziele
verfolgt:
?
Wettbewerbsvorteile durch besseren Wissenstransfer und höhere Innovationsfähigkeit
?
größere Effizienz durch Vermeiden früherer Fehler in vergleichbaren Situationen
?
Schaffen von neuem Wissen durch Kombination des Bekannten mit Neuem
?
Sicherung von Wissen für das Unternehmen bei Mitarbeiterfluktuation
Zentrale Problematik des Wissensmanagements ist dabei die richtige Gestaltung
des Zusammenspiels von Mitarbeitergewinnung und -entwicklung, Anreiz- und
Entlohnungssystemen, Organisation und Prozessen des Wissensmanagements
sowie deren Unterstützung durch IK-Technologien. Romhardt [1998] und Probst
et al. [1999] definieren hierzu folgende 8 Handlungsfelder im Wissensmanagement:
Aufstellen von Wissenszielen: sie geben den Aktivitäten des Wissensmanagements eine Richtung, wobei normative, strategische und operative Ziele unterschieden werden
?
Wissensidentifikation: das bereits im Unternehmen vorhandene Wissen
wird ermittelt
?
Wissenserwerb: externes Wissen wird in das Unternehmen integriert,
z.B. durch gezieltes Einstellen neuer Mitarbeiter mit speziellen Kenntnissen
?
Wissensentwicklung: aus vorhandenem Wissen neue Fähigkeiten entwickeln
55
2
?
Wissensverteilung: Wissen einzelner den anderen Mitarbeitern verfügbar
machen
?
Wissensbewahrung: Schutz vor Verlust von Wissen
?
Wissensnutzung: zielgerichtete Anwendung von Wissen
?
Wissensbewertung (und Wissensmessung): hier geht es um Wissenscontrolling und die Frage, ob die gesetzten Wissensziele erreicht wurden
Situation in der Praxis
Die gesteckten Erwartungen an Wissensmanagementprojekte in Unternehmen
blieben bislang häufig unerfüllt [Hattendorf 2002]. Die dafür maßgeblichen Gründe sind z.B.:
?
Die Konzepte waren anspruchsvoller in der Umsetzung als erwartet.
?
Die Akzeptanz der Anwender war geringer als geplant.
?
Prognostizierte Effizienzsteigerungen konnten nicht erfüllt werden.
?
Die Rolle moderner Technologien in Wissensmanagementprojekten blieb
unklar.
Bisher dominiert oft einseitig der technische Aspekt in WissensmanagementProjekten. Man konzentriert sich auf einzelne methodische Bausteine und deren
Umsetzung mit Hilfe geeigneter IK-Technologien. Dabei können grob die beiden
folgenden Ansätze unterschieden werden:
?
dokumentenbasierter Ansatz (Content Management Systeme)
?
interaktiver Ansatz (Groupware Systeme)
In den meisten Fällen beruht Wissensmanagement heute vor allem auf einer großen Datenbank mit der Möglichkeit zur Klassifizierung und späteren gezielten
Suche von Informationsobjekten. Das wird oft ergänzt um die Einbindung von
Internet-Ressourcen im Rahmen von Unternehmensportalen. Der Zugriff erfolgt
dann über Web-Browser und Suchmaschinen. Im Ergebnis erhalten die Mitarbeiter jedoch wenig Unterstützung in ihrer Tätigkeit, da ihre konkreten Informationsbedürfnisse zuwenig berücksichtigt werden. Lange Suchzeiten, mangelnde Flexibilität des Systems und geringe Aktualität der Informationen verringern die Akzeptanz für solche Lösungen. Hinzu kommt, dass neu gewonnenes Wissen vom
System nicht automatisch publiziert und den betroffenen Mitarbeitern verfügbar
gemacht wird.
56
Obwohl sehr viele generelle Abhandlungen zum Thema Wissensmanagement
existieren 1 , gibt es nur wenige fundierte, anwendungsfeldbezogene Vorgehensmodelle. Ausnahmen sind die Arbeiten von Schindler [2000] und Peterson [2002].
Beide Autoren fokussieren auf den Prozess der Leistungserstellung im Rahmen
von Projektarbeit, wobei Peterson sich explizit auf die strategische Unternehmensberatung als Umfeld bezieht. Die Teilprozesse Wissensgenerierung, Wissenstransfer und Wissensanwendung werden als wesentlicher Bestandteil der
Leistungserbringung und damit Wertschöpfung strategischer Beratungen benannt.
Basierend auf einem ganzheitlichen Verständnis von Wissensmanagement im
konkreten Anwendungsbereich der Projektabwicklung ermittelt Peterson unter
anderem kritische Erfolgsfaktoren und fördernde Rahmenbedingungen.
Die Arbeiten beider Autoren verdeutlichen, dass es notwendig ist, bei der Umsetzung von Wissensmanagement prozessorientiert vorzugehen. Hierzu sind geeignete IT-Werkzeuge ein wichtiges Hilfsmittel. Der folgende Abschnitt stellt ein
Werkzeug vor, mit dem Wissen prozessorientiert dokumentiert und weltweit über
Standard-Webbrowser verfügbar gemacht werden kann. Damit werden zwei der
zentralen Handlungsfelder des Wissensmanagements unterstützt, wie sie von
Romhardt [1998] definiert wurden: Wissensbewahrung und Wissensverteilung.
Wissensbewahrung adressiert die Gefahr für Unternehmen, Wissen durch Ausscheiden von Mitarbeitern zu verlieren. Bullinger et al. [1998] nennen als zu unterstützende Teilprozesse hier das Selektieren, Speichern und Aktualisieren von
Wissensobjekten.
Wissensverteilung zielt darauf, das Wissen einzelner den übrigen Mitarbeitern
verfügbar zu machen. Dazu ist es vor allem erforderlich, Nutzern bei der Informationssuche auf effiziente Weise zu helfen.
3
CognoVision – ein Tool für prozessorientierte Wissensdokumentation und Wissensverteilung
Um Prozesse optimieren und transparenter zu gestalten, haben viele Unternehmen
ihre Abläufe in Prozessmodellen visualisiert und mit Hilfe von Office-
1
Beispiele sind Schreyögg und Conrad [1996], Bürgel [1998], Wildemann [2000]
sowie Gehle und Mülder [2001].
57
Anwendungen dokumentiert. Bei der Bearbeitung von Aufgaben innerhalb eines
Geschäftsprozesses werden heterogene Informationen benötigt, die zwar logisch
miteinander in Beziehung stehen, aber informationstechnisch in unterschiedlichen
Dokumenten, Systemen und Formaten vorliegen. Heute sind solche Dokumentationen oft Selbstzweck, da es nicht gelingt, die Informationen für unterschiedliche
Anwendungszwecke spontan individuell aufzubereiten und ortsunabhängig zur
Verfügung zu stellen. Mangelhafte Strukturierung, fehlende Versionierung und
limitierter Zugriff sorgen dafür, dass dokumentiertes Wissen kaum genutzt werden
kann.
Abbildung 1 zeigt ein beispielhaftes Modell für einen Geschäftsprozess mit einigen assoziierten Dokumenten. Dazu gehören auch solche Dokumente, die im
Rahmen der Einführung einer Software-Lösung (z.B. SAP R/3) für diesen Prozess
erzeugt werden. Jede Phase des Einführungsprojektes generiert eine Fülle von
Dokumenten, die inhaltlich auf vielfältige Weise zusammenhängen. Hierin manifestiert sich das Wissen der Projektmitglieder, das später für Schulungen und den
Roll-Out dringend benötigt wird.
Prozessmodelle sind eine hervorragende Basis für den Aufbau eines unternehmensweiten Wissensnetzes. Sie schaffen einen intuitiven Zugang zu den relevanten Informationen im Umfeld des betreffenden Prozesses. Damit Prozessmodelle
mitsamt den zugehörigen Dokumenten in Unternehmen als Wissensquelle operativ
genutzt werden, bedarf es einer Lösung, welche die Bearbeitung von Informationsobjekten, ihre Verknüpfung entlang des zugrunde liegenden Geschäftsprozesses und deren Publikation im Intranet ermöglicht. Diesen Ansatz des prozessorientierten und methodengestützten Wissensmanagements verfolgt die DHC GmbH
mit dem Werkzeug CognoVision.
58
OrganisastionsAnweisungen
Spezifikationen
Operative
Stellen beschreibungen
Kennzahlen
Systemfunktionen
Operative
Daten
Geschäftsprozess
Risikoanalysen
Testprotokolle
Arbeitsanweisungen
Customizing Dokumente
Customizing -
Testvorlagen
Tabellen
Abbildung 1: Geschäftsprozessmodell mit assoziierten Dokumenten
Mit CognoVision lassen sich strukturierte und unstrukturierte Informationen integrieren und personifiziert aus unterschiedlichen Blickrichtungen darstellen, ohne
dabei redundante Informationen zu erzeugen. Jeder Anwender kann Informationen
in vorgegebene oder eigendefinierte Sichten/Strukturen ablegen (Abbildung 2)
und anderen Nutzern sein Wissen logisch aufbereitet zur Verfügung stellen. Die
Publikation und Verfügbarmachung der Inhalte im Internet/Intranet erfolgt automatisch. Ziel ist der Aufbau eines strukturierten Wissensnetzes, das die einfache
Wiederverwendung von Ergebnissen für unterschiedliche Projekte und Aufgaben
sicherstellt.
59
Sichten,
Strukturen
Informationsobjekte
?
ERP
DMS/
Files
BPR
Intranet
Internet
Groupware
Office
Quellen
Abbildung 2: Grundelemente von CognoVision (ERP=Enterprise Resource
Planning System; DMS=Document Management System;
BPR=Business Reengineering Tools)
Dazu werden Informationsobjekte im Rahmen von CognoVision in Beziehung
gesetzt und intelligent verwaltet. Ein mit Microsoft Visio erstelltes Geschäftsprozessmodell kann dabei beispielsweise durch ein mit Microsoft Word erstelltes
Textdokument näher beschrieben sein. Über solche Beziehungen, die im Gegensatz zu einfachen Hyperlinks eine Bedeutung tragen, kann in CognoVision graphisch navigiert und zu den jeweiligen Dokumenten verzweigt werden. Auf Basis
des zugrunde liegenden Berechtigungskonzeptes können Nutzer dann diese Dokumente in den Formaten HTML bzw. PDF betrachten oder mit Standard OfficeApplikationen bearbeiten. Die vollständige Integration von Visio erlaubt die grafische Gestaltung und Publikation von Prozessmodellen innerhalb von CognoVis ion, wobei die erzeugten Shapes als Datenbankobjekte abgelegt und somit wieder
verwendbar sind.
Die Installation von Clients auf den Rechnern der Anwender entfällt. Ein Standard-Internetbrowser genügt als Benutzeroberfläche und ermöglicht so den weltweiten Zugriff auf zentral redundanzfrei gespeicherte Informationen. Gleichzeitig
besteht für jeden Nutzer so die Möglichkeit zur dezentralen Pflege der Objekte.
Dadurch lassen sich Aufgaben des Wissensmanagements in die sonstigen Geschäftsprozesse des Unternehmens einbinden. Das wiederum is t eine Voraussetzung für die effiziente Abwicklung der Wissensprozesse und die Aktualität der
vorhandenen Informationen im System. Die Versionierung von Objekten ermö g60
licht es, eine Historie zu dokumentieren, was beispielsweise im Qualitätsmanagement und der Validierung von IT-Systemen bedeutsam ist.
Details zur
Prozesskette
Links zu anderen
Dokumenten
Details und
Verlinkung
einer Funktion
Verwendungsnachweis der
Prozesskette
Abbildung 3: Verlinkung von Prozesskette und Dokumenten (Beispiel)
Die Strukturierung der gespeicherten Objekte nach Geschäftsprozessen sowie
deren flexible Verlinkung unterstützen zusammen mit der integrierten Suchfunktion und dem rollenbasierten Zugriff das gezielte Auffinden relevanter Informationen (Abbildung 3) und vermeiden eine Überforderung der Anwender. Dabei können Informationen beliebiger elektronischer Formate integriert und über Links
verknüpft werden. Die Anwender sehen jeweils nur die für sie relevanten LinkTypen. Das Konzept der nutzerspezifischen Sichten, verbunden mit dem individuellen Link-Management erlaubt die aktive Gestaltung der Wissensstrukturen, was
einen Fortschritt gegenüber der einfachen Suche in Datenbanken darstellt. Hinzu
treten Konzepte wie Mehrsprachigkeit und Mandantenfähigkeit des Systems sowie
die Integration mit Microsoft Project, die auch bei internationalen Konzernstrukturen übergreifende Wissensmanagement-Projekte unterstützen.
61
Im Ergebnis wird so im Unternehmen vorhandenes Wissen transparent und für
alle Mitarbeiter verfügbar gemacht. Beispielhafte Nutzungsmöglichkeiten der
prozessorientierten Dokumentation in CognoVision liegen in der vereinfachten
Einarbeitung neuer Mitarbeiter, dem Qualitätsmanagement und der Geschäftsprozessoptimierung, sowie der Beschleunigung und Vereinfachung des Roll-Out von
Pilotprojekten (beispielsweise im IT-Bereich).
Wissen entsteht dabei nicht nur durch das isolierte Betrachten von Daten, sondern
durch die Vernetzung und individuelle Strukturierung von Informationen aus
unterschiedlichsten Bereichen und Systemen.
4
4.1
Unterstützung von Wissensmessung und Wissensbewertung
Einführung in die Thematik
Die Messung und Bewertung von Wissen stellt ein wichtiges Teilgebiet innerhalb
des Wissensmanagements dar. Man unterscheidet zwei prinzipielle Möglichkeiten,
um kritisches Erfolgswissen zu ermitteln [Güldenburg 1997]. Der ressourcenorientierte Ansatz stellt die Analyse des Kerns eigener Wissensbestände in den Mittelpunkt und versucht die Frage zu beantworten, welche Wissensbestandteile besser sind als diejenigen der Konkurrenz. Damit werden letztlich die Kernkomp etenzen des eigenen Unternehmens herausgearbeitet. Der marktbasierte Ansatz
hingegen versucht, kritische Erfolgsfaktoren der Märkte eines Unternehmens zu
bestimmen, um daraus relevantes Wissen abzuleiten.
In beiden Fällen mangelt es heute an geeigneten Indikatoren und Messverfahren.
Zu diesem Thema schreiben Bullinger et al. [1998, S. 32 f.]:
„Die Messung und Bewertung organisationalen Wissens gehört zu den größten
Schwierigkeiten, die das Wissensmanagement heute zu bewältigen hat. Ein entscheidender Durchbruch konnte in diesem Bereich bisher noch nicht erzielt werden.(...) Nur wenn die Messung zentraler Größen des Wissensmanagementprozesses in Zukunft vereinfacht werden kann und höhere Akzeptanz erhält, kann der
Managementkreislauf geschlossen und von echtem Wissensmanagement gesprochen werden.“
Eng mit dieser Frage verknüpft sind die Handlungsfelder Wissenszielbildung,
Wissensidentifikation und Wissensentwicklung. Bei der Definition von Wissenszielen werden immer auch die Möglichkeiten der späteren Erfolgsmessung und
-bewertung festgelegt. Abstrakte Zielformulierungen sind wenig hilfreich [Bullinger et al. 1998]. Um Wissen identifizieren zu können, bedarf es geeigneter Mess62
methoden. Sonst bleiben Wissensmängel unerkannt und vorhandenes Wissen wird
nicht genutzt. Diese Intransparenz des eigenen Wissens charakterisiert viele heutige Unternehmen. Wissensentwicklung ist nur möglich, wenn neues Wissen, wie es
beispielsweise im Rahmen von Projektarbeit aufgebaut wird, systematisch erfasst,
bewertet und verteilt wird. Gerade in wissensintensiven Branchen, wie beispielsweise der Unternehmensberatung, ist dies von entscheidender Bedeutung für zukünftige Projekterfolge und einen permanenten Wissensvorsprung vor Kunden
und Konkurrenten.
Nicht verwechselt werden sollten die Wissensmessung und -bewertung mit der
Beurteilung des Wissensmanagements eines Unternehmens. Bullinger et al. [1998]
unterscheiden drei Dimensionen ganzheitlichen Wissensmanagements:
?
Organisation
?
Personal
?
IK-Technologien
Die organisatorische Dimension kann weiter untergliedert werden in die Teilbereiche Organisationsstruktur, Prozessmanagement und Unternehmenskultur.
Wichtige Teilaspekte der Dimension Personal sind Mitarbeitergewinnung und
-entwicklung, Anreiz- und Entlohnungssysteme. IK-Technologien bilden die technische Infrastruktur für Wissensmanagement. Eine ganzheitliche Beurteilung des
Wissensmanagements von Unternehmen muss diese drei Dimensionen berücksichtigen und sollte einem prozessorientierten Ansatz folgen. Hierzu liegen bereits
einzelne Arbeiten vor, darunter auch zum Thema Benchmarking von Wissensmanagement.2
Im Folgenden wird exemplarisch untersucht, welchen Beitrag die Fuzzy Set Theorie zur Messung und Bewertung von Wissen leisten kann. Dabei werden Grundkenntnisse der Fuzzy Set Theorie vorausgesetzt.3
2
Vgl.z.B. Tucher von Simmelsdorf [2000] sowie Thiesse [2001].
3
Eine gut verständliche Einführung in die Fuzzy Set Theorie bieten z.B. Nauck und Kruse
[1998] sowie Zimmermann [1991, 1993].
63
Ausgangspunkt ist die Überlegung, dass Wissen teilweise über direkt beobachtbare Ersatzgrößen gemessen werden kann. Zu den Indikatoren, die denkbar und
teilweise heute bereits gebräuchlich sind zählen:
?
durchschnittliche Weiterbildungsausgaben je Mitarbeiter/Jahr
?
durchschnittliche einschlägige Berufsjahre je Mitarbeiter
?
Anzahl der M itarbeiter je Qualifikationsstufe im Unternehmen
?
durchschnittliche Wertschöpfung je Mitarbeiter
?
Anzahl Patente und Veröffentlichungen je Mitarbeiter
?
Anzahl der FuE-Mitarbeiter als Prozentsatz der Belegschaft
?
durchschnittliche Anzahl von Schulungstagen je Mitarbeiter und Jahr
?
Anzahl erfolgreich abgeschlossener Kundenkontakte je Vertriebsmitarbeiter
Die genannten Größen sind exemplarisch und haben jeweils ihre Stärken und
Schwächen, die hier aber nicht weiter untersucht werden sollen. Wichtig ist hingegen festzuhalten, dass es eine Reihe quantitativer Größen gibt, die im Rahmen
einer Wissensmessung erfasst und ausgewertet werden können.
„Wissen“ ist ein schlecht strukturiertes Phänomen. Beziehungen der direkt messbaren Wissensindikatoren zu abgeleiteten aggregierten Faktoren müssen als vage
angesehen werden. Zwischen den Wissensindikatoren sind zusätzlich kompensatorische Beziehungen möglich. Aus den genannten Gründen wird vorgeschlagen,
Fuzzy Sets im Rahmen der Wissensmessung und -bewertung zu nutzen. Zwei
Einsatzmöglichkeiten der Fuzzy Set Theorie sind nachfolgend kurz dargestellt:
?
Fuzzy Klassifikation im Rahmen der Bewertung des Wissens einzelner
Mitarbeiter
?
Aggregation und Visualisierung der Wissensbewertung mittels Fuzzy
Control
Der gewählte beispielhafte Anwendungskontext sind Unternehmensberatungen.
Die vorgeschlagenen Ansätze sind jedoch auf andere Unternehmenstypen übertragbar.
4.2
Fuzzy Klassifikation auf Mitarbeiterebene
Viele Unternehmen verfügen heute über eine Qualifikationsdatenbank, die Fähigkeiten und Erfahrungen, Schulungen und Interessen der Mitarbeiter aufnimmt. Als
Ergänzung zu heutigen verbalen Beschreibungen ist es sinnvoll, eine Aufteilung
64
der Mitarbeiter in unterschiedliche Kompetenzklassen bezüglich ihres aktuellen
Wissensstandes vorzunehmen. Eine solche Klassifikation der Mitarbeiter lässt sich
für unterschiedliche Zwecke nutzen, wie etwa das Projektstaffing, Preisverhandlungen mit Kunden, Einkommensvereinbarungen und die gezielte Weiterbildung
der Mitarbeiter.
Verschiedene Gebiete relevanten Wissens sollte man differenzieren. In der ITorientierten Unternehmensberatung kommen dafür beispielsweise in Betracht:
?
Methoden- und Projektmanagementwissen
?
Wissen über Kunden und Branchen
?
Fachwissen (weiter differenziert nach Anwendungsfeldern)
In jedem dieser Wissensbereich werden nun die Mitarbeiter in drei Kompetenzklassen aufgeteilt:
?
Anfänger
?
Fortgeschrittene(r)
?
Experte
Diese Aufteilung soll möglichst objektiv auf Basis der beobachtbaren Wissensindikatoren vorgenommen werden. Solche mitarbeiterbezogenen Indikatoren sind in
der Beratung beispielsweise:
?
Anzahl Schulungstage im relevanten Anwendungs- oder Methodenbereich
?
Anzahl Projekttage im relevanten Anwendungsbereich
?
Anzahl der einschlägigen Projekte des Mitarbeiters
?
Anzahl der Akquiseunterstützungen durch den Mitarbeiter in der Branche
?
Anzahl einschlägiger Berufsjahre in der betrachteten Kundenbranche
Viele weitere Indikatoren sind denkbar, wobei zusätzlich die Alterung von Wissen
angemessen zu berücksichtigen ist. Spätestens am Ende jedes neuen Projektes
muss für die beteiligten Mitarbeiter ihre Wissensbewertung aktualisiert werden.
Dies unterstreicht die große Bedeutung der heute gern vernachlässigten Projektnachbereitung.
Bei der Aufteilung der Mitarbeiter in Kompetenzklassen ist zu bedenken, dass
scharfe Trennungen zwischen einzelnen Klassen nicht sinnvoll sind, da der Wissenserwerb entlang eines Kontinuums verläuft. Mitarbeiter können daher gleichzeitig mehreren Klassen angehören, wobei die jeweiligen Zugehörigkeitsgrade in
der Regel unterschiedlich sind. Um diesen Sachverhalt angemessen zu berücksich65
tigen, bietet sich eine Fuzzy Klassifikation an. Sie kann auf einfache Weise wie in
Abbildung 4 dargestellt durchgeführt werden. Über das Kontinuum des jeweiligen
Wissensindikators werden die drei Ko mpetenzklassen als Fuzzy Sets modelliert.
Je nach Ausprägung des Indikators ergibt sich für den betrachteten Mitarbeiter
eine mehr oder weniger große Zugehörigkeit zu den Klassen. Mit 170 Projekttagen wird ein Mitarbeiter bezogen auf den Wissensindikator „Anzahl der Projekttage im Anwendungsbereich“ hier der Klasse „Fortgeschrittener“ mit der Zugehörigkeit 0,65 und der Klasse „Experte“ mit der Zugehörigkeit 0,3 zugeordnet.
?
Anfänger
Fortgeschrittener
Experte
1
0.65
0.3
Anzahl Projekttage
im Anwendungsbereich
0
0
100
200
Abbildung 4: Modellierung der drei Kompetenzklassen als Fuzzy Sets.
Es ist zweckmäßig, die Beurteilung des Mitarbeiters aus mehreren Wissensindikatoren zu integrieren. So könnte man beispielsweise die Anzahl der Projekte, Projekttage und Schulungstage eines Mitarbeiters im jeweiligen Anwendungsbereich
zum Faktor „Fachwissen“ verdichten. Dabei können sich erzielte Ergebnisse der
Einzelfaktoren unter Umständen kompensieren. Eine niedrigere Anzahl von Projekttagen kann beispielsweise durch eine hohe Anzahl von Schulungstagen teilweise kompensiert werden. Das kann mit Regeln der Form
WENN (Anzahl Projekttage entspricht Fortgeschrittener)
UND (Anzahl Schulungstage entspricht Anfänger),
DANN (Fachwissen entspricht Fortgeschrittener)
66
ausgedrückt werden. Um Regeln dieser Art zu implementieren existieren in der
Literatur unterschiedliche Fuzzy-Operatoren4 , wie das gewichtete UND von Dubois et al. [1988]. Es ist wie folgt definiert:
min
i ? 1,..s
mit
max ?? i ( x),1 ? ? i ?
s:
Anzahl der Terme der Regelprämisse
? i (x):
i-tes Fuzzy Set der Prämisse
? i:
Merkmalsgewicht des Terms i (? i ?? ?[0,1])
Mit diesem Fuzzy-Operator lassen sich die einzelnen Wissensindikatoren bei der
Aggregation zu einer Gesamtbeurteilung (hier: des Fachwissens) gewichten. Ein
Indikator mit einem Gewicht von 0 hat keinen Einfluss auf das Aggregationsergebnis. Wenn alle beteiligten Größen mit 1 gewichtet sind, verhält sich der Operator wie eine Minimumverknüpfung.
Ein Klassifikator im Anwendungsbereich Wissensmanagement wird viele Regeln
enthalten, die den Zusammenhang der einzelnen Wissensindikatoren zu den aggregierten Größen beschreiben. Sind mehrere Regeln für das gleiche Fuzzy Set der
Ergebnisgröße, also in unserem Beispiel das Fachwissen des Mitarbeiters, im
Klassifikator gleichzeitig aktiv, dann müssen deren Ergebnisse wiederum durch
geeignete Operatoren, wie etwa eine Mittelwertbildung, zusammengefasst werden.
Auf den für Entscheider relevanten Aggregationsebenen ist es sinnvoll, die pro
Mitarbeiter resultierenden Zugehörigkeitswerte in Form eines Balkendiagramms
zu visualisieren (Abbildung 5). Im Gegensatz zu traditionellen Klassifikationsmethoden sollten ganz bewusst alle streng positiven Zugehörigkeiten zu unterschiedlichen Fuzzy Sets der Ergebnisgröße dargestellt sein, um das Ausmaß an Unschärfe in der Bewertung aufzuzeigen.
4
Vgl. zu Fuzzy-Operatoren beispielsweise Zimmermann [1991, 1993].
67
Experte
0,2
Fortgeschrittene(r)
Anfänger
0,7
0,08
?
0
1
0
Abbildung 5: Visualisierung des Klassifikationsergebnisses durch ein Ba lkendiagramm
4.3
Aggregation und Visualisierung der Wissensbewertung
mittels Fuzzy Control
Die Ausführungen im letzen Abschnitt stellten Ergebnisse zu einzelnen Mitarbeitern in den Mittelpunkt. Die Wissensmessung sollte jedoch auch höhere organis atorische Ebenen erfassen, also z.B. Abteilung, Bereich und Gesamtunternehmen.
Einerseits ist es hierzu sinnvoll, die Ergebnisse der unteren Ebenen zu aggregieren. So ergibt sich beispielsweise in einem Beratungsunternehmen die Kompetenz
einer Abteilung für das Themenfeld „Supply Chain Management“ als Summe der
Kompetenzen der einzelnen Mitarbeiter. Andererseits können auf den einzelnen
Organisationsebenen auch neue Wissensindikatoren mit eventuell anderem Fokus
hinzukommen. So ist es auf der Ebene der Abteilung wichtig, Wissen über die
Fähigkeiten, Präferenzen und Auslastung der einzelnen Mitarbeiter zu haben,
damit diese optimal eingesetzt werden können. Hierzu sind spezielle Indikatoren
auszuwerten, wie z.B. die Personalspanne des Abteilungsleiters.
Nahe liegend ist der Aufbau eines hierarchischen Kennzahlsystems zur Beurteilung des gegenwärtigen Standes an relevantem Wissen in der Organisation. Dabei
könnte man beispielsweise die vier folgenden Dimensionen differenzieren, die den
Unternehmenserfolg langfristig beeinflussen:
Wissen über Lieferanten, Einkauf und Beschaffungsmärkte
68
Wissen über Methoden und Technologien in der Leistungserstellung
Wissen über die eigenen Mitarbeiter (Kenntnisse, Prioritäten, Potenziale)
Wissen über Kunden, Distribution und Zielmärkte
Heute konzentriert man sich im Wissensmanagement gerne auf die zweite, technologiebetonte Dimension. Die anderen beiden sind jedoch ebenfalls von Bedeutung,
wie etwa die negativen Beispiele von Unternehmen der New Economy in den
vergangenen Jahren zeigen. Andere Strukturierungen sind selbstverständlich
denkbar.
Das Ergebnis jeder Dimension ist durch hierarchisch geordnete Subfaktoren bestimmt, die je nach Branche des betrachteten Unternehmen verschieden gestaltet
sind. Auf der untersten Aggregationsebene stehen direkt erfassbare Wissensindikatoren, wie oben beschrieben. Auf den höheren Aggregationsebenen stehen abgeleitete Kennzahlen zum relevanten Wissen der betrachteten Organisationseinheit.
Die Aggregation von Einzelwerten kann grundsätzlich analog zu der im vorigen
Abschnitt beschriebenen Vorgehensweise erfolgen. Im Ergebnis entsteht so ein
unscharfes Kennzahlensystem als Beitrag zum Wissenscontrolling.
Hier soll jedoch eine andere Alternative dargestellt werden, die besonders geeignet erscheint, um die Ergebnisse einer Wissensbewertung den zuvor vereinbarten
operativen Wissenszielen gegenüberzustellen. Dabei können, anders als beispielsweise in der Portfoliotechnik, beliebig viele Wissensdimensionen gleichze itig visualisiert werden. In Abbildung 6 entspricht für jede Wissensdimension der
Wert 1 einer vollen Erreichung der gesetzten Ziele, während der Wert 0 als vollständige Verfehlung der gesetzten Ziele zu interpretieren ist. Diese Werte stellen
Zugehörigkeitsgrade dar, die es auf adäquate Weise zu bestimmen gilt. Im Ergebnis werden mit dieser Darstellung auf intuitive Weise Wissenprofile für Unternehmensbereiche visualisiert. Diese bilden wiederum eine gute Grundlage, um
konkrete Handlungsempfehlungen abzuleiten.
69
Wissen über Methoden und Technologien
1
0,85
Wissen über
Lieferanten
1
0,5
0,7
1
Wissen über
Kunden
0,4
1
Wissen über Mitarbeiter
Abbildung 6: Visualisierung der Wissensbewertung in Relation zu den
vereinbarten Wissenszielen. Abgebildet sind unterschiedliche Zugehörigkeitswerte.
Der Wert 1 entspricht dabei einer vollen Zielerreichung.
?
sehr gering
gering
mittel
hoch
sehr hoch
1
0.75
0.2
Betrag in Euro
0
0
400 0
70
8000
Abbildung 7: Beispielhafte Fuzzyfizierung des scharf ermittelten Wissensindikators „Durchschnittliche Weiterbildungsausgaben je
Mitarbeiter pro Jahr“.
?
etwas
mittelmäßig
beträchtlich
1
0
überhaupt
nicht
vollständig
Abbildung 8: Terme der linguistischen Variable „Erreichungsgrad“5 mit
trapezförmigem Zugehörigkeitsfunktionen.
Die Zusammenhänge zwischen einzelnen Wissensindikatoren und höher aggregierenden Faktoren werden durch Regeln innerhalb eines hierarchischen Fuzzy Controllers modelliert.6 Die scharf gemessenen Werte der Indikatoren werden zunächst
fuzzyfiziert und dann mittels unscharfer Inferenz weiterverarbeitet. Kompensation
zwischen verschiedenen Indikatoren ist möglich. In Abbildung 7 sind beispielhaft
die fünf Fuzzy Sets für „Durchschnittliche Weiterbildungsausgaben je Mitarbeiter
pro Jahr“ durch Dreiecksfunktionen beschrieben.
5
In Anlehnung an Zimmermann [1989], S. 268.
6
Zu näheren Einzelheiten von Fuzzy Control vgl. beispielsweise Zimmermann [1991,
1993].
71
WENN X 1 ist gering
UND
1
X2 ist gering ,
DANN
1
x1
WENN X 1 ist hoch
X1
UND
1
x2
X2
X2 ist gering ,
x1
X1
Y
DANN
1
1
Y ist gering
Y ist hoch
1
x2
X2
Y
1
Ergebnis-Fuzzy-Menge
Ausprägungen der Wissensindikatoren X1 und X2
Ergebnis Zielerreichung Y
defuzzifizierter Wert
Y
Abbildung 9: Grundprinzip der Verarbeitung von Eingangsdaten im Rahmen eines Fuzzy Controllers.
Die Eingabe qualitativer Eingangsgrößen auf der untersten Hierarchiestufe kann
gegebenenfalls unter Zuhilfenahme linguistischer Terme erfolgen, welche die
linguistische Variable „Erreichungsgrad“ des jeweiligen Faktors verbal beschreiben (Abbildung 8).
Das Grundprinzip der Datenverarbeitung im Rahmen von Fuzzy Control ist in
Abbildung 9 veranschaulicht. Für die hier verfolgten Zwecke stellt Y den zu vis ualisierenden Grad der Zielerreichung in der jeweiligen Wissensdimension dar. Die
Defuzzyfizierung des Ergebnisses erfolgt daher in das Intervall [0,1].
5
Ausblick
Ergänzend zur visuellen Darstellung der Zielerreichung ist eine Erklärungskomponente denkbar, die das Zustandekommen aggregierter Bewertungsergebnisse
72
erläutert, analog zum Vorgehen von Kuhl [1996] bei der Bewertung von Lagerhaltungspolitiken.
Die hier skizzierte Vorgehensweise einer Wissensmessung und -bewertung unter
Einsatz von Fuzzy Sets kann auf die Beurteilung des gesamten Wissensmanagements eines Unternehmens ausgedehnt werden. Dazu sind die im Rahmen eines
ganzheitlichen Wissensmanagements relevanten Dimensionen Organisation, Personal und technische Infrastruktur jeweils durch hierarchisch geordnete Faktoren
zu charakterisieren, deren unterste Ebene wiederum die direkt erfassbaren Größen
enthält. Diese werden fuzzifiziert und entweder mittels geeigneter FuzzyOperatoren aggregiert oder über Expertenregeln und Fuzzy-Inferenzmechanismen
im Rahmen eines Fuzzy Controllers zu übergeordneten Größen verdichtet. Diese
lassen sich visualisieren oder zur Ableitung von Handlungsempfehlungen nutzen.
Denkbar erscheint auch die Entwicklung einer Balanced Scorecard [Kaplan und
Norton 1997], um strategische Wissensziele zu operationalisieren und den Erfolg
von Maßnahmen des Wissensmanagements im täglichen Geschäft besser überwachen und steuern zu können. Balanced Scorecards sind ein vor allem in den USA
häufig implementiertes Instrumentarium, um die Zielerreichung einzelner Unternehmensbereiche effektiver zu überwachen und im Sinne der Unternehmensziele
zu verbessern.
Charakteristisch für den Scorecard-Ansatz sind die verschiedenen gleichzeitig
abgebildeten Betrachtungsperspektiven, wobei diese nicht unabhängig voneinander sind. In jeder Perspektive wird die Zielerreichung mit Hilfe geeigneter Kennzahlen gemessen. Diese müssen mit Vorgabewerten versehen werden, die sich aus
den strategischen Zielen des Unternehmens ableiten. Um diese Vorgaben zu erreichen, sind geeignete Maßnahmen zu implementieren. Wegen der vagen ZielMittel-Beziehungen bietet es sich an, bei der Gestaltung einer Balanced Scorecard
im Bereich des Wissensmanagements vorhandene Unschärfen ebenfalls mittels
der Fuzzy Set Theorie zu modellieren.
Die hier vorgestellten Ansätze werden derzeit weiter verfolgt und vertieft.
Disclaimer: Die Angaben in diesem Beitrag geben nicht notwendigerweise den
Standpunkt der Unternehmensgruppe DHC, Saarbrücken, wieder.
Literaturverzeichnis
Bezdek, J.C.: Pattern Recognition with Fuzzy Objective Function Algorithms.
New York und London 1981.
Bürgel, H. D. (Hrsg.): Wissensmanagement – Schritte zum intelligenten Unternehmen. Berlin u.a., 1998.
73
Bullinger, H.-J.; Wörner, K.; Prieto, J.: Wissensmanagement – Modelle und Strategien für die Praxis, in: Bürgel, H. D. (Hrsg.): Wissensmanagement
– Schritte zum intelligenten Unternehmen. Berlin u.a., 1998, S. 21 –
39.
Dubois, D.; Prade, H.; Testemale, C.: Weighted Fuzzy Pattern Matching, in
FUZZY SETS AND SYSTEMS 28 (1988), S. 313 – 331.
Gehle, M.; Mülder, W.: Wissensmanagement in der Praxis. Frechen, 2001
Güldenburg, S.: Wissensmanagement und Wissenscontrolling in lernenden Organisationen – ein systemtheoretischer Ansatz. Wiesbaden 1997.
Hattendorf, M.: Wissensmanagement – Problemprozesse und Problem Prozesse,
in Mohe, M.; Heinecke, H. J.; Pfriem, R.(Hrsg.): Consulting – Problemlösung als Geschäftsmodell. Stuttgart 2002, S. 180 – 194.
Kaplan, R.S.; Norton, D.P.: Balanced Scorecard. Strategien erfolgreich umsetzen.
Stuttgart, 1997.
Kuhl, Jochen: Angepaßte Fuzzy-Regelungssysteme. Entwicklung und Einsatz bei
ausgewählten betriebswirtschaftlichen Problemstellungen. Göttingen 1996.
Nauck, D. und Kruse, R.: Fuzzy-Systeme und Neuro-Fuzzy-Systeme, in: Biethahn, J.; Hönerloh, A.; Kuhl, J.; Leisewitz, M.-C.; Nissen, V.; Tietze, M. (Hrsg.): Betriebswirtschaftliche Anwendungen des SoftComputing. Braunschweig/Wiesbaden 1998, S. 35-54.
Nissen, V.: Anwendbarkeit von Fuzzy Sets in der Projektarbeit einer Unternehmensberatung. In: Biethahn, J.; Kuhl, J.; Lackner, A. (Hrsg.): Unschärfe in Wirtschaft und Technik. Tagungsband zum 5. Göttinger
Symposium Soft-Computing, Göttingen 2002, S. 23 – 43.
Peterson, M.: Prozesse des Wissensmanagements strategischer Unternehmensberatungen, in: Mohe, M.; Heinecke, H. J.; Pfriem (Hrsg.), R.: Consulting – Problemlösung als Geschäftsmodell. Stuttgart 2002, S. 162 –
179.
Probst, G.J.B.; Raub, S. P.; Romhardt, K.: Wissen managen: Wie Unternehmen
ihre wertvollste Ressource optimal nutzen. 3. Aufl. Frankfurt/M.
und Wiesbaden 1999.
Romhardt, K.: Die Organisation aus der Wissensperspektive: Möglichkeiten und
Grenzen der Intervention. DUV, Wiesbaden 1998.
Schindler, M.: Wissensmanagement in der Projektabwicklung. Dissertation der
Universität St. Gallen, 2000.
Schreyögg, G. und Conrad, P. (Hrsg.): Managementforschung 6 – Wissensmanagement. Berlin und New York 1996.
Thiesse, F.: Prozessorientiertes Wissensmanagement – Konzepte, Methode, Fallbeispiele. Dissertation der Universität St. Gallen, 2001.
74
Tucher von Simmelsdorf, F.W. Frh.: Benchmarking von Wissensmanagement.
Wiesbaden 2000.
Wildemann, H.: Wissensmanagement, 2. Aufl. München 2000.
Zimmermann, H.-J.: Strategic Planning, Operations Research and Knowledge
Based Systems, in: Verdegay, J.-L.; Delgado, M. (Hrsg.): The Interface between Artificial Intelligence and Operations Research in
Fuzzy Environment. Köln 1989, S. 253 – 274.
Zimmermann, H.-J.: Fuzzy Set Theory – and Its Applications. 2. Aufl., Boston
1991.
Zimmermann, H.-J.: Fuzzy Technologien: Prinzipien, Werkzeuge, Potentiale.
Düsseldorf 1993.
75
Ruling Robots by the Activity Patterns of Hie rachical SOMs
Matthias Reuter
Institut für Informatik
Julius Albert Str. 4
D-38678 Clausthal-Zellerfeld
E-mail: [email protected]
Keywords : Roboter, SOM, Computing with activities
Abstract
In diesem Artikel wird an einem ersten Beispiel gezeigt, wie man Roboter mittels
auf selbstorganisierenden Karten (SOMs) initiierter globaler Aktivitätsmuster
steuern und regeln kann. Im einzelnen wurden dabei einzelne hierarchisch angeordnete SOMs trainiert, wobei in deren globalen Aktivitätsmustern die sowohl die
Spielsituationen und die aus ihnen resultierenden Steuerungsanweisungen kodiert
wurden.
1
Theorie
Obwohl eine Vielzahl von verschiedenen neuronalen Netzstrukturen in der Ve rgangenheit entwickelt und erprobt wurden, kann keines von ihnen die für die biologische Informationsverarbeitung grundlegende Aufgaben der integrierenden
Informationsstrukturierung lösen. So ist es z. B. für die simulierten neuronalen
Netze bis heute unmöglich, selbständig Metakonzepte mit Hilfe des Chunkings zu
erzeugen, um mit diesen Chunks komplexe Handlungssituationen zu erfassen und
zu bewerten. Mit Hilfe dieser aus verschiedenen Wissenseinheiten angelegten
Schemata gelingt es biologischen neuronalen Netzen nicht nur an sich unabhängige Wissenseinheiten (z. B. den Apfel und den Baum) zu neuen Wissenseinheiten
77
(Apfelbaum) zusammenfassen, sondern es gelingt ihnen vor allem, bei Präsents
eines Items des Schemas die anderen Items auch (mehr oder minder dominant) zu
aktivieren und ggfs. zur Klassifikation/ Identifikation einer gegebenen Situation
heranzuziehen. Dies ist aber eine unbedingte Voraussetzung komplexe Spielsituationen in einem neuronmentalen Modell zusammenzufassen und einen stetigen
Spielfluss zu erzeugen Ein weiteres Problem der künstlichen neuronalen Netze
besteht darin, dass die Klassifikationskonzepte von ihnen auf die sog. Out-PutLayer beschränkt sind, während bei den biologischen Netzen die Gesamtstruktur
aller Neuronen als materielle Basis der Konzepte dient. Aus diesem Grund scheint
es, dass die künstlichen neuronalen Netze eine Art Flaschenhalsstruktur beinhalten, die zudem durch die Verwendung sog. Großmutterneuronen noch eine strenge
Lokalisation der Kodierung des abgespeicherten Wissens aufweist. Wahrscheinlich war diese nicht robuste Lokalisation der Grund dafür, warum die Natur nicht
diese Art und Weise der Kodierung von Wissen wählte, sondern das Wissen in der
Struktur der Gesamtaktivität der bio-logischen Neuronen ablegt. Kurz zusammengefasst gelingt es der Natur so nämlich:
?
Daten von verschiedenen Sinnen unter Verwendung einer generellen Kodierungsvorschrift in einem Aktivitätsmuster abzulegen,
?
Wissen stetig durch Anlagerung neuer Fakten in bereits bestehende Wissensschemata zu integrieren,
?
vormals getrennte Wissensstrukuren durch eine adäquate Kombination zu
neuen Klassifikations- / Identifikationskonzepten zusammenzufassen.
Will man diesen Ansatz der Wissensablage wählen, so muss man bedenken, dass
man zwischen verschiedenen Arten der Aktivitäten unterscheiden muss. Als erstes
existieren da nämlich die durch die interneuronalen Verbindungen initiierten Aktivitäten als zweites die durch die einzelnen Neuronen initiierten Aktivitäten und
als drittes die Aktivitäten, die sich durch die Kombination der beiden ersteren
ergeben. Um nun die eigentlich relevante Aktivität bei den simulierten Netzen zu
gebrauchen, sollte man sich wiederum an das biologische Vorbild halten, welches
Informationen auf zweierlei Art kodiert [1]:
?
Die Aktivitätsstruktur des gesamten neuronalen Netzes zu einem Zeitpunkt k kodiert das Klassifikationsergebnis / Klassifikationskonzept der
momentanen Sinnesdatenkonfiguration.
?
Die Aktivitätsrate der einzelnen Neuronen kodiert die momentane Intensität der Sinnesdatenkonfiguration.
Um diese Forderungen zu erfüllen bietet sich der Einsatz von ein symmetrisches
Gitter bildenden selbstorganisierenden neuronalen Netzen (SOMs) an, da auf
diesen globale Aktivitätsmuster besonders einfach visualisiert werden können und
78
die Intensitäten sich „nur“ in der Höhe der Aktivitäten widerspiegeln werden. In
Abbildung 1 ist solch eine schematisierte Aktivitätsstruktur gezeigt.
Abbildung 1: 2-dimensionales Neuronengitter mit Aktivitätszentren
Um während der Lern - und Aktivierungsphase des Netzes ein komplexes Aktivitätsmuster zu erzeugen, muss auf dieser Netzstruktur eine rotationssymmetrische
Nachbarschaftsfunktion, wie sie z. B. die Sink-Funktion oder die Gaußfunktion
darstellt, gewählt werden.
Die Sink-Funktion, die auch als „mexican had Funktion“ bekannt ist, ist deswegen
von besonderem Interesse, da sie der Fourier Transformierten der 'Tophat'Function entspricht, welche ihrerseits gerade einer Fresnelschen-Linse entspricht
und daher unseren Betrachtungen einer lokalen Aktivitätsbetrachtung sehr nahe
steht. Zudem resultiert aus einer Multiplikation dieser Fresenelschen Linsenfunktion im Fourier-Raum gerade einer bandbeschränkten Aktivierung, also einer Art
singulärem Impuls. Die Sink-Funktion (siehe Abbildung 2) ist dabei gegeben
durch
Sin(r)/r [=1 at r=0]
Ihr Konvolutionskern kann durch eine Matrixform {{1,-2,1}, {-2,4,-2}, {1,-2,1}}
beschrieben werden, der wiederum der Fourier-Transformierten der Heaviside
Funktion H(r) entspricht, für die ja bekanntlicherweise gilt: [H(r) = 1 für r<=1 und
0 für r>1].
79
Excitatory region
Excitatory region
Excitatory region
Inhibitory region
Inhibitory region
Abbildung 2: Verlauf der Sink -Nachbarschaftsfunktion
Vor allem die Existenz der erregenden und hemmenden Regionen der der SinkFunktion ermöglicht dabei eine adäquate Verwendung des Prinzips des "Comp uting with Activities", da durch diese Regionen unterschiedlichste Effekte der Beeinflussung der verschiedenen Aktivitätsmuster berücksichtigt werden können.
Die Wahl der Anzahl dieser Regionen ist dabei von der Problemstellung abhängig
und muss daher bei der Initiierung des Netzes vorgegeben werden. In dieser Designphase muss ebenfalls entschieden werden, in welchen Dimensionen die Nachbarschaftsfunktion wirken soll, d.h. ob der Klassifikator nur als 2-dimensionales
Gitter oder als n-dimensionaler Kubus aufgebaut werden soll. Des weiteren muss
der Verlauf der Sink-Funktion so gewählt werden, dass ihre Maxima und Minima
gerade auf den durch Neuronen besetzten Gitterplätzen liegen.
Wegen dieser Nebenbedingung haben wir eine - durch die Sink-Funktion beschriebene - Aktivitätsfunktion der Form
?
?
? ?
E sin(d ( q, k ))
? ( q, E , k ) ? ?
?
d ( q, k )
I
? ?
?
gewählt. Wie man sieht ist ? (q , E , k ) eine Funktion des Positionsvektors q des
?
aktiven Neurons auf dem Gitter, eine Funktion eines Intensitätsvektors E der zu
klassifizierenden / identifizierenden Information, eine Funktion des aktuellen
Informationsverarbeitungsschrittes k und eine Funktion des Abstandes d, welcher
die Position zu den anderen Neuronen um das aktive Neuron beschreibt. Der Ve c-
?
tor I hingegen gewährleistet, dass die Aktivität im Intervall [-1,1] liegt.
? ?
Diese Form der Aktivitätsfunktion ? (q , E, k ) der (erst mal einzeln betrachteten)
Neuronen garantiert zudem, dass unterschiedliche globale Aktivitätsmuster nicht
zu dicht neben einander angelegt werden können und es so in der Lernphase nicht
zu Auslöschungen von Klassifikationskonzepten durch Interferenzeffekte kommen
kann (siehe dazu auch Abbildung 1).
80
Andererseits wird aber durch diese Nachbarschaftsfunktion garantiert, dass ähnliche Aktivitätsmuster sich interferenzmäßig verstärken und sich während der Lernphase auf dem Gitter annähern, was eine Kombination von Konzepten mittels des
Chunkingeffekts begünstigt.
? ?
Für die Einhüllende der Aktivitätsfunktion ? (q , E , k ) wählten wir in unseren
Experimenten die folgende Form
?
d (q , k )
?
2
? ?
Env (? (q , E , k )) ? e f
2
wobei f einen Normierungsfaktor beschreibt. Diese Einhüllende entspricht aber
gerade der Gauß-Funktion, welche natürlich nur dann verwendet werden kann,
wenn keine Chunks auf der Karte auftreten.
Für die Aktivitätsfunktion samt ihrer Nachbarschaftsfunktion gilt daher
?
?
d ? q ,k ?2
?
? ?
E sin( d (q , k )) ? f 2
? ( q , E, k ) ? ?
e
?
I d (q , k )
Da jedes Neuron auf dem Gitter als Quelle einer solchen Aktivitätsfunktion fun? ?
giert, wird sich die globale Aktivitätsfunktion ? ( q, E , k ) des Gitters als Superpo? ?
sition der einzelnen Aktivitätsfunktionen ? l ( q, E , k ) darstellen, wobei der Indizes l der Zählnummer des einzelnen Neurons entspricht. Für die globale Aktivi? ?
tätsfunktion ? ( q, E , k ) gilt dann
? ?
? ( q , E, k ) ?
L
?
l ?1
L
?
l ?1
? ?
? l (q , E , k ) ?
?
?
d ?q l , k ?2
?
El sin( d (ql , k )) ? f 2
?
e
?
d ( ql , k )
I
In Abbildung 3 ist das Aktivitätsschema einer unter diesen Bedingungen konditionierten SOM dargestellt.
81
Abbildung 3: Aktivitätsschema einer trainierten SOM
Wie man leicht einsieht, liegt das eigentliche Winnerneuron an dem markierten
Punkt im rechten unteren Teil der SOM, wobei dieses jetzt aber “nur” als Teil des
globalen Aktivitätsschemas zu sehen ist. Wie man nun weiterhin leicht einsieht,
wird die globale Änderung dieses Aktivitätsschemas einer ebenso globalen Änderung des Klassifikations- / Identifikationsresultates der Karte entsprechen, auch
wenn das Winnerneuron seine Position nicht geändert hat. Dieser Fall ist in Abbildung 4 dargestellt.
82
Abbildung 4: Aktivitätsschema 2 der trainierten SOM
An Hand dieser beiden Abbildungen versteht man leicht, warum unter Zuhilfenahme der Gesamtaktivität des Gitters ein erweitertes Klassifikations- / Identifikationsvermögen der SOMs erreicht wird. Während nämlich bei der alleinigen Interpretation des Klassifikations- / Identifikationsvermögens durch das Winnerneuron
die beiden eben angegeben Fälle zum selben Interpretationsergebnis führen würden, werden jetzt zwei unterschiedliche Situationen diagnostiziert. Das heißt aber,
dass durch die Betrachtung der globalen Aktivitäten ungleich mehr Informationen
auf der Karte gespeichert werden können.
Bedingt durch die Gleichberechtigung aller Neuronen auf der Karte muss allerdings die Netztopologie mit berücksichtigt werden. Damit es nämlich bei den
verwendeten Aktivitätsmustern nicht zu unerwünschten Randwertproblemen
durch den Abbruch der Karte kommt, muss diese zu einem geschlossenen Torus,
wie in Abbildung 5 gezeigt, geformt werden. Aus diesem Grunde spricht man in
diesem Fall von einer geschlossenen SOM. Natürlich entspricht der in Abbildung
5 abgebildete Torus nicht der eigentlich simulierten SOM, da auf dieser alle Neuronen den gleichen Abstand voneinander haben müssen.
83
Abbildung 5: Topologische Form einer geschlossenen SOM
In Abbildung 6 ist das Klassifikations- / Identifikationsverhalten einer geschlossenen SOM gezeigt. Klar erkennt man an dieser Abbildung, dass auf dieser geschlossenen Struktur das Aktivitätsschema eine hochgradig symmetrische Form
annimmt, wobei dieses Kriterium für die Zuordnung des Klassifikations- / Identifikationsverhalten sich als äußerst nützlich erwiesen hat.
Abbildung 6: Typisches Klassifikationsverhalten einer geschlossenen SOM
84
2
Experimentelle Ergebnisse
Abbildung 7 zeigt eine erste Applikation der eben besprochenen Theorie. Gezeigt
ist das Aktivitätsverhalten einer geschlossenen SOM, die dazu verwendet wurde,
um Spielszenen fussballspielender Roboter zu kategorisieren. Auf dieser Karte der
Dimension 100*150 Neuronen wurden die diversen Szenerien eines Spiels kodiert, wobei 150.000 Trainingszirkel dem Netz präsentiert wurden. Wie man deutlich erkennt, stellt sich das Aktivitätsverhalten der durch die Karte repräsentierten
Spielsituation als äußerst filigranes Muster dar. In dieser Aktivitätsstruktur sind
alle Randbedingungen der momentanen Szenerie im Kontext einer globalen Spie lanalyse gespeichert. Natürlich ist dieses Muster nur dann eineindeutig auslesbar,
wenn man den Kode der durch das Netz evaluierten neuromentalen Repräsentation
des Spielverlaufes kennt, was aber im Allgemeinen nicht der Fall sein wird. Auch
hier, wie im Biologischen, stellt sich als die Informationskodierung als höchst
individuelles Kodierungsschema dar, welches sich dem außenstehenden Betrachter nur durch das von Karte initiierte Steuerungs- und Regelungsverhalten offenbaren wird. ( Die dominierende Klassifikationsaktivität liegt in diesem Beispiel in
der unteren linken Ecke der Karte.)
Abbildung 7: Aktivitätsstruktur einer geschlossenen SOM, die eine Szene
eines durch Roboter durchgeführten Fußball-spiels repräsentiert
In Abbildung 8 ist die Bedienoberfläche des Programms, welches die eben besprochenen Netzstrukturen steuert und visualisiert gezeigt. Im oberen linken Teil
der Bedienoberfläche ist das Spielfeld der Roboter visualisiert. Wie man erkennt,
wird im visualisierten Beispiel das Spiel von zwei Robotern vollzogen. Darunter
ist die Aktivität der das Spiel-geschehen repräsentierenden SOM gezeigt, wobei
85
die hellere Region der SOM den Schwerpunkt der neuromentalen Repräsentation
der momentanen Spielsituation bildet. Auch hier gilt wieder, dass die Szenerie
nicht etwa durch das hier schwarze Winnerneuron, welches in der unteren Ecke
platziert ist, repräsentiert wird, sondern durch die Gesamtaktivitätsstruktur der
gesamten Karte.
Abbildung 8: Bedienoberfläche des verwendeten Softwaretools
Der in Abbildung 7 gezeigten geschlossenen SOM zur Spielszeneriebewertung
wurde eine SOM mit der Dimensionierung 48*50 Neuronen nachgelagert, welche
die Aufgabe hatte, ganze Spielzüge zu kategorisieren. Dabei wurden in einem
ersten Ansatz 10 Situationen des Spieles zusammen-gefasst und der übergelagerten Struktur als Lernvektor präsentiert. Die Zahl 10 wurde dabei aus verschiedenen Spielanalysen als optimal evaluiert und stellt daher einen ersten Erfahrungswert und daher kein „Muss“ dar. Die situations-abhängige Nominierung dieser
Zahl dürfte dabei das Forschungsfeld der nächsten Zeit darstellen, da die Zusammenfassung von Szenerien sicherlich durch eine Art bewertendes Aufmerksamkeitsmodul und nicht durch eine feste Vorgabe gesteuert werden sollte.
Die nächste Bildfolge zeigt das Klassifikationsverhalten dieses nachgelagerten
Netzes. Wie man an den links dargestellten Szenerien deutlich erkennt, ändert sich
die Spielsituation dahingehend, dass der von links angreifende Roboter sich allmählich dem weißen Ball nähert. Die Spielsituationsrepräsentation der SOM ändert sich dabei im Spielverlauf hauptsächlich dadurch, dass sich das Aktivitätsmuster mittig aufspaltet und der durch einen schwarzen Punkt ausgezeichnete
Schwerpunkt der Aktivität sich in den beiden letzen Abbildungen von oben nach
86
unten verlagert. Dieses Ergebnis bestätigt in sofern unsere vorherige Diskussion,
als dass die globale Struktur sich an sich nur unwesentlich ändert, da der helle
Balken durch die Karte sich nicht verschiebt, sondern nur aufspaltet.
Abbildung 9a: Spielverlaufrepräsentation I
Auch dass sich das Aktivitätsmuster nur „unwesentlich“ in den beiden letzten
Spielsituationsrepräsentationen ändert, entspricht den Erwartungen, die aus den
theoretischen Überlegungen folgen, da sich für das System die Bedrohung und
damit die anstehenden Steuerungs- und Regelungsanweisungen nur unwesentlich
verändert haben.
Abbildung 9b: Spielverlaufsrepräsentation II
87
Abbildung 9c: Spielverlaufsrepräsentation III
Den hier dargestellten SOMs ist ein Backpropagationnetz angegliedert, welches
dazu dient, die neuromentalen Repräsentationen der SOMs in adäquate Steuerungs- und Regelungsbefehle zu transformieren. Als Sollvektoren werden diesem
Netz dabei von uns vorgegebene, aus einer Spielsituation „logisch“ folgende,
Steuerungs- und Regelungsanweisungen präsentiert, die dann so lange in diesem
Netz trainiert werden, bis es zu den erwünschten Handlungen der Roboter kommt.
3
Zusammenfassung und Ausblick
Der Einbezug der Gesamtaktivität eines neuronalen Netzes in die Bewertung des
Klassifikations- und Identifikationsverhaltens des Netzes stellt einen fundamental
anderen Ansatz dar, als die bisher verwendeten Repräsentationen der Klassifikations- und Identifikationskonzepte durch einzelne Neuronen. Erste Ergebnisse dieser Art der Informationskodierung zeigen, warum die Natur den ersten Weg der
Informationskodierung verwendet hat: Es gelang ihr dadurch un-weit mehr Information auch in kleinen neuronalen Netzen abzulegen, wodurch sie zu einer ressourcensparenden optimierten Kodierung hochdimensionaler Eigenschaftsvektoren gelang. Zudem gelingt es durch den Ansatz des “Computing with Activities”
die biologische Schematabildung des Chunkings und der konkurrierenden Konzepte auf eine äußerst einfache und elegante Art, nämlich durch die Superpositionierung von Aktivitätsmustern, zu simulieren
88
References
1. Aizenberg, I. N. 1999. „Neural Networks Based on Multi-valued and Universal
Binary Neurons”. LNCS 306-317. Springer, Dortmund, 1625.
2. Alonso, E. (Ed). 2002. “Advances in Plan-Based Control of Robotic Agents”.
LNCS 2636. Springer, Heidelberg.
3. Benesch, H. 1972. „Der Ursprung des Geistes“, dtv.
4. Birk, A. (Ed). 2002. “RoboCup 2001: Robot Soccer World Cup V”. LNCS
2377. Springer, Heidelberg.
5. Reuter, M. 1999. “About the Quantisation of the Neural Nets”. LNCS 2101.
Springer, Dortmund, 530-542
6. Reuter, M. 2001. “Computing with, Acitivities”. LNCS 2206. Springer, Heidelberg, 174-184.
7. Suri, N. (Ed.) 2002. “Mobile Agents”. LNCS 2535, Springer, Heidelberg
Mattias Reuter ist in Dresden geboren und hat an der Technischen Universität
Clausthal Physik und Geophysik studiert. Im Jahre 1987 erlangte er den Grad
eines Dr.-Ing. und 2002 den eines Privatdozenten. Er arbeitete an der Universität
der Bundeswehr Hamburg, der Universität Dortmund und einigen Forschungsinstitutionen. Er entwickelte verschiedene Preprosessing- und Lernverfahren und
beschäftigt sich momentan hauptsächlich mit der „neuronal net dynamics“ und
deren Anwendung in der Robotik.
89
Data Mining mit Graphischen Modellen
Frank Rügheimer
Otto-von-Guericke Universität Magdeburg
Fakultät für Informatik
Institut für Wissens- und Sprachverarbeitung
Universitätsplatz 2, 39106 Magdeburg
Tel. +49 391 67 18182, Fax: +49 391 67 12018
E-M ail: [email protected]
Kurzdarstellung
Die Auseinandersetzung mit wissenschaftlichen Problemen erfordert es in vielen
Fällen, große Datenmengen hinsichtlich auftretender, noch unbekannter Muster
und Regelmäßigkeiten zu durchforsten.
Das angestrebte Ziel besteht darin, zugrunde liegende Prinzipien und Gesetzmäßigkeiten abzuleiten, die zum tieferen Verständnis der betrachteten Materie beitragen.
Ganz ähnliche Anforderungen ergeben sich auch für zahlreiche Anwendungen aus
dem Bereich der Wirtschaft. Hier erlaubt eine Analyse gesammelter Daten etwa
die Erstellung von Prognosen zu Marktentwicklung, Kundenverhalten oder erwarteten Bedarfsmengen, die als wertvolles Hilfsmittel in Planung und Entscheidungsfindung einbezogen werden können.
Die Wissensentdeckung in Datenbanken, für die der Begriff Data Mining geprägt
wurde, befasst sich mit den zur Lösung derartiger Aufgaben geeigneten Werkzeugen und Methoden.
Ein wesentliches Problem bei der Analyse von Daten stellt die häufig sehr große
Anzahl relevanter Variablen und somit sehr hohe Dimensionalität des Datenraumes dar. Die Verwendung graphischer Modelle, wie Bayesschen Netzen oder
Markow Netzen, gestattet es in vielen Fällen, derartige Probleme effizient zu behandeln. Diese Modelle liefern einerseits eine kompakte Darstellung des Daten91
raumes, sind andererseits aber auch in der Lage, die komplexen Abhängigkeitsstrukturen zwischen Variablen korrekt wiederzugeben.
Schlüssel ist hier eine Ausnutzung praktisch immer vorhandener bedingter Unabhängigkeiten zwischen Variablen oder auch Variablenmengen. Diese erlauben
eine Dekomposition des Datenraumes in insgesamt deutlich leichter zu verarbeitende Unterräume, deren Beziehungen zueinander jedoch nicht vernachlässigt
werden dürfen.
Anhand einer Anwendung aus dem Bereich der Eigenschaftsplanung in der Automobilindustrie wird die Zerlegung eines Variablenraumes dargelegt, die mit einer
Modellierung unter Verwendung von Markow Netzen einhergeht. Weiterhin werden Operationen benannt, die ein schnelles Schlussfolgern unter Nutzung von a
priori Information sowie eine Integration neuer Informationen in bestehende Modelle ermöglichen. Hierbei handelt es sich um das so genannte Focussing, dessen
Einsatzmöglichkeiten sich auf die Abfrage bestehender Modelle beziehen, weiterhin um die Operationen Revision und Updating, die zur Modifikation bereits existierender Netze eingesetzt werden.
Im Zusammenspiel mit diesen Operationen kann bei Verwendung graphischer
Modelle kann ein Planungsmodell geschaffen werden, das einerseits direkt zur
Ermittlung von Bedarfen eingesetzt, außerdem aber auch zur Simulation der Wirkung lokal eingebrachter Änderungen genutzt werden kann. Hierdurch wird ein
anpassungsfähiges System für Planungen von hoher Präzision geschaffen.
Schlüsselworte: Data Mining, Graphische Modelle, Dekomposition, Eigenschaftsplanung
Referenzen
C. Borgelt, R. Kruse, 2002, Graphical Models - Methods for data analysis and
mining, Wiley, Chilchester.
E. Castillo, J.M. Gutierrez, A.S. Hadi, 1997, Expert Systems and Probabilistic
Network Models, Springer-Verlag, New York, Berlin, Heidelberg.
H. Detmer, J. Gebhardt, 2001, Markov-Netze für die Eigenschaftsplanung und
Bedarfsvorschau in der Automobilindustrie, Künstliche Intelligenz,
3/01, S.16-22.
92
6. Göttinger Symposium
Soft-Computing
Soft-Computing in Wissenschaft
und Wirtschaft
01. Juli 2003
ISBN 3-930185-26-1

Documentos relacionados