Tagungsband 6.
Transcrição
Tagungsband 6.
J. Biethahn, J. Kuhl, A. Lackner (Hrsg.) Soft-Computing in Wissenschaft und Wirtschaft Tagungsband zum 6. Göttinger Symposium Soft-Computing am 01. Juli 2003 an der Universität Göttingen ? ? ? ? 1 0 100 150 200 (Arbeitsgemeinschaft Fuzzy Logik und Soft-Computing Norddeutschland) J. Biethahn, J. Kuhl, A. Lackner (Hrsg.) Soft-Computing in Wissenschaft und Wirtschaft Tagungsband zum 6. Göttinger Symposium Soft-Computing am 01. Juli 2003 an der Universität Göttingen Eine Gemeinschaftsveranstaltung des Arbeitskreises „Soft-Computing in der Betriebswirtschaft“ in der AFN (Arbeitsgemeinschaft Fuzzy Logik und Soft-Computing Norddeutschland) Vorwort Soft-Computing in Wissenschaft und Wirtschaft heißt das diesjährige Motto der AFN-Jahrestagung. Die Methoden des Soft-Computing haben sich mittlerweile weit über den Forschungsbereich hinaus in Anwendungen etabliert und sind somit eine feste Größe in der Welt der anwendungsorientierten Forschung geworden. Nicht zuletzt durch Tagungen wie dieser mit dem möglichen Austausch zwis chen Forschern und potentiellen Anwendern der Methoden der evolutionären Algorithmen, Neuronalen Netze und der Fuzzy Systeme wurde der Erfolg dieser innovativen Methoden begründet. Alleine schon der Austausch und der direkte, unverbindliche Kontakt zu den Forschungseinrichtungen bieten interessierten Anwendern die Möglichkeit, schon lange vor einer kostenträchtigen Analyse auf hohem Fachniveau Anwendungsfälle und deren Lösungsansätze zu diskutieren. Und Forschern auf dem Gebiet der intelligenten Informationssysteme wird wiederum eine Plattform geboten, an Hand derer Sie die Anwendungsfreundlichkeit der Methoden unter Beweis stellen können und so Feedback als Basis für die weiteren Forschungsbemühungen erhalten. So wird auch in diesem Jahr bei der Tagung viel Platz für angeregte Diskussionen, fachlichen Austausch und geselliges Beisammensein geboten. Der vorliegende Tagungsband gibt einen Eindruck über die möglichen Anwendungsgebiete der Methoden des Soft-Computing. Der Tagungsband, den Sie in Ihren Händen halten, bietet Einblicke in die Mustererkennung mittels Fuzzy-Softwarebibliothek, die Darstellung eines Verfahrens (NetLIN) zur Einschränkung des Spread of Fuzziness, die Möglichkeit des ASP für Data Mining Applikationen. Auch finden induktive Ansätze zur Erstellung von Szenarios in der Szenariotechnik sowie ausgewählte Aspekte des Wissensmanagements ebenso Platz wie die Darstellung eines speziellen Optimierungsverfahrens auf Basis von selbstorganisierenden Karten (SOMs) und ein Verfahren des Data Mining bei graphischen Modellen. Mit dem Tagungsband wird gleichzeitig die interdisziplinäre und forschungsübergreifende Zusammenarbeit innerhalb der AFN unterstrichen. Gleich auf welchem Gebiet sich Forschung und Wirtschaft treffen wird der wesentliche Gedanke, das Arbeiten im Netzwerk, als Potential für überzeugende und gute Lösungen ges ehen. Wir danken den Autoren für Ihre Beiträge, nur dadurch und durch die gute organisatorische Leistung des Lehrstuhls für Wirtschaftsinformatik I der Universität Göttingen konnte dieser Tagungsband in seiner Form entstehen. Göttingen im Ju li 2003 Die Herausgeber III Inhaltsverzeichnis Jens Dobras, Jens Strackeljan, Detlef Mitzschke: Implementierung einer LabVIEW -basierten FUZZY-Softwarebibliothek zur numerischen Mustererkennung................................................................................... 1 Werner Brockmann: NetLiN – Eine effektive und effiziente Methode zur Einschränkung des Spread of Fuzziness........................................................................................................... 13 Tanja Falkowsk:i Application Service Providing for Data Mining Applications................................... 23 Albert Heinecke: Die Szenario-Technik als entscheidungsunterstützendes Instrument ....................... 41 Dr. Volker Nissen: Unterstützung ausgewählter Aspekte des Wissensmanagements .............................. 53 Matthias Reuter: Ruling Robots by the Activity Patterns of Hierachical SOMs................................... 77 Frank Rügheimer: Data Mining mit Graphischen Modellen........................................................................ 91 V Soft-Computing in der Betriebswirtschaft Der Arbeitskreis (AK) „Soft-Computing in der Betriebswirtschaft“ ist ein Arbeitskreis im Rahmen der Arbeitsgemeinschaft Fuzzy Logik und Soft-Computing Norddeutschland (AFN). Die AFN dient der Zusammenarbeit von Unternehmen und Hochschuleinrichtungen sowie Einzelpersonen insbesondere bei der praktischen Umsetzung der Fuzzy Logik sowie anderer Verfahren des Soft-Computing. Der AK „Soft-Computing in der Betriebswirtschaft“ hat sich zum Ziel gesetzt, die praktische betriebswirtschaftliche Anwendung des Soft-Computing, vor allem der Fuzzy-Logik (FL), der Evolutionären Algorithmen (EA) sowie künstlicher Neuronaler Netze (NN) zu fördern. Das schließt die weitere Erforschung dieser Verfahren ein. Der Schwerpunkt soll jedoch sein, ihren praktischen Einsatz in Unternehmen zu unterstützen, z.B. im Rahmen von Kooperationsprojekten zwischen Hochschule und Praxis. Dabei dient der AK gleichzeitig als Forum für den Informationsaustausch zwischen Praktikern und Wissenschaftlern. Evolutionäre Algorithmen sind Such- und Optimierungsverfahren, die wesentliche Mechanismen des natürlichen Evolutionsprozesses auf abstrakter Ebene nachahmen. Sie haben sich in unterschiedlichsten komplexen Anwendungen als leistungsfähige Lösungsverfahren erwiesen. Künstliche Neuronale Netze orientieren sich an der Informationsverarbeitung von biologischen Neuronen. Man setzt dabei auf einfache Verarbeitungselemente (korrespondieren zu Nervenzellen), die auf bestimmte Weise vernetzt werden. Ein wichtiges Ziel besteht darin, Systeme zu entwickeln, die aus Beispielen lernen, und das Gelernte verallgemeinern können, um zu guten Leistungen in der praktischen Anwendung zu kommen. Grundsatz der Fuzzy Logik ist die Berücksichtigung unscharfer Sachverhalte bei der Modellierung realer Problemstellungen. So können beispielsweise Unschärfen in verbalen Ausdrücken (z.B. „hoher“ Sicherheitsbestand oder „ungefähr“ 120 Grad) rechnergestützt verarbeitet werden. In allen drei angesprochenen Teilgebieten des Soft-Computing dominieren heute technisch-naturwissenschaftliche Anwendungen. Dennoch liegen auch zahlreiche innovative Beiträge zur Lösung betriebswirtschaftlicher Problemstellungen vor. Zukünftig werden insbesondere auch von Kombinationen mehrerer dieser Techniken in sogenannten Hybridsystemen innovative Beiträge zur Lösung praktischer betriebswirtschaftlicher Probleme erwartet. Damit erschließt sich Innovationspotential, das zu Kostenvorteilen und Effizienzsteigerungen führen kann. Die Aktivitäten des AK beinhalten insbesondere: Unterstützung der Anbindung von Wissenschaft und Praxis im Rahmen von Kooperationsprojekten VI Mitgliedertreffen zum Austausch über neue Entwicklungen des Soft-Computing Ausrichtung von Workshops/Symposien anwendungsorientierte Soft -Computing - Publikationen Die Anschrift der Ansprechpartner lauten: Dr. rer. pol. Vo lker Nissen Dr. rer. pol. Jochen Kuhl DHC Business Solutions GmbH, Saarbrücken Selbständiger Unternehmensberater Tel.: 0681 9 36 66-22 Tel.: 05505 2922 E-Mail: [email protected] E-Mail: [email protected] VII Implementierung einer LabVIEW-basierten FUZZY-Softwarebibliothek zur numerischen Mustererkennung Jens Dobras , Jens Strackeljan, Detlef Mit zschke Institut für Technische Mechanik der TU Clausthal Graupenstr. 3 38678 Clausthal-Zellerfleld Phone: + 49 5323 72-2053, Fax: + 49 5323 72-2203 E-Mail: {jens.dobras}{jens.strackeljan}{detlef.mitzschke}@tu-clausthal.de Kurzfassung Bei einer Vielzahl von Anwendungen im Bereich der Meß- und Automatisierungstechnik besteht der Wunsch über die eigentlich Datenerfassung und Visualisierung hinaus auch eine automatische Beurteilung des mit der Messung verbundenen Zustandes durchzuführen. Dieser Vorgang kann sich auf die Erkennung bzw. Qualitätsprüfung eines technischen oder nicht-technischen Objektes, aber auch auf die Situation eines Prozesses oder gar einer kompletten Anlage beziehen. Das Programmsystem LabVIEW ist ein sehr leistungsfähiges Tool zur Meßdatenaufnahme, Verarbeitung und Visualisierung, verfügt aber nur in unzureichendem Maße auch über Werkzeuge zur Klassifikation speziell auf der Basis unscharfer Musterkennung. In diesem Beitrag soll daher eine von den Autoren erstellte Softwarebibliothek vorgestellt werden, die diese Lücke schließt. Als Anwendung wird die Entwicklung eines „intelligenten“ Ultraschallgerätes zur automatischen Oberflächendetektion mit Methoden der unscharfen Mustererkennung unter Anwendung der Entwicklungsumgebung LabVIEW 6.i näher beschrieben. Dieses System kann für die Erkennung und Therapie von Parodontalerkrankungen von großer Bedeutung sein. Immerhin stellen diese Erkrankungen bei Personen über 40 Jahre heute den Hauptgrund für Zahnverluste dar. Keywords : FUZZY-Logic, numerische Mustererkennung, LabVIEW 1 1 Einleitung Eine der zentralen Herausforderungen, die mit dem sinnvollen Einsatz von Rechnern zusammenhängt, ist das Bereitstellen von Software-Werkzeugen, die sich nicht an der zugrunde liegenden Hardware, sondern an den kognitiven Fähigkeiten des Menschen orientieren. Dazu gehört auch die Einsicht, dass das menschliche Gehirn bildhafte Darstellungen und Eindrücke leichter erfassen kann als abstrakte Beschreibungen.[3] Dies formulierte schon Ludwig Wittgenstein (*1889-†1951) wie folgt: „Es ist eine Hauptquelle unseres Unverständnisses, dass wir den Gebrauch unserer Wörter nicht übersehen und dass es unserer Grammatik an Übersichtlichkeit fehlt. Die übersichtliche Darstellung vermittelt das Verständnis, das eben darin besteht, daß wir die Zusammenhänge sehen.“ Dieses Wissen haben sich Wissenschaftler und Ingenieure zu nutze gemacht, und verwenden traditionell in der Vorphase der Realisierung von Anwendungen die ihnen vertrauten papierbasierten Visualisierungsschemata wie Ablaufdiagramme, Signalflußdiagramme und Petri-Netze. Abbildung 1: klassische Visualisierungsschemata Diese Visualisierungsschemata sind aber in der Realisierungsphase von SoftwareIngenieuren wieder in den Code einer textorientierten Programmiersprache zu übersetzten. Interessanterweise basieren aber alle ursprünglichen Beschreibungsmittel auf bildorientierten Paradigmen, da diese eine vertraute und natürliche Art der Formulierung von Gedankengängen sind. 2 2 Die LabVIEW-Entwicklungsumgebung Ausgehend von der o. g. Einsicht führte 1983 der damalige Mitarbeiter der Universität von Texas, Jeff Kodosky, mit einer kleinen Gruppe von Studenten auf der Basis einer grafischen Datenflussprogrammierung eine völlig neue Art der Mensch-Maschinen-Schnittstelle ein: die Softwareentwicklungsumgebung LabVIEW. Die LabVIEW zugrunde liegende Idee kommt aus dem Bereich der Meßtechnik und verwendet das vertraute Denkmodell der grafischen Blockschaltbilder. Mit LabVIEW wird dem Anwender aus dem Bereich der Meß-, Steuerungs- und Regelungs-Technik (MSR-Technik) ein leistungsfähiges Werkzeug in die Hand gegeben, mit dem technische und wissenschaftliche Applikationen gelöst werden können, ohne sich dabei mit Syntax und Semantik einer textorientierten Programmiersprache auseinandersetzen zu müssen. Dabei stellt LabVIEW ein völlig neuartiges Kommunikationsmittel zwischen Anwender und Maschine dar. Es verknüpft die graphische Datenflußprogrammierung mit den Elementen einer modernen graphischen Benutzeroberfläche (GUI), und integriert sie in eine einzige grafische Programmierumgebung. Die Möglichkeit, Prozesse und Algorithmen durch Diagramme darzustellen, erlaubt es dem Ingenieur und Wissenschaftler, seine Ideen in einer sehr natürlichen und intuitiven Art mit Hilfe von Datenflußdiagrammen zu programmieren. Dabei ist LabVIEW eines der leistungsfähigsten Entwicklungstools für rechnergesteuerte MSR-Anwendungen mit den Aufgaben der: • Datenerfassung, • Datenanalyse und • Datenpräsentation. Diese Formulierungen der Ideen hinter LabVIEW klingen zunächst vielleicht etwas abstrakt, doch wird ihre Bedeutung hoffentlich durch die folgenden Darstellungen klarer. Ein Lab-VIEW -Programm wird als Virtuelles Instrument (VI) bezeichnet, da sich sein Aussehen und die Funktionalität an ein reales Instrument anlehnen. In einem LabVIEW -Programm spiegelt sich die Struktur einer Hierarchie von Virtuellen Instrumenten in Form von Software-Modulen wider, deren Einzelbestandteile interaktive Benutzeroberflächen, gesteuert von Signalflußdiagrammen, den sog. Blockschaltbildern, sind. Somit besteht ein VI aus folgenden zwei Hauptbestandteilen: • Frontpanel, • Blockschaltbild. 3 Das Frontpanel ist die interaktive Benutzerschnittstelle (Mensch-MaschineInterface) des VIs. Es wird so genannt, weil es an das Aussehen eines Frontpanels eines physikalischen Messgeräts erinnert. Das Frontpanel kann grafische Steuerund Bedienelemente wie z.B. Schieberegler, Schaltflächen und viele andere Eingabeobjekte - durch welche die Benutzereingaben erfolgen - sowie Anzeigen für Ausgaben des Programms, z.B. Graphen, enthalten. Abbildung 2: a) Frontpanel, b) Bolkschaltbild [1] Das Blockdiagramm enthält die Programmierlogik, d.h. das Steuerprogramm des VIs, entworfen in der LabVIEW -eigenen grafischen Programmiersprache G. Das Blockdiagramm ist das tatsächlich ausführbare Programm, vergleichbar mit dem Quelltext einer textorientierten Programmiersprache. Die Bestandteile eines Blockdiagramms sind untergeordnete VIs, die sog. SubVIs – dargestellt durch ein graphisches Symbol bzw. den Anschlussblock. Vordefinierte Funktionen, Konstanten und Ablaufstrukturen wie z.B. Verzweigungen, Fallunterscheidungen und Schleifen sind ebenfalls graphisch programmierbar. Das Steuerprogramm entsteht durch die Verbindung von SubVIs und elementaren Operatoren. FrontpanelObjekte haben korrespondierende Anschlüsse im Blockdiagramm, so dass Daten vom Benutzer an das Programm und umgekehrt übergeben werden können. Neben dieser intuitiven Blockdiagramm-Programmierung vereinfacht die umfangreiche Ausstattung Lab-VIEWs mit Datenerfassungs- und Analyse-VIs die Entwicklung von MSR-Anwendungen ganz erheblich. Das Angebot an einer Vielzahl von Datenanalysemethoden in eigenständigen SubVI-Bibliotheken ermöglicht dem Wissenschaftler, sich auf die Lösung der eigentlichen Aufgabenstellung zu 4 konzentrieren, ohne sich - wie in den meisten textbasierten Programmiersprachen - über Implementierungsdetails den Kopf zerbrechen zu müssen. Es werden die folgenden Hauptanwendungsgebiete durch SubVI -Bibliotheken abgedeckt: analoge und digitale Datenerfassung, • digitale Signalverarbeitung, • digitale Filterung, • statistische Analyse, • Kurvenanpassung, • lineare Algebra, • numerische Analysen im Zeit und Frequenzbereich, …. Zusätzlich zu diesen mitgelieferten und sehr umfangreichen SubVI -Bibliotheken entwickelte die Abteilung für Schwingungsmechanik und Maschinendiagnostik des Instituts für Technische Mechanik eine eigene SubVI -Bibliothek zur numerischen Mustererkennung. 2.1 Unscharfes Klassifikationskonzept innerhalb der FuzzySubVI-Bibliothek Formal läßt sich die Softwareseite dieses Mustererkennungssystem in die Funktionsblöcke Signalerfassung, Merkmalserzeugung, Merkmalsextraktion und den Fuzzy-Klassifikator unterteilen. Diese vier Stufen sind alle in LabVIEW realisiert, jedoch soll im folgenden schwerpunktmäßig auf die Umsetzung des FuzzyKlassifikators in eine SubVI-Bibliothek eingegangen werden. In einer Vielzahl schwingungstechnischer Untersuchungen konnte beobachtet werden, dass die Struktur der durch die Merkmalsvektoren gebildeten Punktmengen, auch Cluster genannt, häufig konvexe, elliptische, einfachzusammenhängende Gebiete mit beliebiger Orientierung im multidimensionalen Merkmalsraum RN bilden (Abb. 3 a).[9] 5 Abbildung 3: a) Merkmalsebene mit Punktmengen (Cluster) zweier Klassen, b) Zugehörigkeitsfunktionen der beiden Cluster Diese Struktur der Punktmengen ist dabei die Basis zur Bestimmung aller freien Parameter einer sog. Zugehörigkeitsfunktion (Abb. 3b), die eben diese relevanten Eigenschaften der Cluster mathematisch beschreibt. Da bei der in Abschnitt 3 beschriebenen Aufgabenstellung mindestens zwei Oberflächen bzw. Klassen Ok (k=1, ..., K), Zahnstein O1 und Zahnwurzelsubstanz O2 , zu unterscheiden sind, werden die skalaren Zugehörigkeitswerte zu einem eindimensionalen Zugehörigkeitsarray µk zusammengefasst. Die Zuordnung der zu klassifizierenden Zahnoberfläche zu einer der Referenzoberflächen erfolgt dann ausschließlich auf Basis dieses Zugehörigkeitsarrays: Die Bestimmung der funktionalen Ähnlichkeit einer gerade abgetasteten Zahnoberfläche zu der zuvor gelernten Referenzoberflächen erfolgt in der obigen Gle ichung mittels der Festlegung eines geeigneten Distanzmaßes dk im multidimensionalen Merkmalsraum. Dies ist ein für Klassifikationsaufgaben intuitiv nahe liegender und, wie wir später noch sehen werden, mathematisch sinnvoller Ansatz. Dabei sollte das gewählte Distanzmaß verschiedene rand-ständige Stichproben innerhalb eines solchen Clusterellipsoides mit einem ähnlichen Objektabstand zum Schwerpunkt versehen. Eine richtungsabhängige Gewichtung des euklidischen Abstandes über die Streuung in der jeweiligen Raumachse ermöglicht dieses. Aus diesem Grund basiert der in LabVIEW implementierte unscharfe Klassifikationsalgorithmus im Prinzip auf einem Abstandsklassifikator, welcher auf dem von MAHALANOBIS [6] abgeleiteten Distanzmaß 6 beruht. Die Bestimmung der freien Parameter der Zugehörigkeitsfunktion als beschreibende klassenspezifische Größen beschränkt sich also auf die Berechnung der freien Parameter dieses Abstandsmaßes. Sie werden in der Lernphase mit Hilfe von Merkmalsarrays von Referenzobjekten mit bekannter Klassenzugehörigkeit ermittelt. Der zunächst augenscheinlichste Lageparameter der Klasse Ok im mehrdimensionalen Merkmalsraum ist der Schwerpunktvektor Die Struktur der Lernmenge unter Berücksichtigung der möglicherweise vorhandenen statistischen Abhängigkeiten spiegelt sich in der symmetrischen, positiv semidifiniten Stichprobenkovarianzmatrix wieder. Weiterhin ist unmittelbar einsichtig, dass der oben geprägte Begriff der Randständigkeit im allgemeinen Fall am einfachsten in einem an die Lage des Clusters angepassten Koordinatensystem definiert werden kann. Der Anschauung entsprechend, sollten die Basisvektoren dieses Koordinatensystems durch die Hauptachsen des Clusterellipsoides festgelegt werden. Die rechnerische Bestimmung der gesuchten Basisvektoren des angepassten Koordinatensystems erfolgt durch die Lösung des folgenden Eigenwertproblemes: Nach bisherigen Erfahrungen erlaubt diese Struktur eine gute Adaption der gewählten Zugehörigkeitsfunktion an die Lernmengenverteilung der im folgenden Abschnitt beschriebenen Anwendung. 7 3 Subgingivale Zahnsteinerkennung mittels Ultraschallscaler Gingivitis bzw. Parodontitis sind heute bei Erwachsenen über 40 Jahre in Deutschland der Hauptgrund für Extraktionen und stehen nach neueren Untersuchungen auch in Verbindung mit systemische Erkrankungen wie z. B. Herzinfarkt, Zuckerkrankheit und Frühgeburten. Man weiß mittlerweile, dass praktisch jede Parodontitis auf eine Besiedelung durch Bakterien zurückzuführen ist. Sie bilden auf der Zahnwurzel einen Belag, die sog. „Plaque“. Diese unterhalb des Zahnfleischsaumes (subgingival) befindliche Plaque wandelt sich, wenn sie nicht entfernt wird, in weniger als zwei Tagen in Konkremente (Abb. 4 a) um. Abbildung 4: a) extrahierter Zahn mit Konkrementen, b) geschädigten Zahnoberfläche Diese dienen den Bakterien als Nährboden für die weitere Besiedelung der Zahnfleischtaschen. Stoffwechselgifte lösen dort Entzündungen aus, die bei Nichtbehandlung zum Zahnverlust führen. Die harten, ausmineralisierten Konkremente können nur durch professionelle Reinigung in der Zahnarztpraxis entfernt werden. Dazu verwendet man heute sog. Ultraschallscaler. Diese Scaler entfernen die Konkremente mechanisch durch den Kontakt der schwingenden Arbeitsspitze mit der Zahnoberfläche. Durch die periodische Schwingbelastung des Konkrementes bzw. der Zahnoberfläche mit Frequenzen zwischen 20 und 40 kHz kommt es zu Mikrogleitungen im oberflächennahen Bereich, zu Rissbildung, Materialermü dung und letztendlich zum Bruch des Konkrementes bzw. zur Beschädigung der Zahnoberfläche (Abb.4 b). Der Abtrag der Zahnhartsubstanz führt zur Freilegung der Dentintubuli und damit zur Zahnüberempfindlichkeit. Daneben kann die fehlende optische Kontrolle in den Zahnfleischtaschen gleichzeitig zu einer Untertherapie führen, die Konkremente untherapiert zurücklässt [4]. Zur Lösung der o. g. Probleme entstand an der Abteilung für Parodontologie der Universität Greifswald und am Institut für Technische Mechanik der TU Clausthal die Idee, einen Ultraschallscaler zusätzlich mit einer automatischen Erkennung der 8 Zahnoberfläche auszustatten. Dieses „intelligente“ Ultraschallgerät kann Zahnstein schonend entfernen, da es am Schwingungsmuster der Nadel die je weils berührte Oberfläche erkennt, und somit auch in den für den Behandler nicht einsichtigen Bereichen der Zahnfleischtaschen Konkrement ohne Schädigung der Zahnoberfläche abtragen kann. 3.1 Grundprinzipien der automatischen Zahnoberflächene rkennung Das System zur automatischen Zahnoberflächenerkennung besteht hardwareseitig aus dem Ultraschallscaler, der sowohl als Actor als auch als Meßsensor verwendet wird, dem Anregungssystem und dem Datenaufzeichungs- und -analysesystem (Abb. 5). Abbildung 5: System zur automatischen Zahnoberflächenerkennung mittels Ultraschallscaler Das Anregungssystem produziert eine Rechteckimpulsfolge mit einer Amplitude von 200 V und einer Impulsdauer von 10-4 bis 10-5 Sekunden, die das Piezosystem des Scalers circa 10mal in der Sekunde zu Schwingungen anregt. Die Oberflächeantwort auf die Impulsfolgenanregung induziert eine mechanische Deformation der Piezokeramik, was wiederum zu Spannungsänderungen an den Elektroden der Keramikelemente führt. Das Gesamtsignal aus Impulsanregung und Rückwirkung wird mittels des Datenerfassungssystem gemessen [2]. 3.2 Klassifikationsergebnisse Mittels einer geeigneten Merkmalserzeugung, die durch die Transformation des Zeitsignals in den Spektralbereich erfolgt, ist eine prinzipielle Unterscheidbarkeit 9 der Zahnoberflächen möglich. Jeder der in diesem Fall 400 Magnitudenwerte (Abb. 6) kommt als mögliches Merkmal für den Klassifikationsalgorithmus in Betracht. Der hier verwendeten Merkmalsauswahl kommt die entscheidende Aufgabe zu, aus dieser Vielzahl der möglichen Merkmalskombinationen diejenigen zu ermitteln, die eine möglichst fehlerfreie Trennung der Klassen erlaubt. Nach unseren Erfahrungen sind für diesen Vorgang der Mustererkennung vor allem die in den letzten Jahren entwickelten so genannten „Wrapper-Ansätze“ [9], bei dem schon für die Gütebewertung innerhalb der Merkmalsauswahl der später zum Einsatz kommenden Klassifikator Verwendung findet, besonders geeignet. Ein großes Problem bei dieser Klassifikationsaufgabe liegt in der Variabilität des Schwingungssignales [7], das nicht nur von den Zahnoberflächen, sondern auch vom Handling des Handgerätes z.B. den Anpresskräften, dem Winkel und Umg ebungsparametern wie der Temperatur beeinflusst wird. Schwingungsmerkmale, die auf diese Größe sensitiv reagieren, dürfen im Merkmalsauswahlprozess nicht berücksichtigt werden. Da dies nicht über den gesamten Schwankungsbereich funktioniert, müssen in einem nächsten Schritt noch adaptive Verfahren der Mustererkennung und Merkmalsgewinnung implementiert werden. Das wichtigste Bewertungsmaß bei der Beurteilung der Klassifikationsergebnisse ist die Reklassierungsgüte GR, die dem Quotienten aus den korrekt klassifizierten Stichproben zur Gesamtstichprobenmenge der Referenzoberflächen entspricht. Derzeit können Reklassierungsraten bei der Unterscheidung von Zahnhartsubstanz und Konkrement von ca. 80% erreicht werden (Abb. 6, rechts), die sich etwa in gleicher Größenordnung in die für medizinische Diagnosen wichtigen Klassifikationsraten der Sensitivität und der Spezifität aufteilt. Dies ist gegenüber der Erkennungsrate erfahrener Zahnärzte von ca. 50-60% schon eine erhebliche Steigerung in der Therapie der Parodontalerkrankungen. Abbildung 6: Lernmengen (Spektren) der Klassen „Zahnhartsubstanz“ und „Konkrement“ mit zugehöriger klassifikatorbezogenen optimalen Merkmalskombination, GR ˜ 80% 10 Einen Eindruck von der derzeit verwendeten Oberfläche liefert die Abbildung 7. Dargestellt ist das Virtuelle Instrument, das von der Signalerfassung über die Merkmalserzeugung und -auswahl bis hin zum Fuzzy-Klassifikator alle notwendigen Funktionsblöcke zur automatischen Zahnoberflächendetektion beinhaltet. Abbildung 7: Frontpanel des „DentaPuls“-VIs zur automatischen Zahnoberflächendetektion 4 Zusammenfassung Die bisher geleisteten Arbeiten zur Erstellung des Softwaresystems DentaPuls erbrachten ein Virtuelles Instrument, das die gesamte Funktionalität von der Signalerfassung über die Merkmalserzeugung und -auswahl bis hin zum FuzzyKlassifikator umfasst. Es lässt sich dank sei-ner großen Variabilität mit geringen Modifikationen, z. B. bezüglich der gewählten Anregungssignale, auch auf eine Vielzahl weiterer Problemstellungen beispielsweise aus den Gebieten Qualitätskontrolle und Maschinenüberwachung [1] anwenden. Speziell für Aufgaben der Maschinenüberwachung kann mittel dieses Software-Ansatzes die Portabilität eines einmal erstellten Systems auf andere Anlagen deutlich erhöht werden. Der Ausbau dieser adaptiven Komponenten wird in Zukunft im Mittelpunkt der weiteren Entwicklungsarbeit stehen. 11 Literaturhinweis [1] Behr, D., Dobras, J., Strackeljan, J. Aktuelle Entwicklungen zum Einsatz von Softcomputing Methoden in der Maschinenüberwachung. In : Unschärfe in Wirtschaft und Technik, Proc. zum Göttinger Symposium Soft-Computing 2002. [2] Dobras, J., Strackeljan, J. Implementierung eines Mustererkennungsverfahrens mittels FuzzyMethoden in Lab-View. Eine Anwendung zur nondestruktiven subgingivalwen Zahnsteinerkennung. In : Virtuelle Instrumente in der Praxis. Hrsg. Jaschinski, H., Seiten 412-416. Hüthig Ver-lag, 2003. Jamal, R., Krauss, Ph., LabVIEW. Prentice Hall, 1998. Ferrereo, F., Strackeljan, J., Oehme, B., Unconventional feature extraction for dental surface pattern recognition. In : Un-schärfe in Wirtschaft und Technik, Proc. zum Göttinger Symposium Soft-Computing 2002 Kocher, Th., Rühling, A., Momsen, H., Plagmann, H. C. Effectiveness of subgingival instrumentation with power-driven instruments in the hands of experienced and inexperienced operators. TA study on manikins. J Clin Peridont 24, 498 – 504, 1997. [3] [4] [5] [6] Mahalanobis, P. C. On the generalized distance in statistics. Poc. Indian Nat. Inst. Sci. Calcutta, 1936, S. 49-55. [7] Mitzschke, D., Strackeljan J, Ferrero, F., Oehme B.: User dependent adaptibility for Implementation of an intelligent dental device. Proc. 2. EUNITE Conference, Sept. 2002. [8] Strackeljan, J., Kocher, Th., Behr, D. Feasibility of computer assited recognition of different dental hard tissues. Journal of Dental Research, Vol. 79, No 3, 829-834, 2000. [9] Strackeljan, J.: Einsatzmöglichkeiten von Softcomputing- Methoden zur Auslegung, Optimierung und Überwachung von Rotorsystemen. Habilitationsschrift, 2002. 12 NetLiN – Eine effektive und effiziente Methode zur Einschränkung des Spread of Fuzziness Werner Brockmann Universität zu Lübeck Institut für Technische Informatik Ratzeburger Allee 160 23538 Lübeck Tel.: 0451 / 500-3691, Fax: -3687 Mail: [email protected] Kurzfassung 1 Einleitung Fuzzy Systeme sind zwar universelle Funktionsapproximatoren, wie u.a. [Buc932] und [Wan94] gezeigt haben. Allerdings wächst wegen der Partitionierung des Eingangsraums die Regelanzahl exponentiell mit der Anzahl der Eingangsvariablen an. Dieser als Curse-of-Dimensionality bezeichnet Effekt hat mehrere Konsequenzen. Zum einen wird entsprechend viel Speicher- und Rechenaufwand erforderlich. Zum anderen wird die Handhabbarkeit großer Fuzzy Systeme deutlich erschwert. Dieser Knowledge-Engineering-Bottleneck wird i.allg. an der schieren Anzahl von Regeln festgemacht. Doch ist es sinnvoller, zur Beurteilungder Handhabbarkeit eines Fuzzy Systems die Anzahl interagierender Regeln heranzuziehen[BrH99]. Das sind die Regeln, die für eine gegebene Kombination von Eingangssignalen(Eingangssituation) gleichzeitig (mehr oder weniger stark) feuern. Die Gründe dafür sind, dass einerseits die Erstellung einer ersten Regelbasis relativ grob ist und auch relativ schnell erfolgt. Kritischer für den Entwurf eines Fuzzy Systems ist andererseits das Feintuning. Das gilt gerade für Kontrollanwendungen, bei denen möglichst der ganze Eingangsraum mitsinnvoll zusammenspielenden Regeln abgedeckt sein muss. Für große Fuzzy Systeme heißt das, die große Anzahl von Regeln kann durch eine entsprechend verlängerte Entwicklungsphase kompensiert werden. Dahingegen stellt die 13 Anzahl interagierender Regeln eine harte Grenze dar, weil die Komplexität, die ein Mensch zielgerichtet, d.h. ohne blind zu probieren, beherrschen kann, ganz natürlich durch seine kognitiven Fähigkeiten begrenzt ist. Entsprechende Unters uchungen (z.B. bereits [Mil56]) haben gezeigt, dass die Anzahl der Einträge, die ein Mensch in seinem Arbeitsspeicher gleichzeitig verarbeiten kann, auf 7 bis 8 Einträge begrenzt ist. Folglich stößt ein Fuzzy System bereits bei 3 Eingangsvariabeln (mit z.B. dreieckigen Zugehörigkeitsfunktionen) an Grenzen, weil für die meisten Kombinationen von Eingangssignalen zwei (oder je nach MSF auch mehr) Fuzzy Mengen je Eingangsvariable aktiviert werden und dadurch acht Regeln feuern. Bedenkt man, dass neben den Konklusionen der Regeln auch deren Aktivierungsgrade berücksichtigt werden müssten, ist die Handhabbarkeitsgrenze bereits bei 3 Eingangsvariablen überschritten. Üblicherweise werden große Fuzzy Systeme dekomponiert. Dadurch entsteht eine mehrstufige Struktur von Fuzzy Subsystemen, die intern Fuzzy Mengen austauschen. Die Dimensionalität der Subsysteme ist deutlich kleiner als die eines einzigen, monolithischen Fuzzy Systems, wodurch die Summe aller Regeln i.d.R. deutlich reduziert wird. Weil aber eine einzige ausgegebene Fuzzy Menge in den nachfolgenden Subsystemen auch Kompatibilitäten größer 0 zu benachbarten Fuzzy Mengen der Eingangsvariablen aufweist, werden mehrere Regeln aktiviert. Dieser Spread-of-Fuzziness (z.B. [MYN95]) genannte Effekt bewirkt eine lawinenartige Regelaktivierung von Stufe zu Stufe. Dadurch steigt dieAnzahl der aktivierten und damit interagierenden Regeln sehr stark an und beschränkt so nicht nur die Handhabbarkeit stärker als erwartet. Es werden außerdem auch mehr Regeln aktiviert als auf der semantischen Ebene spezifiziert. Das Verhalten des Gesamtsystems entspricht dadurch nicht mehr dem, was der Experte in den Regelbasen spezifiziert hat, und damit nichtmehr seiner Intuition, wie das kleine Beispiel unten zeigt.Die Ansätze, um den Spread-of-Fuzziness zu beherrschen, lassen sich unterscheiden in: ? spezielle Inferenzmethoden, z.B. [DrH95,MiZ82,MYN95] ? Einschränkung [Kav93,KaW95] ? Propagierung numerischer [HuB97,HuB98] der Netzwerkstruktur, z.B. Zwischenvariablen, ASMOD-Ansatz z.B. NetFAN Durch spezielle Inferenzmethoden sollen die Überlappungen eingeschränkt werden. Dadurchwird die Verarbeitung, das Verständnis und die Implementierung dekomponierter FuzzySysteme unnötig erschwert. Die Einschränkung der Netzwerkstruktur behindert die Anpassung an eine spezifische Anwendung und schränkt dadurch ebenfalls die Handhabbarkeit ein. Die genannten Nachteile hat der NetFAN-Ansatz zwar nicht. Er impliziert aber ein anderes Wissensmodell, als 14 es der Fuzzy Verarbeitung normalerweise zugrunde liegt. Außerdem ist in jedem Subsystem eine Fuzzifizierung und Defuzzifizierung von Zwischenvariablen nötig, wodurch der Rechenaufwand steigt. Er ist zwar immer noch kleiner als für ein großes, monolithisches Fuzzy System, kann aber wie der NetLiN-Ansatz zeigt, weiter reduziert werden. 2 Der NetLiN-Ansatz Der NetLiN-Ansatz (Network of Linguistic Nodes) verfolgt mehrere Ziele gleichzeitig: ? gute Beherrschbarkeit komplexer Fuzzy Systeme durch o Reduktion des Curse-of-Dimensionality o Reduktion des Knowledge-Engineering-Bottlenecks o Vermeidung des Spread-of-Fuzziness ? keine strukturellen ? Einschränkungen ? Verarbeitung möglichst nahe am Fuzzy Vorbild ? keine „kontra-intuitiven“ Ausgaben ? einfach zu verstehen und anzuwenden ? einfache und schnelle Implementierung Die Kernidee des NetLiN-Ansatzes ist die Vermeidung der Ausbreitung der Unschärfe dadurch, dass als interne Variablen keine Fuzzy Variablen, sondern linguistische Variablen benutzt werden. D.h., auf beiden Seiten einer Zwischenvariablen, also ausgangs- wie eingangsseitig, wird die gleiche Menge linguistischer Terme verwendet und nur der Erfülltheitsgrad der einzelnen linguistischen Terme propagiert. Dadurch treten nicht nur keine Überlappungen mehr auf. Es entfällt auch die Fuzzifizierung in nachfolgenden Subsystemen. Folglich ist eine Fuzzifizierung nur an den Eingängen des Gesamtsystems erforderlich, und eine Defuzzifizierung nur an den Ausgängen des Gesamtsystems. Bei der Spezifikation, insbesondere dem Feintuning, der Regelbasen müssen die Erfülltheitsgrade der Regeln nicht so unmittelbar berücksichtigt werden wie bei der klassischen Dekomposition von Fuzzy Systemen. Dadurch bekommen die Regeln eher einen etwas symbolischeren Charakter. Das ist der Handhabbarkeit sehr dienlich, weil sie quasi auf einer abstrakteren Ebene erfolgt. Ansonsten können die Regeln genauso wie bei der klassischen Dekomposition spezifiziert werden. 15 3 Einfaches Beispiel Zur Veranschaulichung des Spread-of-Fuzziness und des NetLiN-Ansatzes soll als einfaches Beispiel die nichtlineare, zweidimensionale Funktion (1), Abbildung 1, approximiert werden. OUT = 0.5sin(? IN_1)+0.5cos(? IN_2) mit (IN_1, IN_2) ? ?[-1,1] X[-1,1] (1) Abbildung 1: Zu approximierende Funktion Durch ein einfaches Fuzzy System mit 4 bzw. 3 Fuzzy Eingangsmengen, wie es in Abbildung 2 dargestellt ist, ergibt sich bei max-prod-Inferenz und ScherpunktDefuzzifizierung das in Abbildung 3 dargestellte Approximationsergebnis. 16 Abbildung 2: Schematische Darstellung des Fuzzy Systems Abbildung 3: Approximationsergebnis Nutzt man die Symmetrien der Testfunktion gezielt aus, lässt sich ein Struktur für ein dekomponiertes Fuzzy System wie in Abbildung 4 finden. Es enthält je Ein17 gangsvariable ein Subsystem, das die Anzahl der Fuzzy Mengen reduziert. Ein nachgeschaltetes Subsystem fasst die Ausgänge beider Subsysteme zusammen und generiert das Ausgangssignal. Abbildung 4:Dekomponiertes Fuzzy System Abbildung 5: Approximationsergebnis 18 Das Approximationsergebnis (Abbildung 5) des dekomponierten Fuzzy Systems in Abbildung 4 weicht deutlich von dem des einstufigen Fuzzy Systems (Abbildung 3) ab, obwohl der semantische (logische) Inhalt der Regelbasen in beiden Fälle äquivalent ist, wie man leicht zeigen kann. Die Ursache für die Unterschiede ist der Spread-of-Fuzziness, der zu einer Verflachung der Abbildung führt. Um dies zu veranschaulichen, sei in Abbildung 4 eine günstige, konkrete Eingangssituation mit IN_1 = -1 und IN_2 = 0 angenommen, wodurch von jedem Subsystem am Eingang nur eine Fuzzy Menge zur zweiten Stufe propagiert wird. Eigentlich sollte dort dann auch nur eine Regel feuern. Weil aber auch die benachbarten Fuzzy Eingangsmenge Kompatibilitäten größer als 0 aufweisen, feuern alle Regeln mehr oder weniger stark, wie die Höhe der Grauschattierung in Abbildung 4 zeigt. Die dadurch generierte unscharfe Ausgangsmenge liefert bei SchwerpunktDefuzzifizierung einen Ausgabewert von 0,16, anstatt 0,5. Das Ergebnis entspricht damit nicht der Intuition, die der Experte in den Verknüpfungen in den Regelbasen spezifiziert hat, ist also „kontra-intuitiv“. Abbildung 6: Dekomposition nach dem NetLiN-Ansatz 19 Abbildung 7: Approximationsergebnis Erfolgt die Dekomposition nach dem NetLiN-Ansatz, wird in den Subsystemen an den Eingängen nur ein linguistischer Term aktiviert und im oben genannten Beispiel nur für diesen eine Erfülltheit größer als 0 propagiert (s. Abbildung 6). Folglich feuert in der zweiten Stufe genau eine Regel, und zwar die, die der Experte auch für die gegebene Eingangssituation vorgesehen hatte. Gleiches gilt für den gesamten Eingangsraum, wodurch sich exakt das gleiche Approximationsergebnis ergibt wie im einstufigen, nicht-dekomponierten Fall (Abbildung 7). 4 Zusammenfassung Mit Hilfe des NetLiN-Ansatzes wird in dekomponierten Fuzzy Systemen der Spread-of-Fuzziness vermieden. Durch ihn erfolgt zwar intern eine Verknüpfung der Regelbasen der Subsysteme auf einer logischen Ebene, aber mit fließenden Übergängen durch die Fuzzifizierung an den Eingängen des Gesamtsystems und durch die Propagierung der Erfülltheitsgrade linguistischer Terme. Das hat mehrere Vorteile. Zum einen wird die Handhabbarkeit erhöht, ohne die Ausdrucksmö glichkeiten einzuschränken. Zum anderen ist ie Berechnung in den Subsystemen vergleichsweise einfach und nur an den Eingängen des Ge samtsystems eine Fuzzifizierung und an dessen Ausgängen eine Defuzzifizierung nötig. Dadurch ist nicht nur die Handhabung recht einfach, sondern auch die Implementierung und der Rechenaufwand für ein NetLiN-System sehr gering. Außerdem erfolgt die Wissensverarbeitung sehr nahe am Archetyp der Fuzzy Verarbeitung. 20 Literatur [BrH99] W. Brockmann, O. Huwendiek: Rating the Handiness of Rule -Based Function Approximators. Proc. IASTED Int. Conf. On Artificial Intelligence and SoftComputing - ASC, 113-118, Honolulu, USA1999 [Buc92] J.J. Buckley: Universal Fuzzy Controllers. Automatica 28 (1992), 12451248 [DrH95] D. Driankov, H. Hellendoorn: Chaining of Fuzzy if-then Rules in Mamdani-Controllers. 4. IEEE Int.Conf. On Fuzzy Systems, 1995, 103108 [HuB97] O. Huwendiek, W. Brockmann:: On the Applicability of the NetFANApproach to Function Approximation. Proc. of the 6th IEEE Int. Conf. on Fuzzy Systems, 1997, 477-482 [HuB98] O. Huwendiek, W. Brockmann: Multi-staged Neuro Fuzzy Control of a Pneumatically Actuated Robot Arm. Proc. 4th Joint Conf. on Information Sciences - JCIS, 1998, 68-72 [Kav93] T. Kavli: ASMOD – An Algorithm for Adaptive Modelling of Observation Data. Int. Journal of Control, Vol. 58(4), 1993, 947-967 [KaW95] T. Kavli, E. Weyer: On ASMOD – An Algorithm for Empirical Modelling Using Spline Functions. In: K.J. Hunt, G.R. Irwin, K. Warwick (eds.): Advances in Neural Networks for Control Systems. Springer Series on Advances in Industrial Control, Springer, 1995 [Mil56] G.A. Miller: The magical number seven plus or minus two: Some limits on your capacity for processing information. Psychological Review 63, 1956, 81-96 [MiZ82] M. Mizumoto, H.J. Zimmermann: Comparison of Fuzzy Reasoning Methods. Fuzzy Sets and Systems, Vol. 8, 1982, 253-283 [MYN95] H. Meada, H. Yonekura, Y. Nobusada, S. Murakami: A Study on the Spread of Fuzziness in Multifold Multi-stage Approximate Reasoning. 4. IEEE Int. Conf. on Fuzzy Systems, 1995, 1455-1460 [RZK91] G.V.S. Raju, J. Zhou, R.A. Kisner: Hierarchical Fuzzy Control. Int. Jorunal of Control, Vol. 54(5), 1991, 1201-1216 [Wan94] L.-X. Wang: Adaptive Fuzzy Systems and Control – Design and Stability Analysis. Prentice Hall, Englewood Cliffs, NJ, 1994 21 Application Service Providing for Data Mining Applications Tanja Falkowski Otto-von-Guericke University Magdeburg, Faculty of Computer Science Department of Technical and Business Information Systems PO Box 4120, 39016 Magdeburg, Germany Phone: +49.391.67.18173, Fax: +49.391.67.18110 E-Mail: [email protected] Abstract In the late 1990s, the development of the application service providing business model was a prominent trend in the software industry. Application service providers (ASPs)1 offer their customers access to software applications via a network instead of installing them on the organization's in-house computer system. ASPs host and manage applications from a central location and charge a – usually monthly – fee for their services. Despite the obvious benefits this model may produce for ASP customers, there are nevertheless currently serious reservations and myths about what ASP can mean for companies and whether it can be applied in the context of data mining to support the decision making process for businesses. In this paper we discuss the fundamentals and possible benefits of application service providing. Furthermore, we investigate the impact of the ASP business model on data mining applications and provide a survey of ASP issues regarding data mining methods. 1 We shall use the acronym ASP for both the task of application service providing as well as the application service provider, i.e., the company. 23 Keywords : Application Service Providing, Data Mining, Outsourcing, Customer Intelligence 1 Introduction Companies are looking for means to maintain (or achieve) their competitive advantage in order to succeed in business. Since the competitive pressure was getting stronger over the last years, organizations realized that data is the raw material that needs to be ‘mined’ to allow them to gain inside and to obtain the information required to maintain their competitiveness. Even though humans have been seeking for patterns in data for a long time, data mining is a business technology trend that evolved with the increasing opportunities such as the growth of databases, the development of affordable powerful machines for searching and the availability of refined methods to mine the data. Patterns such as linear equations, rules, clusters, graphs, trees etc. are structures or relationships derived through a data mining process. These extracted hitherto unknown relationships may contain useful information for the organization. Information technology and its facets are vital components and important enablers for data mining. The abundance of data and the savings that arise due to sophisticated analysis of these data are factors that have initiated the current interest in data mining technologies (see, e.g. [11]). Data mining allows – neglecting the necessary data pre-processing which very often can be a tedious time consuming task – an automated analysis of data bases. Various data mining methods have been developed and applied in several business fields such as customer relationship management or marketing (customer segmentation, cross-selling optimization, direct marketing, market basket analysis) (see, e.g. [2]), product line analysis, competitive analysis, credit assessment, fraud detection and Web usage analysis (see, e.g. [23]) 2 . 2 For further reading on the several aspects of data mining see, e.g. [1, 1, 1, 1, 1]. 24 The first step in a data mining process is to define a business goal and to turn it into one or more of the following data mining tasks and the respective techniques to solve these tasks (see [2]): ? Classification – using decision trees or memory-based reasoning e.g. to assign keywords to articles or to classify credit card applicants, etc. ? Estimation – using e.g. (artificial) neural networks to estimate the number of children in a family or the lifetime value of a customer, etc. ? Prediction – using e.g. market basket analysis or decision trees to predict which telephone subscriber will order a value-added service, etc. ? Affinity grouping – using market basket analysis to generate association rules in order to determine what products go together in a shopping cart or to identify cross-selling opportunities, etc. ? Clustering – e.g. dividing the customer base into clusters with similar buying habits as a first step for market segmentation, etc. ? Description – useful for large or complicated databases as a start to look for explanations. Since data mining encompasses a wide variety of methods that have to be applied – e.g. data management, data pre-processing and cleansing, different methods to mine data (statistics, machine learning approaches, softcomputing techniques) – organization often do not have the in-house expertise to cover all these fields. Furthermore, as respective data mining applications are usually very complex, the deployment of sophisticated data mining tools is connected with high – for many companies even prohibitive high – investments. Today, several ASPs are offering data mining software or packages with varying tools. Companies have to decide which features are most important to their business and then choose systems that support their needs. However, many companies need to modify these packages to fulfill their special requirements. In the following we will present the ideas on which the ASP business model is based. Furthermore, we elaborate on some of the benefits as well as current deficiencies of the ASP model. 2 The ASP Business Model The remote delivery of software applications was applied firstly in the 1960s. Several businesses shared mainframe computer resources by remotely accessing their services on an as -needed basis. In the 1980s, the development of networked desktop computing placed software applications on the personal computer and 25 upgrading and maintaining software grew to costly tasks. As client/server computing spread during the 1990s these tasks were shifted to a more centralized place at the server level. However, usually only the data was shared on a central server. The software was still installed on every machine in the network due to mis sing/inappropriate software distribution methods. The pervasiveness of the Internet in combination with cheaper bandwidth in the late 1990s has reasserted the idea of network-based computing in which the information is mostly processed and stored in central locations on a network. Users can access the network from an ordinary PC or from a simple terminal ("thin-client"), which is equipped only with basic desktop software applications and a Web browser. ASPs made use of this development and the first ASPs entered the market in the late 1990s. 2.1 Fundamentals of ASP The term ASP has been defined by several organizations from different points of views. The ASP Industry Consortium (ASPIC) and the Information Technology Association of America (ITAA) built a relationship to support the ASP industry. They agreed to the following definition: "An Application Service Provider, or ASP, is any company that delivers and manages applications and computer services to subscribers/clients remotely via the Internet or a private network." All definitions emphasize that an ASP delivers and centrally manages applications to clients via a network. The client accesses remote, centralized computer servers hosting the application via a regular Internet connection, a virtual private network, and/or dedicated lines (T1, T3). The type of service is consent in a rental agreement, even if it is not specified in full details. It allows the user to rent a software component or a suite of applications from a range of vendors from a Web site rather than buying and maintaining it in-house. The customer pays, e.g., a monthly fee for the software use, hosting, and management services provided by the ASP. Furthermore, ASPs usually charge a one-time set-up or installation fee. The emphasis is on the use, not the ownership of the application, even if some customers buy the software to be able to use it after the contract period ends. In theory, a broad range of applications might be available through the ASP model. Sometimes ASPs are called "Enterprise ASPs", "Collaborative ASPs", or "Personal ASPs" according to the application they offer. Enterprise ASPs provide, e.g., customer relationship management (CRM) software or supply chain management (SCM) applications, Collaborative ASPs provide, e.g., groupware or conferencing applications, and personal ASPs provide, e.g., productivity tolls such as office suites. These applications might be Web-native or Web-enabled and some ASPs provide client/server applications. Several ASPs focus on a horizontal market, i.e., they specialize in one type of application and provide this for a broad 26 range of industries or they focus on a vertical market which means that they offer a broad range of applications to a specific industry. ASPs deliver transparent software services including the deployment, integration, access, training, management, and support of applications at guaranteed service levels. From a customer's perspective, whether provisioned by the ASP alone or in conjunction with partners, the customer purchases a single service from a single point of contact: the ASP. Behind the scenes, however, a complex ASP supply chain exists to deliver a variety of competencies in different areas such as services, networking, and applications. We can distinguish between service firms (system integration and consulting), network providers (providing network infrastructure, network and system management, deploying and managing data centers), and application vendors [8]. 2.2 ASP Benefits Usually, ASPs are seen as faster, more cost-effective, and reliable than in-house resources. Especially specialized and experienced ASPs are able to meet these expectations. They developed rapid-deployment strategies that shortened the implementation time and – due to leveraging economies of scale – ASPs can reduce costs, especially labor costs, for implementation and maintenance. Furthermore, to ensure good references, ASPs are usually anxious to deliver their best-effort services to meet their customers’ expectations and the binding agreement for service delivery (service level agreements, SLA). Companies of all sizes may benefit from this business model since they share the need to manage the cost and quality of computing resources across their organizations. However, in the beginning ASPs focused on small and medium-sized enterprises (SME) as one supposed that ASPs would enable especially SMEs to use business software that they otherwise would not be able to afford. But, according to a study conducted by PMP Research in 2001 on behalf of the ASPIC, larger businesses are – contrary to the common perception – more like ly to buy ASP services than smaller businesses. Over 40% of the 3,000 interviewed companies recorded as ASP users have turnovers in excess of US$100 million and 44% employ more than 500 people [18]. The reasons for this trend are diverse and depend on the particular organization. In general, most of the large companies already have outsourcing contracts and are, therefore, more familiar with the idea of outsourcing than smaller companies [4, 17]. In the following, we present some possible benefits companies may have turning over from an in-house application deployment to ASPs [3, 5, 25]. Rapid Deployment. Since the company benefits from ASP implementation expertise and the deep understanding of the applications, the implementation time for 27 new applications and upgrades can be reduced, and thus a faster time to market can be realized. This expectation is – in particular for the SME and start-ups – still one of the main driving-forces for the acceptance of the ASP model. However, as rapid implementation technologies rely heavily on the fact that the solutions are pre-configured, sometimes companies have to forgo much of the customization that would otherwise tailor the application to their needs. Lower Cost of Entry for Applications. Cost savings were the primary reason for companies to outsource applications or business processes in the early 1990's. In light of the economic slowdown that has occurred in the high tech sector over the past twelve months, cost reduction has once again become a primary business benefit that ASPs offer. Mandating ASPs, companies may reduce overall cost of application lifecycle considerably.3 Particularly labor costs – which usually are the largest IT costs – can be reduced, since installation and ongoing maintenance of applications are performed by ASPs. The Gartner Group has estimated that as a result of these reduced costs, the total cost of ownership (TCO) for enterprise applications can be as little as 70% to 50% of a non-ASP purchase cost [19]. Datamonitor is less optimistic and estimates that over a five-year period, the TCO (including maintenance and upgrades) is between 10% and 40% lower than for a purchased application [27]. The business value ASP provides will vary according to the market segment and the functional needs. Raise Return on Investment (ROI). ROI is the most common used metric by which organizations assess investment opportunities. IDC fielded a study to measure the ROI realized by organizations that have successfully implemented and utilized ASP-delivered application services. They conducted 54 in -person interviews during summer 2001 with information systems managers, business managers, department managers, and system users spanning a range of industries (e.g., chemical manufacturer, hardware manufacturer, Internet start-up). IDC revealed that ASP implementations yielded an average five-year ROI of 404% and almost 3 For instance, Myfujifilm.com, part of Fuji Photo Film, has derived a great deal of value from using an ASP. It needed an application to deliver integrated graphics so that customers could trim their digital pictures over the Internet. Building and maintaining an application from scratch would have cost at least US$2 million a year. Instead, Myfujifilm opted for an ASP, leasing the service at a fraction of the cost [1]. 28 half of the companies had payback within six month. 56% of the organizations included in the study experienced an ROI greater than 100%, while 12% reported ROI returns of more than 1,000%. The average payback for an ASP-outsourced solution was 1.33 years on an average total investment of $4.2 million. The average initial investment was around $400,000. Truly powerful solutions not only achieve payback quickly, but also establish solid competitive advantages in their respective markets [20]. Primary Business Focus. As competitive pressures are increasing, businesses focus on their core competencies. In most enterprises, IT enables critical business activities, but is not a core function itself. The ASP model allows a business to focus time and resources on its core competencies and to offload functions that are difficult to manage. IT administrators might shift their free internal resources from maintenance and support roles to more strategic functions to focus on core business issues and thus improve the efficiency of internal IT staff. 4 Affordable Access to High-end Applications and Technology. Companies might be able to access the latest business applications and the ASP's IT expertise to level the competitive playing field. Even though the technology change can be very rapid, the ASP model may allow businesses to gain a much higher technology level without the need of high investments. The ITAA interviewed 118 current ASP customers and 532 non-ASP customers that plan to adopt an ASP offering [13]. Companies that are currently not using an ASP and planned to adopt an ASP offering in the future consider, besides the access to high-end applications (62%), the reduced initial capital outlay (62%), and lower IT costs over time to be the main benefits. Companies currently using an ASP also name the access to high-end applications as the main benefit. However, only about 51.7% determine reduced initial capital outlay and lower IT costs over time as benefits. This may lead to the question, whether the assumptions about cost-savings are too optimistic and ASP users already noticed that the cost benefits are not that high or maybe even less important than benefits such as cost predictability, access to high-end applications, and reduced implementation times. 4 Examples in this respect are widespread. Early ideas in this spirit include the joint operation of a computing center (as, e.g., performed by IBM, Continental, and Gesis in Lower Saxony, Germany, for more than a decade). In this respect even universities become customers of ASP as intended, e.g., by the recent SAP Education Alliance for Universities. 29 Predictable Costs. Since organizations pay only a predetermined monthly fee instead of huge upfront expenditures, they are able to predict IT support costs more accurately and can furthermore increase the predictability of cash flows. According to InformationWeek research, more than 90% of all respondents mentioned that the cost predictability was one reason for the company to rent the application from a third-party provider. Furthermore, the reduced implementation time was named by 80% of the respondents. However, only about 55% stated that renting or leasing is more cost-effective than buying [26]. 3 Impact of ASPs in Data Mining: Successfully Realized Business Model s In this section we briefly discuss some successfully realized business concept for typical data mining applications for business purposes in the field of marketing and customer relationship management in particular how to anticipate customer behavior, to increase marketing efficiency, and to enhance competitive advantage. 3.1 Anticipate Customer Behavior Predictions about customer behavior such as which customers are most likely to opt into a loyalty programme or which customers are most likely to switch to another provider are very important indicators for the decision making process in several field. Revenue Science (formerly DigiMine) a Seattle, Washington, based company offers eBusiness organizations data-driven, on-demand services to increase or ideally maximize the organization’s revenue (from online and offline transactions) by predicting customer’s behavior, scoring customer potential and triggering customer responses. The high volume of traffic on the Internet provides vast amounts of customer data that can be used to understand preferences and buying behavior. The company combines in its service model several technologies in predictive analytics, data mining, and contextualization with expertise in merchandising, media, financial services, and other industries. Revenue Science delivers so-called Switched-On Services in an outsourced business model. Pricing is primarily on a subscription basis. Nordstrom.com was looking for better methods to increase the sales revenue and developed the ‘Related Items’ feature a product listing, which recommended additional items to visitors (for more information on recommendation systems see, e.g. [14, 22]). Even though the Related Items were popular with their customers, this was a inefficient manually driven process that occurred at only a fraction of its real potential. Nordstrom.com lacked the in-house expertise to automate and fully capture this oppor30 tunity and was unwilling to make significant investments in hardware, software, and system maintenance. Revenue Science provided Nordstrom.com with an automated, integrated method of contextually engaging and selling to their online customers. Nordstrom.com reported a revenue increase by 41% in Related Items sales and units sold through Related Items increased by 54%. The total cost of ownership (TCO) through the ASP model is roughly one third of the cost of building and managing an in-house system. Since many companies such as Nordstrom.com are reluctant to make high upfront investments, ASPs may be a viable alternative for this companies, since they offer specialized applications for a predictive monthly fee without the need for significant investments. 3.2 Customer Intelligence Measuring marketing effectiveness enables organizations to identify the most valuable or vulnerable customer groups and then target marketing campaigns directly to those groups to increase sales that drive revenue or retain customers. Established in 1998, LeadMaster is a privately held company based in Roswell, GA. LeadMaster delivers a web-based sales and marketing system for distribution, tracking and data mining of sales leads. Leads can be tracked in real time throughout the sales cycle, from demand generation to lead closure. The web-based application can be accessed by all participants across the enterprise including the sales and marketing team, such as predefined channel partners, sales representatives and field sales management. The sales process becomes more transparent and comp anies are able to determine which campaigns are generating the mo st qualified leads and closed sales to point out the most profitable programs. The product is delivered via the Internet through the ASP model which allows for a very short implementation time. As a niche industry ASP LeadMaster is able to meet the operational needs of companies across different industries and business functions. Interelate, founded in 1999, provides so-called relationship marketing solutions for customers in different industries such as retail, telecommunications, financial services, pharmaceutical or automotive. Interelate’s offers several marketing solutions such as marketing analytics. This tool performs customer segmentation (behavioral, demographic, attitudinal), build customer profiles (predictive modeling, life span, growability indexing) and calculates the customer value (average order, 80/20 split, lifetime value, high profitability). Furthermore, the company offers several other solutions in the marketing field. 31 Nissan observed, that even though many people shopping for cars would visit the Nissan Web site, the company found no way to funnel their leads to the nearest dealer in time to capture the sale. Interelate built a model for corporate-dealer lead generation and follow-up. Now, every customers gets at some point, e.g., when he/she clicks on an special offer to learn more, an I.D. and will be tracked from that point with click-stream analysis. The Web site offers the prospect customer to customize an ideal vehicle and submits the lead, indicating relatively serious interest. Interelate’s personalization engine uses analytics keyed to model type and assigns a score to flag hot prospects and submits the lead to the nearest Nissan dealer for follow-up. Within 24 hours, the prospect gets an e-mail survey, asking whether a dealer has made contact, and how satisfied he or she was with that contact. Dissatisfied prospects are referred to Nissan Consumer Affairs, which sends a campaign piece designed just for lead recovery. All e-mail is handled automatically and using a Web-based interface with Interelate, Nissan can go in and change campaign parameters or message content at any time. After eight months, the new process at Nissan was generating nearly 300 leads a day for dealers across the country and the conversion rates (from interest to purchase) are between 13% and 17%. Interelate’s strategy is to pre-build analytics solution for specific business issues in specific industries. The customer data is then moved into this analytics engine, rather than trying to build the solution on each client location from scratch. Therefore, Web-enabled data mining applications provided by an ASP focusing on a specific industry might be a solution for many companies searching for appropriate and affordable solutions. 4 ASP Issues Regarding Data Mining The stated concerns about the ASP model vary only slightly depending on the type of customer and the type of application. First of all, customers worried mainly about security and availability of the application and data. Meanwhile, concerns about the long-term viability of the ASP, possible integration problems, and customization issues become important, too. Furthermore, customers take the possible loss of control and the fact that they are bound by a contract into consideration when evaluating the ASP model as an alternative to an in-house operation. Data Mining as a service model introduces several challenges which are e.g. the additional overhead of remote data access, building an infrastructure to guarantee data privacy, and the design of an user interface for such a service. However, the concerns regarding ASP are frequently not data mining specific but apply for different types of applications. Therefore, we discuss some of the most commonly investigated ASP issues. 32 4.1 Data Security Security and privacy of sensitive corporate data is an obvious concern when applications are hosted remotely at a provider’s data center and accessed over the Internet. Especially virus and distributed denial of service (DDoS) attacks are examples of potential security problems.5 The Computer Security Institute (CSI) study “2003 Computer Crime and Security Survey” [21] revealed that 251 organizations that were able to quantify their losses reported a total of almost $203 million. This is down significantly from 503 respondents reporting $456 million last year.6 However, despite the drop in financial losses, the overall number of significant incidents remained roughly the same as last year and the threat from computer crime and other information security breaches continues unabated. Other 33% Network Security 26% Solution Scalability 3% Network Capacity 4% Reliability/ Availability 23% High Costs 11% Figure 1. Concerns about Outsourcing Applications (Source: Datamonitor [27]) 5 According to the Yankee Group, in 2000 the cumulative revenue loss because of DDoS attacks on Yahoo, eBay, Amazon.com, and other Web sites was US$1.2 billion. 6 75% of organizations acknowledged financial loss, though only 47% could quantify them. 33 Due to these issues, many companies hesitate to adopt the ASP model for applications that are mission-critical for their daily business operations.7 Security risks are cited as the main reason for companies not to switch to the ASP model (see also Figure 1). Leading ASPs use a number of security measures such as system, physical, and network security measures to address these concerns and to safeguard their customer’s data. However, procedures such as data encryption entail costly – sometimes even critical – performance issues that have to be considered.8 On the other hand it is questionable if the customer demands on data security to an ASP are really as high as they are within their own companies. Many companies do not look after security within their enterprise as good as they expect the ASP to do. Due to possibility to leverage its economies of scale and scope, an ASP may be able to build a more sophisticated security architecture compared to those of its customers. At least smaller companies usually do not have as many security standards for their in-house data and communication as hosting providers do [5]. Many companies do not realize that not only hackers or unauthorized users are potential risks, but also careless or inappropriate use of information within the enterprise. Companies usually have policies and procedures but if employees do not obey them, security issues emerge and data security cannot be guaranteed [24]. ASPs try to enhance access control by performing personnel screenings, installing biometric access systems and video surveillance systems, etc. For further information on data privacy and the subsequent critical performance issue see [9]. ASPs need to establish their own security architecture dependent on several factors such as target group, experience and knowledge, and how much security they will offer their customers. 4.2 Application Availability and Performance As shown in Figure 1, service reliability is an important criterion in selecting an ASP. Reliability encompasses availability (uptime) and performance (speed), both of which should be spelled out in a service level agreement between the ASP and 7 According to an ITAA survey 39.7% of all non-ASP users who will not consider using an ASP say one drawback of using an ASP is the security issue [1]. 8 For further information on data privacy and the subsequent critical performance issue see [1]. 34 the customer (see also references on SLA [1, 6, 12]). However, in the mid-market the network is often the limiting factor as bandwidth outside of the LAN is very costly. ASPs are forced to use computing architectures such as Web-based applications, thin-client server, and Java-based applications that require less bandwidth than, e.g., conventional client/server applications. The above mentioned ITAA survey revealed that 15.1% of non-ASP users who would not consider using an ASP say that one drawback of using an ASP is the "Performance/Uptime" issue. ASPs address this issue by, e.g., deploying load balancing systems and dynamic failover solutions and by constantly monitoring their infrastructure, applications, and databases. However, ASPs are not able to influence the reliability and performance of the customer's ISP, they can try to reduce the bandwidth needed to minimize the risk of performance bottlenecks. 4.3 Application Integration To carry out effective data mining, companies need integrated data shared by multiple applications, e.g., applications offered by the ASP and existing applications customers want to keep and integrate. Therefore, it is necessary to provide mechanisms to exchange data between applications within the legacy systems. To allow this communication, ASPs have to undertake a so-called “back-end integration”. For example, data collected in enterprise resource planning systems should be accessible for data mining applications. Therefore, ASPs need to seamlessly integrate and deliver applications that are managed and supported internally with those provisioned externally. However, well done integrations can simplify the usually time consuming data pre-processing and cleansing steps drastically. The integration with client’s legacy systems can be very troublesome and requires good knowledge about different systems. Especially smaller ASPs may not have the staff and expertise to integrate their customer's legacy solutions with their own application. For this reason ASPs often team with system integrators (SIs) or value added resellers to enable various types of integration. An ITAA Survey unveiled that 31.1% of non-ASP users who will not consider using an ASP say one drawback of using an ASP is the “integrating of the ASP offering with existing applications” issue. Therefore, ease of integration with existing applications will have a major impact on any ASPs chances for success [13]. Companies such as Jamcracker offer a platform that enables customers and partners to deploy, integrate, manage, and support web applications from different sources. The platform serves as an access point for Web-enabled applications within and outside a company's firewall. 35 We can furthermore observe that some ASPs try to increase customer retention by providing additional services and by expanding their application portfolio by offering applications that cover the entire enterprise. For instance, SAP announced that it continues to improve business processes with integration between mySAP CRM and mySAP SCM (cf. the Advanced Planner and Optimizer (APO) module). To successfully create and manage such a diverse set of applications and objectives is difficult and thus ASPs will weigh up ease of integration, market share, and available skills vs. ‘best-of-breed’ when thinking about different possibilities. However, in any case, customers will not have the possibility to choose an application from whatever vendor they like, as ASPs will not be able to support integration services for every application. 4.4 Vendor’s Stability / Longevity Due to the fact that since 2001 a lot of ASPs had to close down their businesses, worries about the long-term viability are obvious and common. Many ASPs stopped their services because revenues were not high enough to cover the costs. Furthermore, venture capitalists were more reluctant to invest in ASPs, as most of the ASPs customers were struggling dotcom companies whose financial situation was not promising either. For a long time, ASPs were simply expanding revenues at any costs in order to achieve higher market shares rather than focus on achieving profitability. Comp anies that deliver their own proprietary software consider it much easier to make money than companies that offer third -party applications to customers. In the latter case it is more difficult to achieve and sustain profit margin. But even if margins are improving – for an average ASP contract from 28 to 47% according to IDC – most providers are not profitable. Internet-native Web service vendors may have better chances to reach long-term profitability. At least the willingness of venture capital groups to invest money into their business model is obviously higher than to invest in third-party application. Many of the ASPs ranked in IDC's Top 15 ASPs had revenues of US$20 million or below, and measured by revenue accounted for only 48% of the market overall. Accordingly, many ASPs have revenues under US$20 million which illustrates that the ASP market is still in its infancy. ASPs need to offer unique value-added elements to their offerings to maintain their customer base. Customers will also evaluate the provider's financial model as well as the companies that are backing the ASP. They suppose that the risk of a sudden closure is reduced when the ASP is financially backed by a solid company. Another demur concerns the question, what possibilities the customer has to ensure a failure -free operation in case the ASP strikes out. Customers often face 36 short deadlines under which to make a decision whether to take over the management themselves or search for a new ASP to avoid downtime and lost productivity. Even though prospective ASP customers may try to get detailed information about their ASP, e.g., by carrying out extensive upfront verification of the provider (seek for information about business model, financial situation, partners, etc.) or by meeting other customers to get some feedback regarding their experiences and satisfaction with the services, uncertainties about the viability of the ASP will remain. 4.5 Customization As the ASP model is based on the one-to-many idea, ASPs offer the same application to many customers. Thus, any customization efforts – i.e., the adaptation of application software to customer-specific needs and often accomplished in coding and/or configuration – challenge this model and reduce ASP’s profitability. Each additional resource that is mobilized for customization for only one customer also means lower profits for the ASP. Nevertheless, customers will require application customization especially for non-standard software. For example, reporting capabilities using off-the-shelf packages usually do not satisfy organization’s needs. A number of common reasons which include the lack of flexibility in reporting, the inability to quickly deliver beyond standard reports, the inability to address specific needs of management. To meet the individual needs in a specific industry, data mining software must be highly customizable, which raises the cost and complexity of these software applications. 5 Conclusion In this paper we have discussed the impact and issues of application service providing regarding data mining applications. We have shown that application service providers represent a viable alternative to the in-house deployment of software applications. Especially companies that do not have sufficient skilled personnel at their disposal to implement enterprise application software or companies that try to reduce the burdens of their IT department may take ASPs into consideration when planning to introduce new application software. Even though, large comp anies are the early adopters of the ASP model, the benefits for small and mid-sized enterprises are likewise strong. So far, small and medium-sized companies usually do not apply sophisticated data mining software, since they usually have only small IT departments – if any – and their investment budget is rather small. Especially for smaller companies with low budgets ASPs are expected to become an important alternative for information 37 technology in general as costs are controlled at a fixed monthly fee even though the maintenance services such as data quality monitoring, user support, reports, etc. keep the solution up to date. In former work, we could observe that in the field of business applications, such as customer relationship management or supply chain management most successful ASPs were either vertical providers or horizontal providers. This observation is, according to our study, transferable to the data mining market. Staying ahead of the competition is viable for companies to stay in business. To understand customers and the improvement of the relationship with customers is one important aspect in this field and we therefore assume that the growing interest in data mining applications will continue in the future. However, the ASP development in the last two years was not very promising and especially some bigger or even publicly traded application service providers went out of business or filed for bankruptcy protection. The main reason for this development was that ASPs evolved during the boom days of the Internet and many of their customers were newly established start-ups. During the economic downturn, many dotcoms got into financial trouble and ASPs were strongly affected by this development because they were closely related to the Internet and often dependent on dotcoms as their main customers. When revenues decreased and venture capitalists judged more skeptical about Internet related firms in general and ASPs in particular, companies were no longer able to cover the high expenses especially for technology investments and had to close down their businesses. Nevertheless, the perspectives for the future might be more promising, since the market predictions for ASPs as well as the estimations stating a growing demand for data mining applications are encouraging. Furthermore, a strong interest to utilize the huge amount of collected data to gain a competitive advantage by using ‘hidden information’ and improving services can be observed. The ASP model offers an affordable and predictable subscription-based fee model, whereby customers can avoid upfront capital investments for hardware, software, end-user licenses, etc. and may profit from significantly shorter implementation cycles. References [1] [2] [3] ASP Industry Consortium, 2000, Service Level Agreements, http://www.allaboutasp.org/, as of 06/21/2002. Berry, M. J., and Linoff, G., 1997, Data Mining Techniques, Wiley, New York. CIO, 2000, The Value of Opting for an ASP, CIO (Special Supplement), October 2000. 38 [4] [5] [6] [7] [8] [9] [10] [11] CyberAtlas, 2001, Large Companies Showing Interest in ASP Services, http://cyberatlas.internet.com/big_picture/applications/article/0,1323 ,1301_868091,00.html, as of 05/06/2003. Factor, A. L., 2002, Analyzing Application Service Providers, Prentice Hall, Upper Saddle River. Falkowski, T., and Voß, S., 2003, Application Service Providing as Part of Intelligent Decision Support for Supply Chain Management, In: R. H. Sprague (edt.), Proceedings of the 36th Annual Hawaii International Conference on System Sciences (CD/ROM), Computer Society Press, Los Alamitos. Fayyad, U. M., Piatetsky-Shapiro, G., Smyth, P., and Uthurusamy, R., 1996, Advances in Knowledge Discovery and Data Mining, MIT Press, Cambridge. Gillan, C., Graham, S., Levitt, M., McArthur, J., Murray, S., Turner, V., Villars, R., and McCarty Whalen, M., 1999, The ASPs' Impact on the IT Industry: An IDC-Wide Opinion, IDC, http://www.idc.com.au/. Hacigümüs, H., Iyer, B., and Mehrotra, S., 2002, Providing Database as a Service, In: Proc. of the Int'l Conf. on Data Engineering, ICDE. Han, J., and Kamber, M., 2001, Data Mining: Concepts and Techniques, Morgan Kaufmann Publishers, San Francisco. Hand, D., Mannila, H., and Smyth, P., 2001, Principles of Data Mining, MIT Press, Cambridge. [12] ITAA, 2000, ITAA's Application Service Provider (ASP) Service Level Agreement (SLA) Guidelines, http://www.itaa.org/asp/itaasla.pdf, as of 05/06/2003. [13] ITAA, [14] [15] 2000, The ITAA ASP Customer Demand Survey, http://www.itaa.org/asp/reportwp/aspwp1.pdf, as of 05/06/2003. Lawrence, R., Almasi, G., Kotlyar, V., Viveros, M., and Duri, S., 2001, Personalization of Supermarket Product Recommendations, In: Kohavi, R., and Provost, F. (eds.), Applications of Data Mining to Electronic Commerce, pp. 11-32, Kluwer Academic Publishers, Dordrecht. Liebmann, L., 2000, Next IT Challenge: Integrating Multiple ASPs, InformationWeek, June 26, 2000. [16] Lipschultz, D., 2001, IT Sees Beyond ASP Crash, InternetWeek, http://www.internetweek.com/indepth01/indepth070201.htm, as of 05/06/2003. [17] Samuels, D., 2001, ASPs Offer More Than Hosting, ASP Island, http://www.aspisland.com/opinion/samuels1.asp, as of 10/09/2001. 39 [18] [19] [20] [21] [22] [23] [24] [25] [26] [27] [28] Newcomb, K., 2001, Consortium's ASP Tracking Study Released, ASPnews, http://www.internetnews.com/asp-news/article/0 ,,3411_867291,00.html, as of 05/06/2003. Gartner Group, 2000, ASP Trends: The ASP Model Moves Closer to 'Prime Time', , http://gartner11.gartnerweb.com/public/static/hotc/hc00085643.html , as of 10/30/2001. IDC, 2002, IDC's Findings Reveal ASP Implementations Yielded an Average Return of Investment (ROI) of 404%, http://www.idc.com.au/idcpulse/Archives_2002/idcpulse 20022002_ASP.htm, as of 09/14/2002. Richardson, R., 2003, 2003 CSI/FBI Computer Crime and Security Survey, Computer Security Institute, http://www.gocsi.com/. Schafer, J. B., Konstan, J. A., and Riedl, J., 2001, E-Commerce Recommendation Applications, In: Kohavi, R., and Provost, F. (eds.), Applications of Data Mining to Electronic Commerce, pp. 115-153, Kluwer Academic Publis hers, Dordrecht. Spiliopoulou, M., and Pohle, C., 2001, Data Mining for Measuring and Improving the Success of Web Sites, In: Kohavi, R., and Provost, F. (eds.), Applications of Data Mining to Electronic Commerce, pp. 85-114, Kluwer Academic Publishers, Dordrecht. Sweeney, T., 2000, ASPs Answer the Security Question, InformationWeek, June 5, 2000. Toigo, J. W., 2002, The Essential Guide to Application Service Providers, Prentice Hall PTR, Upper Saddle River. Weiss, P., 2001, ASPs: They Do More Than Just Save Money, InformationWeek, November 5, 2001. Williams, I., 2001, Future Trends in Enterprise Networking: Benchmarking for the Latest Technological Advances in Local and Wide Area Networking, Reuters Business Insight, http://www.silicon.com/ Ecommerce/pdf/r07.pdf, as of 12/06/2001. Witten, I. H., and Frank, E., 2000, Data Mining, Morgan Kaufmann Publishers, San Francisco. 40 Die Szenario-Technik als entscheidungsunte rstützendes Instrument Albert Heinecke Professor an der Fachhochschule Braunschweig/Wolfenbüttel Fachbereich Wirtschaft Wielandtstr. 1-5 38844 Wolfsburg Telefon: +49(0)5361/83-1528, Fax: +49(0)5361/83-1502 E-Mail: a.heinecke@fh-wolfenbüttel.de Kurzfassung Im Rahmen der Unternehmensführung kommt der langfristigen Planung eine zentrale Rolle für den Erfolg zu. Es müssen strategische Entscheidungen getroffen werden, deren Ausmaß und Richtigkeit erst zu einem späteren Zeitpunkt deutlich werden. Wäre es möglich, die zukünftigen Rahmenbedingungen für eine Unternehmung, deren Erfolgskriterien und Entwicklung sowie die Auswirkungen der einzuleitenden Handlungen bereits zum Zeitpunkt der notwendigen Entscheidung zu kennen, so ließen sich mögliche Opportunitätskosten, resultierend aus Fehlentscheidungen, erheblich senken. Mit der Szenario-Technik, die auf Hermann Kahn zurückgeht, vermag man diesbezüglich zwar nicht die Zukunft exakt vorauszusagen, dennoch verhilft ihre "richtige Anwendung" dazu, die Tragweite, die möglichen Ursachen und Wirkungen strategischer Entscheidungen besser beurteilen zu können. Im folgenden Beitrag wird die Szenario-Technik erläutert und einige Algorithmen aus dem Bereich der induktiven Ansätze vorgestellt. Keywords : Cross-Impact-Algorithmus, induktive Ansätze, Konsistenzanalyse, unkritische und kritische Deskriptoren, Szenario-Entwicklung 41 1 Einführung in die Thematik Die Szenario-Technik kann als ein Verbund aus verschiedenen Prognosemethoden, unter Einsatz unterschiedlicher Planungsinstrumente, verstanden werden, bei der die Unsicherheit der Zukunft als gegeben akzeptiert wird. Bei ihrer Anwendung werden mögliche Umfeldsituationen der Zukunft entwickelt und es wird aus der Gegenwartsperspektive eruiert, wie der Weg zu diesen zukünftigen Situationen zustande kommen kann.[1] D.h., die Szenario-Technik ist als ein (Planungs-) Instrumentarium zu verstehen, mit der Szenarien gestaltet und im weiteren Prozess verarbeitet werden, um daraus alternative Zukunftssituationen zu analysieren und Strategien abzuleiten.[2] Damit Entwicklungen - deren genaue Vorhersage unmöglich ist - mit aufgenommen werden können, lassen sich in dieser Technik vor allem auch qualitative Aussagen integrieren.[3] Dadurch bleiben Faktoren, die bedeutenden Einfluss auf den Untersuchungsgegenstand nehmen, nicht ausgegrenzt. Ein weiterer wesentlicher Vorteil der Szenario-Technik ist, im Gegensatz zu den meisten Prognosemodellen, eine sehr große Anzahl von Informationen verarbeiten und auswerten zu können, wodurch eine validere Basis für die Prämissenbildung in der Unternehmensplanung erzielt wird. Bevor die unterschiedlichen methodischen Ansätze und die gemeinsamen charakteristischen Merkmale der Szenario-Technik aufgezeigt werden, soll zunächst das Kernstück dieser Technik -die Szenarien- näher erörtert werden. Als einer der ersten definierte Kahn den Begriff Szenarien, als "hypothetische Folge von Ereignissen, die konstruiert werden, um die Aufmerksamkeit auf kausale Prozesse und Entscheidungspunkte zu lenken“.[4] So müssen Szenarien alternative, plausible und konsistente Zukunftsbilder sein, die aus in sich stimmigen, logischen zusammenpassenden Prämissen (-bündel) bestehen sowie die Beschreibung der Entwicklungspfade einer möglichen Zukunftssituation aus der gegenwärtigen Struktur heraus, die zu diesen Zukunftsbildern hinführt, aufzeigen. Sie liefern keine Voraussagen der Zukunft, die wie herkömmliche Prognosen aussagen, was passieren wird, sondern nur in sich stimmige Bilder dessen, was sein könnte, als Möglichkeiten ohne Bewertung hinsichtlich der Wahrscheinlichkeit des Eintretens.[5] 2 Vorgehensweise in der Szenario-Technik Durch die Verwendung der Szenario-Technik haben Planungsträger die Möglichkeit, ihre Planungsannahmen bzw. Planungsprämissen systematisch im Hinblick auf deren Konsistenz zu prüfen. Hierzu wird zunächst ein Themengebiet definiert, über das man Informationen über die zukünftige Entwicklung erhalten möchte (Phase 1). Der nächste Schritt ist die Festlegung von Einflussbereichen, die dieses Themengebiet determinieren (Phase 2) (siehe Abbildung 1). 42 In einem weiteren Schritt werden nun einzelne Deskriptoren und deren unterschiedliche Ausprägungen für jeden Einflussbereich erarbeitet und die einzelnen Deskriptorausprägungen in einer Matrix in Beziehung gesetzt (Phase 3). Die Einflussbereiche werden so anhand von mehreren Deskriptoren fixiert. In der anschließenden Phase der Annahmen- bzw. Alternativenbündelung werden in der Szenario -Technik optional Softwareprogramme eingesetzt, die die Konsistenz bestimmter Deskriptorausprägungen prüfen. Das Ergebnis dieser Programme ist ein Ranking von sehr konsistenten bzw. wahrscheinlichen Kombinationen von Ausprägungen (jeweils im Kontext des applizierten Algorithmus zu verstehen), die dem „berühmten“ Zukunftsbild entsprechen und als Planungsprämisse genutzt werden können (Phase 4). Anschließend lassen sich dann die Ergebnisse in der Szenario-Interpretation ausformulieren und im Hinblick auf mögliche Konsequenzen bzgl. der gewählten Strategien und Ziele analysieren (Phase 7 und 8). Hierzu ist vorab eine Konzentration auf wenige Szenarien erforderlich. Optional kann den Phasen 7 und 8 auch noch eine Störfallanalyse vorangestellt werden, die inhaltlich eine Modifikation der Alternativenbündelung darstellt. Dazu wird die Trendprojektion nochmals durchgeführt, indem i.d.R. eine Erweiterung der Deskriptorliste mit sogenannten unkritischen Deskriptoren vorgenommen wird. D.h., Deskriptoren, die nur eine einzige Ausprägung zulassen. 43 Abbildung 1: Ablauf des Szenario -Prozesses 3 Methoden der Szenario-Erstellung Die methodischen Ansätze der Szenario-Technik unterscheiden sich mehr oder weniger in ihrer Vorgehensweise und Zielintention. Im Prinzip lassen sie sich in zwei Hauptgruppen unterteilen. Zum einen, die "harten Methoden", die überwiegend quantitative Daten verwenden und mittels Computersimulation die Szenarien erstellen, wie z.B. System Dynamics nach Forrester, und zum anderen die "weichen Methoden". Letztere verwenden zusätzlich qualitative Annahmen, wobei das Konzept zur Ermittlung von Szenarien entweder vorwiegend intuitiv, nicht formalisiert, wie z.B. bei Kahn[6], oder systematisch formalisiert ausgerichtet ist. Die systematischen Vorgehensweisen lassen sich noch weiter aufspalten in Methoden, denen eine intuitive Logik zugrunde liegt und Szenario-Techniken mit modellgestützter Logik. Intuitive Logik bedeutet, dass man zur Annahmebündelung von alternativen zukünftigen Entwicklungen nicht auf Hilfsmittel zurückgreift, sondern Szenarien aus den zuvor bestimmten Faktoren vorwiegend qualitativ ableitet. Um diese intuitive 44 Bildung von Szenarien zu ermöglichen, dürfen nicht zu viele Informationen vorliegen. Deshalb ist damit i.d.R auch eine deduktive Betrachtungsweise[7] verbunden. Es werden zuerst die wichtigsten Umfelder mit den jeweiligen Schlüsselfaktoren bestimmt, diese in die Zukunft projiziert und dann aus dessen Gegenüberstellung sinnvolle Kombinationen gefunden. Aus diesen werden einige sehr konsistente gewählt, mit weiteren Faktoren ausgefüllt, und zu Szenarien ausgearbeitet. Die Verfahren von SRI[8], McNulty[9] und der Royal Dutch Shell Group[10] zählen beispielsweise zu diesen deduktiven Ansätzen mit intuitiver Logik. Im Gegensatz dazu erfordern induktive Ansätze meistens den Einsatz von Rechenprogrammen, wie Cross-Impact, denn hier werden zueinander konsistente Sätze der möglichen Entwicklungen der einbezogenen Faktoren konstruiert, ohne vorher dafür einen Rahmen festgelegt zu haben. Es werden dadurch mehr Informationen berücksichtigt, als bei deduktiven Ansätzen. Um diese große Anzahl der Faktoren zu Szenarien auszuarbeiten, liegt somit vorwiegend eine modellgestützte Logik zu Grunde. Abbildung 2 soll diese Unterteilungen nochmals graphisch verdeutlichen. Die Klassifizierung der einzelnen Modelle erfolgte nach der jeweiligen Ausrichtung der Szenario-Erstellung, was bedeuten soll, dass die Methoden sich vorwiegend nach den genannten Merkmalen richten, aber auch Elemente enthalten können, die in andere Bereiche fallen. Die weitere Darstellung beschränkt sich auf die weichen Methoden und hier insbesondere auf die modellgestützte Logik, da Modelle, die extrem quantitativ und intuitiv vorgehen, die Anforderungen der strategischen Planung nur unbefriedigend erfüllen. Aus dem Vergleich dieser Ansätze lassen sich einige Gemeinsamkeiten erkennen. Sie unterstützen alle den vorab beschriebenen Prozess der Szenario -Erstellung spätestens ab der Phase der Trendprojektion (Phase 3), in der rechnergestützt die einzelnen Deskriptoren und ihre Ausprägungen definiert werden. Im Vorfeld wird häufig zusätzlich auf der Ebene der Einflussbereiche mit der sogenannten Vernetzungsmatrix gearbeitet, um so die Interdependenzen grob zu charakterisieren. Die Phase der Alternativenbündelung wird gleichsam durch den Transfer der Ausprägungen in die entsprechende Matrix mit getragen. Der differente Kern dieser Ansätze besteht allerdings in der Verwendung unterschiedlicher Algorithmen zur Berechnung spezifischer Ausprägungskombinationen, die im Rahmen der Szenario-Technik auch als „Zukunftsbilder“ bezeichnet werden und sich in der Literatur im „Trichtermodell“ zur Szenario-Technik wieder finden.[11] Einige Methoden zählen definitorisch den Szenario-Transfer (Phase 8), d.h., die Umsetzung der Szenarien in Strategien noch zu einem abschließenden Element der Szenario -Technik. Dazu gehören die Battelle Institute, Reibnitz, SRI, McNulty und Linneman/Kennell. Bei Verfahren, die diese Phase nicht mit einschließen, 45 wird jedoch einheitlich darauf hingewiesen, dass eine Umsetzung der Ergebnisse in die strategische Planung in jedem Falle sinnvoll ist. In der Szenario-Technik werden somit „komplexe Probleme dekomponiert und in eine neue Ordnung gebracht“.[12] Es wird versucht, die Frage zu beantworten, wie eine hypothetische Situation Schritt für Schritt zustande kommen kann.[13] Methoden der Szenario-Erstellung harte Methoden System dynamics nach Forrester weiche Methoden intuitive, nicht formalisierte Vorgehensweisen Club of Rome (Meadows) Mesarovic, pestel ... HudsonInstitut Herman Kahn ... systematisch, formalisierte Vorgehensweisen intuitive Logik (deduktive Ansätze) Stanford Research Institut (SRI) 4,5 über Cross-Impact Batelle Frankfurt (BASICS) 5 Future Group (SMIC 74´) 1,2,4 Batelle Columbus Royal Dutch Shell Group McNulty Batelle Genf 5 5 Centers of Future Research (INTERAX) 4,5 Porter 1 Wilson (General Electric) Makro-/ Globalszenarien Vanston, Frisbee Becker modellgestützte Logik (induktive Ansätze) 4 1,2,4,5 Kaiser Aluminium ... Southern California Edison über Konsistenzmatrix Batelle Frankfurt (CAS, INKA) ... Reibnitz (SAR) 4 über andere Linnemann u. Kennel ... 1 = dynamische Einbeziehung der Zeitdimension 2 = Verwendung von Trend-Impact 3 = geringe Anzahl von Deskriptoren 4 = ohne Einbeziehung von Wahrscheinlichkeiten 5 = mit Implementierungsphase unternehmensspez.-/ Branchenszenarien Abbildung 2: Klassifizierung der Szenario-Technik 46 3,4,5 3.1 Der Konsistenzalgorithmus Der Konsistenzalgorithmus in Verbindung mit der zu definierenden Konsistenzmatrix ist innerhalb der rechnergestützten Applikationen der Szenario-Technik sehr verbreitet. Hierbei erfolgt die Fixierung der Zusammenhänge einzelner Deskriptorausprägungen nach folgendem Prinzip: Ausgangspunkt ist die Festlegung der Konsistenzwerte in der Konsistenzmatrix zwischen den Deskriptorausprägungen der unterschiedlichen Deskriptoren. Die Werteskala verläuft z.B. ganzzahlig zwischen +2 (starke Konsistenz) und –2 (starke Inkonsistenz). Da eine Wirkungsrichtung bzw. die Reihenfolge des Eintritts der Ereignisse bei diesem Algorithmus nicht berücksichtigt wird, reicht es aus, die Konsistenzmatrix nur halb zu füllen, typischer Weise unterhalb der Diagonalen (siehe Abbildung 3). Abbildung 3: Definition einer Konsistenzmatrix[14] Das Ziel ist nun die Berechnung eines Konsistenzmaßes für ein Zukunftsbild, d.h., für eine spezielle Ausprägung der definierten Deskriptoren. Anschließend erfolgt die absteigende Darstellung der speziellen Deskriptorausprägungen anhand der zugehörigen berechneten Konsistenzmaße, so dass zwischen den „Zukunftsbildern“ ein Ranking erzeugt wird. Für jede Ausprägungskombination und dabei jeweils bei Betrachtung aller möglichen Anfangspunkte innerhalb dieser Kombination werden die Konsistenzwerte aus der Matrix gelesen und summiert. Dies setzt voraus, das alle möglichen Kombinationen der Deskriptorausprägungen im Vorfeld über den Algorithmus erfasst werden. Also ein Verfahren, das auf einer vollständigen Enumeration beruht und deshalb bei größeren Szenarien sehr schnell zu Problemen bei der Rechnerleistung führt. Z.B. lassen sich bei einer 47 Deskriptoranzahl von 20 mit jeweils zwei Ausprägungen 1.048.580 Kombinationen (220 ) ableiten, deren Konsistenzmaße bestimmt werden müssen. Da in diesem Algorithmus keine Eintrittswahrscheinlichkeiten berechnet und damit berücksichtigt werden, wird methodisch implizit angenommen, dass eine Gleichverteilung der Eintrittswahrscheinlichkeiten aller Deskriptorausprägungen zu einem Deskriptor vorliegt. 3.2 Der Cross-Impact-Algorithmus Auch bei dem Cross-Impact-Algorithmus wird der Zusammenhang der unterschiedlichen Deskriptorausprägungen in einer Matrix (Cross-Impact-Matrix) beschrieben. Eine spezielle Variante stellt die Klasse der kausalen Cross-ImpactAlgorithmen dar. Die Standardskalierung ist hierbei das Intervall (+3;...;-3). Allerdings werden bei diesen Algorithmen die Wirkungsrichtungen beachtet, was dazu führt, dass die gesamte Matrix definiert werden muß. Zudem arbeitet der Algorithmus explizit mit Eintrittswahrscheinlichkeiten für die jeweiligen Deskriptorausprägungen eines Deskriptors. Da eine der Ausprägungen mit Sicherheit eintreten wird, muß die Summe der Eintrittwahrscheinlichkeiten für einen Deskriptor „1“ ergeben. D.h., der Ereignisraum für einen Deskriptor muß vollständig sein, andernfalls hätte man bei der Deskriptordefinition nicht alle Ausprägungsoptionen erfasst. Die folgende Abbildung zeigt ein Beispiel für eine Cross-Impact-Matrix. Abbildung 4: Die Cross-Impact-Matrix [15] Im weiteren Verlauf wird nun jede Deskriptorausprägung als Ausgangspunkt für eine Szenariobestimmung gewählt. D.h., eine Ausprägung tritt mit der Wahrscheinlichkeit 1 auf, was dazu führt, das alle anderen Eintrittswahrscheinlichkeiten 48 der Ausprägungen dieses Deskriptors auf „0“ gesetzt werden. In Abhängigkeit von dieser Deskriptorausprägung wird nun geprüft, inwieweit die Eintrittwahrscheinlichkeiten der Ausprägungen anderer Deskriptoren verändert werden. Die Werte werden dabei aus der Cross-Impact-Matrix gelesen und über eine Koeffiziententabelle in einen Koeffizienten umgewandelt, der in die Formel zur Berechnung der neuen Eintrittswahrscheinlichkeit eingeht. Z.B. bewirkt der Wert –2 eine Verringerung der Eintrittswahrscheinlichkeit einer Ausprägung des anderen Deskriptors. Da natürlich eine Ausprägung eines Deskriptors eintreten muß, wird im nächsten Schritt die mit der höchsten berechneten Eintrittwahrscheinlichkeit gewählt und das Ereignis mit der Wahrscheinlichkeit 1 versehen. Diese Vorgehensweise erfolgt iterativ für einen Ausgangspunkt bei allen Deskriptoren, so dass letztlich als Ergebnis eine Kombination bestimmter Ausprägungen (jeweils eine pro Deskriptor) entsteht. Man erhält also pro Ausgangspunkt ein Szenario. Darüber hinaus berechnet der Algorithmus den Nichteintritt einer Deskriptorausprägung als Ausgangspunkt. In diesem Falle werden bei mehr als zwei definierten Ausprägungen pro Deskriptor die anderen Eintrittswahrscheinlichkeiten nach einem Verfahren auf die Summe von „1“ normiert und ein gewichteter Koeffizient für die Neubestimmung der Eintrittswahrscheinlichkeit ermittelt. Insgesamt benötigt also ein Cross-Impact-Algorithmus genau doppelt so viele Berechnungen, wie Deskriptorausprägungen in der Matrix definiert worden sind. Es werden also 2 x n Szenarien, die auch identisch sein können, bei n Ausprägungen erzeugt, die nach der Häufigkeit des Auftretens in ein Ranking gebracht werden. Z.B. würden bei diesem Verfahren mit einer Matrix von 20 Deskriptoren mit jeweils zwei Ausprägungen 80 Szenarien erzeugt. Eine vollständige Enumeration wird hierbei also nicht durchgeführt. Zudem werden anhand dieses Ergebnisses neue Eintrittswahrschinlichkeiten für die Deskriptorausprägungen bestimmt. 3.3 Vergleiche nde Beurteilung des Konsistenz- und CrossImpact-Algorithmus Wie in den vorangegangenen Ausführungen schon deutlich wurde, unterscheiden sich beide Algorithmustypen, die auch noch in unterschiedlichen Varianten bzgl. der Skalierung vorzufinden sind, sehr stark voneinander, obwohl mit beiden Algorithmen die gleiche Zielsetzung verfolgt wird. Bei einer genaueren Betrachtung wird auch deutlich, dass beide Typen im Hinblick auf ihren Anwendungsbezug Schwächen aufweisen. So kann man zunächst einmal festhalten, dass die Konsistenzanalyse methodisch dazu verleitet, Ereigniskombinationen zu ermitteln, die aufgrund des beschriebenen Zusammenhangsmaßes in der dazugehörigen Matrix gut zueinander passen. Hierbei bleibt die Eintrittswahrscheinlichkeit unberücksichtig. Das Resultat dieser Vorgehensweise 49 führt dann zu typischen Kombinationen von Deskriptorausprägungen, die den Extremszenarien in der Szenario-Technik zuzuordnen sind. D.h., entweder ein sehr positives oder negatives ‚Zukunftsbild’ zeichnen, da hier nun mal die für diese Kombinationen hohe Konsistenzmaße zu erwarten sind. Auch eine zusätzliche Clusterung der Kombinationen, verspricht hierbei keine Abhilfe. Ein weiterer Schwachpunkt ist die implizite Gleichverteilung der Eintrittswahrscheinlichkeiten einzelner Ausprägungen, indem völlig auf eine Berücksichtigung von Wahrscheinlichkeiten im Algorithmus verzichtet wird. Die bisher aufgezählten Nachteile lassen sich nicht auf den Cross-ImpactAlgorithmus übertragen. Nichtsdestotrotz beinhaltet dieses Verfahren einen methodischen Fehler, der noch nicht sinnvoll gelöst worden ist. Es handelt sich um die zwingende Voraussetzung, dass immer eine eindeutige Auswahloption für das nächste mit der Wahrscheinlichkeit „1“ zu versehende Ereignis im Algorithmus vorliegen muß. Mit anderen Worten, der Algorithmus funktioniert nur einwandfrei, wenn der Abstand mehrerer Eintrittswahrscheinlichkeiten der Ausprägungen eines Deskriptors in der Iteration nicht identisch ist. Dies ist allerdings dann der Fall, wenn die Koeffizienten den gleichen Wert aufweisen, hervorgerufen durch identische Werte in der Matrix, und gleichsam alle Eintrittswahrscheinlichkeiten der Ausprägungen des betreffenden Deskriptors gleichverteilt sind. Derartige Konstellationen müssen deshalb im Vorfeld innerhalb der Matrix erkannt und modifiziert werden. Zusammenfassend kann daher festgehalten werden, dass eine alleinige Anwendung der Konsistenzanalyse aus den genannten Gründen zu sehr plausiblen, aber nicht zwingend sehr wahrscheinlichen Kombinationen führt. Dies ist eher bei der Cross-Impact-Analyse zu erwarten. Andererseits kann allein schon eine geringe Änderung der notwendigen Eintrittswahrscheinlichkeiten in diesem Verfahren zu sehr differenten Ergebnissen führen, so dass auch hier von einer alleinigen Nutzung abzusehen ist, gerade weil die Szenario-Technik im weiteren Verlauf die Beschränkung auf wenige Kombinationen erfordert, die über derartige Algorithmen selektiert werden sollen. Kurzfristige Verbesserungen des algorithmischen Verhaltens könnten allerdings in diesem Fall möglicherweise das Handling von Wahrscheinlichkeitsintervallen, statt festen Wahrscheinlichkeiten darstellen. Eine „praktikable“ Einschränkung dieser Gesamtproblematik stellt die Verwendung beider Algorithmen dar, indem zunächst über die Cross-Impact-Analyse die häufigsten Kombinationen ermittelt werden und anschließend eine Berechnung der Konsistenzmaße dieser Kombinationen vorgenommen wird. Die Selektionsregel wäre dann die Priorisierung von häufigen Kombinationen mit hohen Konsistenzmaßen. 50 4 Fazit Die Szenario-Technik stellt nach wie vor ein sinnvolles Instrument im Rahmen der Entscheidungsunterstützung dar. Gerade weil mit ihr systematisch die Determinanten für den Entscheidungsraum bzw. die Planungsprämissen innerhalb des Planungsprozesses analysiert werden können, was ohne diese Technik nur intuitiv von einem Entscheidungsträger vorgenommen werden kann. Die Schwächen dieser Technik sind allerdings offensichtlich. Sie betreffen die semantische Interpretation der Ergebnisse und den sich anschließenden Selektionsprozess für die weitere Beschränkung auf wenige Kombinationen, denen man momentan nur durch die gleichzeitige Verwendung verschiedener Methoden der induktiven Ansätze begegnen kann. Hier kann ein Forschungspotenzial ausgemacht werden, welches dieses Defizit reduziert, indem über die Modifikation bestehender Algorithmen oder gar über alternative Algorithmen für die Szenario-Technik nachgedacht wird. Literatur [1] Meyer-Schönherr: Szenario-Technik, München 1992, S. 72 und Reibnitz, U.v.: Szenarien - Optionen für die Zukunft, Hamburg, New-York,u.a. 1987, S. 15 [2] Mobasheri, F., u.a.: Scenario Planning at Southern California Edison, in: Interfaces, Vol. 19, Heft 5, 1989, S. 31-44 [3] Götze, U.: Szenario-Technik in der strategischen Unternehmensplanung, 2. Aufl., Wiesbaden, 1993, S. 34f (bzw. 47); Taylor, B.: Scenario Planning to the Rescue, in: Hahn/Taylor (Hrsg.), strategische Unternehmensplanung, Wien 1980, S. 183 und Angermeyer-Naumann, R.: Szenarien und Unternehmenspolitik, München 1985, S 124 [4] Kahn, H.;Wiener, A.J.: The Jear 2000, New York 1968, S. 6 [5] Angermeyer-Naumann, R., a.a.O., S. 111; S. 5; Geschka, H./ Winkler, B.: Szenarien als Grundlage strategischer Untenehmensplanung, in: Technologie und Management, Heft 4, 1989, S. 17 Leemhuis, J.P.: Using Scenarios to Develop Strategies, in: LRP, Vol. 18, Heft 2, 1985, S. 30 [6] Kahn, H., Kahn, H.: Die Zukunft der Welt, Wien 1979, S. 107-110 [7] unter deduktiv versteht man in diesem Zusammenhang eine Vorgehensweise, bei der anfangs ein Rahmen der realisierbaren Möglichkeiten des Unternehmens für jedes Szenario abgesteckt ist, um auf dieser Basis die einzelnen Zukunftsbilder zu erstellen 51 [8] zu SRI vgl. Stokke, P.R., u.a.: Scenario-Planning for Norwegian Oil and Gas, in: LRP, Vol. 23, No. 2, 1990, S. 18-26 und Huss, W. R./ Honton, E. J., Scenario Planning - What Style Should You Use?, in: Long Range Planning, Vol. 20, No. 4, 1987, S. 21-29 [9] zu McNulty vgl. Zenter, R.D.,: Scenarios, Past, Present and Future, in: Long Range Planning, Vol. 15, No. 3, 1982, S. 12-20 ; S. 16 [10] zu Royal Dutch Group vgl. Leemhuis, J.P., a.a.O., S. 30-37 [11] Reibnitz, u.v., a.a.O., S. 30 [12] Angermeyer-Naumann, R.,a.a.O., S. 121 [13] Meyer-Schönherr, a.a.O., S. 16 [14] Erstellt mit dem Softwaretool Szeno-Plan der Sinus Software und Consulting GmbH, www.sinus-online.com [15] Erstellt mit dem Softwaretool Szeno-Plan, der Sinus Software und Consulting GmbH, www.sinus-online.com 52 Unterstützung ausgewählter Aspekte des Wissensmanagements Dr. Volker Nissen DHC Business Solutions GmbH Landwehrplatz 6-7 D-66111 Saarbrücken [email protected] www.dhc-gmbh.com Zusammenfassung Nach einer Einführung in die Thematik des Wissensmanagements und Anmerkungen zur aktuellen Situation in der Praxis werden im vorliegenden Beitrag mehrere zentrale Handlungsfelder des Wissensmanagements aufgegriffen und gezeigt, wie sie mit geeigneten Methoden und Werkzeugen unterstützt werden können. Dabei steht zum einen die Bewahrung und Verteilung von Wissen mit Hilfe des prozessorientierten Werkzeuges CognoVision im Mittelpunkt. Zum anderen werden Überlegungen vorgestellt, wie man die heute problematische Messung und Bewertung von Wissen mittels der Fuzzy Set Theorie unterstützen kann. Schlüsselwörter: Wissensmanagement, Wissensverteilung, Wissensmessung, Fuzzy Set Theorie, CognoVision 1 Begriff und Ziele von Wissensmanagement Jeder besitzt ein intuitives Verständnis davon, was „Wissen“ ist. Aus der wissenschaftlichen Diskussion soll hier die Definition des Begriffes Wissen nach Probst et al. [1999, S. 46] zugrunde gelegt werden: 53 „Wissen bezeichnet die Gesamtheit der Kenntnisse und Fähigkeiten, die Individuen zur Lösung von Problemen einsetzen. (...) Es wird von Individuen konstruiert und repräsentiert deren Erwartungen über Ursache-Wirkungs-Beziehungen.“ Die Ressource „Wissen“ als wichtiger Produktions- und Wettbewerbsfaktor hat in den letzten Jahren einen steigenden Stellenwert erfahren. Ursächlich dafür sind verschiedene Gründe. Strukturelle Veränderungen in den Industriegesellschaften führen einerseits hin zu einer stärkeren Betonung des Dienstleistungssektors mit einer steigenden Anzahl wissensintensiver Dienstleistungen. Auch im Umfeld industriell gefertigter Produkte steigt die Bedeutung komplementärer Serviceleistungen, da sie oft die einzige Möglichkeit sind, sich in gesättigten CommodityMärkten von der Konkurrenz zu differenzieren. Ein hoher Wissensanteil in den vermarkteten Produkten und Dienstleistungen bedeutet eine hohe Wissensintensität in der Unternehmensleistung. Wachsende Konkurrenz aus Schwellenländern führt andererseits dazu, dass der Produktionssektor in den Industrieländern sich stärker auf Produkte konzentriert, die einen komplexen und damit wissensintensiven Herstellprozess aufweisen. Hierfür sind gut qualifizierte Beschäftigte eine notwendige Voraussetzung. Gleichzeitig nimmt der Grad der Spezialisierung zu. In Summe steigt die Wissensintensität in der Wertschöpfungskette. Globaler Wettbewerb, kontinuierlicher Kostendruck, eine fortschreitende Verkürzung von Produkt- und Technologielebenszyklen sowie steigende Kundenanforderungen führen dazu, dass die Ressource Wissen für das Überleben von Unternehmen immer wichtiger wird. Auf der Ebene individueller Mitarbeiter entsteht daraus die Forderung nach lebenslanger Bereitschaft zu lernen. Auf Unternehmensebene gilt es, durch Wissensmanagement dafür zu sorgen, komparative Vorteile gegenüber Wettbewerbern aufzubauen. Dabei sind Unternehmen mit dem Phänomen konfrontiert, dass die potenziell verfügbare Wissensmenge exponentiell steigt (Wissenexplosion), während die „Halbwertszeit“ des Wissens, also seine praktische Verwertbarkeit, tendenziell sinkt. Vielfach verhindern hierarchische Organisationsstrukturen und Egoismus einze lner Wissensträger einen effizienten Wissensfluss im Unternehmen. Gleichzeitig steigt die Fragmentierung des Wissens. In der Praxis führt dies heute oft dazu, dass zwar viel Wissen in einem Unternehmen vorhanden ist, dieses Wissen jedoch entweder nicht bekannt ist (mangelnde Transparenz) oder die räumliche Verteilung dessen effizienten Einsatz im Sinne der Unternehmensziele erschwert. Gleichzeitig bedarf es einer offenen Unternehmenskultur sowie einer geeigneter Unterstützung durch IT-Systeme, um Wissensmanagement erfolgreich umzusetzen. 54 Dabei wird im Folgenden die Wissensmanagement-Definition von Peterson [2002, S. 165] zugrunde gelegt: „Wissensmanagement ist die gezielte Steuerung der Teilprozesse der Wissensgenerierung, des Wissenstransfers und der Wissensanwendung im Sinne der übergeordneten, unternehmerischen Ziele durch Schaffung geeigneter organisationaler und prozessualer Rahmenbedingungen sowie deren Integration in einen ganzheitlichen Prozeß zur Förderung des bewußteren Umgangs mit der Ressource Wissen in der unternehmerischen Wertschöpfung.“ In Analogie zur Situation in der Logistik kann man als ultimatives Ziel des Wissensmanagements formulieren: Das richtige Wissen ist zur richtigen Zeit am richtigen Ort verfügbar zu machen. Dabei werden unter anderem folgende Teilziele verfolgt: ? Wettbewerbsvorteile durch besseren Wissenstransfer und höhere Innovationsfähigkeit ? größere Effizienz durch Vermeiden früherer Fehler in vergleichbaren Situationen ? Schaffen von neuem Wissen durch Kombination des Bekannten mit Neuem ? Sicherung von Wissen für das Unternehmen bei Mitarbeiterfluktuation Zentrale Problematik des Wissensmanagements ist dabei die richtige Gestaltung des Zusammenspiels von Mitarbeitergewinnung und -entwicklung, Anreiz- und Entlohnungssystemen, Organisation und Prozessen des Wissensmanagements sowie deren Unterstützung durch IK-Technologien. Romhardt [1998] und Probst et al. [1999] definieren hierzu folgende 8 Handlungsfelder im Wissensmanagement: Aufstellen von Wissenszielen: sie geben den Aktivitäten des Wissensmanagements eine Richtung, wobei normative, strategische und operative Ziele unterschieden werden ? Wissensidentifikation: das bereits im Unternehmen vorhandene Wissen wird ermittelt ? Wissenserwerb: externes Wissen wird in das Unternehmen integriert, z.B. durch gezieltes Einstellen neuer Mitarbeiter mit speziellen Kenntnissen ? Wissensentwicklung: aus vorhandenem Wissen neue Fähigkeiten entwickeln 55 2 ? Wissensverteilung: Wissen einzelner den anderen Mitarbeitern verfügbar machen ? Wissensbewahrung: Schutz vor Verlust von Wissen ? Wissensnutzung: zielgerichtete Anwendung von Wissen ? Wissensbewertung (und Wissensmessung): hier geht es um Wissenscontrolling und die Frage, ob die gesetzten Wissensziele erreicht wurden Situation in der Praxis Die gesteckten Erwartungen an Wissensmanagementprojekte in Unternehmen blieben bislang häufig unerfüllt [Hattendorf 2002]. Die dafür maßgeblichen Gründe sind z.B.: ? Die Konzepte waren anspruchsvoller in der Umsetzung als erwartet. ? Die Akzeptanz der Anwender war geringer als geplant. ? Prognostizierte Effizienzsteigerungen konnten nicht erfüllt werden. ? Die Rolle moderner Technologien in Wissensmanagementprojekten blieb unklar. Bisher dominiert oft einseitig der technische Aspekt in WissensmanagementProjekten. Man konzentriert sich auf einzelne methodische Bausteine und deren Umsetzung mit Hilfe geeigneter IK-Technologien. Dabei können grob die beiden folgenden Ansätze unterschieden werden: ? dokumentenbasierter Ansatz (Content Management Systeme) ? interaktiver Ansatz (Groupware Systeme) In den meisten Fällen beruht Wissensmanagement heute vor allem auf einer großen Datenbank mit der Möglichkeit zur Klassifizierung und späteren gezielten Suche von Informationsobjekten. Das wird oft ergänzt um die Einbindung von Internet-Ressourcen im Rahmen von Unternehmensportalen. Der Zugriff erfolgt dann über Web-Browser und Suchmaschinen. Im Ergebnis erhalten die Mitarbeiter jedoch wenig Unterstützung in ihrer Tätigkeit, da ihre konkreten Informationsbedürfnisse zuwenig berücksichtigt werden. Lange Suchzeiten, mangelnde Flexibilität des Systems und geringe Aktualität der Informationen verringern die Akzeptanz für solche Lösungen. Hinzu kommt, dass neu gewonnenes Wissen vom System nicht automatisch publiziert und den betroffenen Mitarbeitern verfügbar gemacht wird. 56 Obwohl sehr viele generelle Abhandlungen zum Thema Wissensmanagement existieren 1 , gibt es nur wenige fundierte, anwendungsfeldbezogene Vorgehensmodelle. Ausnahmen sind die Arbeiten von Schindler [2000] und Peterson [2002]. Beide Autoren fokussieren auf den Prozess der Leistungserstellung im Rahmen von Projektarbeit, wobei Peterson sich explizit auf die strategische Unternehmensberatung als Umfeld bezieht. Die Teilprozesse Wissensgenerierung, Wissenstransfer und Wissensanwendung werden als wesentlicher Bestandteil der Leistungserbringung und damit Wertschöpfung strategischer Beratungen benannt. Basierend auf einem ganzheitlichen Verständnis von Wissensmanagement im konkreten Anwendungsbereich der Projektabwicklung ermittelt Peterson unter anderem kritische Erfolgsfaktoren und fördernde Rahmenbedingungen. Die Arbeiten beider Autoren verdeutlichen, dass es notwendig ist, bei der Umsetzung von Wissensmanagement prozessorientiert vorzugehen. Hierzu sind geeignete IT-Werkzeuge ein wichtiges Hilfsmittel. Der folgende Abschnitt stellt ein Werkzeug vor, mit dem Wissen prozessorientiert dokumentiert und weltweit über Standard-Webbrowser verfügbar gemacht werden kann. Damit werden zwei der zentralen Handlungsfelder des Wissensmanagements unterstützt, wie sie von Romhardt [1998] definiert wurden: Wissensbewahrung und Wissensverteilung. Wissensbewahrung adressiert die Gefahr für Unternehmen, Wissen durch Ausscheiden von Mitarbeitern zu verlieren. Bullinger et al. [1998] nennen als zu unterstützende Teilprozesse hier das Selektieren, Speichern und Aktualisieren von Wissensobjekten. Wissensverteilung zielt darauf, das Wissen einzelner den übrigen Mitarbeitern verfügbar zu machen. Dazu ist es vor allem erforderlich, Nutzern bei der Informationssuche auf effiziente Weise zu helfen. 3 CognoVision – ein Tool für prozessorientierte Wissensdokumentation und Wissensverteilung Um Prozesse optimieren und transparenter zu gestalten, haben viele Unternehmen ihre Abläufe in Prozessmodellen visualisiert und mit Hilfe von Office- 1 Beispiele sind Schreyögg und Conrad [1996], Bürgel [1998], Wildemann [2000] sowie Gehle und Mülder [2001]. 57 Anwendungen dokumentiert. Bei der Bearbeitung von Aufgaben innerhalb eines Geschäftsprozesses werden heterogene Informationen benötigt, die zwar logisch miteinander in Beziehung stehen, aber informationstechnisch in unterschiedlichen Dokumenten, Systemen und Formaten vorliegen. Heute sind solche Dokumentationen oft Selbstzweck, da es nicht gelingt, die Informationen für unterschiedliche Anwendungszwecke spontan individuell aufzubereiten und ortsunabhängig zur Verfügung zu stellen. Mangelhafte Strukturierung, fehlende Versionierung und limitierter Zugriff sorgen dafür, dass dokumentiertes Wissen kaum genutzt werden kann. Abbildung 1 zeigt ein beispielhaftes Modell für einen Geschäftsprozess mit einigen assoziierten Dokumenten. Dazu gehören auch solche Dokumente, die im Rahmen der Einführung einer Software-Lösung (z.B. SAP R/3) für diesen Prozess erzeugt werden. Jede Phase des Einführungsprojektes generiert eine Fülle von Dokumenten, die inhaltlich auf vielfältige Weise zusammenhängen. Hierin manifestiert sich das Wissen der Projektmitglieder, das später für Schulungen und den Roll-Out dringend benötigt wird. Prozessmodelle sind eine hervorragende Basis für den Aufbau eines unternehmensweiten Wissensnetzes. Sie schaffen einen intuitiven Zugang zu den relevanten Informationen im Umfeld des betreffenden Prozesses. Damit Prozessmodelle mitsamt den zugehörigen Dokumenten in Unternehmen als Wissensquelle operativ genutzt werden, bedarf es einer Lösung, welche die Bearbeitung von Informationsobjekten, ihre Verknüpfung entlang des zugrunde liegenden Geschäftsprozesses und deren Publikation im Intranet ermöglicht. Diesen Ansatz des prozessorientierten und methodengestützten Wissensmanagements verfolgt die DHC GmbH mit dem Werkzeug CognoVision. 58 OrganisastionsAnweisungen Spezifikationen Operative Stellen beschreibungen Kennzahlen Systemfunktionen Operative Daten Geschäftsprozess Risikoanalysen Testprotokolle Arbeitsanweisungen Customizing Dokumente Customizing - Testvorlagen Tabellen Abbildung 1: Geschäftsprozessmodell mit assoziierten Dokumenten Mit CognoVision lassen sich strukturierte und unstrukturierte Informationen integrieren und personifiziert aus unterschiedlichen Blickrichtungen darstellen, ohne dabei redundante Informationen zu erzeugen. Jeder Anwender kann Informationen in vorgegebene oder eigendefinierte Sichten/Strukturen ablegen (Abbildung 2) und anderen Nutzern sein Wissen logisch aufbereitet zur Verfügung stellen. Die Publikation und Verfügbarmachung der Inhalte im Internet/Intranet erfolgt automatisch. Ziel ist der Aufbau eines strukturierten Wissensnetzes, das die einfache Wiederverwendung von Ergebnissen für unterschiedliche Projekte und Aufgaben sicherstellt. 59 Sichten, Strukturen Informationsobjekte ? ERP DMS/ Files BPR Intranet Internet Groupware Office Quellen Abbildung 2: Grundelemente von CognoVision (ERP=Enterprise Resource Planning System; DMS=Document Management System; BPR=Business Reengineering Tools) Dazu werden Informationsobjekte im Rahmen von CognoVision in Beziehung gesetzt und intelligent verwaltet. Ein mit Microsoft Visio erstelltes Geschäftsprozessmodell kann dabei beispielsweise durch ein mit Microsoft Word erstelltes Textdokument näher beschrieben sein. Über solche Beziehungen, die im Gegensatz zu einfachen Hyperlinks eine Bedeutung tragen, kann in CognoVision graphisch navigiert und zu den jeweiligen Dokumenten verzweigt werden. Auf Basis des zugrunde liegenden Berechtigungskonzeptes können Nutzer dann diese Dokumente in den Formaten HTML bzw. PDF betrachten oder mit Standard OfficeApplikationen bearbeiten. Die vollständige Integration von Visio erlaubt die grafische Gestaltung und Publikation von Prozessmodellen innerhalb von CognoVis ion, wobei die erzeugten Shapes als Datenbankobjekte abgelegt und somit wieder verwendbar sind. Die Installation von Clients auf den Rechnern der Anwender entfällt. Ein Standard-Internetbrowser genügt als Benutzeroberfläche und ermöglicht so den weltweiten Zugriff auf zentral redundanzfrei gespeicherte Informationen. Gleichzeitig besteht für jeden Nutzer so die Möglichkeit zur dezentralen Pflege der Objekte. Dadurch lassen sich Aufgaben des Wissensmanagements in die sonstigen Geschäftsprozesse des Unternehmens einbinden. Das wiederum is t eine Voraussetzung für die effiziente Abwicklung der Wissensprozesse und die Aktualität der vorhandenen Informationen im System. Die Versionierung von Objekten ermö g60 licht es, eine Historie zu dokumentieren, was beispielsweise im Qualitätsmanagement und der Validierung von IT-Systemen bedeutsam ist. Details zur Prozesskette Links zu anderen Dokumenten Details und Verlinkung einer Funktion Verwendungsnachweis der Prozesskette Abbildung 3: Verlinkung von Prozesskette und Dokumenten (Beispiel) Die Strukturierung der gespeicherten Objekte nach Geschäftsprozessen sowie deren flexible Verlinkung unterstützen zusammen mit der integrierten Suchfunktion und dem rollenbasierten Zugriff das gezielte Auffinden relevanter Informationen (Abbildung 3) und vermeiden eine Überforderung der Anwender. Dabei können Informationen beliebiger elektronischer Formate integriert und über Links verknüpft werden. Die Anwender sehen jeweils nur die für sie relevanten LinkTypen. Das Konzept der nutzerspezifischen Sichten, verbunden mit dem individuellen Link-Management erlaubt die aktive Gestaltung der Wissensstrukturen, was einen Fortschritt gegenüber der einfachen Suche in Datenbanken darstellt. Hinzu treten Konzepte wie Mehrsprachigkeit und Mandantenfähigkeit des Systems sowie die Integration mit Microsoft Project, die auch bei internationalen Konzernstrukturen übergreifende Wissensmanagement-Projekte unterstützen. 61 Im Ergebnis wird so im Unternehmen vorhandenes Wissen transparent und für alle Mitarbeiter verfügbar gemacht. Beispielhafte Nutzungsmöglichkeiten der prozessorientierten Dokumentation in CognoVision liegen in der vereinfachten Einarbeitung neuer Mitarbeiter, dem Qualitätsmanagement und der Geschäftsprozessoptimierung, sowie der Beschleunigung und Vereinfachung des Roll-Out von Pilotprojekten (beispielsweise im IT-Bereich). Wissen entsteht dabei nicht nur durch das isolierte Betrachten von Daten, sondern durch die Vernetzung und individuelle Strukturierung von Informationen aus unterschiedlichsten Bereichen und Systemen. 4 4.1 Unterstützung von Wissensmessung und Wissensbewertung Einführung in die Thematik Die Messung und Bewertung von Wissen stellt ein wichtiges Teilgebiet innerhalb des Wissensmanagements dar. Man unterscheidet zwei prinzipielle Möglichkeiten, um kritisches Erfolgswissen zu ermitteln [Güldenburg 1997]. Der ressourcenorientierte Ansatz stellt die Analyse des Kerns eigener Wissensbestände in den Mittelpunkt und versucht die Frage zu beantworten, welche Wissensbestandteile besser sind als diejenigen der Konkurrenz. Damit werden letztlich die Kernkomp etenzen des eigenen Unternehmens herausgearbeitet. Der marktbasierte Ansatz hingegen versucht, kritische Erfolgsfaktoren der Märkte eines Unternehmens zu bestimmen, um daraus relevantes Wissen abzuleiten. In beiden Fällen mangelt es heute an geeigneten Indikatoren und Messverfahren. Zu diesem Thema schreiben Bullinger et al. [1998, S. 32 f.]: „Die Messung und Bewertung organisationalen Wissens gehört zu den größten Schwierigkeiten, die das Wissensmanagement heute zu bewältigen hat. Ein entscheidender Durchbruch konnte in diesem Bereich bisher noch nicht erzielt werden.(...) Nur wenn die Messung zentraler Größen des Wissensmanagementprozesses in Zukunft vereinfacht werden kann und höhere Akzeptanz erhält, kann der Managementkreislauf geschlossen und von echtem Wissensmanagement gesprochen werden.“ Eng mit dieser Frage verknüpft sind die Handlungsfelder Wissenszielbildung, Wissensidentifikation und Wissensentwicklung. Bei der Definition von Wissenszielen werden immer auch die Möglichkeiten der späteren Erfolgsmessung und -bewertung festgelegt. Abstrakte Zielformulierungen sind wenig hilfreich [Bullinger et al. 1998]. Um Wissen identifizieren zu können, bedarf es geeigneter Mess62 methoden. Sonst bleiben Wissensmängel unerkannt und vorhandenes Wissen wird nicht genutzt. Diese Intransparenz des eigenen Wissens charakterisiert viele heutige Unternehmen. Wissensentwicklung ist nur möglich, wenn neues Wissen, wie es beispielsweise im Rahmen von Projektarbeit aufgebaut wird, systematisch erfasst, bewertet und verteilt wird. Gerade in wissensintensiven Branchen, wie beispielsweise der Unternehmensberatung, ist dies von entscheidender Bedeutung für zukünftige Projekterfolge und einen permanenten Wissensvorsprung vor Kunden und Konkurrenten. Nicht verwechselt werden sollten die Wissensmessung und -bewertung mit der Beurteilung des Wissensmanagements eines Unternehmens. Bullinger et al. [1998] unterscheiden drei Dimensionen ganzheitlichen Wissensmanagements: ? Organisation ? Personal ? IK-Technologien Die organisatorische Dimension kann weiter untergliedert werden in die Teilbereiche Organisationsstruktur, Prozessmanagement und Unternehmenskultur. Wichtige Teilaspekte der Dimension Personal sind Mitarbeitergewinnung und -entwicklung, Anreiz- und Entlohnungssysteme. IK-Technologien bilden die technische Infrastruktur für Wissensmanagement. Eine ganzheitliche Beurteilung des Wissensmanagements von Unternehmen muss diese drei Dimensionen berücksichtigen und sollte einem prozessorientierten Ansatz folgen. Hierzu liegen bereits einzelne Arbeiten vor, darunter auch zum Thema Benchmarking von Wissensmanagement.2 Im Folgenden wird exemplarisch untersucht, welchen Beitrag die Fuzzy Set Theorie zur Messung und Bewertung von Wissen leisten kann. Dabei werden Grundkenntnisse der Fuzzy Set Theorie vorausgesetzt.3 2 Vgl.z.B. Tucher von Simmelsdorf [2000] sowie Thiesse [2001]. 3 Eine gut verständliche Einführung in die Fuzzy Set Theorie bieten z.B. Nauck und Kruse [1998] sowie Zimmermann [1991, 1993]. 63 Ausgangspunkt ist die Überlegung, dass Wissen teilweise über direkt beobachtbare Ersatzgrößen gemessen werden kann. Zu den Indikatoren, die denkbar und teilweise heute bereits gebräuchlich sind zählen: ? durchschnittliche Weiterbildungsausgaben je Mitarbeiter/Jahr ? durchschnittliche einschlägige Berufsjahre je Mitarbeiter ? Anzahl der M itarbeiter je Qualifikationsstufe im Unternehmen ? durchschnittliche Wertschöpfung je Mitarbeiter ? Anzahl Patente und Veröffentlichungen je Mitarbeiter ? Anzahl der FuE-Mitarbeiter als Prozentsatz der Belegschaft ? durchschnittliche Anzahl von Schulungstagen je Mitarbeiter und Jahr ? Anzahl erfolgreich abgeschlossener Kundenkontakte je Vertriebsmitarbeiter Die genannten Größen sind exemplarisch und haben jeweils ihre Stärken und Schwächen, die hier aber nicht weiter untersucht werden sollen. Wichtig ist hingegen festzuhalten, dass es eine Reihe quantitativer Größen gibt, die im Rahmen einer Wissensmessung erfasst und ausgewertet werden können. „Wissen“ ist ein schlecht strukturiertes Phänomen. Beziehungen der direkt messbaren Wissensindikatoren zu abgeleiteten aggregierten Faktoren müssen als vage angesehen werden. Zwischen den Wissensindikatoren sind zusätzlich kompensatorische Beziehungen möglich. Aus den genannten Gründen wird vorgeschlagen, Fuzzy Sets im Rahmen der Wissensmessung und -bewertung zu nutzen. Zwei Einsatzmöglichkeiten der Fuzzy Set Theorie sind nachfolgend kurz dargestellt: ? Fuzzy Klassifikation im Rahmen der Bewertung des Wissens einzelner Mitarbeiter ? Aggregation und Visualisierung der Wissensbewertung mittels Fuzzy Control Der gewählte beispielhafte Anwendungskontext sind Unternehmensberatungen. Die vorgeschlagenen Ansätze sind jedoch auf andere Unternehmenstypen übertragbar. 4.2 Fuzzy Klassifikation auf Mitarbeiterebene Viele Unternehmen verfügen heute über eine Qualifikationsdatenbank, die Fähigkeiten und Erfahrungen, Schulungen und Interessen der Mitarbeiter aufnimmt. Als Ergänzung zu heutigen verbalen Beschreibungen ist es sinnvoll, eine Aufteilung 64 der Mitarbeiter in unterschiedliche Kompetenzklassen bezüglich ihres aktuellen Wissensstandes vorzunehmen. Eine solche Klassifikation der Mitarbeiter lässt sich für unterschiedliche Zwecke nutzen, wie etwa das Projektstaffing, Preisverhandlungen mit Kunden, Einkommensvereinbarungen und die gezielte Weiterbildung der Mitarbeiter. Verschiedene Gebiete relevanten Wissens sollte man differenzieren. In der ITorientierten Unternehmensberatung kommen dafür beispielsweise in Betracht: ? Methoden- und Projektmanagementwissen ? Wissen über Kunden und Branchen ? Fachwissen (weiter differenziert nach Anwendungsfeldern) In jedem dieser Wissensbereich werden nun die Mitarbeiter in drei Kompetenzklassen aufgeteilt: ? Anfänger ? Fortgeschrittene(r) ? Experte Diese Aufteilung soll möglichst objektiv auf Basis der beobachtbaren Wissensindikatoren vorgenommen werden. Solche mitarbeiterbezogenen Indikatoren sind in der Beratung beispielsweise: ? Anzahl Schulungstage im relevanten Anwendungs- oder Methodenbereich ? Anzahl Projekttage im relevanten Anwendungsbereich ? Anzahl der einschlägigen Projekte des Mitarbeiters ? Anzahl der Akquiseunterstützungen durch den Mitarbeiter in der Branche ? Anzahl einschlägiger Berufsjahre in der betrachteten Kundenbranche Viele weitere Indikatoren sind denkbar, wobei zusätzlich die Alterung von Wissen angemessen zu berücksichtigen ist. Spätestens am Ende jedes neuen Projektes muss für die beteiligten Mitarbeiter ihre Wissensbewertung aktualisiert werden. Dies unterstreicht die große Bedeutung der heute gern vernachlässigten Projektnachbereitung. Bei der Aufteilung der Mitarbeiter in Kompetenzklassen ist zu bedenken, dass scharfe Trennungen zwischen einzelnen Klassen nicht sinnvoll sind, da der Wissenserwerb entlang eines Kontinuums verläuft. Mitarbeiter können daher gleichzeitig mehreren Klassen angehören, wobei die jeweiligen Zugehörigkeitsgrade in der Regel unterschiedlich sind. Um diesen Sachverhalt angemessen zu berücksich65 tigen, bietet sich eine Fuzzy Klassifikation an. Sie kann auf einfache Weise wie in Abbildung 4 dargestellt durchgeführt werden. Über das Kontinuum des jeweiligen Wissensindikators werden die drei Ko mpetenzklassen als Fuzzy Sets modelliert. Je nach Ausprägung des Indikators ergibt sich für den betrachteten Mitarbeiter eine mehr oder weniger große Zugehörigkeit zu den Klassen. Mit 170 Projekttagen wird ein Mitarbeiter bezogen auf den Wissensindikator „Anzahl der Projekttage im Anwendungsbereich“ hier der Klasse „Fortgeschrittener“ mit der Zugehörigkeit 0,65 und der Klasse „Experte“ mit der Zugehörigkeit 0,3 zugeordnet. ? Anfänger Fortgeschrittener Experte 1 0.65 0.3 Anzahl Projekttage im Anwendungsbereich 0 0 100 200 Abbildung 4: Modellierung der drei Kompetenzklassen als Fuzzy Sets. Es ist zweckmäßig, die Beurteilung des Mitarbeiters aus mehreren Wissensindikatoren zu integrieren. So könnte man beispielsweise die Anzahl der Projekte, Projekttage und Schulungstage eines Mitarbeiters im jeweiligen Anwendungsbereich zum Faktor „Fachwissen“ verdichten. Dabei können sich erzielte Ergebnisse der Einzelfaktoren unter Umständen kompensieren. Eine niedrigere Anzahl von Projekttagen kann beispielsweise durch eine hohe Anzahl von Schulungstagen teilweise kompensiert werden. Das kann mit Regeln der Form WENN (Anzahl Projekttage entspricht Fortgeschrittener) UND (Anzahl Schulungstage entspricht Anfänger), DANN (Fachwissen entspricht Fortgeschrittener) 66 ausgedrückt werden. Um Regeln dieser Art zu implementieren existieren in der Literatur unterschiedliche Fuzzy-Operatoren4 , wie das gewichtete UND von Dubois et al. [1988]. Es ist wie folgt definiert: min i ? 1,..s mit max ?? i ( x),1 ? ? i ? s: Anzahl der Terme der Regelprämisse ? i (x): i-tes Fuzzy Set der Prämisse ? i: Merkmalsgewicht des Terms i (? i ?? ?[0,1]) Mit diesem Fuzzy-Operator lassen sich die einzelnen Wissensindikatoren bei der Aggregation zu einer Gesamtbeurteilung (hier: des Fachwissens) gewichten. Ein Indikator mit einem Gewicht von 0 hat keinen Einfluss auf das Aggregationsergebnis. Wenn alle beteiligten Größen mit 1 gewichtet sind, verhält sich der Operator wie eine Minimumverknüpfung. Ein Klassifikator im Anwendungsbereich Wissensmanagement wird viele Regeln enthalten, die den Zusammenhang der einzelnen Wissensindikatoren zu den aggregierten Größen beschreiben. Sind mehrere Regeln für das gleiche Fuzzy Set der Ergebnisgröße, also in unserem Beispiel das Fachwissen des Mitarbeiters, im Klassifikator gleichzeitig aktiv, dann müssen deren Ergebnisse wiederum durch geeignete Operatoren, wie etwa eine Mittelwertbildung, zusammengefasst werden. Auf den für Entscheider relevanten Aggregationsebenen ist es sinnvoll, die pro Mitarbeiter resultierenden Zugehörigkeitswerte in Form eines Balkendiagramms zu visualisieren (Abbildung 5). Im Gegensatz zu traditionellen Klassifikationsmethoden sollten ganz bewusst alle streng positiven Zugehörigkeiten zu unterschiedlichen Fuzzy Sets der Ergebnisgröße dargestellt sein, um das Ausmaß an Unschärfe in der Bewertung aufzuzeigen. 4 Vgl. zu Fuzzy-Operatoren beispielsweise Zimmermann [1991, 1993]. 67 Experte 0,2 Fortgeschrittene(r) Anfänger 0,7 0,08 ? 0 1 0 Abbildung 5: Visualisierung des Klassifikationsergebnisses durch ein Ba lkendiagramm 4.3 Aggregation und Visualisierung der Wissensbewertung mittels Fuzzy Control Die Ausführungen im letzen Abschnitt stellten Ergebnisse zu einzelnen Mitarbeitern in den Mittelpunkt. Die Wissensmessung sollte jedoch auch höhere organis atorische Ebenen erfassen, also z.B. Abteilung, Bereich und Gesamtunternehmen. Einerseits ist es hierzu sinnvoll, die Ergebnisse der unteren Ebenen zu aggregieren. So ergibt sich beispielsweise in einem Beratungsunternehmen die Kompetenz einer Abteilung für das Themenfeld „Supply Chain Management“ als Summe der Kompetenzen der einzelnen Mitarbeiter. Andererseits können auf den einzelnen Organisationsebenen auch neue Wissensindikatoren mit eventuell anderem Fokus hinzukommen. So ist es auf der Ebene der Abteilung wichtig, Wissen über die Fähigkeiten, Präferenzen und Auslastung der einzelnen Mitarbeiter zu haben, damit diese optimal eingesetzt werden können. Hierzu sind spezielle Indikatoren auszuwerten, wie z.B. die Personalspanne des Abteilungsleiters. Nahe liegend ist der Aufbau eines hierarchischen Kennzahlsystems zur Beurteilung des gegenwärtigen Standes an relevantem Wissen in der Organisation. Dabei könnte man beispielsweise die vier folgenden Dimensionen differenzieren, die den Unternehmenserfolg langfristig beeinflussen: Wissen über Lieferanten, Einkauf und Beschaffungsmärkte 68 Wissen über Methoden und Technologien in der Leistungserstellung Wissen über die eigenen Mitarbeiter (Kenntnisse, Prioritäten, Potenziale) Wissen über Kunden, Distribution und Zielmärkte Heute konzentriert man sich im Wissensmanagement gerne auf die zweite, technologiebetonte Dimension. Die anderen beiden sind jedoch ebenfalls von Bedeutung, wie etwa die negativen Beispiele von Unternehmen der New Economy in den vergangenen Jahren zeigen. Andere Strukturierungen sind selbstverständlich denkbar. Das Ergebnis jeder Dimension ist durch hierarchisch geordnete Subfaktoren bestimmt, die je nach Branche des betrachteten Unternehmen verschieden gestaltet sind. Auf der untersten Aggregationsebene stehen direkt erfassbare Wissensindikatoren, wie oben beschrieben. Auf den höheren Aggregationsebenen stehen abgeleitete Kennzahlen zum relevanten Wissen der betrachteten Organisationseinheit. Die Aggregation von Einzelwerten kann grundsätzlich analog zu der im vorigen Abschnitt beschriebenen Vorgehensweise erfolgen. Im Ergebnis entsteht so ein unscharfes Kennzahlensystem als Beitrag zum Wissenscontrolling. Hier soll jedoch eine andere Alternative dargestellt werden, die besonders geeignet erscheint, um die Ergebnisse einer Wissensbewertung den zuvor vereinbarten operativen Wissenszielen gegenüberzustellen. Dabei können, anders als beispielsweise in der Portfoliotechnik, beliebig viele Wissensdimensionen gleichze itig visualisiert werden. In Abbildung 6 entspricht für jede Wissensdimension der Wert 1 einer vollen Erreichung der gesetzten Ziele, während der Wert 0 als vollständige Verfehlung der gesetzten Ziele zu interpretieren ist. Diese Werte stellen Zugehörigkeitsgrade dar, die es auf adäquate Weise zu bestimmen gilt. Im Ergebnis werden mit dieser Darstellung auf intuitive Weise Wissenprofile für Unternehmensbereiche visualisiert. Diese bilden wiederum eine gute Grundlage, um konkrete Handlungsempfehlungen abzuleiten. 69 Wissen über Methoden und Technologien 1 0,85 Wissen über Lieferanten 1 0,5 0,7 1 Wissen über Kunden 0,4 1 Wissen über Mitarbeiter Abbildung 6: Visualisierung der Wissensbewertung in Relation zu den vereinbarten Wissenszielen. Abgebildet sind unterschiedliche Zugehörigkeitswerte. Der Wert 1 entspricht dabei einer vollen Zielerreichung. ? sehr gering gering mittel hoch sehr hoch 1 0.75 0.2 Betrag in Euro 0 0 400 0 70 8000 Abbildung 7: Beispielhafte Fuzzyfizierung des scharf ermittelten Wissensindikators „Durchschnittliche Weiterbildungsausgaben je Mitarbeiter pro Jahr“. ? etwas mittelmäßig beträchtlich 1 0 überhaupt nicht vollständig Abbildung 8: Terme der linguistischen Variable „Erreichungsgrad“5 mit trapezförmigem Zugehörigkeitsfunktionen. Die Zusammenhänge zwischen einzelnen Wissensindikatoren und höher aggregierenden Faktoren werden durch Regeln innerhalb eines hierarchischen Fuzzy Controllers modelliert.6 Die scharf gemessenen Werte der Indikatoren werden zunächst fuzzyfiziert und dann mittels unscharfer Inferenz weiterverarbeitet. Kompensation zwischen verschiedenen Indikatoren ist möglich. In Abbildung 7 sind beispielhaft die fünf Fuzzy Sets für „Durchschnittliche Weiterbildungsausgaben je Mitarbeiter pro Jahr“ durch Dreiecksfunktionen beschrieben. 5 In Anlehnung an Zimmermann [1989], S. 268. 6 Zu näheren Einzelheiten von Fuzzy Control vgl. beispielsweise Zimmermann [1991, 1993]. 71 WENN X 1 ist gering UND 1 X2 ist gering , DANN 1 x1 WENN X 1 ist hoch X1 UND 1 x2 X2 X2 ist gering , x1 X1 Y DANN 1 1 Y ist gering Y ist hoch 1 x2 X2 Y 1 Ergebnis-Fuzzy-Menge Ausprägungen der Wissensindikatoren X1 und X2 Ergebnis Zielerreichung Y defuzzifizierter Wert Y Abbildung 9: Grundprinzip der Verarbeitung von Eingangsdaten im Rahmen eines Fuzzy Controllers. Die Eingabe qualitativer Eingangsgrößen auf der untersten Hierarchiestufe kann gegebenenfalls unter Zuhilfenahme linguistischer Terme erfolgen, welche die linguistische Variable „Erreichungsgrad“ des jeweiligen Faktors verbal beschreiben (Abbildung 8). Das Grundprinzip der Datenverarbeitung im Rahmen von Fuzzy Control ist in Abbildung 9 veranschaulicht. Für die hier verfolgten Zwecke stellt Y den zu vis ualisierenden Grad der Zielerreichung in der jeweiligen Wissensdimension dar. Die Defuzzyfizierung des Ergebnisses erfolgt daher in das Intervall [0,1]. 5 Ausblick Ergänzend zur visuellen Darstellung der Zielerreichung ist eine Erklärungskomponente denkbar, die das Zustandekommen aggregierter Bewertungsergebnisse 72 erläutert, analog zum Vorgehen von Kuhl [1996] bei der Bewertung von Lagerhaltungspolitiken. Die hier skizzierte Vorgehensweise einer Wissensmessung und -bewertung unter Einsatz von Fuzzy Sets kann auf die Beurteilung des gesamten Wissensmanagements eines Unternehmens ausgedehnt werden. Dazu sind die im Rahmen eines ganzheitlichen Wissensmanagements relevanten Dimensionen Organisation, Personal und technische Infrastruktur jeweils durch hierarchisch geordnete Faktoren zu charakterisieren, deren unterste Ebene wiederum die direkt erfassbaren Größen enthält. Diese werden fuzzifiziert und entweder mittels geeigneter FuzzyOperatoren aggregiert oder über Expertenregeln und Fuzzy-Inferenzmechanismen im Rahmen eines Fuzzy Controllers zu übergeordneten Größen verdichtet. Diese lassen sich visualisieren oder zur Ableitung von Handlungsempfehlungen nutzen. Denkbar erscheint auch die Entwicklung einer Balanced Scorecard [Kaplan und Norton 1997], um strategische Wissensziele zu operationalisieren und den Erfolg von Maßnahmen des Wissensmanagements im täglichen Geschäft besser überwachen und steuern zu können. Balanced Scorecards sind ein vor allem in den USA häufig implementiertes Instrumentarium, um die Zielerreichung einzelner Unternehmensbereiche effektiver zu überwachen und im Sinne der Unternehmensziele zu verbessern. Charakteristisch für den Scorecard-Ansatz sind die verschiedenen gleichzeitig abgebildeten Betrachtungsperspektiven, wobei diese nicht unabhängig voneinander sind. In jeder Perspektive wird die Zielerreichung mit Hilfe geeigneter Kennzahlen gemessen. Diese müssen mit Vorgabewerten versehen werden, die sich aus den strategischen Zielen des Unternehmens ableiten. Um diese Vorgaben zu erreichen, sind geeignete Maßnahmen zu implementieren. Wegen der vagen ZielMittel-Beziehungen bietet es sich an, bei der Gestaltung einer Balanced Scorecard im Bereich des Wissensmanagements vorhandene Unschärfen ebenfalls mittels der Fuzzy Set Theorie zu modellieren. Die hier vorgestellten Ansätze werden derzeit weiter verfolgt und vertieft. Disclaimer: Die Angaben in diesem Beitrag geben nicht notwendigerweise den Standpunkt der Unternehmensgruppe DHC, Saarbrücken, wieder. Literaturverzeichnis Bezdek, J.C.: Pattern Recognition with Fuzzy Objective Function Algorithms. New York und London 1981. Bürgel, H. D. (Hrsg.): Wissensmanagement – Schritte zum intelligenten Unternehmen. Berlin u.a., 1998. 73 Bullinger, H.-J.; Wörner, K.; Prieto, J.: Wissensmanagement – Modelle und Strategien für die Praxis, in: Bürgel, H. D. (Hrsg.): Wissensmanagement – Schritte zum intelligenten Unternehmen. Berlin u.a., 1998, S. 21 – 39. Dubois, D.; Prade, H.; Testemale, C.: Weighted Fuzzy Pattern Matching, in FUZZY SETS AND SYSTEMS 28 (1988), S. 313 – 331. Gehle, M.; Mülder, W.: Wissensmanagement in der Praxis. Frechen, 2001 Güldenburg, S.: Wissensmanagement und Wissenscontrolling in lernenden Organisationen – ein systemtheoretischer Ansatz. Wiesbaden 1997. Hattendorf, M.: Wissensmanagement – Problemprozesse und Problem Prozesse, in Mohe, M.; Heinecke, H. J.; Pfriem, R.(Hrsg.): Consulting – Problemlösung als Geschäftsmodell. Stuttgart 2002, S. 180 – 194. Kaplan, R.S.; Norton, D.P.: Balanced Scorecard. Strategien erfolgreich umsetzen. Stuttgart, 1997. Kuhl, Jochen: Angepaßte Fuzzy-Regelungssysteme. Entwicklung und Einsatz bei ausgewählten betriebswirtschaftlichen Problemstellungen. Göttingen 1996. Nauck, D. und Kruse, R.: Fuzzy-Systeme und Neuro-Fuzzy-Systeme, in: Biethahn, J.; Hönerloh, A.; Kuhl, J.; Leisewitz, M.-C.; Nissen, V.; Tietze, M. (Hrsg.): Betriebswirtschaftliche Anwendungen des SoftComputing. Braunschweig/Wiesbaden 1998, S. 35-54. Nissen, V.: Anwendbarkeit von Fuzzy Sets in der Projektarbeit einer Unternehmensberatung. In: Biethahn, J.; Kuhl, J.; Lackner, A. (Hrsg.): Unschärfe in Wirtschaft und Technik. Tagungsband zum 5. Göttinger Symposium Soft-Computing, Göttingen 2002, S. 23 – 43. Peterson, M.: Prozesse des Wissensmanagements strategischer Unternehmensberatungen, in: Mohe, M.; Heinecke, H. J.; Pfriem (Hrsg.), R.: Consulting – Problemlösung als Geschäftsmodell. Stuttgart 2002, S. 162 – 179. Probst, G.J.B.; Raub, S. P.; Romhardt, K.: Wissen managen: Wie Unternehmen ihre wertvollste Ressource optimal nutzen. 3. Aufl. Frankfurt/M. und Wiesbaden 1999. Romhardt, K.: Die Organisation aus der Wissensperspektive: Möglichkeiten und Grenzen der Intervention. DUV, Wiesbaden 1998. Schindler, M.: Wissensmanagement in der Projektabwicklung. Dissertation der Universität St. Gallen, 2000. Schreyögg, G. und Conrad, P. (Hrsg.): Managementforschung 6 – Wissensmanagement. Berlin und New York 1996. Thiesse, F.: Prozessorientiertes Wissensmanagement – Konzepte, Methode, Fallbeispiele. Dissertation der Universität St. Gallen, 2001. 74 Tucher von Simmelsdorf, F.W. Frh.: Benchmarking von Wissensmanagement. Wiesbaden 2000. Wildemann, H.: Wissensmanagement, 2. Aufl. München 2000. Zimmermann, H.-J.: Strategic Planning, Operations Research and Knowledge Based Systems, in: Verdegay, J.-L.; Delgado, M. (Hrsg.): The Interface between Artificial Intelligence and Operations Research in Fuzzy Environment. Köln 1989, S. 253 – 274. Zimmermann, H.-J.: Fuzzy Set Theory – and Its Applications. 2. Aufl., Boston 1991. Zimmermann, H.-J.: Fuzzy Technologien: Prinzipien, Werkzeuge, Potentiale. Düsseldorf 1993. 75 Ruling Robots by the Activity Patterns of Hie rachical SOMs Matthias Reuter Institut für Informatik Julius Albert Str. 4 D-38678 Clausthal-Zellerfeld E-mail: [email protected] Keywords : Roboter, SOM, Computing with activities Abstract In diesem Artikel wird an einem ersten Beispiel gezeigt, wie man Roboter mittels auf selbstorganisierenden Karten (SOMs) initiierter globaler Aktivitätsmuster steuern und regeln kann. Im einzelnen wurden dabei einzelne hierarchisch angeordnete SOMs trainiert, wobei in deren globalen Aktivitätsmustern die sowohl die Spielsituationen und die aus ihnen resultierenden Steuerungsanweisungen kodiert wurden. 1 Theorie Obwohl eine Vielzahl von verschiedenen neuronalen Netzstrukturen in der Ve rgangenheit entwickelt und erprobt wurden, kann keines von ihnen die für die biologische Informationsverarbeitung grundlegende Aufgaben der integrierenden Informationsstrukturierung lösen. So ist es z. B. für die simulierten neuronalen Netze bis heute unmöglich, selbständig Metakonzepte mit Hilfe des Chunkings zu erzeugen, um mit diesen Chunks komplexe Handlungssituationen zu erfassen und zu bewerten. Mit Hilfe dieser aus verschiedenen Wissenseinheiten angelegten Schemata gelingt es biologischen neuronalen Netzen nicht nur an sich unabhängige Wissenseinheiten (z. B. den Apfel und den Baum) zu neuen Wissenseinheiten 77 (Apfelbaum) zusammenfassen, sondern es gelingt ihnen vor allem, bei Präsents eines Items des Schemas die anderen Items auch (mehr oder minder dominant) zu aktivieren und ggfs. zur Klassifikation/ Identifikation einer gegebenen Situation heranzuziehen. Dies ist aber eine unbedingte Voraussetzung komplexe Spielsituationen in einem neuronmentalen Modell zusammenzufassen und einen stetigen Spielfluss zu erzeugen Ein weiteres Problem der künstlichen neuronalen Netze besteht darin, dass die Klassifikationskonzepte von ihnen auf die sog. Out-PutLayer beschränkt sind, während bei den biologischen Netzen die Gesamtstruktur aller Neuronen als materielle Basis der Konzepte dient. Aus diesem Grund scheint es, dass die künstlichen neuronalen Netze eine Art Flaschenhalsstruktur beinhalten, die zudem durch die Verwendung sog. Großmutterneuronen noch eine strenge Lokalisation der Kodierung des abgespeicherten Wissens aufweist. Wahrscheinlich war diese nicht robuste Lokalisation der Grund dafür, warum die Natur nicht diese Art und Weise der Kodierung von Wissen wählte, sondern das Wissen in der Struktur der Gesamtaktivität der bio-logischen Neuronen ablegt. Kurz zusammengefasst gelingt es der Natur so nämlich: ? Daten von verschiedenen Sinnen unter Verwendung einer generellen Kodierungsvorschrift in einem Aktivitätsmuster abzulegen, ? Wissen stetig durch Anlagerung neuer Fakten in bereits bestehende Wissensschemata zu integrieren, ? vormals getrennte Wissensstrukuren durch eine adäquate Kombination zu neuen Klassifikations- / Identifikationskonzepten zusammenzufassen. Will man diesen Ansatz der Wissensablage wählen, so muss man bedenken, dass man zwischen verschiedenen Arten der Aktivitäten unterscheiden muss. Als erstes existieren da nämlich die durch die interneuronalen Verbindungen initiierten Aktivitäten als zweites die durch die einzelnen Neuronen initiierten Aktivitäten und als drittes die Aktivitäten, die sich durch die Kombination der beiden ersteren ergeben. Um nun die eigentlich relevante Aktivität bei den simulierten Netzen zu gebrauchen, sollte man sich wiederum an das biologische Vorbild halten, welches Informationen auf zweierlei Art kodiert [1]: ? Die Aktivitätsstruktur des gesamten neuronalen Netzes zu einem Zeitpunkt k kodiert das Klassifikationsergebnis / Klassifikationskonzept der momentanen Sinnesdatenkonfiguration. ? Die Aktivitätsrate der einzelnen Neuronen kodiert die momentane Intensität der Sinnesdatenkonfiguration. Um diese Forderungen zu erfüllen bietet sich der Einsatz von ein symmetrisches Gitter bildenden selbstorganisierenden neuronalen Netzen (SOMs) an, da auf diesen globale Aktivitätsmuster besonders einfach visualisiert werden können und 78 die Intensitäten sich „nur“ in der Höhe der Aktivitäten widerspiegeln werden. In Abbildung 1 ist solch eine schematisierte Aktivitätsstruktur gezeigt. Abbildung 1: 2-dimensionales Neuronengitter mit Aktivitätszentren Um während der Lern - und Aktivierungsphase des Netzes ein komplexes Aktivitätsmuster zu erzeugen, muss auf dieser Netzstruktur eine rotationssymmetrische Nachbarschaftsfunktion, wie sie z. B. die Sink-Funktion oder die Gaußfunktion darstellt, gewählt werden. Die Sink-Funktion, die auch als „mexican had Funktion“ bekannt ist, ist deswegen von besonderem Interesse, da sie der Fourier Transformierten der 'Tophat'Function entspricht, welche ihrerseits gerade einer Fresnelschen-Linse entspricht und daher unseren Betrachtungen einer lokalen Aktivitätsbetrachtung sehr nahe steht. Zudem resultiert aus einer Multiplikation dieser Fresenelschen Linsenfunktion im Fourier-Raum gerade einer bandbeschränkten Aktivierung, also einer Art singulärem Impuls. Die Sink-Funktion (siehe Abbildung 2) ist dabei gegeben durch Sin(r)/r [=1 at r=0] Ihr Konvolutionskern kann durch eine Matrixform {{1,-2,1}, {-2,4,-2}, {1,-2,1}} beschrieben werden, der wiederum der Fourier-Transformierten der Heaviside Funktion H(r) entspricht, für die ja bekanntlicherweise gilt: [H(r) = 1 für r<=1 und 0 für r>1]. 79 Excitatory region Excitatory region Excitatory region Inhibitory region Inhibitory region Abbildung 2: Verlauf der Sink -Nachbarschaftsfunktion Vor allem die Existenz der erregenden und hemmenden Regionen der der SinkFunktion ermöglicht dabei eine adäquate Verwendung des Prinzips des "Comp uting with Activities", da durch diese Regionen unterschiedlichste Effekte der Beeinflussung der verschiedenen Aktivitätsmuster berücksichtigt werden können. Die Wahl der Anzahl dieser Regionen ist dabei von der Problemstellung abhängig und muss daher bei der Initiierung des Netzes vorgegeben werden. In dieser Designphase muss ebenfalls entschieden werden, in welchen Dimensionen die Nachbarschaftsfunktion wirken soll, d.h. ob der Klassifikator nur als 2-dimensionales Gitter oder als n-dimensionaler Kubus aufgebaut werden soll. Des weiteren muss der Verlauf der Sink-Funktion so gewählt werden, dass ihre Maxima und Minima gerade auf den durch Neuronen besetzten Gitterplätzen liegen. Wegen dieser Nebenbedingung haben wir eine - durch die Sink-Funktion beschriebene - Aktivitätsfunktion der Form ? ? ? ? E sin(d ( q, k )) ? ( q, E , k ) ? ? ? d ( q, k ) I ? ? ? gewählt. Wie man sieht ist ? (q , E , k ) eine Funktion des Positionsvektors q des ? aktiven Neurons auf dem Gitter, eine Funktion eines Intensitätsvektors E der zu klassifizierenden / identifizierenden Information, eine Funktion des aktuellen Informationsverarbeitungsschrittes k und eine Funktion des Abstandes d, welcher die Position zu den anderen Neuronen um das aktive Neuron beschreibt. Der Ve c- ? tor I hingegen gewährleistet, dass die Aktivität im Intervall [-1,1] liegt. ? ? Diese Form der Aktivitätsfunktion ? (q , E, k ) der (erst mal einzeln betrachteten) Neuronen garantiert zudem, dass unterschiedliche globale Aktivitätsmuster nicht zu dicht neben einander angelegt werden können und es so in der Lernphase nicht zu Auslöschungen von Klassifikationskonzepten durch Interferenzeffekte kommen kann (siehe dazu auch Abbildung 1). 80 Andererseits wird aber durch diese Nachbarschaftsfunktion garantiert, dass ähnliche Aktivitätsmuster sich interferenzmäßig verstärken und sich während der Lernphase auf dem Gitter annähern, was eine Kombination von Konzepten mittels des Chunkingeffekts begünstigt. ? ? Für die Einhüllende der Aktivitätsfunktion ? (q , E , k ) wählten wir in unseren Experimenten die folgende Form ? d (q , k ) ? 2 ? ? Env (? (q , E , k )) ? e f 2 wobei f einen Normierungsfaktor beschreibt. Diese Einhüllende entspricht aber gerade der Gauß-Funktion, welche natürlich nur dann verwendet werden kann, wenn keine Chunks auf der Karte auftreten. Für die Aktivitätsfunktion samt ihrer Nachbarschaftsfunktion gilt daher ? ? d ? q ,k ?2 ? ? ? E sin( d (q , k )) ? f 2 ? ( q , E, k ) ? ? e ? I d (q , k ) Da jedes Neuron auf dem Gitter als Quelle einer solchen Aktivitätsfunktion fun? ? giert, wird sich die globale Aktivitätsfunktion ? ( q, E , k ) des Gitters als Superpo? ? sition der einzelnen Aktivitätsfunktionen ? l ( q, E , k ) darstellen, wobei der Indizes l der Zählnummer des einzelnen Neurons entspricht. Für die globale Aktivi? ? tätsfunktion ? ( q, E , k ) gilt dann ? ? ? ( q , E, k ) ? L ? l ?1 L ? l ?1 ? ? ? l (q , E , k ) ? ? ? d ?q l , k ?2 ? El sin( d (ql , k )) ? f 2 ? e ? d ( ql , k ) I In Abbildung 3 ist das Aktivitätsschema einer unter diesen Bedingungen konditionierten SOM dargestellt. 81 Abbildung 3: Aktivitätsschema einer trainierten SOM Wie man leicht einsieht, liegt das eigentliche Winnerneuron an dem markierten Punkt im rechten unteren Teil der SOM, wobei dieses jetzt aber “nur” als Teil des globalen Aktivitätsschemas zu sehen ist. Wie man nun weiterhin leicht einsieht, wird die globale Änderung dieses Aktivitätsschemas einer ebenso globalen Änderung des Klassifikations- / Identifikationsresultates der Karte entsprechen, auch wenn das Winnerneuron seine Position nicht geändert hat. Dieser Fall ist in Abbildung 4 dargestellt. 82 Abbildung 4: Aktivitätsschema 2 der trainierten SOM An Hand dieser beiden Abbildungen versteht man leicht, warum unter Zuhilfenahme der Gesamtaktivität des Gitters ein erweitertes Klassifikations- / Identifikationsvermögen der SOMs erreicht wird. Während nämlich bei der alleinigen Interpretation des Klassifikations- / Identifikationsvermögens durch das Winnerneuron die beiden eben angegeben Fälle zum selben Interpretationsergebnis führen würden, werden jetzt zwei unterschiedliche Situationen diagnostiziert. Das heißt aber, dass durch die Betrachtung der globalen Aktivitäten ungleich mehr Informationen auf der Karte gespeichert werden können. Bedingt durch die Gleichberechtigung aller Neuronen auf der Karte muss allerdings die Netztopologie mit berücksichtigt werden. Damit es nämlich bei den verwendeten Aktivitätsmustern nicht zu unerwünschten Randwertproblemen durch den Abbruch der Karte kommt, muss diese zu einem geschlossenen Torus, wie in Abbildung 5 gezeigt, geformt werden. Aus diesem Grunde spricht man in diesem Fall von einer geschlossenen SOM. Natürlich entspricht der in Abbildung 5 abgebildete Torus nicht der eigentlich simulierten SOM, da auf dieser alle Neuronen den gleichen Abstand voneinander haben müssen. 83 Abbildung 5: Topologische Form einer geschlossenen SOM In Abbildung 6 ist das Klassifikations- / Identifikationsverhalten einer geschlossenen SOM gezeigt. Klar erkennt man an dieser Abbildung, dass auf dieser geschlossenen Struktur das Aktivitätsschema eine hochgradig symmetrische Form annimmt, wobei dieses Kriterium für die Zuordnung des Klassifikations- / Identifikationsverhalten sich als äußerst nützlich erwiesen hat. Abbildung 6: Typisches Klassifikationsverhalten einer geschlossenen SOM 84 2 Experimentelle Ergebnisse Abbildung 7 zeigt eine erste Applikation der eben besprochenen Theorie. Gezeigt ist das Aktivitätsverhalten einer geschlossenen SOM, die dazu verwendet wurde, um Spielszenen fussballspielender Roboter zu kategorisieren. Auf dieser Karte der Dimension 100*150 Neuronen wurden die diversen Szenerien eines Spiels kodiert, wobei 150.000 Trainingszirkel dem Netz präsentiert wurden. Wie man deutlich erkennt, stellt sich das Aktivitätsverhalten der durch die Karte repräsentierten Spielsituation als äußerst filigranes Muster dar. In dieser Aktivitätsstruktur sind alle Randbedingungen der momentanen Szenerie im Kontext einer globalen Spie lanalyse gespeichert. Natürlich ist dieses Muster nur dann eineindeutig auslesbar, wenn man den Kode der durch das Netz evaluierten neuromentalen Repräsentation des Spielverlaufes kennt, was aber im Allgemeinen nicht der Fall sein wird. Auch hier, wie im Biologischen, stellt sich als die Informationskodierung als höchst individuelles Kodierungsschema dar, welches sich dem außenstehenden Betrachter nur durch das von Karte initiierte Steuerungs- und Regelungsverhalten offenbaren wird. ( Die dominierende Klassifikationsaktivität liegt in diesem Beispiel in der unteren linken Ecke der Karte.) Abbildung 7: Aktivitätsstruktur einer geschlossenen SOM, die eine Szene eines durch Roboter durchgeführten Fußball-spiels repräsentiert In Abbildung 8 ist die Bedienoberfläche des Programms, welches die eben besprochenen Netzstrukturen steuert und visualisiert gezeigt. Im oberen linken Teil der Bedienoberfläche ist das Spielfeld der Roboter visualisiert. Wie man erkennt, wird im visualisierten Beispiel das Spiel von zwei Robotern vollzogen. Darunter ist die Aktivität der das Spiel-geschehen repräsentierenden SOM gezeigt, wobei 85 die hellere Region der SOM den Schwerpunkt der neuromentalen Repräsentation der momentanen Spielsituation bildet. Auch hier gilt wieder, dass die Szenerie nicht etwa durch das hier schwarze Winnerneuron, welches in der unteren Ecke platziert ist, repräsentiert wird, sondern durch die Gesamtaktivitätsstruktur der gesamten Karte. Abbildung 8: Bedienoberfläche des verwendeten Softwaretools Der in Abbildung 7 gezeigten geschlossenen SOM zur Spielszeneriebewertung wurde eine SOM mit der Dimensionierung 48*50 Neuronen nachgelagert, welche die Aufgabe hatte, ganze Spielzüge zu kategorisieren. Dabei wurden in einem ersten Ansatz 10 Situationen des Spieles zusammen-gefasst und der übergelagerten Struktur als Lernvektor präsentiert. Die Zahl 10 wurde dabei aus verschiedenen Spielanalysen als optimal evaluiert und stellt daher einen ersten Erfahrungswert und daher kein „Muss“ dar. Die situations-abhängige Nominierung dieser Zahl dürfte dabei das Forschungsfeld der nächsten Zeit darstellen, da die Zusammenfassung von Szenerien sicherlich durch eine Art bewertendes Aufmerksamkeitsmodul und nicht durch eine feste Vorgabe gesteuert werden sollte. Die nächste Bildfolge zeigt das Klassifikationsverhalten dieses nachgelagerten Netzes. Wie man an den links dargestellten Szenerien deutlich erkennt, ändert sich die Spielsituation dahingehend, dass der von links angreifende Roboter sich allmählich dem weißen Ball nähert. Die Spielsituationsrepräsentation der SOM ändert sich dabei im Spielverlauf hauptsächlich dadurch, dass sich das Aktivitätsmuster mittig aufspaltet und der durch einen schwarzen Punkt ausgezeichnete Schwerpunkt der Aktivität sich in den beiden letzen Abbildungen von oben nach 86 unten verlagert. Dieses Ergebnis bestätigt in sofern unsere vorherige Diskussion, als dass die globale Struktur sich an sich nur unwesentlich ändert, da der helle Balken durch die Karte sich nicht verschiebt, sondern nur aufspaltet. Abbildung 9a: Spielverlaufrepräsentation I Auch dass sich das Aktivitätsmuster nur „unwesentlich“ in den beiden letzten Spielsituationsrepräsentationen ändert, entspricht den Erwartungen, die aus den theoretischen Überlegungen folgen, da sich für das System die Bedrohung und damit die anstehenden Steuerungs- und Regelungsanweisungen nur unwesentlich verändert haben. Abbildung 9b: Spielverlaufsrepräsentation II 87 Abbildung 9c: Spielverlaufsrepräsentation III Den hier dargestellten SOMs ist ein Backpropagationnetz angegliedert, welches dazu dient, die neuromentalen Repräsentationen der SOMs in adäquate Steuerungs- und Regelungsbefehle zu transformieren. Als Sollvektoren werden diesem Netz dabei von uns vorgegebene, aus einer Spielsituation „logisch“ folgende, Steuerungs- und Regelungsanweisungen präsentiert, die dann so lange in diesem Netz trainiert werden, bis es zu den erwünschten Handlungen der Roboter kommt. 3 Zusammenfassung und Ausblick Der Einbezug der Gesamtaktivität eines neuronalen Netzes in die Bewertung des Klassifikations- und Identifikationsverhaltens des Netzes stellt einen fundamental anderen Ansatz dar, als die bisher verwendeten Repräsentationen der Klassifikations- und Identifikationskonzepte durch einzelne Neuronen. Erste Ergebnisse dieser Art der Informationskodierung zeigen, warum die Natur den ersten Weg der Informationskodierung verwendet hat: Es gelang ihr dadurch un-weit mehr Information auch in kleinen neuronalen Netzen abzulegen, wodurch sie zu einer ressourcensparenden optimierten Kodierung hochdimensionaler Eigenschaftsvektoren gelang. Zudem gelingt es durch den Ansatz des “Computing with Activities” die biologische Schematabildung des Chunkings und der konkurrierenden Konzepte auf eine äußerst einfache und elegante Art, nämlich durch die Superpositionierung von Aktivitätsmustern, zu simulieren 88 References 1. Aizenberg, I. N. 1999. „Neural Networks Based on Multi-valued and Universal Binary Neurons”. LNCS 306-317. Springer, Dortmund, 1625. 2. Alonso, E. (Ed). 2002. “Advances in Plan-Based Control of Robotic Agents”. LNCS 2636. Springer, Heidelberg. 3. Benesch, H. 1972. „Der Ursprung des Geistes“, dtv. 4. Birk, A. (Ed). 2002. “RoboCup 2001: Robot Soccer World Cup V”. LNCS 2377. Springer, Heidelberg. 5. Reuter, M. 1999. “About the Quantisation of the Neural Nets”. LNCS 2101. Springer, Dortmund, 530-542 6. Reuter, M. 2001. “Computing with, Acitivities”. LNCS 2206. Springer, Heidelberg, 174-184. 7. Suri, N. (Ed.) 2002. “Mobile Agents”. LNCS 2535, Springer, Heidelberg Mattias Reuter ist in Dresden geboren und hat an der Technischen Universität Clausthal Physik und Geophysik studiert. Im Jahre 1987 erlangte er den Grad eines Dr.-Ing. und 2002 den eines Privatdozenten. Er arbeitete an der Universität der Bundeswehr Hamburg, der Universität Dortmund und einigen Forschungsinstitutionen. Er entwickelte verschiedene Preprosessing- und Lernverfahren und beschäftigt sich momentan hauptsächlich mit der „neuronal net dynamics“ und deren Anwendung in der Robotik. 89 Data Mining mit Graphischen Modellen Frank Rügheimer Otto-von-Guericke Universität Magdeburg Fakultät für Informatik Institut für Wissens- und Sprachverarbeitung Universitätsplatz 2, 39106 Magdeburg Tel. +49 391 67 18182, Fax: +49 391 67 12018 E-M ail: [email protected] Kurzdarstellung Die Auseinandersetzung mit wissenschaftlichen Problemen erfordert es in vielen Fällen, große Datenmengen hinsichtlich auftretender, noch unbekannter Muster und Regelmäßigkeiten zu durchforsten. Das angestrebte Ziel besteht darin, zugrunde liegende Prinzipien und Gesetzmäßigkeiten abzuleiten, die zum tieferen Verständnis der betrachteten Materie beitragen. Ganz ähnliche Anforderungen ergeben sich auch für zahlreiche Anwendungen aus dem Bereich der Wirtschaft. Hier erlaubt eine Analyse gesammelter Daten etwa die Erstellung von Prognosen zu Marktentwicklung, Kundenverhalten oder erwarteten Bedarfsmengen, die als wertvolles Hilfsmittel in Planung und Entscheidungsfindung einbezogen werden können. Die Wissensentdeckung in Datenbanken, für die der Begriff Data Mining geprägt wurde, befasst sich mit den zur Lösung derartiger Aufgaben geeigneten Werkzeugen und Methoden. Ein wesentliches Problem bei der Analyse von Daten stellt die häufig sehr große Anzahl relevanter Variablen und somit sehr hohe Dimensionalität des Datenraumes dar. Die Verwendung graphischer Modelle, wie Bayesschen Netzen oder Markow Netzen, gestattet es in vielen Fällen, derartige Probleme effizient zu behandeln. Diese Modelle liefern einerseits eine kompakte Darstellung des Daten91 raumes, sind andererseits aber auch in der Lage, die komplexen Abhängigkeitsstrukturen zwischen Variablen korrekt wiederzugeben. Schlüssel ist hier eine Ausnutzung praktisch immer vorhandener bedingter Unabhängigkeiten zwischen Variablen oder auch Variablenmengen. Diese erlauben eine Dekomposition des Datenraumes in insgesamt deutlich leichter zu verarbeitende Unterräume, deren Beziehungen zueinander jedoch nicht vernachlässigt werden dürfen. Anhand einer Anwendung aus dem Bereich der Eigenschaftsplanung in der Automobilindustrie wird die Zerlegung eines Variablenraumes dargelegt, die mit einer Modellierung unter Verwendung von Markow Netzen einhergeht. Weiterhin werden Operationen benannt, die ein schnelles Schlussfolgern unter Nutzung von a priori Information sowie eine Integration neuer Informationen in bestehende Modelle ermöglichen. Hierbei handelt es sich um das so genannte Focussing, dessen Einsatzmöglichkeiten sich auf die Abfrage bestehender Modelle beziehen, weiterhin um die Operationen Revision und Updating, die zur Modifikation bereits existierender Netze eingesetzt werden. Im Zusammenspiel mit diesen Operationen kann bei Verwendung graphischer Modelle kann ein Planungsmodell geschaffen werden, das einerseits direkt zur Ermittlung von Bedarfen eingesetzt, außerdem aber auch zur Simulation der Wirkung lokal eingebrachter Änderungen genutzt werden kann. Hierdurch wird ein anpassungsfähiges System für Planungen von hoher Präzision geschaffen. Schlüsselworte: Data Mining, Graphische Modelle, Dekomposition, Eigenschaftsplanung Referenzen C. Borgelt, R. Kruse, 2002, Graphical Models - Methods for data analysis and mining, Wiley, Chilchester. E. Castillo, J.M. Gutierrez, A.S. Hadi, 1997, Expert Systems and Probabilistic Network Models, Springer-Verlag, New York, Berlin, Heidelberg. H. Detmer, J. Gebhardt, 2001, Markov-Netze für die Eigenschaftsplanung und Bedarfsvorschau in der Automobilindustrie, Künstliche Intelligenz, 3/01, S.16-22. 92 6. Göttinger Symposium Soft-Computing Soft-Computing in Wissenschaft und Wirtschaft 01. Juli 2003 ISBN 3-930185-26-1