Inhaltsverzeichnis - Designlabor der Fachhochschule Lübeck
Transcrição
Inhaltsverzeichnis - Designlabor der Fachhochschule Lübeck
Inhaltsverzeichnis 3 Editorial Felicidad Romero-Tejedor 4 Design nach der Postmoderne Holger van den Boom 10 Un-Bilder. Im Ruecken der Bildgesellschaft Felicidad Romero-Tejedor 16 Brauchen wir ueberhaupt design? Diethard Janßen 20 Zweckrationalitaet als Design Felicidad Romero-Tejedor 28 Informationsarchitekturen des Kreativen Holger Ebert 36 Mechanik und Elektronik fuer designer Diethard Janßen 42 Das Design der Primzahlen Wulf Rehder 48 Design nur mit Invarianten Alfred Hückler 58 diplomarbeiten-corner Digital Lightwriting zur didaktischen planung fuer Computeranwendung Nina Borrusch Optimisation of hair rendering Gunnar Dröge Webservices der deutschen Telekom Oliver Jenny Ergonomie und Erstellaufwand Sarah Mettin Image: Produktionsbereich Draeger Safety Piotr Furman Farbe & Design unter kulturellen Aspekten Tanja Seetzen Popularitaetsfoerderung: Synje Norland Elisabeth Schwarz oeffnungszeiten 22/2008 1 Die Autoren Univ.-Prof. Dr. habil. Holger van den Boom geb. 1943 in Kiel. Ausbildung als Grafikdesigner. Studium der Philosophie, Mathematik, Linguistik an der Universität Köln. Promotion 1974. Habilitation TU Berlin 1982. Seither Professor für Designwissenschaft an der Hochschule für Bildende Künste Braunschweig; Leiter der Arbeitsstelle für Designinformatik. Seit Oktober 2008 Ruhestand | Dipl.-Ing. (FH) Nina Borrusch IGi-Absolventin 2008. Designerin für Motion Graphics bei Jung von Matt/next GmbH in Hamburg | Dipl.-Ing. (FH) Gunnar Droege IGi-Absolvent 2007. Technical Artist bei Rockstar Leeds | Prof. Dipl.-Des. Dipl.-Psych. Holger Ebert geb. 1952. Professor für Interaktionsdesign an der Georg-Simon-Ohm Hochschule Nürnberg, Fakultät Design. Leiter des Usability-Labors | Dipl.-Ing. (FH) Piotr Furman IGi-Absolvent 2008. Systemadministrator bei Vier Pfoten-Stiftung in Hamburg | Prof. Alfred Hueckler em. Professor für Designgrundlagen, Entwerfen und Produktlehre an der Kunsthochschule Berlin-Weißensee – Hochschule für Gestaltung. Von 1991 bis 1996 deren Rektor. Seit 1981 auch konstruktive Grafik und Skulptur, Fotografie in Einzelausstellungen, Ausstellungsbeteiligungen und öffentlichen Sammlungen. Derzeit mit der Ästhetik des Sachverhalts und Designgeometrie befasst. | Dr.-Ing. Diethard Janssen geb. 1957. Studium der Elektrotechnik an der TU Braunschweig. 1985 Dipl.-Ing., 1991 Dr.-Ing. Seit 1990 wissenschaftlicher Mitarbeiter an der HBK Braunschweig. Leiter des Hardwarelabors der Arbeitsstelle für Designinformatik | Dipl.-Ing. (FH) Oliver Jenny IGi-Absolvent 2008. Software-Engineer bei Deutsche Telekom AG, T-Systems Enterprise Services GmbH in Hamburg | Dipl.-Ing. (FH) Sarah Mettin IGi-Absolventin 2008. IT-Consultant bei der PPI AG in Hamburg | Dr. Wulf Rehder geb. 1947. Studium der Mathematik und Physik. Nach Universitätslaufbahn in Berlin, Tokio, Denver und San Jose/Kalifornien Manager und Vice President bei Silicon-Valley-Firmen. Seit 2003 Berater, Börsenspekulant und Privatgelehrter im Weinland nördlich von San Francisco | Prof. Dr. Felicidad Romero-Tejedor geb. 1967 in Barcelona. Studium Design an der Universität Barcelona, 1990 Licenciatura. 1995 Promotion. Lehraufträge für Design an der HBK Braunschweig und an der FH Hannover. Vertretungsprofessur an der FH Flensburg. Seit 2002 Professorin für Design digitaler Medien an der FH Lübeck. 2004 Gründung des Designlabors | Dipl.-Ing. (FH) Tanja Seetzen IGi-Absolventin 2008. Consultative Seller bei IBM Schweiz AG | Dipl.-Ing. (FH) Elisabeth Schwarz IGi-Absolventin 2008. Impressum Öffnungszeiten. Papiere zur Designwissenschaft 22 / 2008 | ISSN 1613-5881 30. September 2008 Herausgeber Präsident der Fachhochschule Lübeck | Redaktionsmitglieder Prof. Dr. Felicidad Romero-Tejedor, Prof. Dr. Dr. Rolf Küster, Prof. Dr. Hinrich Ecklundt | Externer Berater Prof. Dr. habil. Holger van den Boom | Layout & Illustration Felicidad Romero-Tejedor Für die Inhalte der Beiträge sind die Autoren verantwortlich © FH Lübeck 2 oeffnungszeiten 22/2008 Editorial Der Designtheoretiker Gert Selle schrieb: »Wer einen PC benutzt, denkt nicht darüber nach, dass ein Programmierer inzwischen weit mehr Designer ist als der, von dem die Maus ihre handschmeichlerische Form erhalten hat, und dass das Sitzen am Computer ein neues Design der Arbeit und einen grundlegenden Wandel kultureller Erfahrung anzeigt.« (Design im Alltag, 2007) Diese Beobachtung wird leider nicht ohne weiteres akzeptiert. Und zwar weniger vonseiten der Designer als vonseiten der Informatiker. Trotz großzügiger Einladung möchten Informatiker meistens doch keine Designer sein; das bestätigten mir mehrere Personen aus der Branche. Designer erstaunen darüber – scheinen wir doch, diagnostiziert von Soziologen und Presse, im Jahrhundert des Designs zu leben. Informatiker entwerfen Unsichtbares für die Zukunft. Designer machen daraus etwas Sichtbares. Wenn das Zusammenwirken gelingt, entsteht eine Dienstleistung für Menschen in der Interaktion mit der Maschine. Manche Informatiker haben die Kognition noch nicht wirklich entdeckt. Vielleicht denken Designer und Designwissenschaftler interdisziplinärer als Informatiker? Vielleicht haben Informatiker nur ein veraltetes Bild vom Design vor Augen? Wie dem auch sei. Es gibt heute mehr und mehr Professionelle, die designen und programmieren. Einige von ihnen haben bei uns studiert. Ein kleiner Kreis von IGiAbsolventen – die sich in beiden Welten bewegen – stellt hier seine Diplomarbeiten vor. Ob sich mehr Technik als Design oder mehr Design als Technik in den Arbeiten zeigt, variiert. Das gründet in dem Vorzug, dass wir ein offenes Studium mit einem großen Spektrum an Möglichkeiten anbieten und weiter ausbauen wollen. Wir rufen neue Typen von Ingenieuren mit kreativem Potenzial hervor. Wir schaffen neue Typen von Designern mit der Denkweise von Ingenieuren. Wir bilden Entwerfer aus – mit technischem und gestalterischem Know-How –, die im Trend der Entwicklung liegen. Egal, ob sie sich dann als Designer, Informatiker oder Ingenieure fühlen. Diese Ausgabe von »Öffnungszeiten« plädiert wieder für eine breitere Perspektive auf Design. Interdisziplinäre Themen werden behandelt: Design nach der Postmodene, Bilder in der heutigen Gesellschaft, Ergonomie im Design, zweckrationalisiertes Design, Elektrotechnik und Design, Ingenieur-Hintergrundwissen im Design – und sogar das Design der Primzahlen. Selle hat ja Recht: Design ist Design, ob sichtbar oder nicht, ob akzeptiert oder nicht. Inzwischen bestimmt die globale technisch-soziale Entwicklung darüber, was Design ist. oeffnungszeiten 22/2008 3 Design nach der Postmoderne Holger van den Boom 4 oeffnungszeiten 22/2008 Es gibt bekanntlich ein sich selbst so verstehendes postmodernes Design. Es ist ein Design, das die einstigen recht strengen rationalen Vorgaben modernen Designs vonseiten der Protagonisten der Ulmer Hochschule für Gestaltung ausdrücklich hinter sich lässt. Ich muss gestehen, ich wurde nie warm mit solchem »postmodernen« Design, etwa der italienischen Memphis-Bewegung der 80er Jahre. Es war mir doch zu lustig. Das modische Gerede über Postmoderne war mir überhaupt bis vor kurzem sogar ein callejón sin salida, wie die Spanier sagen: eine Nebenstraße ohne Ausgang, vulgo Sackgasse. Ich wusste nur so viel, dass das Gerede von der Postmoderne ein Suizidversuch der Geisteswissenschaften war, ein Akt der Selbstauslöschung – ein beinahe erfolgreicher, möchte man sagen, blickt man auf die Reihe der Totsagungen im Gefolge dieser, wie mir schien, geistigen Umnachtung. Den Tot der Kunst, der Literatur, der Philosophie sah man voraus, auch den der Religion. Und schließlich den Tod der modernen Vernunft. Die Politik zieht daraus den wohl nahe liegenden Schluss, der insbesondere mit jener globalen Ökonomiefetischisierung verträglich ist, von der unsere – postmodernen – Politiker umnachtet sind: einschlägige Stellenstreichungen an den Hochschulen. Aber dann las ich Rebecca Goldstein. Sie ermöglichte mir unversehens einen tiefen Blick ins Innere der Debatte um die Postmoderne. Die Postmoderne erweist sich im Wesentlichen als ein Missverständnis, und zwar ein krasses! Wie das? Zunächst: Wer ist Rebecca Goldstein? Sie ist Philosophieprofessorin am Trinity College in Hartford, USA. Sie schreibt auch Romane. Und sie ist ausgebildet in Mathematik und moderner Logik; sie promovierte 1977 an der Princeton University. Aufmerksam wurde ich auf sie, weil ich mich für den Mann interessiere, über den sie ein fulminantes Buch geschrieben hat: Kurt Gödel. Es gehört zu den Eigentümlichkeiten dieses Mannes, dass man erklären muss, um wen es sich handelt. Kurt Gödel ist einer der bedeutendsten Mathematiker des oeffnungszeiten 22/2008 zwanzigsten Jahrhunderts, eines Jahrhunderts mit nicht wenigen bedeutenden Mathematikern. Der Gödelsche Unvollständigkeitssatz von 1931 ist vielleicht das bedeutendste Theorem der Mathematikgeschichte überhaupt. Rebecca Goldstein hat ihr Buch über Gödel geschrieben, um Gödel ausgerechnet gegen die Postmodernisten zu verteidigen! Die haben sich nämlich seines Unvollständigkeitstheorems bemächtigt und dessen Sinn ins gerade Gegenteil verkehrt. Allen voran Jean-François Lyotard, nicht der Vater, aber der Hauptapostel der Postmoderne. In seiner Schrift Das postmoderne Wissen von 1979 bezieht er sich unter anderem auf Kurt Gödel, der mathematisch bewiesen habe, dass die Mathematik prinzipiell unvollständig bzw. unentscheidbar sei, woraus folge, dass dem vermeintlich sichersten allen Wissens, dem mathematischen, der Boden unter den Füßen weggezogen worden sei. Und das übertrage sich auf alles Wissen. Das Wissen darum, dass alles Wissen letztlich bodenlos sei, charakterisiere das »postmoderne« Wissen. Das heutige frei schwebende Wissen bestehe nur mehr aus »Sprachspielen«, deren Realitätsbezug im Ungewissen bleibe. Das Konzept der Sprachspiele stammt ironischerweise von einem Mann, der notorisch, wie Rebecca Goldstein zeigt, Gödel zeitlebens falsch interpretiert hat: Ludwig Wittgenstein (1889 – 1953), zweifellos einer der wichtigsten Philosophen des 20. Jahrhunderts. Gödel selbst war der Meinung, er habe bewiesen, dass die Mathematik, weit entfernt, ein bloßes Sprachspiel zu sein, genau den Stellenwert einnimmt, den bereits Platon ihr zugewiesen hatte: eine universelle Realität zu sein, womöglich sogar die fundamentale Realität des Universums – eine Ansicht, die übrigens auch Einstein teilte, der beste Freund Gödels. Wie folgt das? Die Mathematik, wie die Mathematiker sie darstellen, ist prinzipiell unvollständig; es ist nämlich nicht möglich, formale Methoden – rechenmaschinenartige Methoden auf der Darstellungsebene – zu finden, die alles mathematisch Mögliche darzustellen gestatten. Der Clou aber ist, dass dieser 5 Beweis letztlich intuitiv geführt wird: er wird nicht formal durch Rechnen geführt, sondern durch mathematische Evidenz. Und das besagt, dass mathematische Intelligenz über die Möglichkeiten von Rechenmaschinen prinzipiell hinausgeht. Der mathematischen Intelligenz korrespondiert so mathematische Intelligibilität im platonischen Reich des Idealen. Es ist völlig falsch, so Gödel, das menschliche Gehirn mit einem Computer (einer Turingmaschine) zu vergleichen, eine Erkenntnis, die heute auch mit großer Überzeugungskraft der bedeutende englische Mathematiker Roger Penrose vertritt, dem wiederum neuerdings sogar der ehemals betont »positivistische« Stephen Hawking zustimmt: Das Gehirn »kann« einfach mehr als jede mögliche Rechenmaschine, es kann einsehen, dass 2 + 2 = 4 kein Satz ist, der immer wieder gut bestätigt beim Rechnen herauskommt, der vielmehr zwingend wahr ist. Diesen Zwang verspürt keine Rechenmaschine, sie könnte schon beim Versuch, durch vollständige Induktion zu beweisen, dass 1 + 2 + ... + n = n (n+1) / 2 mit dem berühmten Halteproblem Bekanntschaft machen. Die Frage stellt sich natürlich, wieso ein materielles, kontingentes Gebilde, unser Gehirn, etwas Mathematisches, d.h. Nichtkontingentes erfassen kann. Das Fundament der Postmoderne aber ist jedenfalls ein kapitaler Irrtum. Was hat das mit Design zu tun? Zunächst eine kleine Rückblende: Wir verdanken der so genannten Moderne bekanntlich den Glauben an die Kraft der menschlichen Intelligenz, der menschlichen Einsichtsfähigkeit. Wenn es wahr ist, so Galilei, dass die Erde sich um die Sonne dreht und nicht umgekehrt, wird sich das Wissen darum nicht auf Dauer unterdrücken lassen. Mitten im 20. Jahrhundert hat das auch der Vatikan eingesehen und sich bei Galilei entschuldigt. Das findet unseren lebhaften Beifall. Die Moderne hat uns die Aufklärung beschert, die Menschenrechte, auf denen der Rechtsstaat basiert und die individuelle Freiheit. Die kann man auch noch zu Beginn des 21. Jahrhunderts nicht genug feiern und loben, denn sie ist und bleibt stets bedroht. Sie ist das Beste, was wir haben. Das finden auch die Postmodernisten, gerade sie. Denn sie schauen auf das 20. Jahrhundert und erblicken Grausiges; sie sehen Auschwitz und den Archipel Gulag. Sie sehen den modernen Totalitarismus. Die Moderne, die Aufklärung, meinen sie, ist offenkundig gescheitert. Aufklärung, ins Banale verkehrt, lockert jede Hemmung. Aufklärung stellt Alles in Frage, auch die abendländischen Werte. Denn wer, außer dem Grundgesetz, verteidigt sie noch? Gut ja, es gibt Lippenbekenntnisse. Aber leben wir diese Werte noch? Bedeuten sie uns etwas? Die Postmodernisten ziehen die vermeintlich einzig mögliche Konsequenz: Anything goes (Paul Feyerabend), nichts gilt mehr, nicht einmal mehr die Mathematik. Oder vielmehr: alles gilt. Wir bewegen uns nur noch in unterschiedlichen Sprachspielen. Alle »Metaerzählungen« (Lyotard) sind dahin. Eine übergreifende Vernunft ist inexistent. Wissen ist wirtschaftlicher Rohstoff, keine galileische Einsicht mehr. Die einzige Aufgabe, die Intellek- 6 oeffnungszeiten 22/2008 tuellen bleibt, ist die kritische »Dekonstruktion« (Derrida) aller Konstruktionen, unter Einschluss des eigenen Standpunktes. Wenn es aber richtig ist, dass wir, wie »Der Spiegel« schrieb, im Jahrhundert des Designs leben, wird es folgerichtig in der Epoche der Postmoderne auch postmodernes Design geben, ein Design, das anstelle der modernen Freiheit die postmoderne Beliebigkeit preist. Design gestaltet Lebensformen – eine These, mit der ich seit fünfundzwanzig Jahren eine Selbstverständlichkeit ausdrücke oder schlichtweg nicht verstanden werde. Darum sage ich es hier noch drastischer: Unser Leben wird, täglich ein Stück effektiver, radikal durchgestaltet, das Leben hat angefangen, nur noch aus Design zu bestehen – gerade da, wo wir meinen, unser Leben fest in der Hand zu halten, es selbst zu gestalten. »Vernünftig« zu leben heißt jetzt, dem Leben Stromlinienform zu geben; alle anderen Werte gelten inzwischen als antiquiert. Es sollte einfach nur möglichst alles glatt gehen. Design ist unsichtbar, hatte einst Lucius Burckhardt gemeint, wie der Eisberg, wir sehen nur den kleinsten Teil. Ich würde es gerne so sagen: Postmodernes Design ist im Wesentlichen unsichtbar, wir haben die Fähigkeit verloren, Design überall da zu erkennen, wo wir ihm ausgeliefert sind. Postmodernes Design ist unsichtbares Design. Alles Design dient dem Menschen, so habe ich es einmal gelernt. Design, das ist die Moral der Gegenstände, das ist die Moral der Umstände. Weil wir das glaubten, können wir das postmoderne Design nicht mehr sehen. Das Design, das uns bestimmt, das uns die Freiheit nimmt, indem es uns scheinbar mehr davon verschafft als uns eigentlich lieb ist, ist postmoderne Wahlfreiheit. Das postmoderne Menschenbild ist das eines Aktivisten, der beständig an seinem Daseins-Design herumbastelt, um es zu optimieren, indem wir immer das Rationellste wählen – den Stromanbieter, den Provider, die Riesterrente, die Krankenversicherung, die Schule für die Kinder. Und so weiter, und so weiter. Wir richten unser Leben frei von Ideologien nicht mehr nach Werten aus, sondern nach Optionen. Indes: Wer wertfrei lebt, ist für Andere verwertbar geworden. Unsere Optimierungssucht ist ausbeutbar. Wenn es einen Moment lang »praktisch« erscheint, etwas mit dem Handy zu erledigen, dauert es nicht lange, bis wir dafür bestraft werden, wenn wir es nicht tun. Wer keinen Führerschein, keine E-Mail-Adresse und keine Payback-Karte sein eigen nennt, hat sich von der menschlichen Gesellschaft beinahe ausgeschlossen. Hat sich selber zum Behinderten gemacht. Nur dass für diese Behinderten kein Engagement existiert, nur Hohn. Haben Sie schon mal versucht, mit der Telekom, die Ihnen das Telefon eingerichtet hat, zu telefonieren? Eine Nummer, ein »Ansprechpartner«, das ist längst vorbei. Der fluchende Knöpfchendrücker wünscht sich ohnmächtig das Vermittlungsfräulein von annodazumal zurück; die aber ist jetzt bei oeffnungszeiten 22/2008 Foto: R. Küster. 7 Hartz IV. Sie rennen zum nächsten T-Punkt-Laden, in dem irrigen Glauben, dort mit der Telekom zu sprechen. Der junge Mann, der da steht, gehört nicht zur Telekom, sondern zu einer GmbH, die auf dem Franchising-Weg Sachen der Telekom verkauft, aber höchst ungern Dienstleistungen übernimmt. Wenn diese GmbH mit der Telekom telefonieren möchte, müssen die auch frustriert und ergebnislos Knöpfchen drücken. Bei der Postbank, bei der ich meine Geldgeschäfte optimiert habe, flüsterte mir ein Angestellter augenzwinkernd zu, nachdem auch er nicht »durchgekommen« war, er werde jetzt mit seinem privaten Handy das private Handy seines »Ansprechpartners« anrufen. Die Telekom machte es möglich. Manche glauben, »die Wirtschaft« sei schuld. Nein, wir Anhänger der Bequemlichkeit sind es letzten Endes. Ich habe noch die Euphorie im Ohr, mit der eine naive Kollegenschar mir Skeptiker die Bequemlichkeit der E-Mails pries, gegenüber der antiquierten »Schneckenpost«. Dieselben Leute klagen jetzt lauthals, wie genervt sie seien – nicht, weil da eine Lawine von E-Mails auf sie einstürzte, sondern weil inzwischen die soziale Erwartung etabliert ist, E-Mails müssten gefälligst beantwortet werden, und zwar sofort. Wer keine Lust auf Kommunikation hat – nach D. Riesman der »innengeleitete« Mensch –, erfährt Nachteile. Der bekannte amerikanische Astrophysiker Alan Lightman hat einen Artikel darüber geschrieben, warum er keine E-Mail-Adresse mehr habe; seitdem er nur noch über seine »schneckenpostalische« Institutsadresse erreichbar ist, überlegten die Leute wieder gründlicher, was sie gern mit ihm besprechen würden. Postmodernes Design, so, wie man es heute verstehen muss, ist unsichtbar, nichtsdestoweniger aber ein Angriff auf unsere Lebensqualität. Gerade flatterte mir mit Schneckenpost eine »Zuteilung der Identifikationsnummer nach § 139b der Abgabenordnung (AO)« ins Haus. Die soll ich lebenslang aufbewahren und griffbereit halten. Dient das meiner Bequemlichkeit? Im Gegenteil, ich bin dadurch ein Dienstleister des Bundeszentralamtes für Steuern geworden, auch wenn ich keine Steuern zahle. Alle Daten sind korrekt; Zeile 01 ist für Titel reserviert; ich frage mich, was damit gemeint ist, denn etwa meine akademischen Titel sind mit Fleiß weggelassen – da war einer zu faul, sie einzutragen, hat schlecht recherchiert oder hält sie für bedeutungslos. Mag hingehen. Das aber ist eben unsichtbares Design: Für Titel eine Rubrik vorzusehen, Titel aber nicht zu beachten. Das ist Hohn. Die Botschaft habe ich verstanden. Wahrscheinlich könnte ich mich beschweren, aber da müsste ich wohl in beglaubigter Abschrift meine Promotionsurkunde und Berufungsurkunde beibringen. Hohn. 8 Postmodernes Design ist unsichtbar. Weil die Leute die davon ausgehenden Zwänge für naturgegeben halten. Die Postmoderne scheint alle Opfer summarisch zu enthalten, die der Moderne zu erbringen sind. Einer indes ruft Einhalt: Der Sozialphilosoph Jürgen Habermas erklärt uns geduldig, das »Projekt der Moderne« sei noch nicht vollendet. Die Anknüpfung des postmodernen Denkens bei der ideologischen Krankheit des modernen Totalitarismus sei vollauf berechtigt, daraus jedoch den Schluss zu ziehen, modernes Denken sei auf der ganzen Linie gescheitert, gehe fehl. Denn der Wert der Freiheit müsse auch gegen die Postmoderne verteidigt werden, sie sei, was die Freiheit betrifft, nur eine modisch aufgeputzte Gestalt des Positivismus. Die krasseste Form des Positivismus erkennt Nichtkontingenz nicht an; insbesondere sei die Mathematik (hier zitiert man fälschlich Gödel) nur die allgemeinste Erfahrungswissenschaft. Das Merkwürdige ist freilich, dass die Postmodernisten einen Beweis anerkennen, den Beweis, die Mathematik sei prinzipiell unvollständig. Ein Beweis aber ist Nichtkontingenz. Wie auch immer: Das Projekt der Moderne ist nicht vollendet. Es gilt, das Projekt noch einmal aufzunehmen. Am besten an der Stelle, wo Gödel es durch sein Hinscheiden liegen lassen musste: Die Mathematik ist unvollständig; doch dieser Beweis zeigt, dass menschliche Intelligenz nicht durch eine (Rechen-) Maschine ersetzt werden kann. Wir müssen die Intelligenz wieder in ihre Rechte gegenüber den Maschinen einsetzen. Weil Intelligenz einsehen kann, dass notwendig 2 + 2 = 4 gilt, ist sie, so Gödel, auch in einer deterministischen Welt frei. Georg Friedrich Wilhelm Hegel hatte das so formuliert: »Freiheit ist die Einsicht in die Notwendigkeit«. oeffnungszeiten 22/2008 Daran mitzuwirken, dem Menschen sein Menschenrecht auf Freiheit zu erhalten, ist die große Aufgabe nachpostmodernen Designs. Es beinhaltet die Aufgabe, so genannte Sachzwänge, die aus der »Optimierung« scheinbarer Rationalität erwachsen, zu beseitigen. Es beinhaltet die Aufgabe, Automaten bedienbar zu machen – pardon, Automaten endlich dienstbar zu machen. Damit auch Herr Mehdorn sich an seinen DB-Automaten endlich eine Fahrkarte ziehen kann. Nicht nur Gedankenfreiheit, Sire, geben Sie Handlungsfreiheit! Dass in der Unzahl von Wahlfreiheiten und Möglichkeiten, die wir angeblich haben, aber nicht nutzen können, Unvernunft steckt, weil hinter dem Design ein Menschenbild steht, das den Aktionär anbetet, könnte die Einsicht sein, von der her das Projekt der Moderne nach der Postmoderne wieder in den Blick zu nehmen ist. Bibliografie Goldstein, Rebecca, Kurt Gödel. Jahrhundertmathematiker und großer Entdecker, München, Piper 2006 | Lyotard, Jean-François, La Condition postmoderne: rapport sur le savoir, Editions de Minuit 1979 | Habermas, Jürgen, Die Moderne – Ein unvollendetes Projekt. Philosophischpolitische Aufsätze, Leipzig 1990 oeffnungszeiten 22/2008 9 Un-Bilder Im Ruecken der Bildgesellschaft1 Felicidad Romero-Tejedor Die Kamera in die Luft werfen. Und während sie fällt, löst sie Bilder aus. Fotos von Martin Klabisch, Johannes Jockisch und Daniel Rose, entstanden im Workshop »Un-Bilder«. Haben wir heute nicht häufig das Gefühl, schon alle Bilder gesehen zu haben? Gleicht nicht ein Bild dem anderen? Plagiieren nicht die Werbebilder der Fotoagenturen sich selbst ununterbrochen? Wieso sind wir gegenüber Bildern so stumpf geworden, dass uns nichts mehr nachdenklich macht? Wo gibt es noch neue Wege der Kreativität, um Bilder zu finden, die uns etwas zu sagen haben? Diese und andere Fragen stellten sich die Studierenden. Sie mussten sich auf kreative Weise einen Weg bahnen, um zu verstehen, wie wenig Bilder heute die Aufmerksamkeit des Betrachters binden können, wenn man sie, wie in den Fotoagenturen, unter traditionellen Werbemaßstäben produziert. Im Kurs wurden die Studierenden mit erfolgreichen Kunstfotografen konfrontiert, die das nie Gesehene suchen. 10 oeffnungszeiten 22/2008 auf die verschiedenste Weise vermittelt – durch Kamera und Druckerpresse, durch Film und Fernsehen. Früher war ein Bild ein seltenes Symbol, selten genug, um konzentrierte Aufmerksamkeit auf sich zu ziehen. Heute ist es die unmittelbare Erfahrung, die selten ist; das Bild ist allgegenwärtig geworden.«2 Un-Bilder: Ein Thema mit Geschichte Es ist lange her, dass man sich noch fragte, ob Fotografie eine Kunst sei. Umfragen von 1922, veranstaltet von der Zeitschrift »MSS«, legten den Leuten in den Mund, die Fotografie sei doch so bedeutungsvoll, dass sie eine Kunst genannt werden könne. Niemand zweifelt heute mehr, dass Fotografie eine Kunstform sein kann. In dem Augenblick, da die Fotokunst von jedermann und für jedermann machbar wurde, trat ein unerwartetes Phänomen in Erscheinung. Das Privatfoto drängte sich in den Vordergrund. Eine allgemeine Bilderfetischisierung bedrohte die Wahrnehmung von Realität. In Zeiten der Bildüberflutung erkennt Ezio Manzini in seinem Buch Artefatti (1990) geradezu einen Bilderstau in unserem Kopf. Die Konsequenzen sind klar: Bilderabwehr, bewusstes nicht Hingucken. Bilder sind ja doch immer nur Varianten des schon Gesehenen. Es ist noch nicht vergessen, dass die 1936 in den USA begründete Illustrierte Life, die fast nur aus Fotografien bestand, 1972 »starb«. Sie konnte mit dem Bildersturm aus anderen Medien nicht konkurrieren. Lewis Mumford klagte andererseits in seinem Aufsatz »Eine Welt aus zweiter Hand« schon 1952 über eine zunehmende Bildersucht. Sie artet bisweilen in eine wahrhaftige »Ikonomanie« aus, wie Günther Anders sie 1956 nennt. Was nicht Bild wurde, ist nicht Bestandteil der Realität. Die Welt wird nicht mehr nach direktem Augenschein erkannt. Unser Zugang zur Welt findet paradoxer Weise über die Bilder statt, die wir eigentlich nicht mehr sehen wollen, sagte Vilém Flusser in Ins Universum der technischen Bilder (1985). Wir werden das Gefühl nicht los, dass Mumfords Klage in dem inzwischen vergangenen halben Jahrhundert dramatisch an Berechtigung zugenommen hat: »Wir sind überwältigt von der üppigen Fruchtbarkeit der Maschine […]. Eine immer höher steigende Flut von Bildern schwillt an zwischen uns selbst und der wirklichen Erfahrung, der wirklichen Umwelt; diese Bilder werden uns oeffnungszeiten 22/2008 Der französische Semiologe Roland Barthes schreibt in »Schockfotos« (1957), dass die Bilder, die »[vom] Künstler mit überdeutlichen Angaben versehen, […] für uns keinerlei Geschichte mehr« haben.3 Diese Bilder, denen Roland Barthes durchaus ein großes technisches Geschick zuerkennt, tragen seiner Meinung nach ein Manko, sie sind allzu sehr konstruiert. Barthes stellt fest, diese so genannten professionellen Fotos könnten nicht länger als eine minimal kurze Betrachtung fesseln, »sie hallen nicht nach, verwirren nicht, unsere Empfindung schließt sich zu rasch über einem reinen Zeichen. Die vollkommene Lesbarkeit der Szene, die Tatsache, dass es in Form gebracht ist, dispensiert uns davon, das Bild in seiner Ungewöhnlichkeit aufzunehmen. Die auf den reinen Zustand einer Sprache reduzierte Fotografie desorganisiert uns nicht.«4 Barthes kritisiert gerade die Fotografien einer Ausstellung von Schockfotos, die in der Galerie d’Orsay 1957 gezeigt wurden. Er meint, dass es nicht ausreicht, wenn der Fotograf das Entsetzliche durch Fotos stilisieren möchte, um dem Besucher ein angemessenes Empfinden zu vermitteln. Barthes wundert dies nicht, da die Fotografien von Reportern gemacht wurden, die für Bildagenturen arbeiteten. Sie komponierten das Foto wie ein Gemälde und dabei tötet die kalte Ästhetisierung die Quintessenz der Fotografie: einen Moment von Realität festzuhalten. Ich denke, dass Roland Barthes auf etwas hinaus will, was heute durch die digitale Fotografie und den hohen technischen Standard noch deutlicher geworden ist: die Sterilität der Bilder. Bilder sehen heute alle gleichermaßen perfekt aus, sie wirken nicht neu, sie wiederholen sich. Die zugehörige Technik ist einfach geworden, jeder, der die Technik zur Hand hat, kann ein Bild auslösen. So ist es nachvollziehbar, wenn Werbefotografen nicht mehr traditionelle Werbefotografie machen möchten und sich auf die Suche nach Aussagen begeben. Der ehemalige Werbefotograf und heutige Kunstfotograf Günther Derleth möchte seine Fotografie nicht mehr durch ausgefeilte Technisierung – und sogar Digitalisierung – leiden sehen. Er meint, die Fotografie habe sich durch die technische Einfachheit in eine stakkatoartige Bilderansammlung verwandelt. Er kehrte zurück zum Ursprung der Fotografie und begann mit einer »camera obscura« zu fotografieren. Damit wurde es bedeutend schwieriger, ein gutes Bild zu machen. Derleth versuchte, die Langsamkeit der ursprünglichen Fotografie wieder zu finden, die Unsicherheit der Ergebnisse. Die bleibende Spur des »handwerklichen« Fotografierens brachte seinem Publikum das, was seit langem nicht mehr in der Fotografie anzutreffen war: eine visuelle Qualität, die durch einen Arbeitsprozess entstand, der im Ergebnis seine Spuren hinterlässt – entfernt von der Makellosigkeit des Technikfortschritts. 11 Zufall, Bricolage, Plagiat: die postmoderne Provokation Wie die Berliner Kunst- und Sozialhistorikerin – und Fotografin – Gisèle Freund 1976 sagte, ist die »Objektivität des Bildes […] nur eine Illusion«5. Da Bilder je nach Kontext verschieden interpretiert werden, entwickelt sich in der Gesellschaft ein Misstrauen gegenüber der Fotografie. Die Fotografie enthält immer die »Spur der Realität« (Barthes), aber trotzdem oder sogar deswegen kann sie als etwas erscheinen, was sie nicht ist. Freund dachte an die wechselnden Interpretationen von Bildern je nach politischer Propaganda (besonders in Zeiten von Diktaturen). Fotografie sendet nie eine einzige Botschaft, sie ist polysemantisch. Der in Barcelona wirkende Semiologe Jordi Pericot zeigt in seinem Buch Mostrar para decir. La imagen en contexto (2002), wie Zeitungsbilder je nach politischem Kontext verstanden werden und was sie bedeuten würden, wenn man sie ohne Bekanntschaft mit dem Kontext anschaute. Roland Barthes spricht in einer klassifikatorischen Differenzierung der semiotischen Kategorien über »Paradigmen«. »Paradigma« ist das Verborgen-Ungesagte6. Umberto Eco vertritt einen ähnlichen Gedanken in seinem Buch L’opera aperta (1962). Eco sieht, dass ein Kunstwerk nicht beim Künstler vollendet wird, sondern beim Betrachter durch dessen vielfältige Interpretation: Wer das Kunstwerk betrachtet, führt es auf. Es kommt, wie man sagt, auf den Blick des Betrachters an. Wenn der Fotograf (oder Künstler) aber nicht bestimmen kann, was Andere sehen, erhalten Bilder dadurch einen Aspekt des Zufälligen. Jedes Bild ist so beliebig austauschbar, man muss es nur im richtigen Kontext sehen. Die Werbefotografie versucht oft, mit visuellen Zitaten aus der Kunstgeschichte überbordende Interpretationen zu verhindern. Der Kunstkritiker John Berger zeigt in Ways of Seeing (1972), wie sich die Werbung unserer kulturellen Tradition des Sehens bedient. Zitate aus der Bildgeschichte ziehen einen höheren Grad an Aufmerksamkeit auf sich. Hierbei greifen die Werbefotografen oft auf postmoderne Mischungen von Bildern der Vergangenheit und aktuellen Kontexten zurück. Die Postmoderne unterstützt die gegenwärtige Ästhetik einer gesuchten Regellosigkeit. Kritiker wie Frederic Jameson und Jean Baudrillard sehen die Postmoderne als einen schizophrenen Moment von Raum und Zeit. Der Begriff »Postmoderne« wurde von dem englischen Historiker Arnold Toynbee 1947 gebraucht, danach wanderte der Begriff in die USA; und in den 1950er und 1960er Jahren setzte sich die Vokabel als literaturkritischer Begriff durch. Die Postmoderne gilt als eine Epoche, die der Philosoph Paul Feyerabend 1980 mit seinem Schlagwort »anything goes« charakterisiert hat7. Nach dem Philosophen Stefan Majetschak konstatierte Adorno 1977, die Kunst des 20. Jahrhunderts präge sich durch »formnegierende, anti-kompositorische Maßnahmen verschiedener Art« aus. Die Kunst hat sich »mehr und mehr von klassischen Konzepten der schönen, 12 zweckmäßigen und mit Lust erlebbaren ›ästhetischen Form‹« gelöst. Der französische Philosoph der Postmoderne, Jean François Lyotard, erklärte 1966, für die Kunst sei der Schönheitsbegriff nicht mehr relevant – sondern das »Erhabene«8. Nach Norbert Schneider9 provoziert Ihab Hassan mit dem der Postmoderne nahe stehenden Begriff des »Unmaking«10. Der Kritiker Frederic Jameson sieht, dass durch die Postmoderne sich die Zitatcollage als allgegenwärtige Mode (besonders im Kino) etabliert hat. Er wertet das als Symptom einer »schizophrenen« Konsumgesellschaft, einer Gesellschaft der Dissoziation, in der die einst verbundenen Dinge wieder aufgetrennt werden. Das Ausschneiden und Neu-Zusammenbringen reflektiert auch die Fotografie. Die Fotografieautorin Marga Clark beschreibt in Photographische Eindrücke (1990) plausibel, wie die Fotografie sich neu erfindet. Die Fotografie der 1980er Jahre negiert die Originalität und Authentizität des Kunstwerks. Marga Clark stellt fest, die wichtigste Botschaft der damaligen Fotografie sei es, zu zeigen, dass das Original nicht existiert. Damit ergibt sich eine Entmystifizierung des Autors als Schöpfer originärer Bilder. Der Fotograf Richard Prince »klaut« Werbung, indem er Werbeplakate fotografiert. Seine Serie Cowboys ist berühmt dafür. Er wollte die Machowelt der amerikanischen Gesellschaft und die Herrschaft des Menschen über das Tier – wie in der Werbefotografie von Marken wie Marlboro zur Schau gestellt – kritisieren. Prince sah die Fotokamera als elektronische Schere der Ausschnitte. Die Fotografie enthält daher nicht mehr die direkte Spur der Realität, vielmehr wird die Realität vertreten von Realitätsdarstellung. Un-Bilder: Der unzufaellige Zufall im Bild Zufällige Bilder, die trotzdem eine neue Ästhetik vertreten, sind weit entfernt von alltäglicher Knipserei. Der Kunstwissenschaftler Horst Bredekamp zeigt in seinem Buch Bilder bewegen. Von der Kunstkammer zum Endspiel (2007), dass der Zufall sich zu einem »fruchtbare[n] Augenblick« erheben kann. Aus einer Menge für sich unprätentiöser Fotografien werden einige gute Bilder heraussortiert. Bredekamp zeigt, wie der Zufall Bilder in gesellschaftlich bedeutungsvolle Botschaften verwandeln kann. Bredekamp bespricht ein Foto des Fotografen Thomas Kienzle von 2005. Auf dem Foto erscheint Papst Benedikt, der aus einem Flugzeug aussteigt. Ein Windstoß führt das Birett des Papstes hinweg. Kienzle drückt den Auslöser in dem Moment, wo das Birett in der Luft schwebt. Ein solches Bild ist unwiederholbar; der Fotograf erhält einen Sonderpreis im Wettbewerb »Rückblende 2005«. Bredekamp sagt: »Die Szene wäre belanglos, wenn sie nicht die Erwartung düpiert hätte, daß der Paps bedeckt zu sein habe.«11 In diesem Foto zeigt zufällig die Ikonologie der päpstlichen Kleidung ihr besonderes Gewicht. Die Geschichte der Kopfbedeckung wird in Erinnerung gerufen. Römische Sklaven erhielten bei ihrer Freilassung eine diese symbolisierende Filzkappe. Der Untertan hatte vor der sozial höher stehenden Person den Hut abzunehmen. Der Wind nimmt in solchem Zusammenhang auf dem Papstfoto oeffnungszeiten 22/2008 Links: Thomas Kienzle, Papst Benedikt vor dem Weltjugendtag in Köln, Fotografie, 18.8.2005. Bildzitat nach Horst Bredekamp, Bilder bewegen, S. 43 Unten: T. Lux Feininger, Der Sprung über das Bauhaus, um 1928. Bildzitat nach Bredekamp, Bilder bewegen, S. 170. Links-Oben: Weltmeisterschaft 1966, England, Vorrunde, Nordkorea–Italien 1:0, 19. Juli, Bildzitat nach Horst Bredekamp, Bilder bewegen, S. 178. Links-Unten: Michelangelo, Jüngstes Gericht (Ausschnitt), Fresko, um 1538. eine Bedeutung an. Ist er ohne Hut ein Untertan? Bredekamp knüpft im Weiteren an die übernatürliche Wirkung des Windes in den Malereithemen der Kunstgeschichte an. Einen anderen Fototyp, den Bredekamp heraushebt, bilden die Fotos, die bei Fußballspielen entstehen. Wo etwa der Zufall der Bewegungen eine klassische Komposition ergibt. Bredekamp betont die Unkonstruiertheit dieser Bilder. Er zeigt ein Foto von Lux Feininger um 1927 mit dem Titel Der Sprung über das Bauhaus. Andere Bilder, die zum Beispiel 1966 während der Weltmeisterschaft entstanden sind, werden von Bredekamp mit Michelangelos Jüngstes Gericht von 1538 verglichen. »Die Aufnahme hält eine Gruppe von Verteidigern und Stürmern fest, die sich im Strafraum zu einer Pyramide aufgetürmt und in die Höhe geschraubt haben. Bei der strengen Komposition, in der sich die Protagonisten der Strafraumszene für den Bruchteil einer Sekunde zusammenfügen, scheint ein Künstler Regie geführt zu haben.«12 Und später: »Zahlreiche Szenen des Fußballs sind instinktiv in die Geschichte kodifizierter Erregungsformen aufzunehmen. Im Fall der steigenden und fallenden Athleten der Aufnahme von 1966 kommt eine der berühmtesten Darstellungen von strudelnd im Raum emporstrebenden und saugend herabgezogenen Menschen in den Sinn: Michelangelos Gruppe der sich gegen ihren Absturz wehrenden Verdammten des Jüngsten Gerichts in der Sixtinischen Kapelle.«13 Bredekamp beweist, dass solche Assoziationen keineswegs abwegig sind. Viele Komponenten stimmen gleichzeitig zusammen: die Perspektive, die Bewegung der Spieler und der richtige Sekundenbruchteil des Knopfdrucks. Dass häufig für ein solches Foto viele in der Serie davor und dahinter stehen, tut der Aura keinen Abbruch. Das geschulte Auge des Fotografen wird vielleicht nachträglich sogar nur einen Ausschnitt wählen. Wie John Berger deutlich macht, ist überhaupt der Vergleich und die oeffnungszeiten 22/2008 Anerkennung eines guten Bildes nur durch die lange Tradition des Bilderlesens in unserer Kultur möglich. Perspektive, Konfiguration, Bildkomposition, sie sind in unserem Gehirn gespeichert. Der Fotograf drückt den Knopf zufällig, nachher verwandelt er den Zufall in die Bestimmung eines Bildes. Un-Bilder: Den Zufall lenken Einige bekannte Fotografen suchen konsequent den Zufall, indem sie fotografische Prozesse entwickeln, um dem Zufall Wirkung zu verschaffen. Es handelt sich nicht um den ahnungslosen Zufall, der mit den zufälligen Umständen zu tun hat. Man denke an die »Reporter«-Fotos, die zufällige Zeugen eines Geschehens mit ihrem Handy aufnehmen. Vielmehr geht es um eine Suche nach neuer Ausdrucksform, welche der Langeweile der technischen Perfektion und der sinnlosen Überflutung immer gleicher Bilder entgegen steuern möchte. IGi-Studierende befassten sich mit fotografischen Prozessen einschlägig bekannter Fotografen. Da gab es etwa die Möglichkeit, »blinde« Bilder zu machen. Blinde Bilder machen, das erscheint zuerst wie eine Paradoxie. Eine andere Möglichkeit ist die Mechanisierung des fotografischen Aktes. Hier wird gegen das Prinzip von Philippe Dubois in L’acte photographique bewusst verstoßen, das in der bewussten Entscheidung des Augenblicks der Auslösung bestehe. Ein weiterer Prozess besteht darin, dass der Fotograf ignoriert, was ihm 13 vor die Kamera kommt. Er sucht versteckte Welten, die er nie körperlich erkunden könnte, es sei denn mit der Kamera. Blinde Bilder: Jeder kann »blind« fotografieren, ohne seinen Verstand zu benutzen. Daher stammen die Abertausenden von privaten Urlaubsfotos. Doch es gibt tatsächlich blinde Menschen, die fotografieren. Was kann Blinde zur Fotografie motivieren? Sie suchen dabei die ihnen eigene Realität zu dokumentieren. Die Fotos sind für Sehende nicht immer sofort nachvollziehbar. In der Tat kennt die Welt mehrere blinde Fotografen, wie Paco Grande, bekannt durch seine Fotografien von Andy Warhol. Vielleicht ist der komplexeste Fotograf der Gegenwart Evgen Bavcar. Der international bekannte blinde Kunstfotograf Bavcar wurde 1946 in Slowenien geboren. Er liefert das Beispiel, wo die blinde Herbeiführung von Bildern eine einzigartige Magie schafft, eine Magie, die von der »Perfektion« des technischen Sehens niemals erreicht werden kann. Dass die Fotografie von Bavcar viel mehr sein wird als eine bloß mechanische Produktion, lässt schon sein intellektueller Hintergrund als studierter Historiker und Philosoph erahnen. Kunstkritiker haben ihn nach Nièpce, Talbot und Daguerre den »vierten Erfinder der Fotografie« genannt. Mit der Fotografie möchte er etwas besitzen, was er nie sehen wird. Deswegen sind die Beschreibungen seiner Werke für ihn ein Höhepunkt seiner Arbeit – genau wie Picasso die Kunstkritiker gerne über seine Werke sprechen hörte. Bavcar fotografiert nicht mit der Hoffnung, doch einmal die Bilder sehen zu können, die er erlebt, aber nicht gesehen hat. Er fotografiert seine Vorstellungen, die Originale sind in seinem Kopf. Wenn er fotografiert, stellt er die Kamera vor seinen Mund und häufig spricht er dabei die Leute an. Mit den Händen misst er die Entfernungen. Bavcar verschafft uns die Möglichkeit, die Wahrnehmung des Blinden der Wahrnehmung des Sehenden näher zu rücken. Er sagte: »Fotografie erlaubt mir, die etablierte Wahrnehmung Sehender und Blinder zu verdrehen.« Er bringt die Welten des Sichtbaren und des Unsichtbaren zusammen. Seine Bilder, die sehr viel mit Berühren durch Licht zu tun haben, kann man visuell ertasten. Wir sehen häufig Fotos, die in der Dunkelheit entstanden sind, »hingeschrieben« mit einer Taschenlampe. Wir erleben sie dadurch wie ein Negativbild. Bavcars Fotos haben eine ganz eigene Bildsprache, sie gleichen niemals jenen Fotos, die wir nur zu gut kennen. Sie gewinnen eine piktorische Qualität, manchmal erinnern sie uns an chinesische Tusche-Malerei, ein andermal an Radierungen. Die Fotos von Evgen Bavcar führen uns scheinbar in eine frühere Zeit der Fotografie zurück. In seiner Blindheit kann er die Bildkomposition nicht exakt vorhersehen. Dies provoziert einen Zufall, der aber in seinen Bildern auftritt wie wenn die Fotografie selbst dächte. Denken wir an Daguerres »Komposition« von 1837. Daguerre hatte wohl sehr gut die Objekte gesehen, die er festhalten wollte, aber er hatte seine Komposition in der Realität gemacht und nicht auf der Bildebene. Denn er wusste nicht, wie seine Komposition 14 auf der Bildebene in der Kamera aussehen würde. Gerade diese Ohnmacht in der Kontrolle bringt die Magie der alten Bilder zustande, eine Magie, die von den heutigen »professionellen« Bildern nicht mehr kommuniziert werden kann. Um eine vergangene Magie in die Bilder zurück zu bringen, sollten die Kursteilnehmer »blind« fotografieren – indem sie ihre Augen verbanden (natürlich wurden sie dabei von einem Dokumentator begleitet, der gleichzeitig die Aufgabe hatte, Unfälle zu verhüten). Es ergaben sich wie bei Bavcar Bilder, die mit Licht »gezeichnet« waren, aber auch Bilder, die man auf eine einzigartige Weise zu »hören« glaubte. Die studentischen Fotografen reagierten auf akustische Reize; sie fotografierten, wo geräuschvolle Leute oder andere ungewöhnliche Laute sie faszinierten. Andere Experimente bestanden in der Konstruktion einer »mechanisierten Kamera«. Dabei blieb die Kamera in dauernder Bewegung, um so bewusst die Kontrolle über die Aufnahme aufzugeben. Mit Selbstauslöser und Kamera in Bewegung konnte der Fotograf nicht mehr bestimmen, was wann fotografiert wurde. (Der Hamburger Fotograf Bernhard Blume und seine Studenten machten Sofortbilder mit einer Kamera, die an einem Pendel befestigt war.) Noch eine weitere Übung der IGi-Studierenden war, versteckte Welten zu fotografieren, zu denen sie in alltäglicher Sicht visuell keinen Zugang hatten. Die Kamera, an einem langen Besenstil befestigt, gewann Zugang zu Plätzen und Perspektiven, die vorher ungesehen waren (Kanalisation, Müll, uneinsehbare Baustellen, Dächer von Telefonzellen). Werbefotografie heute: den Zufall nachahmen Werbefotografie ist auf der Suche nach dem Ungewohnten. Fotografie, die nicht schon allen Fotografien ähnelt, ist schwer zu realisieren, insbesondere in einer Gesellschaft, die alles vorgeplant, designed, haben möchte. Weil kaum neue Ideen zu haben sind, wird das künstlerische Potenzial der postmodernen Kunstfotografie ausgebeutet. Wird die Werbung durch ihre Anleihe bei »Un-Bildern« mit einer neuen Ausdrucksweise an den Tag treten? Werden Un-Bilder, wenn wir uns an ihnen satt gesehen haben, wiederum zur traditionellen Bilderform verkommen? Was kommt danach? Zurück zur »modernen« Kunst? Wer weiß. Die Situation scheint widersprüchlich zu sein, wie so manches in der Werbebranche. Zufall ist eben Zufall. Sollte der Zufall »berechnet« werden, verschwindet seine Subversivität. In dem Buch von Sigrun Brox, Bilder sind Schüsse ins Gehirn (2003), finden sich Beispiele einer inzwischen schon nicht mehr so innovativen Tendenz, sichtbar an dem, was sich 1998 die Hamburger Werbeagentur Jung von Matt traute. Bewusst »fehlerhafte«, provozierende Bildausschnitte, die gegen jede Bildkompositionsregel anzurennen scheinen. Models, die nicht dem geltenden Schönheitsideal entsprechen. Auch in der Fernsehwerbung erscheinen inzwischen unzulängliche Amateurpräsentationen, die auf Sympathie oeffnungszeiten 22/2008 aus sind. Ein Neustil, der sich einen Eintrag in die neuerdings zahlreichen bildwissenschaftlichen Arbeiten verdient hätte. Nach Sigrun Brox löst sich diese »[…] neue Art des fotografischen Bildes […] aus der bisher inszenierten Scheinwelt der Werbung. [Die Fotos] sind nicht die banale Abbildung der Realität, sondern deren Interpretation.«14 Das psychologische Phänomen der »Irritation« in der Werbung versucht weiterhin, die knappe Ressource Aufmerksamkeit auszubeuten. Das gelingt natürlich nie mit dauerhaftem Erfolg. Mit bewusst gestalteten Un-Bildern versucht die Werbefotografie, gegen das Gefühl »das Bild habe ich schon gesehen« zu steuern. Es wird ihr nicht wirklich gelingen, denn der gestaltete »Zufall« sieht doch am Ende eben gestaltet aus. Unsere Studenten sollten lernen, worin der Unterschied zwischen bedeutungsvollem Zufall und Zufall als Maskerade besteht. Anmerkungen 1. Thema des Wahlpflichtfach-Workshops »Formen der Kreativität« des Studiengangs Igi im WS 07/08. Die Teilnehmer waren Studierende des dritten Semesters | 2. In »Eine Welt aus zweiter Hand«, S. 103 | 3. Roland Barthes »Schockfotos. 1957«, S. 106 | 4. Ders., S. 107 | 5. Photografie und Gesellschaft, S. 173 | 6. Siehe Norbert Schneider, Geschichte der Ästhetik von der Aufklärung bis zur Postmoderne, S. 252 | 7. Erkenntnis für freie Menschen | 8. Siehe Stefan Majetschak, Ästhetik zur Einführung, S. 95 | 9. Norbert Schneider, Geschichte der Ästhetik von der Aufklärung bis zur Postmoderne, S. 258 | 10. Ders., S. 257 | 11. Horst Bredekamp, Bilder bewegen, S. 44 | 12. Ders., S. 176 | 13. Ders., S. 178 - 179 | 14. Sigrun Brox, Bilder sind Schüsse ins Gehirn, S. 171. Michael Gack, Eric Schlottke, David Engelhardt, Olaf Röpcke, Jörn Michaelis, Fotografien »Versteckte Welten« (links) und »Mechanisierte Kamera« (unten). oeffnungszeiten 22/2008 Bibliografie Anders, Günther, »Ikonomanie. 1956«, in: Wolfgang Kemp, Theorie der Fotografie III, 1945 – 1980, München, Schirmer / Mosel 1999, S. 108 - 113 | Barthes, Roland, »Schockfotos. 1957«, in: Wolfgang Kemp, Theorie der Fotografie III, 1945 – 1980, München, Schirmer / Mosel 1999, S. 105 - 108 | Berger, John et al., Ways of Seeing, Middlesex, Penguin Books 1972 – 1985 (17. Auflage) | Bredekamp, Horst, Bilder bewegen. Von der Kunstkammer zum Endspiel, Berlin, Klaus Wagenbach 2007 | Brox, Sigrun, Bilder sind Schüsse ins Gehirn, Kiel, Ludwig 2003 | Flusser, Vilém, Ins Universum der technischen Bilder, Göttingen, European Photography 1985 | Dubois, Philippe, L’acte photographique, Brüssel, Labor 1983 | Foster, Hal, J. Habermas, J. Baudrillard, E. Said, F. Jameson et al., The Anti-Aesthetic: Essays on Postmodern Culture, Bay Press 1983 | Freund, Gisèle, Photografie und Gesellschaft, Reinbek bei Hamburg, 1989 | Jameson, Frederic, »Postmodernismo y sociedad de consumo«, in Foster, Hal, et al., La Postmodernidad, Barcelona, Kairós 1985 (5. Auflage 2002) [oV: Foster, Hal, J. Habermas, J. Baudrillard, E. Said, F. Jameson et al., The Anti-Aesthetic: Essays on Postmodern Culture, Bay Press 1983] | Kemp, Wolfgang und Hubertus von Amelunxen, Theorie der Fotografie, Band I-IV 1839 – 1995, München, Schirmer / Mosel 2006 | Majetschak, Stefan, Ästhetik zur Einführung, Hamburg, Junius 2007 | Manzini, Ezio, Artefatti. Verso una nuova ecologia dell’ambiente artificiale, Milano, Domus Academy 1990 | Mumford, Lewis, »Eine Welt aus zweiter Hand«, in: Wolfgang Kemp, Theorie der Fotografie III, 1945 – 1980, München, Schirmer / Mosel 1999, S. 100 - 105 | Pericot, Jordi, Mostrar para decir. La imagen en contexto, Barcelona, Universitat autònoma de Barcelona 2002 | Schneider, Norbert, Geschichte der Ästhetik von der Aufklärung bis zur Postmoderne, Stuttgart, Reclam 2005, 4. Auflage 15 Diethard Janßen Brauchen wir Ueberhaupt Design? 16 oeffnungszeiten 22/2008 ergänzen oder den Hersteller zu verklagen. Der Affe ist im Gegensatz zum Menschen nicht in der Lage, im voraus visuell zu erkennen, dass die eine Harke funktional eingeschränkt ist. Deshalb ist er ja auch nur unser Vorfahre und evolutionsbiologisch gesehen, eine oder mehrere Grobstufen hinter uns. Die letzte »Öffnungszeiten« ist meiner Erinnerung nach die erste, in der ich keinen Artikel geschrieben habe und auch nicht mit der Herstellung in irgendeiner Form beschäftigt war, also war ich neugierig und las sie. Ganz. Was sagt uns das? Ein Mensch mit seiner überragenden Intelligenz wäre ohne Zweifel (na gut, fast ohne) in der Lage, mit dem Stiel das abgetrennte Harkenteil an sich heranzuziehen, die Harke zu reparieren, und dann die Banane ihrem Daseinszweck nahe zu bringen oder viel einfacher: Die vollständige Harke gleich zu benutzen. Der Affe nicht. Die Schlussfolgerung daraus lautet: Aus Harken mit eingeschränkter Funktionalität kann der Intelligenzquotient des Probanden ermittelt werden und damit auch seine Position auf der Evolutionsleiter. Natürlich nur, wenn man voraussetzt, dass größere Intelligenz ein Kennzeichen für eine höhere Position auf der Leiter ist, aber das möchte ich hier einmal. Kommen wir jetzt zum Design zurück. Es ist schon angeklungen, dass der Affe bei falscher Wahl der Harke mit dem Design dieser Harke nicht zufrieden sein kann. Das liegt aber nur an der Evolutionsstufe, auf der er sich befindet, und nicht an der Harke. Mal abgesehen von der Gestaltung der Zeitschrift, die über jeden Zweifel erhaben ist, und auch vom Farbdruck, den ich mir immer wegen meiner Bilder gewünscht hatte, war ich doch etwas verwundert darüber, dass soviel über Design geschrieben worden ist. Man hat fast den Eindruck, Design müsste erklärt und verteidigt werden. Dabei weiß doch jeder, was Design ist. Eine schöne Vase, einer netter Schlenk am Kotflügel eines Autos, ein Stuhl, der dekorativ ist, eine Lampe, die adrett aussieht, alles das ist Design. Da muss man sich doch nicht so viele Gedanken machen und so viele Zeilen schreiben. Ein paar Bilder würden genügen. Dann müsste ich auch nicht so viel nachdenken beim Lesen. Wie war das noch einmal – die Bedienung vereinfachen, so dass ich die innere Komplexität nicht bemerke? Das ist doch bei der adretten Lampe der Fall. Ich musste innerhalb der letzten Zeit zu meinem Leidwesen erfahren, dass es tatsächlich noch Menschen gibt, die nicht in der Lage sind, ein Heimnetzwerk mit den vom Provider gelieferten Geräten aufzubauen, geschweige denn, einen Internetzugang für die heimischen PCs herzustellen. Eigentlich sollte man meinen, diese Art von Zivilisationswissen sei Allgemeingut, dem ist aber anscheinend nicht so. Also auch innerhalb unserer Gesellschaft gibt es, zieht man das Beispiel des Affen wieder heran, Mitglieder unserer Art, die nicht auf gleicher Evolutionsstufe stehen wie der überwiegende Teil der Bevölkerung und somit nicht erkennen können, welche Schritte sie unternehmen müssen, um schließlich zur Banane bzw. zum Internetzugang zu kommen. Genau an dieser Stelle ist zu erkennen, wie wichtig evolutionsbiologisch gesehen, Keindesign ist. Parallel zu den »Öffnungszeiten« lese ich auch schon mal die »Spektrum der Wissenschaft«, allein wegen der netten Sternenbilder und der schönen Zeichnungen. In einer der letzten Ausgaben war ein Artikel über Affenintelligenz (Spektrum der Wissenschaft 3/2008, Seite 50ff., »Wie rational sind Affen?«) mit einer ansprechenden Zeichnung, auf der ein Affe in einem Versuchslabor mit einer Versuchsperson abgebildet ist. Der Affe hat vor sich zwei Harken, eine davon ist insofern funktional eingeschränkt, dass Harke und Stiel getrennt sind, die andere dagegen vollständig funktionsfähig. Beide Werkzeuge sind so angeordnet, dass er sie nur zu benutzen braucht, um eine Banane zu sich hinzuziehen, an die er ohne Hilfsmittel nicht herankommt. Wählt er die eine Harke, hat er Glück und wird satt, wählt er die andere, wird er über das miese Design der Harke fluchen und, wenn er ein schlauer Affe ist, möglicherweise in Erwägung ziehen, die Harke funktional zu Aber auch ich sehe meine Grenzen beim Erklimmen der Evolutionsleiter. Vor eineinhalb Jahren durfte ich einmal einen neuen Opel Astra probefahren. Grundsätzlich unterschied sich das Fahren nicht vom Vorgängermodell, nur mit dem Blinken haperte es bei mir. Nicht, dass ich nicht gerne blinke, aber egal wie lange ich den Blinkhebel betätigte, der Blinker blinkte immer mindestens dreimal. Wenn ich den Hebel in die andere Richtung betätigte, hörte das Blinken auf der einen Seite auf, um auf der anderen Seite wieder mindestens dreimal zu blinken. Während der ganzen Fahrt war ich hauptsächlich mit dem Blinken beschäftigt. Ich habe mich dann schließlich für das alte Modell entschieden, ich kenne meine Grenzen. Im letzten Urlaub allerdings hat mich diese Begebenheit wieder eingeholt, diesmal bei einem VW Polo, auch ein neues Modell. Um den Urlaub trotzdem genießen zu können, habe ich weitgehend aufs Blinken verzichtet; auf der kleinen Insel war nicht soviel Verkehr. Diese Art oeffnungszeiten 22/2008 17 von Blinker erfordert eine spezielle telemotorische Kraft, mit der der Blinker ohne Betätigung durch Hände abgeschaltet wird. Diese Kraft ist auf meiner Evolutionsstufe noch nicht vorhanden und ich muss zugeben, dass ich auf meine Artgenossen etwas neidisch bin, die über diese Kraft verfügen. Im Gegensatz zur Situation des Versuchsaffen ist dieses Manko aber nicht kritisch, ich verhungere nicht und fahre einfach mein altes Auto weiter. Beispiele dieser Art gibt es viele, alle dienen dazu, uns auf unserer Evolutionsleiter weiter nach oben zu befördern, oder, wie man so schön sagt, die Spreu vom Weizen zu trennen. Nehmen wir beispielsweise die Handy- oder Internettarife. Ich werde es nie schaffen, den billigsten Tarif auszuwählen, weil ich erst gar nicht kapiere, wie das funktioniert. Und wenn ich tatsächlich einmal geschafft haben sollte, einen anderen (nicht unbedingt billigeren!) auszuwählen, gibt es bestimmt wieder einen Tarif der noch billiger ist. Ökonomisch betrachtet schränkt dieser teure Tarif auf Grund des verbleibenden Rests an Geldern mein anderes Agieren in der Wirtschaftswelt ein und lässt so meinen Artgenossen, die die Billig-Tarif-Kenntnis haben, mehr Freiraum in der Gestaltung ihrer Finanzen und gibt ihnen somit mehr Macht. Eben typisch Evolution. Die Zukunft wird für den Menschen nicht einfacher. Naturwissenschaftliche Erkenntnisse und technologischer Fortschritt stellen eine große Herausforderung an den Menschen im Alltag dar. Aber diese Herausforderung ist notwendig, um weiterhin zu Erkenntnissen und Fortschritt zu gelangen. Mangelhaftes Design oder Keindesign trainiert uns schon im Alltag für die Aufgaben, die vor uns liegen. Nur wenn wir unseren Kindern von klein auf nahebringen, wie kompliziert unsere Umwelt ist (siehe Handy), können wir sie darauf vorbereiten, die zweiundvierzigste Dimension der Stringtheorie zu entdecken. Passend zu diesem Artikel hat die »ZEIT« dem Thema Design ein ganzes Heft gewidmet (Zeitmagazin Nr. 14, 24.3.2008). Beeindruckend ist das Interview mit Philippe Starck, einem Designer aus Frankreich. In diesem Interview wird deutlich, dass er Design für überflüssig hält (»Alles, was ich gestaltet habe, ist absolut unnötig. Strukturell gesehen, ist Design absolut nutzlos. Ein Beruf, der Sinn hat, ist Astronom, Biologe oder etwas Ähnliches. Design ist nichts.«). Vielleicht ein bisschen hart ausgedrückt, schließlich gibt es ja auch noch die adretten Lampen, die so nett aussehen. Auch der Artikel über Dieter Rams, einem deutschen Designer, ist nicht erbaulicher (»Ich habe einen Traum«). Er fordert in seinem Traum eine Verbesserung der Intelligenz (des Menschen). Wenn dieses durch Ausbildung nicht möglich sein sollte, dann eben mit Hilfe von Maschinen. Aber auch dem heutigen Design steht er kritisch gegenüber (Zitat: »Bei uns (Anm.: Braun) gab es damals die Devise, nur ein neues Produkt zu lancieren, wenn es auch eine wirkliche Neuerung in der Funktion gab. Wenn man sich heute anguckt, was so 18 auf den Markt gebracht wird, werden alle meine Träume in dieser Hinsicht obsolet. Produktdesign dient oft nur noch dazu, das Land mit Überflüssigem zu überschwemmen.«) Aber ist nicht gerade dieses Überflüssige das, was uns trainiert, mit Komplexität umzugehen? Wir brauchen das Überflüssige, um zu trainieren, das Wesentliche herausfiltern zu können. Ist es nicht so, dass Keindesign unsere Intelligenz langfristig steigert? Na ja, ich jedenfalls tue mein Bestes, um mich evolutionsbiologisch gesehen in Topform zu bringen. Um dieses Pamphlet zu schreiben, benutze ich nicht etwa ein Apple mit System 6 oder gar einen TOS-Rechner, das wäre, als ob ich ein Telefon mit Wählscheibe anstelle eines Handys mit unlesbarer Tastaturbeschriftung und vier Kameras zum Telefonieren benutzen würde. Nein, ich nehme die Herausforderung ernst und schreibe auf einem Linux-Rechner, auf dem, wenn ich einen Buchstaben schreibe, gleichzeitig Myriaden von Prozessen ablaufen, die nichts mit dem Buchstaben zu tun haben, geschweige denn mit mir. Man muss sich eben der Kompliziertheit des Lebens stellen. Ich hoffe, liebe Leserin und lieber Leser (früher: lieber Leser), Sie nehmen diesen Artikel als Ansporn, Ihre Einstellung zum Design zu überdenken. Kaufen Sie sich Navigationsgeräte, DVD-Recorder, Flachbildfernseher, Handys, MP3- und Videospieler, Computer und EBooks. Schließen Sie Versicherungen ab, legen Sie Ihr Geld an. Machen Sie sich fit, so dass Sie Ihren Kindern ein Vorbild sein können, damit diese wiederum fit für ihre Zukunft sind. Benutzen Sie einfach Keindesign. Nachtrag Sie haben möglicherweise bemerkt, dass der Artikel bisher überwiegend sarkastisch gemeint war. Aber jetzt wird es ernst. Ich muss zugeben, dass ich bei der Darstellung bezüglich des Aufbaus eines Heimnetzwerks etwas geflunkert habe. Zwar habe ich unser Netzwerk zu Hause eingerichtet und es funktioniert auch ganz gut, aber es gibt da eine Kleinigkeit. Aus bestimmten, erziehungsmäßigen Gründen soll unser Sohn eine bestimmte Website nicht erreichen können. Unser Router (Speedport) bietet dafür eine sogenannte URL-Sperre, die im Idealfall dafür sorgt, dass diese Adresse nicht erreichbar ist. Leider tritt dieser Idealfall nicht im normalen Leben auf. Die Adresse wird zwar gesperrt, aber nach wenigen Sekunden werden auch alle anderen Adressen gesperrt, der Router hängt sich also auf. Schließlich haben wir, meine Frau und ich, beschlossen, einen neuen Router zu kaufen. Er sollte nicht so teuer sein, deshalb wurde es einer von Netgear. Ein anderer Router wird natürlich auch völlig anders eingerichtet als unser alter, es vergeht also über eine Stunde, bis man überhaupt in der Lage ist, sich im Menü zu orientieren und die Basiseinstellungen vorzunehmen. Dummerweise funktionierte nach einem Abend Konfigurieren zwar die URL-Sperre, aber die WLAN Verschlüsselung nicht, zumindest nicht mit meinen Linux-Rechnern. Auch ICQ und MSN waren nicht erreichbar. Na gut, dachte ich oeffnungszeiten 22/2008 mir, dann muss es wohl doch ein etwas teurerer Router sein. Gesagt, getan, am nächsten Tag ging es in die Stadt und es wurde eine Fritz!box besorgt. Auch hier war wieder weit mehr als eine Stunde nötig, um sich im Menü zurechtzufinden und alles einzustellen. Doch siehe da, es funktionierte alles wie beim alten Router, nur die URL-Sperre ließ sich nicht finden. Mein Sohn frohlockte bereits mit der Bemerkung »Die Welt wird immer professioneller, da kommst Du nicht mehr mit!« und nur durch eine schnelle Reaktion seinerseits konnte er sich einer Erziehungsmaßnahme entziehen. Nachforschungen im Internet ergaben dann, dass dieses Gerät tatsächlich nicht mit einer URL-Sperre ausgestattet ist, es wird also wieder zurückgebracht. Das Leben ist wirklich kompliziert. Wie viele Router sollen wir denn noch testen, bis wir einen finden, der allen unseren Erfordernissen entspricht? Um diesen Prozess abzukürzen, habe ich im Internet nach einer anderen Lösung gesucht – und gefunden. Das Problem wird dezentral gelöst, auf jedem Rechner wird die Adresse »www.sowieso.de« auf localhost umgeleitet, so dass der Browser die richtige Seite nicht findet. Wie das genau geht, schreibe ich hier nicht, es könnte ja sein, dass mein Sohn diesen Artikel liest. (Nachtrag 2: Diese Lösung ist leider auch keine richtige Lösung, weil durch direkte Eingabe der IP das System ausgehebelt wird. Wir sind inzwischen wieder beim Netgear-Router, der jetzt auch einigermaßen läuft, nachdem einige Untiefen umschifft worden sind.) Mein naives Fazit (nicht sarkastisch gemeint): Ich fände es gut, wenn der Umgang mit vielen Dingen des Lebens einfacher wäre, wenn der Begriff Design nicht mit Styling verwechselt und wenn ab und zu bei der Gestaltung von Handlungsabläufen nachgedacht werden würde. Die Lebenszeit ist einfach zu kostbar, als dass man sich mit solch unwichtigen Dingen beschäftigen sollte. oeffnungszeiten 22/2008 19 Zweckrationalitaet als Design Felicidad Romero-Tejedor »Das Sichtbare mag man bestaunen oder genießen. Über das Unsichtbare muss nachgedacht werden.«1 Gert Selle Im Winter 2006 unternahm ich eine Stippvisite nach Rom. Trotz Reiseführer für stilvolle Restaurants, bekannte Trattorien mit Mittelmeer-Atmosphäre und historischen Cafès war es für eine Touristin, die sich nicht sehr weit von den Sehenswürdigkeiten wegbewegen mochte, schwer, zurecht zu kommen. Ich ging jeden Tag vorbei, verbot mir aber, einzutreten und probierte stattdessen die nächstbeste Trattoria. Am letzten Tag suchte ich zu Mittag ein im Reiseführer hoch gelobtes Restaurant auf. Ich aß ein Primo, dann Kaninchen mit römischen Spinaci und natürlich ein Dessert. Ich trank Rotwein, Wasser und Espresso. Keine Frage: sehr wohl schmeckend. Wenn die Portionen auf dem Teller nur solche gewesen wären: nämlich Portionen… Am letzten Abend vor der Abreise tat ich’s dann. Nach dem Einkauf von Modekrimskrams globalisierter Marken im Konsumparadies Rom ging ich einfach rein. Ich nahm einen Hamburger mit Pommes und Cola, vielleicht einen Salat? Ja, gut. Bei McDonald’s. Dieses kulturelle Verbrechen nach mehreren Tagen erlebter Hochkultur ist sicherlich unentschuldbar, aber vielleicht tolerierbar: Es war das unüberwindliche Bedürfnis entstanden, etwas vorhersehen zu können. McDonald’s liefert, was du erwartest. Fooddesign, Design überhaupt bringt in die Globalisierung sicherlich wenig Individualität ein, andererseits scheinen designte Strukturen, wie bei der genannten Company, einen gewissen Level der Orientierung zu garantieren. Das mögen die Leute. Ich auch. McDonald’s steht für ein weltweites Phänomen: die McDonaldisierung. Ein Begriff, den der amerikanische Soziologe George Ritzer für die Beschreibung unserer Gesellschaft geprägt hat. McDonaldisierung demonstriert die Konsequenzen eines zweckrationalen Designs, das durch Expansion und Nachahmung in der Globalisierung nicht mehr wegzudenken ist. 20 oeffnungszeiten 22/2008 Bögen der Abtei von Cluny aus der Mitte des 12. Jahrhunderts oder an die Kirche der Abtei von Maria Laach aus derselben Zeit. Die goldene Farbe des Logos verleiht ihm den Glanz der Aura und erinnert an die goldenen Majuskeln mittelalterlicher Handschriften. Die Bögen von McDonald’s bringen uns einer heilen, himmlischen Welt näher. Die Botschaft ist einfach: Hier zu essen ist angesagt, nach dem Gottesdienst. McDonald’s verwandelt das Essen in ein »happy meal«. Erwachsene essen mit und gucken zu, wie ihre Kinder beim Essen fröhlich sind. Sind wir Opfer von McDonaldisierung? Als McDonald’s sein historisch erstes Restaurant abzureißen plante, trat eine bemerkenswerte soziale Reaktion in Erscheinung. Hunderte Briefe protestierten: Man möge das bitte nicht tun; McDonald’s sei ein fester Begriff in der ganzen Welt. McDonald’s war gnädig: Das Restaurant wurde zum ersten McDonald’s-Museum umgebaut. Ray Kroc (1902 –1984) brachte als Musterbeispiel für McDonaldisierung das System des Franchising ein. Kroc konnte nicht ahnen, dass dieses System viele Bereiche der Ökonomie verändern würde. George Ritzer erklärt in seinem Buch Die McDonaldisierung der Gesellschaft (in vierter, neu bearbeiteter Auflage 2006), dass das McDonald’sPrinzip einer der einflussreichsten wirtschaftlichen Fortschritte in der Entwicklung der heutigen Gesellschaft sei. Vielleicht hätte McDonald’s nicht den großen Erfolg gehabt, wenn Amerika den amerikanische Lifestyle nicht schon zuvor exportiert hätte. Es war die Marke Coca-Cola, die von der »Medizin« zum »Lifestyle of America« wurde. Es wird erzählt, dass der Name Coca-Cola aufgrund von Klangproben gewählt wurde. Während des Zweiten Weltkriegs verbreitete sich Coca-Cola mühelos: Amerikanische Soldaten machten mit ihren Uniformen, Jeeps, Kaugummis und ihrer Musik den amerikanischen Lebensstil nachahmenswert. Es war natürlich nicht die Marke Coca-Cola allein, auch Marken wie Marlboro vermittelten der Welt den Genuss der Freiheit. Alle Welt schien sich vom amerikanischen Lebensstil verführen zu lassen – und McDonald’s kam noch dazu. Die zwei Bögen des Buchstabens »M« im Logo erinnern an die monumentale Form von Sakralarchitektur, an die Gotik, zum Beispiel an die oeffnungszeiten 22/2008 Das Design bei McDonald’s greift viel mehr auf als das Logodesign. McDonald’s ist Design. Es äußert sich als Kommunikationsund Grafikdesign, Mediendesign, Werbedesign, Fooddesign, Marktdesign, soziales Design und sogar Handlungsdesign. Darüberhinaus nutzt McDonald’s Industriedesign für Verpackung und Nebenprodukte, Interiordesign für Restaurants und Hotels. Da herrscht ohne Zweifel Interdisziplinarität: Ökonomen, Psychologen, Soziologen, Stylisten, Informatiker, ja Ingenieure arbeiten am selben Mythos. In Illinois gibt es seit 1961 sogar eine »Hamburger University«. Dort gibt es den Unterricht zur Globalisierung der McDonaldisierung. Nichts darf dem Zufall überlassen bleiben. Ein sehr großer Anteil der Restaurants befindet sich im Ausland. Japan hatte 2002 etwa 4000 McDonald’sRestaurants. Dafür muss McDonald’s manchmal kulturell entgegenkommende Gesten zeigen, wie das Angebot Terayaki in Japan oder kein Rindfleisch in Indien. Aber überall auf der Welt ist McDonald’s schnell, lustig und wohlschmeckend. Schöne Familienmomente sind zu erleben. Der Service ist freundlich. Eine mit globaler Bedeutung erfüllte Marke. McDonald’s-Garantie. Das Konzept McDonald’s wurde vielfach kopiert. Hamburgermarken wie Burger King oder Wendy’s haben es übernommen. Demselben Modell folgen Pizza Hut, Kentucky Fried Chicken oder Subway. Das Prinzip findet sich auch in gehobenen Sektoren wie Outback Steakhouse oder Olive Garden. Sie alle folgen »dem Buch« des jeweiligen Unternehmens. Im »Buch« werden detailliert die Rezepte vorgeschrieben, die Form der Herstellung und, höchst wichtig, das Aussehen. Das »Buch« sagt, wie das Design der Speisen vom Einzelelement bis zur Synthese des Ganzen befolgt werden muss. In der »Küche« herrscht äußerste Rationalisierung: Bei Morton’s sollen 500 unterschiedliche Gänge durch Farbfiguren differenziert werden, zur schnelleren Klassifizierung und Handlungsorientierung bei der Produktion. Unser Anspruch auf globale Esskultur auch zuhause erfüllt sich inzwischen genau so. Um in den Supermärkten französische, italienische, türkische, japanische, russische oder indische Produkte anzubieten, wurden Herstellungsprozesse und Verkaufstrategien durchweg McDonaldisiert. Doch die McDonaldisierung geht noch darüber hinaus: Toys R Us, H&M, Zara, Body Shop oder Ikea operieren mit gleichen Methoden. Die McDonaldisierung ist inzwischen in fast alle Strukturen der Gesellschaft eingesickert, etwa in die öffentliche Verwaltung. In den Hochschulen erleben wir täglich den Erfolg der McDonal- 21 disierung. Studierende werden als Kunden jetzt schneller und effektiver bedient. Die Ausbildung wird mundgerecht in kleine Happen zerteilt, auf dass die Portionen rascher aufgenommen und in Form von Prüfungen (am liebsten multiple choice) kontrolliert werden. Lieber einen Kurs in Flash besuchen als sich Grundlagen von Technik und Gestaltung zu erarbeiten. Die Ausbildung ist flach geworden. Suzanne S. Hudd2 spricht sogar von einer McMoralisierung in den Schulen: Die amerikanische Schulausbildung sieht – wegen Gewalt und Werteverlust – das Fach »Character Education« vor. Aber da auch hierbei Rationalisierung den Ton angibt, so Hudd, können die Kinder die Moral nur für die Prüfung pauken, nicht verinnerlichen. McDonaldisierung bedeutet unter anderem Optimierung. Aber von lauter Optimierung des Lebens vergessen wir zu leben. Inzwischen ist bekannt, wie sehr das gerühmte »Zeitmanagement« in Wahrheit Zeitverlust bedeutet. Unser Alltag wird in kleine Zeithäppchen höchst diverser Aktivitäten zerhackt. Das Problem bleibt McDonaldisierten Unternehmen wie Ikea nicht verborgen. Der Werbespruch »Lebst Du noch oder wohnst Du schon?« scheint von einer Ahnung getragen zu sein. Das ist nämlich vordergründig Design: Semantik in berechnet entworfene Strukturen zu füllen, um den gesellschaftlichen Optimierungswahn zu überdecken. In der Tat scheint sogar McDonald’s in letzter Zeit gewisse Schwierigkeiten zu haben, so Ritzer. Abstoß einiger Gesellschaften. McDonald’s wurde Ziel von Attentaten. Ein McDonald’s-Lokal brennt, aus Protest gegen die Politik der USA. Vor den Restaurants wird demonstriert. McDonald’s ist in Prozesse verwickelt, weil das Essen dick macht oder weil ein Teil des Essens falsch als vegetarisch bezeichnet wurde. Erste ökonomische Verluste. McDonald’s reagierte. Restaurants wurden in bestimmten Ländern geschlossen, geplante Expansionen überdacht, Chefs gewechselt, Restaurants umgebaut. Personal wurde abgebaut. McDonald’s versuchte auch, die Zielgruppe zu erweitern, bis heute mit wenig Erfolg. Aber deswegen kann man doch nicht sagen, die McDonaldisierung habe keinen Erfolg mehr. Im Gegenteil. Wir leben McDonaldisierter als je zuvor. Wir räumen freiwillig der Rationalisierung unserer Lebensbereiche immer mehr Raum ein. Der Soziopsychologe Kurt T. Lewin erforschte in den dreißiger Jahren, wie die Lebensräume der Menschen sich wandeln, wenn die menschlichen Beziehungen sich ändern. Wenn jemand heiratet, müssen die jeweiligen Lebensräume mit dem Partner neu abgestimmt werden. Bekommt ein Paar ein Kind, werden alle Lebensräume (Arbeit, Freizeit, Sport…) neu gestaltet. Heutzutage ist aber auch dieser Prozess optimiert. Partner oder Partnerin nehmen sich abwechselnd einen Tag in der Woche frei. Einer übernimmt Kinder und Hauspflichten, während der andere sich den »freien Tag« gönnt. Das bedeutet Einbettung der McDonaldisierung im Privatbereich. Optimierungsdesign im Alltagsleben. 22 In einem Artikel »Vom König zum Knecht« (Die Zeit, Nr. 39 vom 21. September 2006) – der sich mit der McArbeit-These von George Ritzer befasst – wird kritisch nachgezeichnet, was McDonaldisierung der Gesellschaft bedeutet. Im Jahrhundert der Amateure sehen wir jetzt Freizeit und Arbeit verschmelzen. Ein zentraler Aspekt der McDonaldisierung beruht darauf, dass Kunden in allen Belangen dem Unternehmen Dienstleistungen erbringen. Bei McDonald’s räumt der Kunde seinen Tisch ab. Die Marketingwelt nennt das »Consumer Education«. Ikea verkauft halb fertige Ware, welche die Kunden in ihrer Freizeit zu Ende bauen. Der Kunde ist stolz auf sein Produkt und spart Geld. Denn die Dienstleistung erbringt er selbst. Hardware- und Software-Produkte kommen nicht fehlerfrei auf den Markt. Der Fehler meldende Kunde trägt ohne Entlohnung dazu bei, das Produkt reifer zu machen. Am Telefon leitet der Kunde sich selber weiter (»wenn x, drücken Sie die 1…«). Am Bankautomaten erledigt der Kunde im wahrsten Sinne des Wortes Bankgeschäfte. Ist dies alles noch zu stoppen? Auch wenn McDonald’s einmal nicht mehr so allgegenwärtig wie heute sein wird… Eines bleibt klar: Die McDonaldisierung der Gesellschaft lebt auch ohne McDonald’s weiter. Wir entkommen ihr nicht. McDonaldisierung: angewandte Zweckrationalitaet Ritzer geht mit anderen Autoren in McDonaldization: The Reader der Frage nach, ob es eine unMcDonaldisierte Welt überhaupt noch gibt? Ritzer untersucht den Sachverhalt nach soziologischen Kriterien. Er beschreibt die McDonald’sWelt wie eine eigene Form von Soziologie. Es gibt Kunstsoziologie, Politiksoziologie, Mediensoziologie, Religionsoziologie… und eben so etwas wie »McDonald’s-Soziologie«. Ritzer findet in ihr die Theorie der »Zweckrationalität« des deutschen Soziologen Max Weber (1864 – 1920) wieder. McDonald’s bildet Verwaltungsstrukturen gemäß der Weberschen Theorie der Bürokratie in der Konsumwelt ab. Moderne Gesellschaften wandeln sich bürokratisch und kontrolliert. Weber sah die Bürokratisierung als fundamentales Strukturmerkmal der modernen gesellschaftlichen Ordnung. Rationalisierung ist verbunden mit Analyse, Organisation, Professionalisierung und Bürokratie. Die Rationalisierung wurde zeitgleich von Ingenieuren wie Frederick Winslow Taylor (1856 – 1915) in die Industrie eingeführt – persifliert in Modern Times von Charles Chaplin oder in Metropolis von Fritz Lang. Nach Weber wird die Welt durch Zweckrationalität zu einem effizienten, voraussagbaren, berechenbaren Ablauf. Personen werden kontrolliert durch Technologien. Jeder erlebt, wie Zweckrationalität in der öffentlichen Verwaltung wirkt. Ob wir den gelben Müllsack zum richtigen Datum auf die Straße bringen, ob wir unsere Steuererklärung anfertigen, ob wir unseren neuen Wohnsitz anmelden, ob wir oeffnungszeiten 22/2008 heiraten wollen – stets handeln wir nach auferlegten Regeln. Wenn wir sterben, hinterlassen wir einen veritablen Verwaltungsprozess. Alles das funktioniert ähnlich: Prozesse werden in Komponenten zerlegt. Jedes Büro prozessiert ein bestimmtes Modul; wir holen ein Formular irgendwo, zahlen eine Gebühr irgendwo anders, an einem dritten Ort geben wir das ausgefüllte Formular mit dem Stempel der Gebührenzentrale ab. Nicht die Verwaltung bewegt sich, sondern wir bewegen uns. Zweckrationalität ist ein Medium; durch Regeln und Regulierungen bestimmt es die sozialen Strukturen. Die Menschen können nicht mehr an diesem Medium vorbei ihre Zwecke verwirklichen. Kein Zweck mehr ohne Zweckrationalität. Die Leute müssen weitgehend selbst die geeigneten Mechanismen der Zweckrationalität herausfinden. Determinierend für Zweckrationalität nach Weber ist, dass wenige, überschaubare Möglichkeiten zu wählen sind, um Zwecke zu realisieren – auch bei McDonald’s haben Mitarbeiter und Kunden konkret aufgeteilte Aufgaben zu erledigen. Niemand »kann« bei McDonald’s ein individuelles Menü in neuer Kombination bestellen. Weber sah, dass nur mit zweckrationalen Verfahren die Millionen jährlicher Steuererklärungen eines Landes bewältigt werden können; er sah aber auch, dass eine Steuererklärung eben selbst schon das Produkt von Zweckrationalität ist. Der Vorteil von Ins System eintreten Bürokratie nach Weber liegt stets in einer Qualifizierung durch Quantifizierung. So wird ein Funktionieren unabhängig von menschlichen Entscheidungen möglich. Verwaltung und Management werden vorhersehbar. Man weiß, was, wann und wie etwas zu erwarten ist. Wenn wir die Steuererklärung abgeben, wissen wir, wieviel Geld wir zahlen oder bekommen werden. Bürokratie übt Kontrolle über Personen aus durch Verschiebung des personalen Urteils hin zu einem Diktat von Regeln und Strukturen. Max Weber war keineswegs naiv, was Zweckrationalität anging. Er hatte die Vorteile genauso im Blick wie die Nachteile. Zweckrationalität kann in Irrationalität umschlagen, wenn sie, wie Weber sagt, zum »stahlharten Gehäuse« wird. Mitarbeiter und Kunden sind bei McDonald’s gleichermaßen in ihren Aufgaben rationalisiert: Jeder hat bestimmte, erlernte Aufgaben im gesamten Prozess zu erledigen. Jeder hat seine vordeterminierte Rolle zu spielen. Ein Mitarbeiter darf den für ihn designten Raum nicht verlassen, es gibt sogar Schulungen. An der »Hamburger University« werden die Leute ausgebildet, die in den Filialen das Gelernte an die Mitarbeiter weitergeben. Wie soll der Mitarbeiter grüßen, um freundlich und glücklich zu wirken? Die Mitarbeiter haben ein script zu lernen; es enthält die Regeln, was sie sagen sollen, wie sie reagieren sollen. Höchste Priorität: nicht selbst denken, nicht selbst entscheiden, und auf keinen Fall improvisieren. Glauben Sie das nicht? Besuchen Sie das nächste McDonald’s und fragen Sie bei der Menübestellung den Angestellten etwas wie: »Was können Sie mir heute empfehlen?« Sie werden komisch angeguckt, fast wie ein Außerirdischer. Sie haben Ihre Aufgabe als Kunde nicht richtig erledigt. Bei McDonald’s muss wie in der Bürokratie nicht jede Eventualität vorausgesehen und determiniert werden, es gibt nur einen begrenzten Variationsspielraum. Ein funktional durchrationalisiertes Design wie bei McDonald’s ist effektiv, aber nicht flexibel. Die Starrheit des »stahlharten Gehäuses« bringt nur Vorteile, wenn der involvierte Mensch sich immer an das »Vereinbarte« hält. Angebotenes Menü auswählen Zahlen System verlassen Essen Aufräumen Zweckrationalität bei FastfoodKetten oeffnungszeiten 22/2008 Weber sagte voraus, dass jede Operation von Bürokratie, die designt worden ist, um hochrational zu wirken, in Irrationalität enden kann. Wir alle werden schließlich Opfer der Irrationalität von Rationalität. Die Inhumanisierung der öffentlichen Verwaltung kann jeden Tag in den Boulevardsendungen des Fernsehens besichtigt werden. Die Verfahren verstricken sich in rationale Zwischenschritte, die im Ergebnis dem gesunden Menschenverstand Hohn sprechen. Quantifizierung, der einstige Garant von Qualifizierung der Leistung, landet häufig in der Ohnmacht scheinbarer Sachzwänge. Ritzer erklärt, dass für Mitarbeiter bei Unternehmen wie McDonald’s, Ikea, Schlecker, Lidl, Aldi… ihr Arbeitsplatz ein inhumanisierender Ort ist. Das »Ich« der Mitarbeiter wird zurückgenommen, ihre Emotionen werden annuliert. Menschen sind geformte Normteile des Mechanismus. 23 Ins System eintreten Zweckrationalität in Kaufketten, wie z.B. Ikea. Alles sehen und auswählen Selbst tragen System verlassen Selbst bauen Zahlen Selbst transportieren Raum verlassen Auf der Kundenseite ist es nicht viel anders, wenn sich das Design auch über ihn hermacht. McDonald’s Kunden sind überbestimmt. Sie bilden den Teil des Prozesses, der die Ergebnisse in der Kette abholt, bezahlt, isst und kurz danach weggeht. Es werden etwa 20 Minuten pro Kunde an Verweildauer kalkuliert. Die Marke Ikea verkauft sich über einen semantischen Inhalt: die großartige Naturverbundenheit Schwedens. Wieder eine heile Welt. Die Autoren Olivier Bailly, Denis Lambert und Jean-Marc Caudron erinnern in ihrem Buch Ikea. Un modèle à démonter daran, dass man als Kunde bei Ikea den Weg durch die Verkaufsräume kaum verkürzen kann. Wer einmal die Filiale betreten hat, muss sich alles angucken. Es gibt keine Möglichkeit der Verkürzung, um schneller wieder ins Freie zu gelangen. Damit ist der Konsument nicht mehr Eigentümer seiner Zeit. Ikea hemmt den freien Willen, nimmt die Freiheit. Beschwert man sich darüber, wie es einmal vor etwa fünfzehn Jahren naiver Weise die Autorin dieses Aufsatzes versuchte, kommt vom Großkonzern ein Dank, das Versprechen, man werde sich mit dem Problem beschäftigen, und ein Gutschein für das Ikea-Restaurant – natürlich irgendwo zwischen Möbeln und Wohnungsaccessoires platziert. Das rational-funktionalistische Design bei Ikea macht sich in allen Einzelheiten bemerkbar. Der Kunde, scheinbar hofiert, ist, wie alles am McDonaldisierungs-Prinzip, nur ein Mittel zum Zweck. Die zunehmende Hilflosigkeit des »Kunden« in den zweckrationalisierten, verwaltungsförmigen Prozessen wurde 24 bereits von Weber beschrieben. Stadtverwaltung bedeutet Interaktion mit der Bürokratie durch Formulare. Bürger brauchen Stunden, um sich zurecht zu finden; wenn das Erreichte nicht mit dem Erwarteten übereinstimmt, gibt es wenig, und wiederum abschreckend formalisierte, Instanzen, die Einsprüche entgegen nehmen. Falsche Entscheidungen inhumanisierter Bürokratie können sogar kaum noch auf dem jurististischen Klageweg – wieder formalisiert – korrigiert werden. Ein scheinbarer »Naturzustand«. Dieselbe Gestalt der Zweckrationalität schleicht sich auch ins Alltagsdesign ein. Unsere Waschmaschinen sind längst McDonaldisiert: Viele kleine Schritte in der richtigen Reihenfolge sind nötig, um ein »Waschprogramm« einzustellen. Design erstellt »das Buch« zur formalisierten Kommunikation mit der Maschine. Gibt es einen Fehler in der Beschreibung – keineswegs selten –, hat man ein nutzloses Gerät vor sich. Wiederum Folge des McDonaldisierungs-Prinzips: Du kriegst, was du willst, wenn alles gut geht; wenn nicht, gib die Hoffnung auf; »Fehlerbehebung« ist nicht vorgesehen. Es fehlt nicht an formalisierter Gestaltung, sondern an Gestaltung der Lebensformen, die Holger van den Boom seit langem vorschlägt.3 Wieviel Zweckrationalitaet vertraegt der Mensch? Für Weber schlägt Zweckrationalität an der Stelle in Irrationalität um, wo sie zum »stahlharten« oder »ungeheuren Gehäuse« wird, zur Zwangsanstalt, zum Gefängnis. Zweckrationalisierte Systeme nehmen den Menschen schließlich in Gefangenschaft, obwohl oder gerade weil sie ihn scheinbar in seinen Zwecken zur Priorität erklären; vom »König« wird der Kunde zum »Knecht«. Alles wird durchrationalisiert: Von rationalisierten Bildungsstrukturen über rationalisierte Berufsstrukturen führt uns das Leben bruchlos in rationalisierte Freizeitstrukturen. Wir leben bequem, doch wir kommen aus dem Gehäuse nicht mehr heraus. Ritzer beleuchtet, wie wir im Zeitalter der McDonaldisierung »Freizeitaktivitäten« leben: Zum Beispiel die organisierte Reise. Sie ermöglicht das kostengünstige Sehen von mehr Sachen in weniger Zeit, vom Bus aus, unterbrochen von kurzen Ausstiegen, um ein paar Fotos zu machen… Alles ist wunderbar, perfekt organisiert, wenn alles klappt. Wenn nicht, gelangt das McDonaldisierungsprinzip sehr rasch an seine irrationale Grenze. Spanien, mein Geburtsland, übernimmt mit grundsätzlicher Begeisterung alle Varianten von McDonaldisierung. Wir Spanier stehen jeder neuen Technologie aufgeschlossen gegenüber. Wir haben den modernsten Personalausweis Europas. Längst sind da Daten kodiert, die deutsche Datenschützer um den Schlaf bringen würden. Wir lieben die Vereinfachung – und vermehren unbesorgt die Kontrolle. Die spanische Gesellschaft hat sich inzwischen in eine wohlgetaktete Stressgesellschaft verwandelt. oeffnungszeiten 22/2008 Die Leute sind den ganzen Tag in mußeloser Beschäftigung; alles ist organisiert: Kindergarten, Job, Psychotherapeut. Das Bild von der mediterranen Neigung zur Siesta existiert vor allem in den Touristenkatalogen. Nur das moderne China scheint das Prinzip der McDonaldisierung noch gründlicher zu übernehmen. Dagegen hilft nur eine Form der Betäubung. Man geht zum Psychotherapeuten. Auf die Frage, ob das helfe, antwortete mir eine Bekannte mit verblüfftem Gesichtsausdruck: Das könne sie nicht beantworten, aber sie möge die Therapeutin. Therapie ist gut, negative Gedanken zu vermeiden. Kürzlich wurde die Flamencotherapie erfunden, McDonaldisierung auf dem Psychosektor. In Spanien hörte ich zum ersten Mal von »Fibromyalgie«. Mir war peinlich, keine Ahnung zu haben. Jeder Spanier weiß genau, was das ist, und kennt Leute, die darunter leiden. Eine Krankheit, die von Kraftlosigkeit und Schmerzen zu Depression und Phobien führt und sich auch in physischen Bewegungseinschränkungen zeigt. Ein Bestseller wie Plato, not Prozac! des amerikanischen Philosophieprofessors Lou Marinoff ist ein Zeichen dafür, dass die Gesellschaft massiv beginnt, die Zweckrationalität in so vielen Bereichen des Lebens (ökonomischen, sozialen, familiären, beruflichen…) nicht mehr zu verkraften. Die Gesellschaft fühlt sich krank und greift zu Heilmitteln, die, statt die Ursachen des Problems an der Wurzel zu packen, die eingetretenen Symptome verdecken sollen: Man nimmt Prozac, um das Gefühl von Eingezwängtheit erträglich zu machen. Alles Marke, oder was? Ritzer meint, die soziale Anziehungskraft von McDonald’s gehe vom intelligenten Design der Werbekampagnen und Marketingstrategien aus. Sicherlich ist McDonald’s etwas anderes als nur eine Company, McDonald’s ist pures Design. Fooddesign und Geschmacksdesign: McDonald’s garantiert einen konstruierten, immer wiederkehrenden Geschmack. Aus den Untersuchungen des Ernährungs- und Haushaltswissenschaftlers Udo Pollmer wissen wir, dass Fooddesign über den Weichheitsgrad und die optimale Wärme des idealen Hamburgers entscheidet. Der ideale Hamburger soll zart wie Babykost wirken, zum Weiteressen stimulieren, nicht gleich beim Essen satt machen, aber wenig später doch das Gefühl einer eingenommenen Mahlzeit vermitteln. Fettgehalt, Salzmenge, Soße und Duft müssen genauestens berechnet sein. Verantwortlich sind hier die »Psychophysikalischen Designer«. Egal ob Sofia, Rom, Barcelona oder Hamburg, die Verpackung bei McDonald’s sieht überall gleich aus (wie ich festgestellt habe). Die Speisen werden verpackt, die Mitarbeiter sind verpackt, die Räumlichkeiten sind verpackt. Das ganze Unternehmen präsentiert sich visuell zu hundert Prozent einstimmig. Das Design hat absolut nichts dem Zufall überlassen. Die Botschaft der Marke, »McDonald’s ist einfach gut!«, wird multimedial in der TV-Werbung, Webpräsenz, auf Plakaten usw. mit variierten oeffnungszeiten 22/2008 Szenen, Geschichten, Sprachspielen vermittelt. Ritzer stellt fest, der Erfolg des Unternehmens liege in der Zuverlässigkeit, genau das vorhersagen zu können, was man bekommt. Die weltbekannte Antiglobalisierungs-Journalistin Naomi Klein stellt in ihrem Bestseller, der in 25 Sprachen übersetzt wurde, No Logo, die Kraft der Marken dar. Klein sagt, früher sei die Industrie in Amerika auf die Herstellung von Produkten angewiesen gewesen. Je bessere Produkte, desto bessere Verdienste. In den 1980er Jahren, mit der amerikanischen Rezession, änderte sich die Denkweise; die Ökonomie Amerikas hat sich verschoben. Unternehmen wie Nike, Microsoft, Tommy Hilfiger oder Intel vertraten die Ansicht, die Produktherstellung sei sekundär geworden in den Unternehmensoperationen. Die Produkte wurden jetzt über Verträge, viele im Ausland, hergestellt. Was das Unternhemen kommerzialisiert, ist das Image, die Marke – also reines Design. Klein geht weiter: Ikea, McDonald’s, Burger King, Body Shop und viele andere, die dem McDonaldisierungs-Prinzip folgen, begründen Oligopole: ihre Präsenz ist so stark, dass die Konkurrenz häufig nicht überleben kann. Durch Oligopole verliert jede Gesellschaft ihre kulturellen Differenzierungen. Kulinarisch herrscht Einheitlichkeit. Jeder trägt heute Levi’s 501. McDonaldisierte Companies versenden Botschaften der freien Welt Amerikas, der heilen Familie Schwedens, der ökologischen Körpepflege. Was sich häufig hinter diesen Fassaden versteckt, ist eine harte Ausbeutung von Ressourcen und Mitarbeitern, so Naomi Klein. Aber der Schein kehrt sich auch nach aussen. Sich zuhause WLAN einzurichten ist durch die McDonaldisierten Telekommunikations-Strukturen nicht so einfach, wie die Werbung verheißt. WLAN zu installieren ist komplexer als eine »happy meal«. Beide präsentieren sich für den Kunden aber auf gleiche Weise. Als ich im Januar 2008 WLAN bei der deutschen Telekom kaufte, hieß es aus dem Munde des Verkäufers, das laufe von selbst. Zweckrationalisierte Marken sind indes nicht so flexibel, wie sie sich gerne verkaufen. Zum Beispiel sieht die Telekom keine Installationsmöglichkeit für Macintosh-User vor. Der Markt sei zu klein, hört man. (Obwohl sie so stolz den iPod verkauft.) Ich schaffte es nicht, WLAN auf meinem Mac zu installieren; ich schaffte es auch nicht, bei der Telekom jemanden für das Problem zu interessieren. Schliesslich kaufte ich ein Service-Paket, das darin bestand, dass ein franchisierter Beauftragter der Telekom erschien und mit den Worten eintrat, »bei Apple kann ich nichts garantieren«. Nach zweieinhalb Stunden und mehrfacher Versicherung, dafür werde er nicht bezahlt, hatte er es geschafft. Aufgrund persönlicher Kompetenz. Schein zu verkaufen kann aber auf Dauer keinen Erfolg bringen. Denn eine Sache ist klar: Wer Dienstleistungen verkauft, muss sie auch zuwegebringen. McDonald’s nachzuahmen sollte gerade diesen Punkt beachten. 25 Schon gut, und jetzt? Es mag paradox klingen, aber ohne Design kommen wir nicht gegen die Unflexibilität des Designs eines »stahlharten Gehäuses« weiter. Designfehler können nur mit Design beseitigt werden. Heute erleben wir gleichzeitig die bequeme Seite wie auch die irrationale Kehrseite zweckrationalisierten Designs. Vielleicht hilft uns Tomás Maldonados Empfehlung von 2003 weiter, des internationalen Nestors der Designwissenschaft, »dass die Entwerfer mit allen zur Verfügung stehenden Mitteln den Horizont ihrer gesellschaftlichen und kulturellen Verantwortung erweitern sollten; dass sie sich von den engen, bisweilen erstickenden Grenzen einer aufs Professionelle beschränkten Sichtweise befreien sollten; dass sie den Folgen ihres Handelns für die konkrete Lebenswelt der Menschen eine immer größere Aufmerksamkeit widmen sollten.«4 Ich habe unlängst versucht, dieser Empfehlung in einem eigenen Buch nachzugehen5. Es ist heute keine Frage mehr, dass Design maßgeblich gesellschaftliche Strukturen mitbestimmt. Dafür müssen wir alle Verantwortung übernehmen. Mag das nun unserer McDonaldisierten Ausbildung gefallen oder nicht. 26 26 oeffnungszeiten 22/2008 Anmerkungen 1. Gert Selle, Design im Alltag, S. 11 | 2. Suzanne S. Hudd, »Acerca de la McMoralidad. ¿Crear caracteres irracionales?«, S. 143 | 3. Holger van den Boom, Betrifft: Design, S. 64 – 68 | 4. Tomás Maldonado, Digitale Welt und Gestaltung, S. 374 | 5. Felicidad Romero Tejedor, Der denkende Designer. Bibliografie Bailly, Olivier, Denis Lambert und Jean-Marc Caudron, IKEA. Un modelo desmontable, Madrid, Popular, col. Sociologías 2007 | Boom, Holger van den, Betrifft: Design. Unterwegs zur Designwissenschaft in fünf Gedankengängen, Alfter, VDG 1994 | Heins, Volker, Max Weber zur Einführung, Berlin, Junius 2004 (3. Auflage) | Hudd, Suzanne S., »Acerca de la McMoralidad. ¿Crear caracteres irracionales?«, in: George Ritzer, Hg., Los tentáculos de la McDonaldización, Madrid, Popular, col. Sociologías 2007 | Klein, Naomi, No Logo, Toronto, Alfred A. Knopf 2000 | Helmut E. Lück, Kurt Lewin. Eine Einführung in sein Werk, Weinheim, Beltz 2001 | Maldonado, Tomás, Digitale Welt und Gestaltung. Ausgewählte Schriften herausgegeben und übersetzt von Gui Bonsiepe, Basel, Birkhäuser 2007 | Marrow, Alfred J., Kurt Lewin. Leben und Werk, Weinheim, Beltz 2002 | Posner, Roland, »Kulinarische Semiotik. Syntax der Mahlzeit«, in: Zeitschrift für Semiotik, Band 4, Heft 4, Wiesbaden, Akademische Verlagsgesellschaft Athenaion 1982. | Ritzer, George, Die McDonaldisierung der Gesellschaft, Konstanz, UVK Verlagsgesellschaft 2006 (4., völlig neue Auflage) | Ritzer, George, Hg., Los tentáculos de la McDonaldización, Madrid, Popular, col. Sociologías 2007 | Romero-Tejedor, Felicidad, Der denkende Designer. Von der Ästhetik zur Kognition. Ein Paradigmenwechsel, Hildesheim, Olms 2007 | Selle, Gert, Design im Alltag. Vom Thonetstuhl zum Mikrochip, campus 2007 | Weber, Max, Soziologische Grundbegriffe, Tübingen, Mohr 1976 (3. Auflage). oeffnungszeiten 22/2008 27 Informationsarchitekturen des Kreativen Design auf dem Weg zur Gestaltungswissenschaft 1 Holger Ebert Thesis: Design – verstanden als Disziplin, die in Lebensprozesse des Menschen eingreift und diese veraendert, kann im Verbund mit Arbeitswissenschaft, Informatik und Kunst – das Rueckgrat fuer eine transdisziplinaere Gestaltungswissenschaft bilden. Informationsarchitektur – lautet das Thema unserer heutigen Zusammenkunft. Im Nachdenken, ob ich den Begriff der »Informationsarchitektur« bereits mein geistig Eigen nenne, hilft mir das angehängte Motto: »Information Raum geben«. Architektur als Begriff wie Disziplin beinhaltet das Konzept des Raumes als solchen und kristallisiert sich zuvörderst im Raum, in dem es ihn zunächst einmal mit Gliederung und Struktur versieht, funktionalisiert und semantisiert. In menschlicher Perspektive entstehen daraus »Behausungen«. Behausungen sind Haus = Unterbringung und Hausung = Dynamik des Behaustseins. So gesehen reden wir über Behausungen von Information, die Arten und Weisen ihrer Unterbringung, die Bewegtheit ihres Daseins einschließlich ihrer Sonderformen wie Verfestigung oder Verflüchtigung u.a.m. Was meinen wir, wenn wir von Information sprechen? Der Begriff der Information hat eine unüberschaubare Karriere hinter und wohl auch noch vor sich. In der technischen Moderne überwiegend als Vermittlung technisch-physikalischer Signale oder bloßer Daten aufgefasst, wurde sie im Zuge der Digitalisierung immer mehr mit Universalcharakter versehen. Soziotechnisch gesehen, stieg Information zu den Grundelementen der Weltvermittlung auf, ähnlich wie physikalisch die Atome. Ursprünglich meint (lat.) informatio bilden bzw. Bildung und damit jede Art von Vermittlung die zum Abbau eines Wissensdefizits führt. Oder umgekehrt: das, was Wissen schafft. Hier sind Information und Wissen noch aufs engste verknüpft. Das aber hat sich geändert. Im Universalcode des Binären schlüpft die Welt in das Einheitskleid der Information und emanzipiert sich von ihrer Herkunft. Meint: Wissen und Information driften auseinander. 28 Information ist, so sagt es der Philosoph Jürgen Mittelstraß, »nur eine besondere Form des Wissens […] nämlich die Art und Weise wie sich Wissen transportabel macht«.2 Und »Information sagt was der Fall ist und wie etwas der Fall ist, d.h. in welcher Form, z.B. auch in Gewißheits- oder Meinungsform ein Tatbestand oder Sachverhalt vorliegt. Sie ist in diesem Sinne nicht eigentlich eine Wissensform, sondern eine Kommunikationsform«.3 Mit unserem Generalthema der Informationsarchitekturen bewegt man sich also im Spannungsfeld von Bedingungen, Struktur und Prozess von Kommunikationsformen zur Bildung von Wissen einerseits und von Praxis andererseits. Kernaspekt aller dieser Ausrichtungen – der Begriff »Behausung«4 sollte es andeuten – ist und bleibt die anthropologische Gültigkeit – d.h. ihr Wert und ihr Nutzen für den Menschen. So gesehen beinhaltet Informationsarchitektur neben ihrer weitreichenden praxeologischen Komponente nicht minder weit reichendes epistemisches Potenzial, d.h. Wissensbildungspotenzial.5 Das ist gut so, denn es führt m. E. über eine Engführung des Begriffs auf informationstechnische Anwendungen (Web) oder bereichsspezifische Fragestellungen wie sie im Feld der Untersuchung der Gebrauchstauglichkeit (Usability) hochaktuell sind, hinaus. Überhaupt muss man zum Usability-Hype kritisch anführen, dass er sich dem schlichten aber beinahe skandalösen Umstand verdankt, dass allen voran in Technik und Informatik der Mensch das ähnlich unbekannte Wesen ist, wie er es in der Sexualität dieser Gesellschaft bis weit in die 70er Jahre hinein war. So heißt der Oswalt Kolle des Webzeitalters heute Jakob Nielsen6. oeffnungszeiten 22/2008 Eine kurze Situationsbeschreibung: Digitale Technik bestimmt – vielfach im Verborgenen – unser aller Lebensalltag: Die Zeitung ist nicht mehr nur Papier, sondern per Internet ein immer aktueller, dynamischer Informationsraum, der so gar nicht – entgegen seinem papiernen Pendant – aufs stille Örtchen passen will; das Auto, in dem wir sitzen, entpuppt sich als ein uns assistierender, gelegentlich auch mal limitierender oder gar kollabierender Fahrcomputer und hinter der angenehmen Stimme der Fahrplanauskunft verbirgt sich eine sprachmodulierte Datenbank, die nicht wissen kann, was sie doch sagen kann. Mit all den Errungenschaften unserer neuen Welt geht zugleich ein gravierender Wandel unserer Gegenstandsbeziehung einher. Während wir früher dem eher passiven und unendlich geduldigen Objekt der Begierde gleichsam durch gekonntes Handauflegen virtuos seine Funktionen entlockten, haben wir es in der Digitaltechnik mit Funktionskomplexen beliebigen Ausmaßes zu tun. Die Hand allein vermag da wenig. Will sagen: Das Ding macht sich für uns nicht einfach mehr krumm, wie einstmals, vielmehr kommuniziert es erst einmal mit uns. Aber, wer heute das babylonische Sprach-, Zeichenund Bedienwirrwarr der High-Tech-Produkte nicht beherrscht, der wird beherrscht – vom absurden Kampf um die Tücke des Objekts. Weniger kämpferisch nennt sich das: Interaktion. Interaktion ist eines der, vielleicht das Zauberwort des Informationszeitalters. Aber wie so vieles, ist es geklaut, denn es stammt ursprünglich aus der Sphäre des menschlichen Miteinander. »Soziale Interaktion« lautet die (lat.) Bezeichnung für solche Vorgänge, die »von Mensch zu Mensch« ablaufen und i. Allg. einer gleichberechtigten, wechselseitigen Verständigung dienen. Damit geht soziale Interaktion über bloße Kommunikation hinaus, da sie den Aspekt des gegenseitigen Handelns (lat. agere – handeln) beinhaltet. Sie kann nur dort gelingen, wo zwischen den Beteiligten ein gemeinsames Repertoire an normativen Vorstellungen und kommunikativen Techniken vorhanden ist. Menschen untereinander tun sich damit meist leicht. Was wir menschliche Kommunikation nennen ist ein untrennbares Gesamt unserer Sinne, unseres Körpers, unserer Identität, unseres natürlichen In-der-Welt-Seins. Will meinen: Menschliche Interaktion ist ebenso unvermeidlich wie einzigartig – und daher schlicht unersetzlich. Wird zur Interaktion nun Technik gebraucht, schiebt sich diese vermittelnd – gleichsam als Mediator – zwischen die Kommunikationspartner. Dann muss zusammenkommen, was nicht immer zusammen gehört. Die daraus resultierenden Kommunikationssituationen erweisen sich als höchst unterschiedlich: Das Funkloch im Handy-Handling mag eine beiläufige Unterbrechung sein, die Fehlkommunikation entscheidender (Lande-) Parameter im Flugzeug-Handling eine tödliche, wenn sie die Unterschiedschwellen menschoeffnungszeiten 22/2008 Ergon.design GmbH für Siemens Medical Solutions: Steueranlage für AngiographieGeräte. Grafik: H. Ebert licher Wahrnehmung nicht berücksichtigt (so geschehen in den 90er Jahren in Frankreich und anderswo). Hier liegt des Pudels Kern. Zu jeder Technik gehören eben mehr als nur die so hoch gepriesenen kognitiven Leistungen. Von gleicher Relevanz sind die sinnlichen, handlungsbezogenen und sozialen Belange ihres Gebrauchs, respektive ihrer Gebraucher. Dieses Junktim hat sich mit dem Einzug der Informationstechnologien noch erheblich verschärft. Da unser technisch gestütztes Handeln immer stärker vermittelt – medial – abläuft, sind wir mehr denn je abhängig von den Qualitäten dieser Informationsvermittlung, von der Effektivität (Genauigkeit und Vollständigkeit) der Informationsverarbeitung, von der Effizienz der Entscheidungsfindung (Aufwand) und von der Evidenz seiner (mentalen und leiblichen) Verinnerlichung. (Gemeint ist das Maß der inneren Vertrautheit, die das Wahrgenommene und Verarbeitete zu erzeugen in der Lage ist.) Das, was wir wahrnehmen über Anzeigen, Bildschirme oder Schnittstellen, ist von nun an ungleich mehr als nur Information. Es ist Wahrnehmen im Sinne von »Für wahr nehmen«. Das, was uns vermittelt wird, bekommt zwangsläufig Wahrheitsgehalt7, denn überprüfen können wir es im Fluss seines Geschehens in der Regel nicht mehr. Zu den Fakten unserer natürlichen Wahrnehmung kommen die künstlichen Fakten, »Arte-Fakte« der Technikwahrnehmung. Zur Realität gesellt sich in zunehmendem Maße die Virtualität, zum Wirklichen das Mögliche – und das will rangiert werden. Gefordert sind darin das reflexive Urteil wie die emotionale Einfühlung – der rationale wie der ästhetische Mensch. Ohne diese Rückkehr zum ganzen Menschen werden wir in medialen Umgebungen nicht mehr angemessen handeln können: Die Kids vor der Spielkonsole, wir Normalos im Alltag oder die AirbusPiloten beim Stratossphären-Transport im gigantischen A380. Die Rückkehr zum ganzen Menschen – das mag ein wenig pathetisch klingen, meint aber ganz pragmatisch gesehen die auf dieses Ziel ausgerichtete Zweckgemeinschaft etablierter Berufssparten. Soll heißen: Das Design, die Informationswis- 29 Grafik: H. Ebert senschaft und die Informatik sind die alten und noch mehr die neuen Partner des Fortschritts! Zu ihnen gesellen sich die Arbeitswissenschaft, respektive die Psychologie – insbesondere die Handlungspsychologie und nicht zuletzt: die Kunst! Diese Disziplinen möchte ich zu einer Gestaltungswissenschaft vereint sehen, die in der Lage ist, die Eigenart des jeweiligen Faches zu bewahren, in der Kumulation ihrer Qualitäten aber zugleich eine transdiziplinäre Entwicklungskompetenz zu erreichen. Diese Gestaltungswissenschaft ist keine nomothetische Wissenschaft, die in wissenschaftstheoretischer Verabsolutierung nach allgemeingültigen Gesetzen fahndet. Wenn ihr Erkenntnisgegenstand der fühlende, denkende und tätige Mensch ist, kann sie nur eine Subjektwissenschaft sein, und das aus ganz naheliegenden Gründen: Subjektivität betrifft das »sich ins Leben setzen« des Individuums, sein Wahrnehmen und Wirken aus ureigenster Sicht. Und das ist niemals bis ins letzte ausbestimmoder vorhersehbar – was in vielen Wissenschaften – auch z.B. den Ingenieurwissenschaften und der Informatik vielfach ausgeblendet wird (auch das Design tut sich damit immer noch schwer). Das bedeutet, dass Gestaltung, gleich welcher Ausrichtung, neben faktischen immer auch verstehende Anteile der Biographie und Lebensdispositon ihrer Klientel einzubeziehen hat. Denn Menschen definieren sich nunmal fortlaufend durch Selbstdeutungen ihrer momentanen sowie Projektionen ihrer erreichbaren Situationen. Und selbst wenn die Sicht auf das Subjekt zur methodologischen Pflicht erklärt wird, bleibt zu berücksichtigen, dass Subjektivität ganz wesentlich gesellschaftlich ist, das Individuum selbst aber einmalig. Seine Entfaltung benötigt daher unabdingbar Leerstellen, Offenheiten, Spielräume. Für eine Wissenschaft der Gestaltung, wären nun vordringlich zwei Fragen zu beantworten: Auf welchem Weg kommt die Praxis zu »guter Gestaltung« und wie kommt die Gestaltungswissenschaft zu ihrem Wissen?8 Hier herrscht bereits Konfusion und Missverständnis. Im theoriearmen Design meint mancher, eine affirmative Gestaltungspraxis brächte ihn allemal ans Ziel (»Der Designer macht alles feiner«). Den Ingenieurwissenschaften wie der Informatik fehlt es häufig an einem angemessenen Menschmodell. Menschliches Handeln – vom Erleben mal ganz abgesehen – wird in den Entwicklungsprozessen für Hard- und Software immanent technozentriert – auf das technisch und wirtschaftlich Machbare reduziert und einseitig auf Effektanz ausgerichtet. Auch die gegenwärtige Usability-Praxis folgt vielfach diesem verkürzten Ansatz – in ultrakurzen Testsitzungen, mit all zu wenig Probanden grobe Nichtentsprechungen im Software-Anpassungsprozess per Hoppla-Hopp-Verfahren raus zu bügeln. Solcherart Sichtund Verfahrensweisen mögen marktwirtschaftlich erfolgreich sein – gleichwohl sind sie inhuman, weil menschliches Handeln auf die Ebene maschineller Prozeduren herunter gestuft wird. Nicht zuletzt muss sich die Ergonomie die Frage gefallen lassen, wieweit sie einem rationalistischen Leitprinzip der Anpassung und Effektivierung folgt, das allzu häufig einer korrektiven statt einer notwendig konzeptiven Perspektive das Wort redet. Das verkennt die Grundprinzipien eines unabdingbar in vitale Kontexte eingebundenen menschlichen Daseins:9 • Menschen gehen ihre eigenen Entwicklungswege nach selbstständig gesetzten Zielen – das gilt für ihre Lebens- und Tätigkeitsplanung ebenso wie für die triviale Bedienung einer Kaffeemaschine. • Als körperliche Wesen sind sie unauflösbar und existenziell an ihre vielfältigen Sinne gebunden, d.h. ohne Einfühlung gelingt kein Umgang mit irgendetwas wirklich. • Menschliches Denken, Fühlen und Handeln ist untrennbar in soziale Zusammenhänge eingebunden, d.h. das soziale Netz eines jeden prägt alles Tun und Sein ausnahmslos mit. Daraus ist zu folgern, dass Gestaltungswissenschaft von ihrer Intention her gegenstand- oder handlungssorientiert, und von ihrer Methode her reflexiv zu sein hätte. Usability-Lab an der Georg-Simon-Ohm Hochschule Nürnberg. Grafik: H. Ebert. 30 oeffnungszeiten 22/2008 Bekannt ist das »normative Paradigma«, d.h. wissenschaftliches Wissen wird als gültig und überlegen gesetzt, das notwendige Vorgehen daraus abgeleitet, wobei die Durchsetzungsbedingungen und Folgen i. d. R. nicht mitreflektiert werden. Im »diskursiven Paradigma« dagegen wird nicht von einem überlegenen Expertenwissen ausgegangen. Hier begibt sich der Wissenschaftler als »primus inter pares« in den Praxiszusammenhang, um »die partikularen Ziele und Kriterien der Klienten zu ermitteln, eine gemeinsame Problemsicht herzustellen und zu einer konsensuellen Zieldefinition zu gelangen«.10 Jedoch werden in diesem prozeduralen Ansatz die Verantwortlichkeiten in hohem Maße auf die Beteiligten aus der Praxis verschoben. Die daraus resultierenden Folgen sind z.B. aus der Partizipativen Softwareentwicklung bekannt: Die beteiligten Anwender waren oft erst nach dem Projektablauf in der Lage, ihre Anforderungen in technische Kriterien zu übersetzen, Alternativen zu finden oder Gründe für Annahme bzw. Ablehnung zu artikulieren. (Klassische Rechtfertigungsrhetorik: Zuerst unisono fragen: Wie willst du es haben – um hinterher lakonisch festzustellen: ihr habt es ja so gewollt). So verbleibt, aus zwei Wegen einen dritten zu machen. In diesem werden aus dem vorhandenen Wissen im Beisein der Betroffenen handhabbare Prozeduren abgeleitet, die im Sinne experimenteller Anordnungen miteinander konkurrieren. Durch Schichtenmodelle kritischer Evaluation werden dann step-by-step ebenso praxisrelevante wie konzeptuell nachvollziehbare Lösungen herausgefiltert und zugleich auf ihre Ausgangsbedingungen hin reflektiert. Eine gegenstandsorientierte Gestaltungswissenschaft speist sich daher nicht in erster Linie aus klassischen Prinzipien der Wissenschaftstraditionen. Sie fragt vielmehr, was notwendig ist, um einen bestimmten Gegenstand oder eine bestimmte Sache der sozialen Praxis zu verstehen. Und sie fragt, welche Disziplinen hierzu welchen Beitrag liefern können. Damit sind wir bei meinem Modell transklassischer Gestaltungswissenschaft. Als Katalysator möchte ich darin das Design sehen. Eine Gestaltungswissenschaft wäre m. E. in der Lage, die performativen Daseinsformen des Menschen angemessen in die informationstechnische Welt zu bringen. Menschliche (Handlungs-) Abläufe sind wechselhaft, intensitätsschwankend, beiläufig, situativ, spontan – auch regelhaft, niemals aber iFly. Funknavigationstrainer für die allgemeine Luftfahrt. Grafik: H. Ebert. oeffnungszeiten 22/2008 entsprechen sie einer maschinellen Determiniertheit. Sie folgen dem Kalkül ebenso wie der Intuition, der Rationalität ebenso wie der Phantasie. Daraus folgt, informations-technische Anwendungen müssen die performativen Dimensionen der Menschen kennen und ihnen entsprechen können. Sie müssen der Spontaneität wie der Gerichtetheit menschlichen Verhaltens folgen und sich variablen Handlungsmustern anpassen können. Dies ist die veritable Option zur Entfaltung der menschlichen Handlungskompetenz. Ein Beispiel: Während meiner Flugausbildung stellte ich fest, dass es für einen wichtigen Teil der Ausbildung nur sehr unzureichendes Material gab. Privatpiloten navigieren überwiegend terrestrisch, d.h. nach Regeln für den Sichtflug (Visual Flight Rules – VFR). Als nächst höhere Stufe gibt es den sog. Kontrollierten Sichtflug (Controlled Visual Flight Rules – CVFR) bei dem man mithilfe von Funkanlagen am Boden navigiert. Diese Funknavigation wird auch beim Durchflug durch Kontrollzonen an Verkehrsflughäfen oder beim Flug über Wolkendecken benötigt. Für die notwendige Vorbereitung am Boden (Flugpraxis ist teuer) gab es nur eindimensionale Lernhilfen, die das Flugzeug im Verhältnis zum Funkfeuer mit der entsprechenden Instrumentenanzeige im Cockpit darboten. Sie bieten zwar praxisgerechte konstellative Veranschaulichungen, bleiben aber zugleich ausschnitthaft und aus dem Gesamtgeschehen isoliert. In einem Interaktionsdesign-Projekt im Hauptstudium haben wir daraufhin »iFly« entwickelt, einen interaktiven Trainer für die Funknavigation. Seine Konzeption folgt der realen Arbeitsaufgabe des Piloten: funknavigieren unter den zeitkritischen Bedingungen der laufenden Flugzeugführung. Hinzu kommen Kommunikation und Systembedienung. Diese Art Multitasking kann nur gelingen, wenn der Pilot in der Lage ist, ein ständig mitlaufendes räumliches Lagebild des Flugzeuges und seiner Umgebung zu generieren. Er muss »In the loop sein«. Doch damit nicht genug, er muss zudem diese komplexe Situationsanpassung immer ein Stück weit in die Zukunft projizieren – antizipieren. Ein Pilot, der mental dem Fluggeschehen hinterher läuft oder auch nur auf gleicher Höhe ist, befindet sich auf der Stufe höchster Gefährdung. In der Luftfahrt nennt man diese Fähigkeit zur Wahrnehmung, Entscheidungsfindung und Antizipation »Situation Awareness«. Auf diesem Konstrukt eines umfassenden Situationsbewußtseins sowie der Reflexion auf die Spezifik der Zeit in der Fliegerei setzt unser Navigationstrainer auf. Seit 2005 bieten wir ihn auf unserem Webportal »isoftworks« Flugschülern und Interessierten an. In der Gestaltungswissenschaft sind Formen immer zugleich Handlungsformen, sie sind weniger Information, denn Performation. Ein anderes Beispiel. Bei der Entwicklung des Infotainment des Volkswagen Phaeton standen wir bei ergon.design vor der Aufgabe, die Bedienung von Informations-, Unterhaltungs- und 31 ergon.design für Volkswagen AG: Infotainment VW Phaeton. Grafik: H. Ebert. Assistenzsystemen neu auszulegen. Eine derartige Komplexion von Funktionalitäten technisch in zwei Baugruppen verdichtet (Kombi und Mittelkonsole), hatte es zuvor im Automobil nicht gegeben. Es galt, die primäre Fahraufgabe unbeeinträchtigt zu gewährleisten, diese in ein Situationsbewusstsein hoher Güte einzubinden, um letztlich trotz »mehr Auto« eine höhere Fahrzeugführungskompetenz zu ermöglichen. Es würde zu weit führen, den umfangreichen Gestaltungsprozess hier zu erläutern. Was wir entwickelt haben, lässt sich vielleicht so zusammenfassen: anstelle singulärer Bedienformen haben wir versucht Handlungsgestalten zu entwickeln, immer bedacht auf den Dreiklang von prototypischem Vorstellungsbild (fokale Instanz) des Benutzers, Repräsentation auf der Benutzungsebene und Transformation einschließlich Manipulation auf der Umgebungsebene (Fahrzeug und Fahrzeugumgebung). Diese Umgebungsebene ist beim Automobil in erster Linie eine permanent dynamische und nur nebensächlich eine statische. Alles Gestalten betrifft darin weniger Produkte, denn Prozeduren.11 In Anlehnung an den Modernen Tanz könnte man auch sagen, wir choreographieren die Tätigkeit des Benutzens. Im Gang der Entwicklung hat sich nun gezeigt, dass eine hohe Handlungsqualität weitgehend abhängig ist von Art und Ausmaß der Subjektivierung der Tätigkeit durch den Fahrer. D.h. subjektive Faktoren wie Gefühl, Empfinden und Erleben sind gerade auch bei der technisch-funktionalen Bewältigung von Handlungsanforderungen bedeutsam. Der wahre Könner – ganz gleich welchen Metiers – bringt seine körperlich-sinnliche Wahrnehmung ungebrochen-fließend in seine kognitive Verarbeitungsleistung ein, stärkt damit sein subjektives Empfinden »ganz in der Sache zu sein« und vermag über diese enge Situationseingebundenheit anschaulich-assoziativ das auf ihn Einströmende störungsfrei zu absorbieren, um letztlich mit einer mühelosen Entsprechung des Verhaltens zu antworten.12 Entwürfe Screens Infotainment. Grafik: H. Ebert. 32 oeffnungszeiten 22/2008 Es dürfte deutlich werden, dass ich das Handeln der Benutzer sehr viel enger mit dem Sinnlichen verknüpft sehen möchte, und zwar mit dem initialen Potenzial des Sinnlichen, d.h. mit dem Ästhetischen. Das Ästhetische ist in allen Disziplinen, ausgenommen die Kunst, die am meisten verkannte, gleichwohl die unverzichtbare Größe. Gerade auch das Design, die selbsternannte Königsdisziplin für menschangemessene Gegenständlichkeit, tut sich damit schwer. Sie ist hochentwickelt, was die Vermittlung von Produktqualitäten angeht, aber nicht selten stümperhaft, was die Handlungsqualitäten von Produkten angeht. Das Gros der mit Design befassten oder eine inhaltliche Ausrichtung dazu pflegenden Disziplinen versteht Objektästhetik entweder als schmuckhafte Applikation, gleichsam als Überstülpen eines nicht zum Gebrauchswert benötigten »schönen Scheins« oder aber als produktdifferenzierendes Instrument zur Absatzsteigerung und Markenbildung. informatorischen Umgebungen, ganz besonders in zeitkritischen, jegliche von außen kommende Information in »Körperinformation« gewandelt werden muss. Auf der mentalen Ebene muss das erwähnte Situationsbewusstsein hergestellt werden; auf der körperlichen Ebene wird die rationale Einschätzung gleichsam als eine hochverdichtete, antizipierende Form des Handlungentwurfs im Akt eines fortlaufenden Gelingens unablässig sinnlich-gefühlsbezogen13 verifiziert. Mit anderen Worten: Nur ein umfassend »gutes Gefühl« im Sinne eines »Körperbewusstseins« lässt Könnerschaft im Handeln und somit Handlungskompetenz entstehen. Spätestens mit den Gegenständen der Moderne ist das Ästhetische jedoch für alle anthropozentrisch gerichteten Tätigkeiten ebenso substanziell wie konstitutiv geworden. Dies gilt in besonderem Maße für die Informationstechnologien. Sinnliche Wahrnehmung und handlungsbezogene Informationsverarbeitung verschmelzen zum Ästhetischen Denken. Wir nennnen diesen Ansatz bei ergon.design die »Handlungsästhetische Methode« oder kurz: Handlungsästhetik. Handlungsästhetik ist die sinnliche und performative Komponente nutzerbezogener Gestaltung. Sie ist eine systematische und normative Ästhetik, die im Prozess der Fühlung, der Involvierung, der Situierung und der Entfaltung von Situationen gegenständlichen Handelns ihren Platz findet.15 Handlungsästhetik begreift den Gegenstand sehr viel mehr so, wie er für den Menschen Bedeutung erlangt, nämlich als Ereignis. Aus dieser Erkenntnis lässt sich die substanzielle Rolle des Design im Informationszeitalter reformulieren: Design gestaltet vermittels Entwurfsprozess Gegenstände und Systeme in Hardund Software, die für ihre Benutzer eine spezifisch auf ihre sinnliche, kognitive und performative Ausstattung bezogene Aneignung erlauben müssen. Die Auslegung dieser Objektsysteme fördert und fordert das Lernpotenzial der Adressaten in unterschiedlichen Anspruchsstufen zur Entwicklung ihrer Handlungskompetenz (bis hin zu einem artistischen Gegenstandsumgang). Über die Schaffung solcher Handlungskompetenz hinaus kann Design gleichsam der Türöffner einer objektalen Ich-Identifikation werden. Damit sind alle Aspekte gemeint, die ein gekonnter Gegenstandsumgang zur Persönlichkeitsbildung des Einzelnen beitragen kann. Kurz gesagt: Design macht das »Ding an sich« zum »Ding durch uns«. Das Ästhetische steht darin in einem unauflösbaren Verbund mit dem Gebrauch, respektive den Vorstellungen zur Gebrauchbarkeit der Objekte, weil die sinnliche Evidenz einer Sache oder eines Gegenstands genuin mit dessen Begreifbarkeit – physisch wie geistig – einhergeht. Wir wissen alle, eine Sache nur rational zu verstehen, erlaubt allenfalls eine stümperhafte, hölzerne Umgangsform. Das lässt sich sowohl bei überwiegend sensumotorischen Tätigkeiten wie z.B. Skifahren, wie auch bei vornehmlich informatorischen Tätigkeiten, etwa dem Führen eines computerbestückten High-Tech-Flugzeugs gleichermaßen unter Beweis stellen. Hinzu kommt, dass in oeffnungszeiten 22/2008 Fazit: Gutes Handeln ist gelebtes Handeln – Handlungskompetenz und Handlungskontrolle sind in jeglichem Gegenstandsumgang, insbesondere aber bei SoftwareProdukten auf gleichermaßen rationales wie ästhetisches Wahrnehmungsvermögen angewiesen.14 Ein anders Beispiel: Interface- und Dialogentwicklung eines Elektronischen Prüfsystems für vernetzte Fahrzeugelektronik der Volkswagen AG. Ausgangspunkt sämtlicher Aktivitäten war die Analyse der zielführenden Handlungssequenzen im Verhältnis funktionaler Nutzen zu performativer Qualität. Parallel dazu ging es darum, die mentalen Modelle der Anwender zu verstehen, um sie in wiedererkennbare, signifikante Zeichen, Darstellungen und Abläufe zu übersetzen. Ein Vorteil bei der Gestaltung war, dass der Bedienablauf grundsätzlich hierarchisch-sequenziell organisierbar war. D.h. er besaß bereits eine gültige implizite Gliederung. Wir konnten uns somit weitgehend auf die Choreographie der ergon.design für Volkswagen AG: Elektronisches Prüfsystem EPS201 (Neu-alt). Grafik: H. Ebert. 33 einzelnen Bediensequenzen konzentrieren. Die Verkettung der Einzelsequenzen zum durchgängigen Systemablauf benötigte vor allem Anpassungen. Die Entwürfe haben wir dann mithilfe von Simulationen auf dem Zielgerät evaluiert. Der gekonnte Gegenstandsumgang setzt also ein hohes Maß an Einfühlung voraus und dieses ist unmittelbar an das Ästhetische gebunden. Seine Relevanz für das »In-die-Welt-Setzen« des Individuums ist nicht hoch genug einzuschätzen. Mit Recht könnte man vom eigentlichen Wissensmodus des Menschen sprechen. Dann aber müsste man gleichsam rückwirkend anerkennen, dass Design – im Sinne einer reflexiven Gestaltungswissenschaft – nicht unerheblich zur Episteme der Moderne beiträgt. Erkenntnistheoretisch wie methodologisch liegen dahinter die Großgebiete des Impliziten Wissens, der Intuition, der Kreativität, der Heuristik, der Emergenz. Die noch junge, kaum überschaubare Disziplin der Bildwissenschaft wird davon gespeist, Visualisierungsforschung – eine Stärke professionellen Designs – bleibt nicht länger ein zerfaserter Begriff, sondern wird zum Antrieb organisierter Wissensarbeit. Ein Beispiel, das ein paar dieser Aspekte andeutet. In einem Projekt für die Leica Microsystems GmbH in Mannheim ging es um die Revision einer Software zur Steuerung von LaserKonfokal-Mikroskopen. Diese werden zur 3D-Analyse von Präparaten etwa der biomedizinischen Forschung eingesetzt. Der Nutzungsumfang der Software erstreckt sich von der Routineanwendung im Labor bis zu Forschungsexperimenten mit offenem Ausgang. Eine wesentliche Zielstellung bestand in der Gewährleistung hoher Benutzbarkeit des komplexen Funktionsangebots durch unterschiedlich qualifizierte Benutzer. Dazu wurden sämtliche Funktionen des Systems in Hinblick auf die gebräuchlichsten Anwendungsprozeduren neustrukturiert und workflow-optimiert. Eine Schwierigkeit bestand in der Anforderung, ein hoch beherrschbares System herzustellen, das zugleich dem Entwurf experimenteller Konstellationen keinerlei Einschränkungen auferlegt. Im Sprachgebrauch der Musik: das Spiel von der perfekten Partitur bis zur freien Improvisation übergangslos zu ermöglichen. Es galt also, hoch strukturierte, systemgeführte Tätigkeitsabläufe zu entwickeln, versehen mit den »Slots«, den Startfenstern, wie wir in der Fliegerei sagen, die heuristische Ausflüge ins Unbekannte gewährleisten. Dass wir uns damit wieder im Bereich der Subjektivierung von Tätigkeiten oder besser: der Handlungsästhetik bewegen, sollte vielleicht plausibel geworden sein. tion, die Informationsarchitektur keine vom Produzenten oder Rezipienten unabhängige Existenz besitzt, sondern vor allem eins ist: Ereignis. Das bloße Verstreichen von Zeit etwa als Bedingung von Wahrnehmung und vor allem als Bedingung von Veränderung aller darin Involvierten zu begreifen und nicht als Verhaltensdeterminante elektronischer Schaltkreise, wäre ein kleiner Schritt zu einer performativen Wende. Schaut man z.B. nur einmal auf das Notfallmanagement von software-gesteuerter Gerätetechnik, sollte deutlich werden, was ich meine. Wir haben bereits Mitte/Ende der 90er Jahre versucht, etwa das Infotainment des VW Phaeton angelehnt an die szenischen Aufzüge der Guckkastenbühne des Theaters sehr viel stärker verlaufs- und übergangsorientiert zu konzipieren. Die mäßigen Performanceleistungen der damaligen Technik haben das jedoch nicht zugelassen. Mittlerweile sind solcherart scenarische Erscheinungsweisen State of the Art. Unmittelbar am Subjekt selbst befinden sich die Aufführungskünste. Sie haben theoretisch wie praktisch vermittelt, dass Ästhetisches und Nichtästhetisches sich nicht äußerlich gegenüberstehen, sondern prozessual aufeinander bezogen sind. Die Interaktive Kunst etwa leistet in Hinblick auf unser heutiges Thema eine veritable Forschungsarbeit. In ihr finden wir alle denkbaren Formen evidenzgeleiteter Kommunikation und Interaktion in gleichermaßen realen wie virtuellen Umgebungen. In Kooperation der Fakultät Design mit der Studienrichtung Media Engineering experimentieren wir an der Georg-SimonOhm-Hochschule in Nürnberg seit knapp zehn Jahren in diesem Feld. Schon Marshall McLuhan, der Nestor medialen Denkens hatte in den sechziger Jahren des letzten Jahrhunderts die Relevanz der Künste beim Aufbruch in die Moderne klar benannt. »Der ernsthafte Künstler ist der einzige Mensch, der der Technik ungestraft begegnen kann, und zwar nur deswegen, weil er als Fachmann die Veränderungen in der Sinneswahrnehmung erkennt«.17 Informationsarchitekturen sind die Behausungen des modernen Menschen. Um sich in ihnen einzurichten, braucht es Architektur, um sich in ihnen wohl zu fühlen, braucht es Atmosphäre. In der Gestaltungswissenschaft können wir sie herstellen. Last but not least: Im Ensemble der beteiligten Disziplinen feht noch die Kunst. Aber genau genommen ist sie die ganze Zeit bereits anwesend. So in Form der Kunstwissenschaft, die uns bereits vor geraumer Zeit klar gemacht hat, dass die Dichotomie von Mensch und Ding, von Person und Handlungsgegenstand im Denken wie im Machen nicht länger aufrecht zu erhalten ist16. Sie hat überzeugend dargelegt, dass das Ding, die Informa 34 oeffnungszeiten 22/2008 ergon.design für Leica Microsystems: Software für konfokale Mikroskopie. Grafik: H. Ebert. oeffnungszeiten 22/2008 Anmerkungen 1. Vortrag auf der IA Konferenz »Informationsarchitektur – Information Raum geben» an der Hochschule der Medien in Stuttgart am 8. November 2007 | 2. Mittelstraß, J., Leonardo-Welt, Suhrkamp 1992, S. 226. | 3. Ders. a.a.O., S. 229 | 4. So wird im Bereich des sog. »Knowledge Media Design« von »Kognitiver Behausung« gesprochen. | 5. Das ist auch der Ansatz derzeitiger Aktivitäten zur metadisziplinären Bündelung im Bereich der Medien, wie sie etwa unter dem erwähnten Stichwort »Knowledge Media Design« betrieben werden. | 6. vgl. Dazu: Volpert, W., Wider die Maschinenmodelle des Handelns, Lengerich 1994 | 7. Vgl. Welsch, Wolfgang, »Ästhetisches Denken«. In: Kunstforum International, Bd. 100, Köln 1989 | 8. Vgl. Moldaschl, M.: »Zukunftsfähige Arbeitswissenschaft«, in: Ders. (Hg) »Neue Arbeit – Neue Wissenschaft der Arbeit?« Asanger 2006, S.32. | 9. Vgl. Volpert, W., »Gefahren der Informationstechnik und das Prinzip der Kontrastiven Analyse«. In: ders., Humanwissenschaft der Arbeit - ein Rückblick, Berlin 1994, S.36. | 10. Moldaschl, M. a.a.O., S. 32. | 11. Zu unserer Überraschung erwies sich dieses Design von Verfahrensweisen in hohem Maße patentfähig. Innerhalb von knapp sechs Jahren resultierten rund vier Dutzend nationale wie internationale Patente aus diesen Arbeiten. | 12. Vgl. dazu die zahlreichen, bahnbrechenden Arbeiten zur psychologischen Handlungstheorie des Schweizer Psychologen Ernst E. Boesch, bes., Das Magische und das Schöne. Zur Symbolik von Objekten und Handlungen, FrommanHolzboog 1986. | 13. Zu verstehen als eine Art »emotionaler Gesamtlagebericht«. | 14. Damit schließt sich auch ein Kreis zur anfänglichen Bestimmung des Ästhetischen als »Sinnliche Erkenntnis« durch Alexander Baumgarten vor gut 250 Jahren. | 15. S. dazu: Csikscentmihalyi, M., Das Flow-Erlebnis: Jenseits von Angst und Langeweile, Stuttgart 1987 | 16. Vgl. Fischer-Lichte, Erika, Ästhetik des Perfomativen, Frankfurt 2004, S. 19 ff. | 17. Marshall McLuhan, Die magischen Kanäle, Basel: Verlag der Kunst 2/1995, S. 38 f. (Originalausgabe Understanding Media, McGraw Hill 1964). 35 Mechanik und Elektronik fuer Designer 36 Diethard Janßen oeffnungszeiten 22/2008 Bild 1: Teile eines Handys. Elektronik… Im Bachelor-Studiengang Industrial Design an der Hochschule für Bildende Künste Braunschweig ist in diesem Jahr zum ersten Mal das Technik-Modul »Grundlagen Technik« für das dritte Semester unterrichtet worden. Das Modul besteht aus drei Fächern, nämlich Mechanik, Werkstoffkunde und Elektronik. Jedes der Fächer wird zwei Stunden in der Woche unterrichtet und am Ende des Semesters erfolgt die Modulprüfung, die, entsprechend der Fächer, aus drei Einzelprüfungen, in diesem Fall Klausuren, besteht. Wird Industrial Design an einer Technischen Hochschule unterrichtet, stellt sich im Allgemeinen die Frage nach dem Sinn eines solchen Moduls nicht, ein solches Modul oder ein Modul in ähnlicher Form ist obsolet. An einer Kunsthochschule allerdings gibt es zumindest innerhalb der Hochschule Erklärungsbedarf für die Existenz eines solchen Moduls. Nach landläufiger bzw. kunstläufiger Ansicht widersprechen sich Kreativität und Technik. Das ist natürlich mitnichten der Fall, ich denke sogar, Kreativität kann im Industrial Design durch technisches Verständnis gesteigert werden. Zumindest ist es manchmal von Vorteil, wenn die Ergebnisse kreativer Prozesse unter technischen Gesichtspunkten betrachtet werden. Bei den beiden Fächern Mechanik und Elektronik, die ich unterrichte, ist es nicht ganz einfach, zu entscheiden, welche Themen ausgewählt und mit welcher Intensität sie behandelt werden sollen. Es gibt nach meiner Ansicht grundsätzlich zwei Möglichkeiten, den Stoff zu vermitteln, wobei man aber nie aus den Augen verlieren darf, dass es sich um ein technisches Modul für Industrial Designer an einer Kunsthochschule handelt. Die eine Methode besteht in der Behandlung mechanischer und elektronischer Komponenten auf visueller und möglicherweise haptischer Ebene. Nach meiner Einschätzung käme eine solche Methode den Denkprozessen von Designern entgegen, könnten sie doch so in ihren Denk- und Arbeitsstrukturen verhaftet bleiben. Beispielsweise könnte man ein Handy mechanisch zerlegen und die einzelnen Bauelemente (Platine, Taster, Schale usw.) nach mechanischen und elektronischen Gesichtspunkten visuell untersuchen. Die einzelnen Elemente würden dann in ihrer Funktionsweise erklärt werden. Ein Nachteil dieser Methode wäre, dass es sich bei der Betrachtung der mechanischen Komponenten nicht um ein Verständnis auf mechanischer, sondern eher auf konstruktiver Ebene handelte. Genauso würde die Beschreibung der elektronischen Funktionsblöcke eine Metaebene darstellen, aber das grundlegende Verständnis elektronischer Bauteile nicht vermitteln können. Es handelt sich letztendlich um Faktenwissen und nicht um Verständnis. Diese Art von Wissen kann auch über das Internet erlangt werden (siehe: www. howstuffworks.com, Beispiel »Introduction to Bild 2: … und Gehäuse. Foto (Bild 1 und 2): D. Janßen. oeffnungszeiten 22/2008 37 Ein weiterer Nachteil dieser Methode soll nicht verschwiegen werden. Aufgrund der Komplexität heutiger Geräte, besonders elektronischer Geräte, ist man kaum in der Lage, innerhalb eines entsprechenden Zeitrahmens die Funktionsweise eines Gerätes zu beschreiben. In der Zeit, die während eines Semesters zur Verfügung steht, könnte man sich also auf nur wenige Geräte spezialisieren und hätte darüber hinaus noch das Problem, sich diese Geräte zu beschaffen, um sie daraufhin zu zerlegen. Dieses Zerlegen ist oftmals ein irreversibler Prozess mit der Folge, dass ein Funktionieren hinterher nicht mehr gewährleistet ist. Und der Dozent müsste sich immer um neue Produkte bemühen, denn es nützt bei dieser Art der Wissensvermittlung nichts, zum Beispiel ein zwar schon zerlegtes, aber bereits 15 Jahre altes mobiles Telefon zu erklären. Bild 3: Träger auf zwei Lagern. Freischnitt. Grafik: D. Janßen. How Cell Phones Work« oder auch die Zeitschrift »Technology Review« aus dem Heise Verlag, in der in jeder Ausgabe ein technisches Gerät zerlegt dargestellt ist). Von einem Designer sollte verlangt werden können, sich dieses Wissen gegebenenfalls selbstständig anzueignen, wenn ein entsprechendes Objekt gestaltet werden soll. Aus meiner Erfahrung mit unseren Studierenden verfahren sie beim Gestaltungsprozess auch auf diese Art und Weise, sollten sie nicht an die erforderlichen Informationen gelangen können, bleibt ihnen immer noch die Möglichkeit, sich diese Informationen durch persönlichen Kontakt mit technisch ausgebildeten Personen zu besorgen. Bild 4: Differenzial: Abstraktes und strukturiertes Denken fällt den meisten Designern schwer. Foto: D. Janßen. 38 Aus diesen Überlegungen heraus habe ich in meinen Veranstaltungen den für Designer unbequemeren Weg gewählt. Ich möchte sie mit abstrakten und logischen Denkvorgängen konfrontieren, gewissermaßen als Gegensatz zum normalen Ablauf des Designstudiums, das mehr auf Emotionalität und Intuition setzt. Dabei möchte ich die Arbeitsweise von Designern nicht herabsetzen, aber nach meiner Ansicht lernt man mehr, wenn man während der Ausbildung auch Unbekanntem und Ungewöhnlichem ausgesetzt ist. (Kleine Anmerkung: das gilt natürlich nicht nur für Designer, auch Ingenieuren und Naturwissenschaftlern täte Entsprechendes, also Emotionalität und Intuition, in ihrer Ausbildung gut. Meine Ausflüge in die Welt der Emotionalität im Studium waren damals auf Scientific English beschränkt.) Die beiden Fächer Mechanik und Elektronik haben eines gemeinsam: sie erfordern Denken in abstrakten Strukturen, wobei die Elektronik um einiges abstrakter oder auch unwirklicher ist als die Mechanik. In der Mechanik ist es noch leicht, Prinzipien zu erklären. Zur Not kann man zum Beispiel die Wirkung angreifender Kräfte auf einen Träger mit Unterstützung seiner Hände erläutern (siehe Bild 3), Stromverläufe in einem Widerstandsnetzwerk hingegen können nur auf abstrakter Ebene erklärt werden. Abstraktes und strukturiertes Denken fällt den meisten Desig nern schwer. Bei mir hat es recht lange gedauert, bis ich diese Tatsache begriffen und meinen Unterrichtsstoff angepasst habe. Es ist schwierig, sich vorzustellen, wie ein anderer Mensch denkt. Gerade wenn man eine technisch-naturwissenschaftlich orientierte Ausbildung erfahren hat, ist es schwer vorstellbar, dass einige Menschen zum einen nicht den Anspruch haben, Technik und Naturwissenschaft zu verstehen, und zum anderen auch nicht die Fähigkeit besitzen, komplexe technische Vorgänge zu begreifen. Sie haben ihre Stärken eben auf anderen Gebieten, die mir als technisch-naturwissenschaftlich denkenden Menschen möglicherweise verschlossen bleiben. Technik ist für Industrial Designer sekundär, aber trotzdem wichtig, denn aller Gestaltung zum Trotz müssen sie sich oeffnungszeiten 22/2008 während des Designprozesses mit diesem Metier auseinander setzen. Etwas abgeschwächt, aber in Zukunft mehr, gilt dieses auch für Kommunikationsdesigner, gerade, wenn sie sich mit neueren Kommunikationsmedien auseinander zu setzen haben. Bild 5: Eine Feder… Technik im Design an einer Kunsthochschule ist also ein Kompromiss, der durch aufzuwendende Zeit, Fähigkeit und Notwendigkeit bestimmt ist. Aus diesem Grund habe ich meinen Unterricht in beiden Fächern in zwei Ebenen unterteilt. Die eine Ebene behandelt Technik und Naturwissenschaft im sozialen Umfeld, konkret realisiert durch Referate, die Themen aus der Zeitschrift »Technology Review« behandeln. Die Studierenden können sich zu zweit am Anfang des Semesters ein Thema aussuchen, das sie bearbeiten und vortragen. Anschließend erfolgt eine kurze Diskussion. Durch diese Referate erfahren sie den Stellenwert von Technik und Naturwissenschaft in dieser Gesellschaft, welche zukünftigen Möglichkeiten technische Entwicklungen für Designer bieten und wie sich solche Entwicklungen möglicherweise auf die Gesellschaft auswirken. Diese Referate erweitern das Weltbild des einzelnen und können dazu beitragen, dass technische Entwicklungen kritisch hinterfragt werden (z.B. das soziale Internet, Energieversorgung durch Brennstoffzellen, Verkehrskonzepte, Autotuning). Da, wo es notwendig scheint, sind sie später in ihrem Berufsleben vielleicht in der Lage, negative, technikbedingte Auswirkungen durch den Einfluss von positivem Design zu mildern oder sogar positive Entwicklungen zu unterstützen. Gewiss, dieser Anspruch an die Studierenden ist nicht gering, aber nach meiner Ansicht besteht der Sinn des Designs darin, unsere, meistens von Technikern geschaffene künstliche Umgebung in ihrer Komplexität zu vereinfachen und, was von sehr großer Bedeutung ist, angenehm zu gestalten. Und das möchte ich ihnen vermitteln. Besonders wichtig ist in diesem Zusammenhang gerade für Designstudenten einer Kunsthochschule, dass sie die Terminologie und die Denkweise der Ingenieure und auch der Naturwissenschaftler in Ansätzen kennenlernen und auf einer gewissen Ebene damit umgehen können. Kommen wir nun zur anderen Seite der Veranstaltungen, nämlich dem technisch trockenen Teil. Das Mechanik-Seminar ist so aufgebaut, dass zunächst mit der Kinematik, also der Lehre von der Bewegung ohne Einfluss der Masse, begonnen wird. Die Kinematik wird zum großen Teil in der Schule am Anfang der Oberstufe oder sogar schon vorher behandelt und ist eine Möglichkeit, die Studierenden in ihrem Kenntnisstand so abzuholen, dass nicht schon zu Beginn des Seminars Frustration auftritt. Das gelingt natürlich nicht immer: einige wenige Studenten sind unterfordert und andere (mehr) überfordert, obwohl es sich eigentlich um eine Auffrischung des Schulstoffs handelt. Die Beschäftigung mit zurückgelegten Wegstrecken, Geschwindigkeit und Beschleunigung und der Zusammenhang zwischen diesen Größen ist vielleicht nicht das, was sich die Studierenden an einer Kunsthochschule unter Industrial Design vorstellen. oeffnungszeiten 22/2008 Bild 6: …und ihre Längenänderung. Foto (Bild 5) und Grafik (Bild 6): D. Janßen. 39 Bild 7: Schräger Wurf. Grafik: D. Janßen. Bezogen auf die Mathematik, die für dieses Seminar benötigt wird, habe ich mich bemüht, komplexe mathematische Konstrukte zu vermeiden und nur Schulmathematik zu verwenden, wobei ich auch hier weitgehend auf Integrale und Differentiale verzichtet habe. Einzig Ansätze der Vektorrechnung finden Verwendung, allerdings ohne Skalar- und Vektorprodukte. Auf die Kinematik folgt die Statik, also die Lehre von den Kräften unter ruhenden Bedingungen, wobei hier die technischen Aspekte Vorrang vor den physikalischen haben. Zunächst erfolgt eine Einführung in die Wirkung von Kräften, dann in die verschiedenen Sätze, wie z.B. Überlagerungssatz, Erweiterungssatz und Verschiebungssatz. Anschließend wird das Gleichgewicht von Kräften und die Bestimmung der resultierenden Kraft behandelt, wobei währenddessen auf die unterschiedlichen Lager- und Trägertypen, an denen die Kräfte wirken, eingegangen wird. Notwendig dafür ist auch die Kenntnis, wie Kräfte frei geschnitten werden. Bild 8: Wechselspannungsverstärker. Grafik: D. Janßen. 40 oeffnungszeiten 22/2008 Kräfte können Drehmomente erzeugen, der Umgang mit diesen Momenten und deren Einfluss auf Träger werden im Anschluss behandelt. Gegen Ende der Veranstaltung wird noch auf Reibung und Federkraft eingegangen. Auf Dynamik habe ich verzichtet, die mathematischen Voraussetzungen (Differentialgleichungen) sind bei den Studierenden nicht gegeben. Vielleicht sollte parallel zu dieser Veranstaltung eine kleine Einführung in die höhere Mathematik erfolgen, so dass auch dieser Themenbereich zumindest in Ansätzen berührt werden kann. Die abschließende Prüfung, auch eine Premiere, war jedenfalls trotz meiner Befürchtungen ein voller Erfolg. Die Studierenden haben anscheinend meine Vorschläge zur Erarbeitung des Themas befolgt. Genau wie im Mechanik-Seminar habe ich versucht, auch die Elektronik-Veranstaltung auf zwei Ebenen zu unterrichten, nämlich einmal durch Referate und zum anderen durch Vermittlung von Grundlagen der Elektronik. Nach der Definition von Strom und Spannung werden die Bauelemente Widerstand, Kondensator und Spule erklärt. Die Berechnung von Netzwerken mit Spannungsteilern und Stromteilern berücksichtigt nur ohmsche Bauelemente, ist also auf Gleichspannungen und Gleichströme reduziert. Tiefpass und Hochpass werden in erster Ordnung vorgestellt als auch erklärt und bei der Berechnung des Übertragungsverhaltens wird auf die Darstellung der imaginären Anteile verzichtet. Nur zur Anschauung habe ich versucht, die komplexen Zahlen vorzustellen und am Beispiel eines Tiefpasses erster Ordnung das komplexe Übertragungsverhalten, also den Verlauf von Spannung und Phase in Abhängigkeit von der Frequenz, zu verdeutlichen. Abgeschlossen wird das Seminar mit der Einführung und Erklärung von Halbleitern auf Siliziumbasis. Wie funktioniert eine Diode, wozu wird sie benötigt? Für welche Anwendungen wird ein Transistor benötigt? Diese Fragen werden beantwortet und mit Schaltungsbeispielen erklärt, selbstverständlich ohne die Einführung eines Ersatzschaltbildes für diese Bauelemente, das würde zu weit führen. Foto: D. Janßen. oeffnungszeiten 22/2008 Somit haben die Studierenden einen kleinen Einblick in die Mechanik und in die Elektronik bekommen und können einfache Kraftverhältnisse analysieren und berechnen. Auch die Bestimmung von Vorwiderständen für die bei Designern so beliebten LEDs dürfte nun keine Probleme bereiten. Inwieweit noch tiefer in die Materie einzudringen ist, wird sich im nächsten Jahrgang zeigen. 41 Das Design der Primzahlen Wulf Rehder Leopold Kronecker, 1823 – 1891. »Die ganzen Zahlen hat der liebe Gott gemacht«, so soll der Mathematiker Leopold Kronecker gesagt haben, »alles übrige ist Menschenwerk.« Man ist versucht zu ergänzen, dass ein witziger Engel dem Herrn wohl einen Streich gespielt und unter die göttlichen Zahlen eine Reihe von Teufelchen gestreut hat: die Primzahlen. Scheinbar unregelmässig, tauchen sie plötzlich wie kleine rote Kobolde auf, um sich dann wieder auf längere Zeit zu verstecken: 13 … 17 14 15 16 19 18 Primzahlen, auf einer Spirale. 42 23 20 21 22 29 24 25 26 27 28 31 30 Sie sind vage Erinnerungen aus der Schulzeit, wie die verschiedenfarbigen Elemente des Periodenystems aus dem Chemieunterricht. Die Assoziation ist richtig. Primzahlen sind die unteilbaren Elemente unter den Zahlen, die Atome, aus denen alle anderen ganzen Zahlen zusammengesetzt sind. Etwas technischer ausgedrückt: Primzahlen haben keine Teiler außer der Zahl 1 und sich selber, und jede andere natürliche Zahl lässt sich in einer ganz bestimmten und eindeutigen Weise als Produkt von Primzahlen darstellen1. 37 32 33 34 35 36 38 39 … Das ist eine erstaunliche Tatsache. Denn die Eindeutigkeit bedeutet, dass einerseits jede Zahl, zum Beispiel 42, ihre Primfaktoren 2, 3 und 7 eindeutig bestimmt, und dass andererseits jede Kombination von Primzahlen eine, und nur eine, Zahl bestimmt: ihr Produkt. Eine solche Redeweise hört sich wie Haarspalterei an; aber sie erinnert an das analoge Faktum aus Physik und Chemie, wonach die Natur der Atome die Eigenschaften der Moleküle bestimmt. Atome, so mag man einwenden, sind aber doch sehr regelmässig und aus den einfachsten Bestandteilen aufgebaut, aus Protonen, Neutronen, und um den Kern herumschwirrenden Elektronen. Angesichts dieses attraktiven Planetenmodells sieht die Anordnung, die unerklärliche Abfolge der Primzahlen, geradezu chaotisch aus. Sollte man also, wie es die Atomphysiker mit ihren Atomen getan haben, in denen sie oeffnungszeiten 22/2008 Quarks und neue Gesetze gefunden haben, näher ins Innere der Primzahlen eindringen, um aus dem offenbaren Chaos ihrer Bestandteile eine neue Ordnung herauszulesen? Es hat seit jeher Versuche gegeben, aus gewissen geometrischen Anordnungen der Primzahlen (als Spirale, als Stern) ein allgemeines Muster herauszulesen, das ihre Verteilung durch ein Gesetz oder sogar eine mathematische Formel beschreibt. Aber eine solche klassische »Regelmäßigkeit« des Details gibt es bei den Primzahlen nicht. Im Gegenteil: Gesetzartige Muster stellen sich erst ein, wenn man sich von den Details zurückzieht und eine größere Kollektion von Primzahlen von weitem betrachtet. Eine solche Richtungswende ist für Mathematiker ganz typisch. Wenn es nicht möglich ist, die Problemnüsse direkt zu knacken, werden sie immer versuchen, einen neuen Standort zu finden, von dem aus das Rätsel in einem neuen Licht erscheint, oder wo bessere Werkzeuge und Methoden zur Verfügung stehen. Das hat gegen Ende des 18. Jahrhunderts auch schon der junge Carl-Friedrich Gauß gewusst. Statt Zahlen wie Perlen an einer Kette aufzureihen und sich dann zu wundern, wie es wohl weitergeht und wo die nächste Primzahlperle auftritt, hat er den Standort geändert und sich gefragt: Wenn ich von weitem einem Wanderer zuschaue, der auf der Zahlengeraden Schritt für Schritt von Zahl zu Zahl marschiert, bis er bei einer großen Zahl x=1000 oder x=10000 angelangt ist, auf wieviele Primzahlen π(x) ist er dann auf seinem Wanderweg getreten? Die Frage war ihm also nicht, aus welchen Ziffern die Primzahlen im einzelnen bestehen, etwa ob sie öfters mit der Ziffer 3 oder mit der Ziffer 7 enden2, sondern wie sie sich im Großen, in einem globalen Design, zeigen. Was sah er? Er sah, was auch wir in einem einfachen Experiment wahrnehmen können. Die folgenden drei Abbildungen Abb. 1, Abb. 2, und Abb. 3 zeigen die Ergebnisse unserer Versuche mit Listen von Primzahlen, die auf mehreren Internetseiten zur Verfügung stehen. Wir finden auf der x-Achse jeweils die Schritte des Gaussschen Wanderers, während auf der y-Achse, oder auf der blauen Kurve, jeweils die Anzahl π(x) von Primzahlen bis x abgetragen ist, also wie oft der Wanderer auf seinem Weg bis 100 oder 1000 oder 10000 in Abb. 3 auf eine Primzahl getreten ist. Wenn der Wanderer bei seiner ersten Wanderung in Abb. 1 genau aufpasst, dann merkt er, dass sich zwischen den Primzahlen 13 und 17 der Wert π(13)=6 bei den nächsten drei Schritten nicht ändert3, denn 14, 15, und 16 sind keine Primzahlen. Zwischen 13 und 17 gibt es also eine Lücke. Zwischen 89 und 97 gibt es eine noch längere Lücke. Dagegen sind die Lücken zwischen 5 und 7, 17 und 19, und immer mal wieder bis 71 und 73 minimal, nämlich von der Länge 2. Diese letztgenannten Primzahlpaare heißen aus naheliegenden Gründen Primzahlzwillinge. Wir werden ihnen später noch einmal begegnen. oeffnungszeiten 22/2008 Oben: Carl Friedrich Gauß, 1777 – 1855. Links: Primzahlen, auf 10-zackigem Stern. Abb. 1: Primzahlen π(x) bis x=100 (blaue Kurve) mit Approximation x/ln(x) (rote Kurve). Abb. 2: Primzahlen π(x) bis x=1000 (blaue Kurve) mit Approximation x/ln(x) (rote Kurve). Abb. 3: Primzahlen π(x) bis x=10000 (blaue Kurve) mit Approximation x/ln(x) (rote Kurve). 43 Euklid, 365 – 300 v. Chr. (unten) | Leonard Euler, 1707 – 1783 | Bernhard Riemann, 1826 – 1866. Gauß sieht von seinem erhöhten Standpunkt aber noch mehr. In Abb. 2, die auf der x-Achse Zahlen bis 1000 auflistet, glättet sich die blaue Kurve, die die Werte π(x) enthält, und in Abb. 3, für x bis 10000, wird die blaue Kurve noch glatter. Der Betrachter vermutet also ein Muster, ein Gesetz, ein Design, das dieser erhöhten »Glattheit« zugrunde liegt. Design: das äußert sich mathematisch oft in einer Formel. Welche Formel beschreibt also die blauen Kurven? Der junge Gauß vermutete, dass die Kurve π(x) so wächst wie die Funktion4 F(x)=x/ln(x). Der Wanderer, Gauß, und auch wir Leser sehen, dass diese Funktion F(x) unterhalb der Funktion π(x) liegt, die die Primzahlen bis x zählt. »So wachsen wie« heißt, dass der Quotient π(x)/F(x) gegen den Grenzwert 1 strebt, wenn x immer größer wird: π(x) und F(x) sind »asymptotisch gleich.« Das wird so ausgedrückt5: π(x)~F(x). Das war der Stand der Dinge vor zweihundert Jahren, am Anfang des neunzehnten Jahrhunderts6. Wie sich in den Jahrzehnten danach herausstellte, war es äußerst schwierig, diese asymptotische Gleichheit zu beweisen. Was war denn eigentlich zu der Zeit bekannt und gesichert? Erstaunlich viel. Schon Euklid wusste, dass es unendlich viele Primzahlen gibt. Sein Beweis ist einfach, indirekt, und trotzdem konstruktiv. Indirekt: Angenommen, es gäbe nur endlich viele Primzahlen, 2, 3, 5, 7, 11, 13, 17, 19, … bis zu einer letzten, die wir pn nennen wollen. Nimm sie alle, bilde ihr Produkt, und füge 1 hinzu. Dann ist die Zahl pn+1=2·3·5·7·11·13·17·19· … · pn+1 wieder eine Primzahl, die natürlich größer ist als alle anderen zuvor. Die Prozedur ist konstruktiv: Die neu konstruierte Zahl pn+1 ist prim, denn wenn sie durch eine kleinere Primzahl geteilt wird, bleibt der Rest 1. Wir haben also einen Widerspruch zur Annahme. Es muss somit unendlich viele Primzahlen geben. So einfach war das. Wir haben natürlich längst vermutet, dass es unendlich viele Primzahlen gibt, denn die blauen Kurven gehen alle aufwärts7. Aber erst der Beweis macht aus der Vermutung eine Tatsache, ein Theorem. 44 Um 1737, also mehrere Generationen vor Gauß, hatte Leonard Euler einen sehr originellen Beweis für die Unendlichkeit der Primzahlen gefunden. Er brauchte dazu keine blauen Kurven, sondern nur, dass sich alle natürlichen Zahlen eindeutig als Produkt von Primzahlen schreiben lassen. Daraus folgt nach ein paar Schritten, die wir hier auslassen müssen, um die Geduld des Lesers nicht zu sehr zu beanspruchen, dass die Summe der Kehrwerte der Primzahlen divergiert, d.h., wenn man immer längere Summen von Kehrwerten aus Primzahlen bildet 1/2 + 1/3 + 1/5 + 1/7 + 1/11 + …+ 1/p + … dann wird diese Summe immer grösser, und der Grenzwert ist Unendlich oder, wie man es heute schreibt, = ∞.8 Dies kann aber nur wahr sein, wenn die Reihe nie abbricht. Es muss also unendlich viele Primzahlen geben. Der Eulersche Beweis ist raffinierter als der von Euklid, tieferliegend und daher interessant. Dem Beweis zugrunde liegt seine sogenannte Produktformel, die auf den ersten Blick überraschend ist (der nicht so schwere Beweis nimmt dann die Überraschung wieder weg): ∑ n–s = π(1– p–s)–1, s>0. Hier geht die Summe auf der linken Seite von 1 bis ∞, und das Produkt auf der rechten Seite wird über alle Primzahlen gebildet.9 Wer hätte das gedacht: links eine Summe, rechts ein Produkt, links natürliche Zahlen rechts Primzahlen. Gauß kannte die Formel auch, und sie war natürlich den Generationen von Mathematikern bekannt, die sich um den Beweis von π(x)~F(x) bemühten – ohne Erfolg. Dann, um 1859, betritt Bernhard Riemann die Bühne. Sein kurzer Artikel aus dieser Zeit beginnt mit einer kühnen Verallgemeinerung. Mit ihm beginnt das Studium der sogenannten Riemannschen ZetaFunktion – ζ(s) = ∑ n–s – für komplexe10 Exponenten s. Diese Funktion benimmt sich anständig, bis auf den Punkt s=1, wo sie unendlich wird. Für Uneingeweihte sind komplexe Funktionen meist etwas unheimlich, denn sie spielen sich in einem 4-dimensionalen Raum ab: Die Argumente s haben zwei Dimensionen, und die Funktionswerte ζ(s) haben auch zwei Dimensionen.11 Aber das soll uns jetzt nicht stören. Erstaunlich ist es, dass dieser neue Standort, anstatt Primzahlen zu zählen eine komplexe Funktion zu untersuchen, zu einem Beweis der alten Gaussschen Vermutung führt: π(x)~F(x). oeffnungszeiten 22/2008 Aber es dauerte noch eine Weile. Das Studium komplexer Funktionen hatte kurz vor Riemanns Zeit einen enormen Aufschwung erlebt, besonders durch die Arbeiten von Augustin Cauchy (1789 – 1857), der einen neuen, schärferen Grad von Präzision in die Mathematik und ihre Beweise gebracht hatte. Riemanns Genie kehrte sich in seinem Artikel von 1859 nicht sehr um Beweise. Diese wurden erst dreißig Jahre später von anderen nachgeliefert: von Mangoldt 1895, Hadamard 1896, und de la Vallée Poussin 1899. Also was war der Knueller? Das Verhalten der Funktion π(x) wird direkt durch die Nullstellen12 der Riemannschen Funktion ζ(s) = ∑ n–s bestimmt. Und die vermutete asymptotische Gleichheit π(x)~x/ln(x), oder auch π(x)~ li(x) (siehe Fußnote 6), ist im wesentlichen äquivalent zur Behauptung, dass ζ(s) keine Nullstellen mit dem Realteil σ=1 hat. Hinter diesem Formelsammelsurium, das den Leser nicht erschrecken soll, verbergen sich mehrere Sensationen. Zunächst einmal ist es phantastisch, dass sich das Design der Primzahlen, also die Verteilung einer unendlichen Anzahl von Kobolden in der Menge der ganzen Zahlen, in den NullstellenEigenschaften einer einzigen Funktion ζ(s) verstecken kann13. Und zweitens, man kann dieses Design, also etwa die blauen Kurven weiter oben, in einer Formel ausdrücken, in denen die Nullstellen der Riemannschen Funktion ζ(s) explizit vorkommen. Diese Formel erlaubt es dann sogar, den »Fehler«, also die Differenz von π(x) und li(x) numerisch anzugeben. Je mehr man also über ζ(s) und ihre Nullstellen herausfinden kann, desto mehr wird man über π(x) wissen. Nun hatte Riemann schon 1859 vermutet, dass alle Nullstellen von ζ(s) einen Realteil σ=1/2 haben, und dass es keine anderen Nullstellen gibt. Das ist die berühmte Riemannsche Hypothese. Sie ist auch heute, 150 Jahre später, noch nicht bewiesen. Tausende haben sich daran versucht. Seit ein paar Jahren hat das Clay Institut ein Kopfgeld auf die Hypothese ausgesetzt: Wer zuerst den Beweis von σ=1/2 erbringt, oder ein Gegenbeispiel liefert, gewinnt den Preis von 1000000 Dollar. Ein Beweis der Riemann Hypothese hätte einen grossen Einfluss auf die Verteilung, die Ordnung und Gesetzmäßigkeit der Primzahlen. Oder anders ausgedrückt, mit den Worten des Zahlentheoretikers Bombieri: »Wenn die Riemannsche Hypothese nicht gültig sein sollte, dann gäbe es merkwürdige Unregelmässigkeiten unter den Primzahlen, an die allerdings niemand ernsthaft glaubt.« Doch die Geschichte ist damit noch nicht zuende. Das nächste Kapitel beginnt an einem Märztag im Jahr 2003 mit einem Vortrag am Mathematischen Forschungsinstitut in Oberwolfach. Am nächsten Tag, und danach für ein paar Wochen, schreiben Journalisten in aller Welt, reden Kommentatoren oeffnungszeiten 22/2008 im Fernsehen, schwärmen mathematische Kollegen aufgeregt von einem dramatischen Durchbruch in der Theorie der Primzahlen. Es ist von einem sensationellen Resultat über »kleine Lücken« (small gaps) bei Primzahlen die Rede. Was ist geschehen? Design bedeutete bisher Anordnung, Verteilung, Benehmen der Primzahlen »im Grossen«: Wie verhalten sich die Primzahlen, wenn man eine »unendlich« große Anzahl von ihnen von weitem ansieht. Oben haben wir gesehen, dass es etwa hundert Jahre dauerte, bis diese Frage endlich Ende des neunzehnten Jahrhunderts mit Hilfe der Riemannschen ζ-Funktion beantwortet wurde: π(x) ~ x/ln(x). Dieser Primzahlsatz kann aber auch als eine »lokale« Aussage »im Kleinen« interpretiert werden. Er besagt nämlich, dass für große n der Abstand zwischen einer willkürlich gewählten Primzahl pn und ihrem nächstgrößeren Nachbarn pn+1 im Durchschnitt etwa ln(pn) ist: pn+1 – pn ~ ln(pn) oder (pn+1 – pn)/ln(pn) ~ 1. Diese Schreibweise suggeriert die Frage: Wie nahe beieinander können Primzahlen liegen? Wir kennen die Antwort schon: Die kürzeste Lücke ist 2. Unsere lokale Fragestellung ist also noch nicht gut genug – ein besserer Standort ist vonnöten. Eine bessere Frage ist: Wie nahe können Primzahlen pn und pn+1 relativ zu ihrem durchschnittlichen Abstand liegen, der ja ln(pn) beträgt? Diese Frage ist nun aber zu allgemein, und auch nicht zu beantworten, solange niemand weiss, ob es unendlich viele Primzahlzwillinge gibt. Mathematiker haben also wie bei Euklid und Gauß wieder die Unendlichkeit ins Spiel gebracht, und den folgenden Standort eingenommen: Für welche Zahlen c ≤ 1 gilt für unendlich viele Primzahlen pn und ihre rechten Nachbarn pn+1 (pn+1 – pn)/ln(pn) ≤ c ? Es hat lange gedauert, bis der geniale ungarische Tüftler Erdös um 1940 beweisen konnte, dass es ein c gibt, welches echt kleiner als 1 ist: c < 1. Das war der erste Hinweis dafür, dass es immer mal wieder Paare pn, pn+1 gibt, die gegen die Durchschnittsnorm verstoßen und näher beieinander liegen, als es der Primzahlsatz vorschreibt14. Seitdem haben Zahlentheoretiker mehr als sechzig Jahre lang versucht, immer kleinere Konstanten c zu finden und damit die Frage zu beantworten, wie nahe sich die Nachbarn in einer unendlichen Schar Primzahlen kommen können. Im Jahr 1888 stand der Rekord bei c=0,248. Danach gibt es also unendlich viele Nachbarpaare, die den zu erwartenden Abstand mindestens um den Faktor 4 schlagen15. Danach gab es erstmal keine großen Fortschritte mehr. Und dann ist es März im Jahr 2003. Dan Goldston, ein freundlich beleibter Mann in mittleren Jahren, der an der Universi- 45 2003 im März: Dan Goldston hat zusammen mit einem türkischen Kollegen bewiesen, dass die relativen Differenzen zwischen Nachbarn noch unendlich kleiner sind als bisher angenommen. Foto: Wulf Rehder. tät in San Jose, Kalifornien, lehrt, hält in Oberwolfach einen Vortrag. Zusammen mit einem türkischen Kollegen habe er bewiesen, dass die relativen Differenzen zwischen Nachbarn noch unendlich kleiner seien als bisher angenommen. In mathematischer Schreibweise hat er an die Tafel geschrieben: liminf (pn+1 – pn)/ln(pn) = 0. Das bedeutet, dass es für jedes noch so kleine c>0 noch unendlich viele Nachbarpaare pn und pn+1 gibt, die näher zusammenliegen als ein solches c, multipliziert mit ln(pn). Wenn man sich wieder in den Gausschen Standpunkt versetzt und von weitem guckt, bedeutet diese Aussage etwas ganz Merkwürdiges: Wir wissen ja bereits, dass sich die Primzahlen, je weiter der Wanderer auf der Zahlengeraden nach rechts wandert, immer weiter voneinander entfernen. Das besagen qualitativ auch unsere blauen Kurven, die sich veflachen, je weiter man nach rechts sieht: es dauert im Allgemeinen immer länger, bis man wieder auf eine Primzahl stößt. Und doch besagt Dan Goldstons Resultat nun, dass es immer wieder vorkommt, egal wie weit man schon gewandert ist, dass sich Primzahlen relativ zu ihrem erwarteten Abstand beliebig nahe kommen. Interviews folgen: Dan Goldston ist mit einem Schlag berühmt. Und dann, zwei Monate später, finden zwei Mathematiker einen fatalen Fehler in seinem Beweis. Die mathematische Gemeinschaft ist enttäuscht – das Resultat war ja auch zu gut, um wahr zu sein. Zeitungen machen Rückzieher. Reporter wenden sich wieder den Popstars zu. Auch Dan ist enttäuscht. Aber er ist auch stoisch. Seine Familie kauft ihm einen Hund namens Koume, und sein professorales Leben an der Universität in San Jose geht weiter. 46 Ist das alles? Nein. Ein Jahr später steht aus der Asche der Enttäuschung der Phönix des Ruhms wieder auf. Mit Hilfe eines Kollegen aus Ungarn gelingt es, den defekten Beweis zu reparieren. Und seitdem kann man an den besten Universitäten der Welt in Zahlentheorieseminaren mehr über Dans Ergebnis lernen. Bücher werden zur Zeit umgeschrieben. Und Dan, das hat er mir vertraulich erzählt, hat inzwischen eine bescheidene Gehaltserhöhung bekommen. Und das nächste Ziel? Der nächste große Fortschritt wäre gemacht, wenn man in Dans Gleichung den Nenner ln(pn) weglassen und schreiben könnte: pn+1 – pn = 2 unendlich oft. Das wäre dasselbe wie: Es gibt unendlich viele Primzahlzwillinge. Niemand kann das bisher beweisen. Aber wie der junge Gauß, können auch wir Experimente machen und raten, was uns die experimentellen Kurven nahelegen. In Abb. 4 habe ich die Primzahlzwillinge unter den ersten 10000 Zahlen wieder in einer blauen Kurve π2(x) dargestellt. Diese Kurve steigt langsamer an als π(x), wie zu erwarten (denn natürlich gibt es weniger Zwillinge als Einzelgänger). Was ist hier das Design, die globale Funktion, die die Gestalt der Verteilung von Zwillingen beschreibt? Schon in den zwanziger Jahren des vorigen Jahrhundert haben die beiden Mathematiker Hardy und Littlewood vermutet, dass π2(x) um den Faktor ln(x) langsamer wächst. Ja, sie haben sogar eine präzise, errechenbare Konstante k angegeben und die Hypothese aufgestellt, dass π2(x) ~ k · x/ln2(x) gilt. k ist etwa 1,3203…, und die rote Kurve F2(x) = 1,3203 · x/ln2(x) scheint in unserem Experiment tatsächlich so zu wachsen wie π2(x). Und danach? Danach wartet immer noch die Riemannsche Hypothese und die Belohnung von 1000000 Dollar auf das nächste Genie. Wenn der liebe Gott tatsächlich die ganzen Zahlen gemacht hat, dann muss man ihm zugestehen, dass sein Design intelligent war. Aber warum hat er soviele Geheimnisse in den Primzahlen versteckt? Wollte er damit die Existenz von Mathematikprofessoren, den Priestern der Unendlichkeit, rechtfertigen? oeffnungszeiten 22/2008 Abb. 1: Primzahlzwillinge π2(x) bis x=10000 (blaue Kurve) mit Approximation k · x/ln2(x) mit k=1.3203… (rote Kurve). Anmerkungen 1. »Eindeutig« bis auf die Reihenfolge, die bei der Multiplikation ja keine Rolle spielt: 21=3•7 oder =7•3; 700=7•5•5•2•2 oder =2•5•7•2•5, usw. | 2. Z.B. sind unterhalb von 100 die sieben auf 3 endenden Zahlen 3, 13, 23, 43, 53, 73, 83 prim, aber nur sechs auf sieben endende: 7, 17, 37, 47, 67, 97. | 3. D.h., die blaue Kurve bleibt dort konstant, oder flach. | 4. ln(x) bezeichnet hier wie später immer den natürlichen Logarithmus von x, also den Logarithmus zur Basis e. | 5. Bei asymptotisch gleichen Funktionen strebt der Quotient gegen 1, aber die Differenz kann sehr groß sein, sogar gegen Unendlich streben. Zum Beispiel ist x2~x2+ln(x) für wachsendes x, aber die Differenz ln(x) strebt mit x auch gegen Unendlich. | 6. Gauß ging noch weiter in seiner Vermutung: Er sah an Beispielen, dass eine andere Funktion, das sogenannte logarithmische Integral li(x)= 2∫xdt/ln(t), das Integral der Funktion 1/ln(t) von 2 bis x, sehr viel näher bei π(x) liegt als unser F(x). Aber auch das logarithmische Integral ist asymptotisch gleich der Funktion F(x), die deshalb, im Großen und »von weitem« gesehen, genauso »gut« ist wie das logarithmische Integral. | 7. Wenn man die Primzahlzwillinge in gleicher Weise in einem Graph aufführt, also von links nach rechts die Primzahlpaare zählt, bekommt man auch eine steigende Kurve. Es ist aber bis heute nicht bekannt, ob sie immer weiter steigt, ob es also unendlich viele Paare gibt, oder ob sie von einem bestimmten Punkt an flach wird. Darüber später mehr. | 8. Nicht jede »unendlich lange« Summe (die dann »Reihe« heißt) aus positiven Zahlen muss = ∞ sein. Zum Beispiel ist die Reihe der Kehrwerte der Quadrate 1/1 + 1/4 +1/9 + 1/16 + … endlich. Das bedeutet unter anderem, dass es mehr Primzahlen als Quadrate gibt! | 9. Für s=1 muss man etwas aufpassen, denn die Summe konvergiert dann nicht, sie geht gegen unendlich. Man kann ziemlich einfach zeigen, dass die Summe asymptotisch gleich ln(x) ist. Dagegen ist die Summe der Kehrwerte der Primzahlen asymptotisch gleich ln(ln(n)). | 10. Komplexe Zahlen können in einer 2-dimensionalen Ebene dargestellt werden, d.h. jede komplexe Zahl s hat einen Realteil, den Riemann mit σ bezeichnet, und einen Imaginärteil, bei Riemann mit t (nicht mit τ, wie man erwarten sollte) bezeichnet: s = (σ,t). Das kann man dann auch in bekannter Weise so schreiben: s = σ + it, wo i die sogenannte »imaginäre Einheit« ist, die Einheit auf der y-Achse. | 11. Die Funktionen F(x) und π(x) haben jeweils nur eine Dimension für ihre Argumente x (nämlich die x-Achse) und eine weitere für die y-Werte. Insgesamt reicht also eine 2-dimensionale Ebene zur Darstellung bei solchen »reellen Funktionen« aus. | 12. Nullstellen von ζ(s) sind diejenigen (komplexen) Zahlen s, für die ζ(s)=0 gilt. Man kennt inzwischen mehrere Millionen von Nullstellen von ζ(s), aber nicht alle. | 13. Es ist seit zwei Jahrhunderten ein üblicher Trick, unendliche Folgen von Zahlen, etwa an, n=1,2,3,4… in einer Funktion zu komprimieren, aus denen man umgekehrt die an wieder zurückgewinnen kann. Die einfachsten Beispiele sind Polynome mit Koeffizienten an. Man kann hier die an durch Differenzieren zurückgewinnen. | 14. Der Primzahlsatz verbietet solche Nähe nicht. Seine Interpretation besagt nur, dass unser Wanderer im Durchschnitt ln(pn) Schritte machen muss, um von pn nach pn+1 zu gelangen. Er besagt aber auch, dass eine größere Nähe etwas Besonderes ist, etwas, das bewiesen werden und eine tiefere Ursache haben muss als dass es durch das globale Design, ausgedrückt durch den Primzahlsatz, ausgedrückt wird. | 15. Denn 0,248<1/4. oeffnungszeiten 22/2008 47 Design nur mit Invarianten Alfred Hückler Weil wir nichts unter dem Hintern haben, müssen wir uns den Kopf anstrengen (Dänische Antwort auf die Klage, unabänderlich keine Bodenschätze zu besitzen) Gelegentlich wird noch immer der Aberglauben verbreitet, dass feste Vorgaben in Aufgabenstellungen die Kreativität, um diese lösen zu können, grundsätzlich einschränken würden. Das wird gern mit der Auffassung verknüpft, Designer hätten nicht Aufgaben zu lösen, schon gar nicht während der Ausbildung, sondern Probleme. Vom Verwirklichen von Utopien ist sogar die Rede, also vom Hantieren im Nirgendwo und Nirgendwann, irgendwie mit Irgendwas, Verwirklichen außerhalb der Wirklichkeit. Außer vagen Allgemeinplätzen, lassen sich Probleme außerhalb von Ort und Zeit weder erkennen noch lösen; weder das physische noch das soziale Überleben kann ohne diesen Bezug überhaupt problematisiert werden. Feste Vorgaben, Kriterien, Grenzwerte usw., also Invarianten schränken allerdings die davon unabhängige mögliche, unüberschaubare Lösungsvielfalt bis auf den jeweils bedingt verwendbaren Anteil ein, ermöglichen jedoch erst eine bestmögliche Auswahl zu treffen: Gestalten heißt bekanntlich Entscheidungen fällen. Da helfen nur Invarianten, als orientierende Kriterien genutzt, um Entscheidungen blockierende Hilflosigkeit zu vermeiden. Es ist indessen die Gestaltungsfreiheit, die durch Festlegungen eingeschränkt wird, nicht die Kreativität, die dadurch, wie alle Erfahrungen zeigen, eher verstärkt wird, schon wegen der »Reduktion von Komplexität«. Mitunter widersprechen sich aber manche Festlegungen in Aufgabenstellungen und können ebenso, wie durch mehr Anforderungs- als mögliche verfügbare Lösungsmerkmale und durch Überbestimmung zueinander, objektiv Lösungen verhindern, weshalb rückwirkend Aufgabenstellungen verändert werden müssen. In der Entwurfspraxis sind es, meist aus Bequemlichkeit, subjektiv und starrsinnig als notwendig behauptete Festlegungen, die dann durch Nerven zehrenden, klärenden Streit tatsächlich Kreativität töten können. Invariant sind solche singulären und komplexen Eigenschaften, die bei Transformationen (Abwandlungen) von Zuständen und Vorgängen erhalten bleiben. Invarianten begleiten durchgängig alle, wie auch speziell einzelne oder mehrere Schritte 48 der Erzeugnisentwicklung, beispielsweise als Gestaltungsziele, Gestaltungsprinzipien, Maßstäbe bzw. Wertsetzungen, Kriterien, Vorschriften, Normen, zu überwindende Mängel, dingliche und nichtdingliche Vorgaben, neue Zwecke und Umstände bzw. Anforderungen und Bedingungen, Randbedingungen und Grenzwerte, (Zwischen-) Lösungen, Sachverhalte, Konstellationen, Materialien und Verfahren, Richtgrößen, usw., personelle Möglichkeiten gehören auch dazu. Invarianten (vornehmlich als invariante Sachverhalte) bestehen, entstehen und vergehen mit der Evolution der Produkte und Prozesse, mitunter sogar während der Bearbeitung nur einer Entwicklungsaufgabe. Die Entwicklung der Form von Produkten und Prozessen ist auch eine Geschichte ihrer Invarianten, von deren Entstehen und, dann konstituiert, ihres Bestehens als deren Varianten, Modifikanten und in Nuancen, um sich so diverser und sich verändernder Anforderungen und Bedingungen anzupassen. In allen diesen Abwandlungen sind die unverzichtbaren Merkmale enthalten, welche die konstitutionelle Identität der Invarianten minimal definieren: die Invarianten sind die Gemeinsamkeiten der zu ihnen gehörenden Variationen (Abwandlungen). Verschiedene Entwicklungsphasen sind neben durchgehend gleichen, durch jeweils unterschiedliche, auch zusätzliche Invarianten gekennzeichnet. Im Design sind Invarianten fast nur Setzungen, bestgeeignete (Zwischen-) Ergebnisse oder Vereinbarungen auf Zeit. Mindestens aber sollten sie innerhalb einer Entwicklungsphase unabänderlich gelten. Im Höchstfall gelten sie ewig, so, wie der rechte Winkel: er existiert ehern als fester Winkel zwischen den NormalenSchnittebenen einer beliebig gekrümmten Fläche mit der jeweils größten und der kleinsten Krümmung der Schnittkurven um einen Flächenpunkt bzw. der Flächennormalen herum – er stützt innerlich selbst die krümmste aller doppelt gekrümmten Flächen (eine der wohl genialsten Entdeckungen durch Leonhard Euler!). Dabei stört es uns wenig, wenn nun Physiker entdeckten, dass sich selbst kosmologische Konstanten doch im oeffnungszeiten 22/2008 Laufe der Zeit ändern können: Konstanten werden zwar dauerhaft invariant verwendet, doch Invarianten müssen es von Hause aus nicht bleiben, wenn sie als Ergebnisse von Entscheidungen existieren. Das hat mit einer Relativierung der Invarianz ebensowenig zu tun, wie die praktisch unumgänglich zulässigen Abweichungen (Toleranzen) invarianter Eigenschaften. topologisches Paradigma als Invariante Verheftet man gedanklich-anschaulich die Fügestellen zusammengesetzter Produkte glatt bündig, dann lässt sich ein Produkt als eine gänzlich zusammenhängende Oberfläche vorstellen. Entfernt man noch die Ecken und Kanten, dann entsteht das Flächenparadigma des Produktes. Es ist dann eine geschlossene Fläche mit oder ohne Löcher (Tunnel, Henkel) und Ränder. Die topologische Invarianz besteht dann in dem Geschlecht bzw. dem Zusammenhang (die höchstmögliche Anzahl durchgehender Schnitte, bis die Fläche zerfällt). Die vorübergehend entfernten Ecken und Kanten lassen sich wieder als Graph in die Fläche einlagern. Mit oder ohne Graph können nun aus dem Paradigma, bei bleibenden Nachbarschaften in stetiger Verformung, also topologisch äquivalent, beliebig viele Formen, also auch andere Produkte als topologische Varianten herausgebildet werden: die topologische Metamorphose. Aus einer PKW-Karosserie entsteht damit, nur durch andere Proportionen, die einer Treidellok, und schließlich das zugehörige topologische Paradigma. Zerschneidet man das Paradigma bis eine einfach zusammenhängende Vieleckfläche entstanden ist, dann erkennt man unmittelbar: jedes Produkt kann topologisch aus einer Vieleckfläche als Ausgangsinvariante geheftet entstanden sein. Weniger der ganze Vorgang, als vielmehr die schrittweise Verwendung des Vorgehens lässt, zu Zwischenformen geheftet, neue Herstellmöglichkeiten erkennen1. Heftet man rückbildend so, wie man das Paradigma zerschnitten hat, dann besteht wieder topologische Äquivalenz. Man kann aber auch topologisch andere Gebilde daraus heften. oeffnungszeiten 22/2008 Invariante Bilanzen Ein besonderer Invariantentyp ist der, bei dem nicht jeweils einzelne Bestimmungsstücke (Komponenten) eines dinglichen oder gedachten Gebildes festgelegt sind, sondern deren stets gleichbleibende, von jedweder Konfiguration unabhängigen (!) Bilanzsumme der Komponenten. Jede Abweichung von diesen festen Bilanzen ergibt existenzunfähige geometrische Zustände solcher Gebilde. Wohl ewig gültig zeigt sich eine solche Bilanz beispielsweise bei Vielflächnern in Gestalt des erweiterten Eulerschen Polyedersatzes: sind die Anzahl der Ecken e, der Kanten k, der (Teil-)Flächen f, die Eulersche Charakteristik C (Festwert), das Geschlecht l (Anzahl der Tunnel-Löcher), dann gilt für Vielflächner: +e – k + f = 2 – 2l = C (Grundfläche mit l und eingelagertem Netz-Graphen). Eine solche Invariante steht paradigmatisch für das Gestalten der geometrischen Varianten aus jeweils verschiedenen Bestimmungsstücken, indem diese derart untereinander abgestimmt verändert werden, dass für jede Variante ein und dieselbe invariante Gesamtquantität herauskommt. Kommen die Krümmungen der Komponenten hinzu, können die Anzahl der Ecken, Kanten, Flächen (-bereiche), Ränder und Löcher auch mit ihren Krümmungscharakteristiken nur innerhalb einer ehernen Bilanz existieren: die punktweise aufsummierten Flächenkrümmungen entsprechen (als Integralkrümmung) dem Geschlecht einer randlos gedachten, glatten Oberfläche, mithin der Anzahl Löcher, die sie hat – oder nicht, wie beim Geschlecht Null der Sphäre, entsprechend dem Satz von Gauß-Bonnet Integralkrümmung prop. Geschlecht2. 49 Somit stehen sowohl die Anzahl der Bestimmungsstücke (Morpheme) für sich, wie deren Krümmungseigenschaften und die der verbindenden Flächenbereiche im gegenseitigen Bestimmungszwang, denn nicht eines davon kann gewählt werden, ohne Einfluss auf die anderen bzw. ohne von den anderen abhängig zu sein. Es gibt somit keine Freiheit in der Wahl plastischer Mittel ohne gegenseitige Beschränkung, deren Strenge umso deutlicher wird, je weniger Bestimmungsstücke (Elemente/ Morpheme) eingesetzt werden. Dieser Zwang löst sich begrenzt auf, wenn eine Fläche jeweils höheren Geschlechts gewählt wird, etwa statt einer ursprünglich gewählten Sphäre ein Torus (wenn es denn über die reine Geometrie bzw. Topologie hinaus Sinn macht). Oder die Anzahl der Komponenten wird zu verändern sein. Invarianten als Singularitaeten Singularitäten lassen sich als das Hervortreten diskreter Strukturen aus glatt-fortsetzenden (kontinuierlichen) beschreiben (V. I. Arnold3): »Die mathematische Beschreibung der Welt beruht auf einer delikaten Wechselwirkung zwischen kontinuierlichen und diskontinuierlichen, diskreten Erscheinungen. Die letzteren werden zuerst wahrgenommen. Funktionen, genau wie lebende Wesen, sind durch ihre Singularitäten charakterisiert erklärte P. Montel«. Das gleichmäßig fortschreitende Anschleifen der Ecken des Kubus unter 45° (»Entecken«) führt von der zu Beginn fein abgestumpften Würfelecke, begrenzt großflächiger werdend, über Zwischenformen mit ungleichen Kantenlängen zu singulären, gleichkantigen, halbregulären Formen, dem abgestumpften Kubus zuerst, dann dem Kuboktaeder, darauf dem abgestumpften Oktaeder als dritte singuläre Station, und schließlich zu einem – diesmal regulären – Polyeder, dem Oktaeder (als Duale des Kubus!). Beginnend mit einer kleinflächigen Nuancierung entstanden, in gleichbleibender Art und Weise und stetig fortschreitend, aus einem Kontinuum also, singuläre, kantenlängengleiche Polyeder, dazwischen solche mit ungleichen Kantenlängen. Als topologische Invariante für den gesamten Abwandlungsprozess ist lediglich die geschlossene Gesamtfläche als solche, d.h. ohne die jeweils unterschiedliche Anzahl Ecken und Kanten auszumachen – und damit, entsprechend der invarianten Bilanzsumme – die gleichbleibende Gesamtkrümmung (hier als die Summe aller Flächenneigungen zueinander), das gleiche Geschlecht l = 0. Das ist ein schönes Beispiel für das Hervortreten von Singularitäten aus einem Kontinuum, einer zwar genetisch zusammenhängende Formenfolge, für einen stetig fortschreitenden Vorgang, der aber insgesamt eine Folge entstehen lässt, die unterschiedliche Kontinua über diskrete Singularitäten verbindet, mithin keine durchgehende topologische Transformation darstellt. Zudem sind die singulären Polyeder untereinander und mit denen zwischen ihnen topologisch nicht äquivalent – bis auf die genannte graphenfrei gedachte Gesamtfläche. So 50 ist es nicht angebracht, die so entstandenen Singularitäten als Varianten zu verstehen, es sind durch unterschiedliche Werte besetzte Variablen der Bilanzformel, formelhaft gleichwertige, formlich, zweckabhängig, zum Teil höchst unterschiedlich wertige, aber immer selbstständige, eigenwertige Lösungen bzw. Invarianten des Problems, geschlossene, regelmäßige Vielflache ohne Loch zu erzeugen. Zu den unterschiedlichen Eigenwerten gehört das jeweilige Verhältnis der Flächengröße zum umschlossenen Volumen (isoperimetrischer Quotient). Rezepte als Invarianten fuer den Designprozess Schließlich ist die Form der integrierende Funktionsträger, der, genutzt oder ungenutzt, für jeden jeweils sinnfälligen Gebrauch, die gewollten Wirkungen treffsicher bereitstellt. Gibt es auch Rezepte, um dahin zu kommen? Trotz der nach wie vor obwaltenden Tabuisierung solcherart designpraktischer Probleme, steht fest: irgendwie schon4. Man weiß eben, dass für ein bestimmtes Palisanderholz, eingesetzt im Wirkungsfeld der Innenraumausstattung, ein Taubenblau, Chrom und Fallschirmseide dazu, die Wirkung von nobler Eleganz vermitteln. Doch Rezepte, wie Formeln, gelten nur innerhalb von Randbedingungen und nur in einem jeweiligen Existenzbereich: Der historische, wie soziokulturelle Kontext, speziell der des Gebrauchens zu bestimmter Zeit an einem bestimmten Ort unter bestimmten Umständen (usw.), können andernfalls erfolgreiche Rezepte unwirksam werden lassen oder ihre beabsichtigte Wirkung gar ins Gegenteil verkehren. Rezepte bestehen aus Rezepturen (einer Mischung oder nur einem Vorrat an Lösungsbestandteilen, Ingredienzien bzw. Zutaten) und Prozeduren (zielsicheren Vorgehens- und Anwendungsweisen) um ein Ergebnis zu erhalten, welches innerhalb des zugehörigen Toleranzbereiches wiederholbar und beständig in der Lösungsqualität ist. Aber eben nur das, jene Variabilität wie die scheinbar gleich wirkenden Bilanzformeln haben sie nicht, da jeder ihrer Bestandteile fest, wenn auch bedingt austauschbar, vorgegeben ist. Gesetzmäßigkeiten, Regeln und Rezepte unterscheiden sich vor allem in der möglichen Variationstiefe und -breite: Rezepte sind regelgemäße Singularitäten, die nur nuanciert, höchstens modifiziert werden können, aber nicht variiert – das wäre dann ein neues Rezept. Aluminium, naturfarben belassen, fast unabhängig vom Glanzgrad und der Oberflächenbeschaffenheit, verträgt sich (»steht«) farblich nur zu bestimmten Farben, und zwar unabhängig von irgendeinem Zweck in irgendeinem Einsatzgebiet. Jeder Designprofi weiß zu welchen. Der Kontext, wenn der Begriff hier überhaupt trifft, ist lediglich durch die intersubjektiv gleiche Empfindsamkeit gegeben, wobei nicht hinreichend geklärt ist, ob es sich hier um habituelle, gar soziologisch neutrale, harmoniebildende psycho-physische Stabilisierungsvorgänge handelt, um Gestalt- bzw. Formgesetze, oder kulturhistorisch bestimmt ist. Ist das Anwenden dieses harmonisierten, auf einen Reiz (Aluminium) bezogenen Lösungsvorrates an Farbtönen nun eine Rezeptur oder gehört er zum bestehenden, sich entwickelnden, oder gar wahrnehmungsgesetzlichen oeffnungszeiten 22/2008 Repertoire? Umgekehrt wäre dann zu fragen, ob das verfügbare Repertoire eine Sammlung von Rezepten ist. Reduziert man das Aluminium-Beispiel auf eine reine Farbharmonie, wie sie etwa in Harmonieregeln formuliert sind, die über Generationen einen intersubjektiven Konsens fanden, dann wird die Unschärfe der Begriffe, oder besser, der Gültigkeitsgrenzen zwischen Gesetzmäßigkeiten, Regeln und Rezepten deutlich. Rezepte bilden, geschickt angewandt, auch »persönliche Handschriften«, bis hin zur stereotypen Masche: dezent, mitunter sogar unterschwellig, als empfindsamer persönlicher Formduktus, aber auch als vordergründige, Funktion ignorierende Überformungen, etwa so, dass alle Produkte, selbst Standgeräte, aussehen, als ob sie sich mit 250 km/h windschlüpfig fortbewegen müssten. Ob nicht zuweilen solcherart Rezepte eine »gestalterische Haltung« hinreichend beschreiben? Treffsicher anwendbare Rezepte ermöglichen, Zeit frei zu machen für wirklich notwendige innovative Invarianten, neue Rezepte eingeschlossen. Das macht sie im professionellen Design unentbehrlich – kein echter Profi arbeitet wirklich ohne sie, denn, was für Laien ein Problem, ist für Profis meist (hoffentlich) eine einfache Frage. Die Invarianten der Geometrie Im Invarianzproblem besteht wohl der bemerkenswerteste Zusammenhang zwischen der Entwurfspraxis und der modernen Geometrieauffassung. Felix Klein definierte Anfang des zwanzigsten Jahrhunderts vier Geometrien, innerhalb derer bestimmte Größen bei jeweiligen Transformationen erhalten bleiben5. So werden bei der ersten vagen Gestaltanlage die allgemeinsten nicht-maßlichen Invarianten durch die Topologie erfasst: Nachbarschaft, Dimension, stetige Transformierbarkeit/Transplantierbarkeit durch Äquivalenz (Bilanz der Ecken, Kanten, Flächen/Gleichlagerung im 3D-Raum), Zusammenhang/Geschlecht, Gesamtkrümmung. Mit fortschreitender Gestaltung, d.h. mit jedem Entwicklungsschritt, werden weitere Invarianten eingeführt, bis schließlich die reine maßgetreue Decklagengeometrie nötig wird. Alle Schritte zur Endform werden von einem Gestaltbildungsvorgang begleitet, der auf jeder Entwicklungsstufe auf die gemäße Weise als Abbildungsvorgang unter Nachbarschaftsbedingungen, praktisch als Häufen verträglicher formwirksamer Merkmale von Lösungsbeiträgen sowie das Einbinden formlicher Singularitäten der Lösungsbeiträge aller am Entwicklungsprozess beteiligten Disziplinen betrachtet werden kann. Das Häufen von Formmerkmalen, sowie markante Singularitäten und ihre gemeinsame nachbarschaftliche Transformierbarkeit ergeben mit der Formanlage das eigentümliche Gerüst der allgemeinen, typischen und charakteristischen Erscheinung eines Erzeugnisses (die genaue bauliche Konstitution ist darin natürlich eingeschlossen). Die topologische Isomorphie bzw. Äquivalenz aller zu integrierenden, auf das jeweilige topologische Paradigma reduzierten Lösungsanteile, ist die ideale Voraussetzung für eine integrierende Gesamtform. Als invariantes »Formprinzip« praktiziert, wird daraus über die Entwicklungsstufen Grobform und Feinform6 der produktionsreife Entwurf angefertigt (vereinfacht). oeffnungszeiten 22/2008 Invariante Form als Kriterium fuer die Formenauswahl Unter dem »Primat des Gebrauchs« hat das Formprinzip, als alle formwirksamen Lösungsbeiträge integrierende Gesamtform, dem umfassenden Gebrauch bestmöglich zu entsprechen. Die spezielle Bestlösung wird zum »Gebrauchsformprinzip« als invariantes formliches Auswahlkriterium für die Formvarianten zur Formanlage entwickelt. Das bedeutet für die Sinnfälligkeit der zu bildenden »Übergestalt« (durch »Superisation«), dass die semantisch-geometrische Struktur des Gebrauchszusammenhanges (dessen Formlogik) mit der Baustruktur (der zu erfassenden Produktform in ihren Teilen und ihrer Gliederung) sinnfällig korrespondiert. Das kann soweit gehen, dass die zuzuordnenden technischen Lösungen damit nicht nur nicht kollidieren, sondern dazu und untereinander nach gemeinsamen Formmerkmalen ausgesucht werden (vorausgesetzt, sie sind technisch und technologisch in der dafür engsten Auswahl enthalten). Schon hierdurch kann der Grund für eine formale Prägnanz und Kompaktheit gelegt werden. Das betrifft nun keineswegs nur die äußere Hülle im Sinne des Interface, sondern bringt diese nicht nur mit der äußeren Beziehungsvielfalt, sondern auch mit der inneren, d.h. dem Innenaufbau in Einklang, der ggf. als Aggregatform genauso stringent zu entwickeln ist wie die meist simplexartige Außenform. Abwandlungen aendern Wirkungen In der Folge Lösungsansätze/Invarianten-Varianten-Modifikanten/Nuancen ist beim praktischen Anwenden jede Position die invariante Vorstufe für die nachfolgende (wenn ich modifiziere, ist die dafür ausgewählte Variante, so lange ich es tue, methodisch gesehen, invariant). Die Bedeutung für die konstitutionelle Qualität eines Produktes nimmt hin zur nuancierenden Gestaltung naturgemäß ab. Aber: Für viele Aspekte der Gebrauchstüchtigkeit sind es mitunter Nuancen, die erst den erwünschten Leistungssprung hervorbringen lassen – ein schwieriges Feld für Schutzbegehren und Bewertungen von Gestaltungsleistungen! Etwa kleinste Korrekturen an der Form von Buchstaben, die erheblich die Lesbarkeit verbessern können, wie auch durch minimale, nuancierende Verschiebungen im Layout; die Berührungen beim Umgreifen eines Werkzeuggriffes können durch entsprechend veränderte Oberflächennuancen der Greifflächen nicht nur angenehmer, sondern auch sicherer gestaltet werden, gegebenenfalls mehr als durch Formänderungen; und, was für diese Beispiele insgesamt gilt, eine geschickt eingesetzte Nuance an der Gestalt kann manchen grundlegend angesetzten Gestaltungsmaßnahmen erst den ergonomisch-ästhetischen Erfolg ermöglichen. Dabei können gleichgerichtet wirksame, jedoch verschiedene Gestaltungsmaßnahmen quantitativ wie qualitativ anders wirken. So würde unter Umständen eine entsprechende Farbnuance eine gewollte Gestaltwirkung sinngemäß stärker beeinflussen, als eine derentwegen ausgeführte Modifikation oder gar plastische Variante. Und: was für einen Bereich eine Variante darstellt, muss in einem anderen nicht gelten; so kann beispielsweise eine 51 Variation im Bereich der ästhetischen Funktionsträger im zugeordneten konstruktiven Bereich – bei sachlicher Gleichheit – nur eine Modifikation oder gar nur eine Nuancierung bedeuten. Es war einmal In diesem Zusammenhang ist die Formgestaltung von Kleinbildkameras in den dreißiger Jahren des vorigen Jahrhunderts nicht nur historisch interessant: Die starken Unterschiede in deren Erscheinung, mithin auch die ästhetischen Differenzierungen der Kleinbildkameras waren fast ausschließlich durch ihre deutlich voneinander unterscheidbaren technischen und ergonomischen Prinziplösungen und denen fast unmittelbar folgenden Bauformen gegeben, d.h. durch prinzipiell unterschiedliche Lösungsansätze=Invarianten. Die bloße Ästhetik der Sachverhalte konnte hier dominieren. Heute sind es, bezogen auf die konstitutionellen Gestalteigenschaften, fast nur noch Nuancen, höchstens Modifikationen zu Varianten einer Invariante von einem der weltweit weniger gewordenen, nahezu vereinheitlichten Lösungsansätze, die eine Flut an Nuancen, vergleichsweise aber eine Ebbe in wirklich neuer, besserer Kameragestaltung ausgelöst haben. Die allzu schnelle Produktablösung lässt einfach tiefgründigere Gestaltungsänderungen nicht zu; andererseits ist das aber auch ein Ergebnis eines Reifeund Ausleseprozesses – leider nicht nur nach funktionalen Gesichtspunkten – so, wie manch älterer Fotograf so gern und so schmerzlich den Wegfall von Möglichkeiten beklagt. Unser Design ist in verschiedener Hinsicht ein Invariantenproblem. A: Der Entwurfs- (Gestaltungs-) ablauf wird durch unveränderliche Gestaltungsziele, Anforderungen und Bedingungen für alle Seiten eines Produktes ausgerichtet, hier zuerst auf den umfassenden Gebrauch. B: Die »inneren Mechanismen« des Suchens und Findens von Lösungen einerseits und andererseits die Folgerichtigkeit des Vorgehens – die Entwicklungslogik – bestimmen, begleitet von jeweils zutreffenden Lösbarkeitskriterien, den Entwicklungsablauf aus sich heraus mit. C: Invariante formwirksame Eigenschaften der bestgeeigneten Prinziplösung für ein geplantes Erzeugnis, bilden, formiert zur Formanlage, den prägenden Keim der zu gestaltenden Form. D: Die gestalterischen Ergebnisse des Designs haben mehr oder weniger festsetzende Wirkungen. Sie schaffen jeweils einen neuen Standard der Produkte und Prozesse und entsprechend neue Verhaltensmuster als Stereotype des (umfassenden) Gebrauchens. Haben diese die Qualität von Präzedenzfällen, lösen sie auch Weiterentwicklungen auf anderen, vor allem sachlich benachbarten Gebieten aus. A Die in der ursprünglich in der (ggf. selbst) gestellten, problemhaltigen Aufgabe enthaltenen Zwecke und Umstände werden aufgabenkritisch (Negationsfragen!) und konzeptionell bearbeitet und präzisierend in Anforderungen und Bedingungen überführt. Gerade schicksalhaft für den erfolgreichen Entwicklungsverlauf ist es, die Verbindlichkeit bzw. Bestimmt 52 heit/Unbestimmtheit aller Einzelheiten und deren zeitliche Gültigkeit in dieser präzisierten Aufgabenstellung einvernehmlich festzulegen. Danach unterscheiden sich bekanntlich die Anforderungen in Festforderungen, bedingte Forderungen, Wunschforderungen, Zielforderungen und die Bedingungen in Gegebenheiten, Vorgaben und Annahmen. Harte und weiche Invarianten gewissermaßen. Würden die aus der Konzeption abgeleiteten Festforderungen und Gegebenheiten als »harte« Invarianten nicht erfüllt werden, wären die Sinnfälligkeit und Existenzfähigkeit der Konzeption aufgehoben. Das Fehlen der »weichen« Invarianten würde die zu Grunde gelegte Konzeption nur mehr oder weniger beschädigen. Zu den härtesten Invarianten gehören die Normen bzw. Standards (nach ISO, DIN, aber auch innerbetriebliche), vor allem, wenn diese gesetzlich verbindlich sind. Normen, ursprünglich die Grundlage für den Austauschbau, wodurch erst eine wirklich industrielle Fertigung ebenso wie eine effektive Distribution und eine Lebensdauer sichernde Produktpflege ermöglicht wurde; heute als »Kompatibilität« für Baukästen und Systementwicklungen mit Interfaces, ein Faktor der differenzierten Globalisierung, unverzichtbar und heutzutage eher nicht dinglich als bislang vorherrschend dinglich orientiert. Jede Norm ist wie jede Invariante nur auf Zeit, wenn auch meist »epochenstabil« sinnvoll gültig. O. Kienzle hat die dementsprechend hohe Anforderung und damit die Existenzberechtigung an eine Norm beschrieben: eine Norm ist die Bestlösung einer sich wiederholenden Aufgabe. Ändern sich im Laufe der Zeit die betreffenden Aufgaben und die Bestlösungen dafür deutlich und erkennbar nachhaltig, dann müssen Normen verändert oder abgeschafft werden. So gesehen sind also Normen nicht nur wirtschaftlich höchst nützliche, sondern besonders verlässliche Invarianten. B »In der Anhäufung von mehr Wissen über mehr Dinge wächst der Gedächtnisspeicher im Prinzip unbeschränkt. Ungeachtet des erreichten Umfanges bleibt das Gedächtnis jedoch aus den gleichen Grundkomponenten zusammengesetzt, nach denselben Prinzipien organisiert und indiziert, und die auf ihm operierenden Prozesse bleiben von gleicher Form. Wir können sagen, das System werde komplexer, weil sein Umfang zunimmt, wir können aber auch sagen, es bleibe einfach, da sich seine fundamentale Struktur nicht ändert. […] Die äußeren Umgebungen des Denkens, die reale Welt wie das LangzeitGedächtnis, sind ständiger Wandlung ausgesetzt. Wir dürfen annehmen, daß […] die, die Adaption des Langzeit-Gedächtnisses bewirkenden Prozesse, welche wir als Lernen bezeichnen, die unbewegten Beweger sind, die in einfacher und invarianter Weise den Wandlungsvorgängen zugrunde liegen« H. A. Simon7. oeffnungszeiten 22/2008 Ziel Beheben des Widerspruchs zwischen gewachsenen Ansprüchen und dem Stand Produktbedingter Lebensweise verwirklichbar, wenn neue Bedürfnismerkmale bestimmt, neue Zwecke & Umstände formuliert werden können: problemhaltige Aufgabenstellung Neue Zwecke und Umstände diese in Anforderungen und Bedingungen (des Gebrauchs und der Erzeugung) überführt werden können: Präzisierte Aufgabenstellung Präzisierte Aufgabenstellung dafür geeignete, untereinander koppelbare (kompatible) Funktionen formuliert werden können: Funktionsstruktur Abbildung 1. Formgestaltung ist eine Invariante im Design Ein vereinfachtes Beispiel des Kaskadenprinzips als logisch strukturierte Folge von Entwicklungsstadien (aufeinander folgende Implikationen »erst wenn…, dann kann…«) zeigt, auch bei anderer und vollständiger Darstellung des Prinzips, einen nicht zu umgehenden »inneren Mechanismus« des Entwurfsprozesses. Solche Kaskade wird meist in Schleifen durchlaufen, weil rückgreifend notwendige Veränderungen erst beim Fortschreiten in eine folgende Entwurfsphase durch dadurch entstehende neue Erkenntnisse, unerwartete Irrtümer oder vorher gefällte Fehlentscheidungen sichtbar werden. Das entspricht auch dem Prinzip »ein Schritt voraus«, d.h. erst dann über das Ergebnis des Schrittes zuvor zu entscheiden (siehe Abb. 1). Ein solcher Ablauf wird etwa beim Design unserer Provenienz (dem Entwerfen für den umfassenden Gebrauch8) in drei Handlungsebenen realisiert: Konzipieren/Lösungen entwickeln/ Repertoires bilden/Formgestalten. Mit der Formgestaltung als prozessuale Invariante wird mit Hilfe der entwickelten Repertoires die kommunikativ-ästhetische, wie die ergonomische Funktion gestalterisch umgesetzt. Vor allen anderen beteiligten Disziplinen aber ist, vom Design geführt, die unveräußerliche, höchst problematische Aufgabe zu lösen, das Formprinzip als integrierende Gesamtform zu entwerfen (im formsprachlichen Sinne, die »Superisation« der formwirksamen Ergebnisse aller an der Entwicklung Beteiligten zu vollziehen) und gestalterisch über die Grobform zur Feinform, dem produktionsreifen Endzustand des Entwurfsprozesses zu führen. Ohne Formgestaltung, verantwortlich nicht zuletzt für die Produktkultur, wäre es also ein rein technisches Design oder das von Systemplanern. oeffnungszeiten 22/2008 Zu viel oder zu wenig Invarianten Zu den Lösbarkeitskriterien problemhaltiger Aufgaben gehört vor allem das Gebot, Über- und Unterbestimmungen zu vermeiden. Das gilt für die Aufgabenstellung zwar zuerst, aber nicht weniger für Zwischenlösungen. Theoretisch bedarf jeder herzustellende Lösungszustand einer genau bestimmten Menge hinreichender Informationen. In der Praxis stehen meist noch nicht einmal alle notwendigen, geschweige denn hinreichenden Informationen zur Verfügung, um die Aufgabe lösen zu können. Da muss dann ersatzweise mit plausiblen Annahmen und brauchbaren Hypothesen gearbeitet werden, ein Zustand, der bis zum Abschluss der Entwurfsarbeit anhalten kann. Fehlende Informationen, hier die invarianten Anforderungen und Bedingungen vor allem, fallen leicht auf, überschüssige dagegen sind als solche schwerer als Blockadeursachen auszumachen. Ueberbestimmungen Die erste und wesentlichste Gefahr für die Lösbarkeit einer problemhaltigen Aufgabenstellung liegt bei den in ihr selbst festgelegten invarianten Forderungen und Bedingungen entweder dann, wenn diese einander widersprechen, oder falls mehr Anforderungsmerkmale als jeweils mögliche, zugestandene oder verfügbare Lösungsmerkmale eine aufgabengemäße Lösung objektiv blockieren. Des weiteren können durch nicht aufeinander abgestimmte Lagen und Maße von Invarianten jedweder Art Kollisionen entstehen, die jedoch in der Regel durch maßliche Korrekturen leicht aufgehoben werden können. Neben diesen offensichtlichen Versagensfällen ist der im folgenden als Beispiel modellierte Typ von Überbestimmungen dagegen nicht vordergründig ersichtlich, aber für den gestalterischen Spielraum von erheblicher Wirkung. Die für den Gebraucher günstigsten Lagen der Gebrauchszonen, Betätigungs- und Meldeelemente am Erzeugnis und die einem technischen Prinzip (oder mehreren miteinander verbundenen) innewohnende Starrheit, deren funktionstragende Bauelemente in ihrer Lage zueinander und zum räumlichen Bezugssystem des Erzeugnisses plazieren zu können, lassen der Wahl der bestmöglichen Formanlage und des darauf bezogenen konstruktiven Aufbaus sowie der daraus formierten, integrierenden Gesamtform wenig Freiheit. Umgekehrt können auch lagebestimmende Vorgaben an die Konstruktion und gut arrangierte Gebrauchslagen auf die Auswahl eines dafür räumlich kompatiblen technischen Prinzips entscheidend einwirken, eine Tatsache, die noch immer ungern zugestanden wird. Diese Bestimmungsrichtung wird im Bereich der häufig und vielfältig mit dem Menschen in Kontakt stehenden Erzeugnisse unausweichlich bedeutsamer werden. Hierin liegt auch der von der Nutzungsseite her objektive Zwang zur Verkleinerung und dem dadurch möglichen, räumlich flexiblen Dezentralisieren von Antrieben, Ein- und AusgabeAufbereitungen, selbst bei noch mechanischen Systemen. Aus diesem vereinfachten Erklärungsmodell ergibt sich sehr wirklichkeitsnah die Erkenntnis, wie leicht es zu einer gegenseitigen Überbestimmung von festen Vorgaben bzw. Festforde- 53 rungen kommen kann, die gute Lösungen für den inneren und äußeren Produktaufbau blockiert. Hier helfen nur Entscheidungen über Prioritäten, andere Invarianten (Lösungsansätze) zu wählen oder wo Abstriche bei den Forderungen gemacht werden müssen. Diese Problematik ist weitgreifend: so wird die Konstruktionsform und damit das technisch-bauliche Gerüst der Erscheinung durch die äußere Anpassung des Erzeugnisses an andere oder an bauliche Bedingungen der Umwelt eingegrenzt. Weiterhin können die inneren Aufbaubedingungen der Bauteile und Baugruppen des Erzeugnisses dem jeweiligen Vorrang gemäß die entstehende Bauform grob festlegen. Dahinein spielen noch die notwendigen Beziehungen vom Außenraum zum Innenraum des Erzeugnisses und umgekehrt. Es sind Anforderungen, innere Bereiche von außen zugänglich zu machen, für Zugriffe und Einblicke des Gebrauchers, aber auch für das Zu- und Abführen von Arbeitsstücken, Hilfsstoffen und Abfällen, wie von Zuleitungen und Ableitungen jeglicher Art, soweit sie nicht zentralisiert werden können. Die Wahl als Einzelform oder als offene Aggregatform ist hiervon stark betroffen. Wie hier im Sinne des gebrauchsorientierten Design komplexe Invarianten gesetzt werden und zum Lösungsansatz beitragen können, aber auch die Gestaltungsarbeit kreativ disziplinieren, zeigt H. Seeger9 in einer beispielhaften Studie zum PKW-Design anhand eines auf die Nutzer bezogen generierten Maßkonzeptes (Außen–Innen und Innen–Außen) als erste Entwurfsinvariante vor der aerodynamisch und danach der ästhetisch orientierten, um einen Karosseriegrundtyp zu formulieren. nächsten Entwicklungsschritt auf Funktionsträger abgebildet werden, zuerst auf Wirkeffekte jedweder Art ermöglichender Eigenschaften. Da konkrete Funktionsträger (Bauelemente) stets mehrere für Funktionen nutzbare Eigenschaften besitzen, wird man, wenn wirtschaftlich (im allgemeinen Sinne) irgend möglich, diese weitgehend ausnutzen, wodurch eine Funktionsintegration bzw. eine funktionelle Mehrfachausnutzung eines Bauelements entsteht. Das heißt nichts anderes, als dass die Funktionsstruktur nicht mit der Baustruktur übereinstimmen wird, die bei der Aufteilung des Produktes in Bauelemente bzw. Einzelteile und Baugruppen entsteht. Das schließt Lösungen nicht aus, bei denen – als Funktionstrennung – jeder Teilfunktion ein Bauelement als Funktionsträger zugeordnet wird, um z.B. Funktionen einzeln austauschen zu können. Entsprechend der unterschiedlichen Abbildungen Funktion – Funktionsträger – Bauelement – Baugruppe ist die integrierende Gesamtform natürlich jeweils eine andere. Hier liegt die mögliche Umbruchstelle zwischen der Strukturierung der Vorgeschichte zur eigentlichen Formentwicklung. Diese Situation wird noch verschärft, wenn Baugruppen nach technologischen Ordnungsmerkmalen gebildet werden, etwa durch das Zusammenfassen der präzisionsmechanischen Bauteile, oder der zur automatischen Montage und die nur herkömmlich montierbar geeigneten Bauteile usw. Von einer simplen Linearität dieses grundsätzlich folgerichtigen Vorgehens (Kaskadenprinzip) im Entwicklungsprozess, kann, selbst nur unter formbildenden Aspekten, überhaupt keine Rede sein. Besonders zu vermerken sind neben den hier auf eine Abschlusslösung ausgerichteten Betrachtung, die festsetzenden Wirkungen innerhalb des Entwurfs- bzw. Gestaltungsprozesses. So wirkt bereits die Formulierung der Aufgabenstellung (die erste Form ihres »Inhalts«) und der in ihr enthaltenen Problemstruktur in gewisser Weise präformierend auf die Struktur der folgenden Lösungsstufen, ob ggf. bis hin zum gestalterischen Endergebnis, das ist noch sehr unklar10. Die Möglichkeit der Strukturfortpflanzung, auch ein Invarianzproblem, ist bei der noch immer wichtigsten Art, ein Problem zu lösen, am wirkungsvollsten, nämlich, wenn das Problem geschickt in einfache Fragen zerlegt wird, die aus dem vorhandenen Lösungsvorrat beantwortet werden können. Zerlegt man nun eine problemlösende Funktion sinnfällig in eine sie erfüllende Menge geeigneter, miteinander verbundener Teilfunktionen (hintereinander, verzweigt, vernetzt), erfindet also eine dementsprechende Funktionsstruktur, dann heißt das nicht zwangsläufig, dass diese, schließlich invariante Struktur weiter fortgepflanzt werden kann. Die Teilfunktionen müssen in einem C: Zur Formanlage Die Formanlage ist der kleinste gemeinsame Nenner aller zu integrierenden formwirksamen Lösungsbeiträge, dominiert durch die der im erweiterten Sinne ergonomischen und technischen Bestlösung (siehe Abb. 2). Die Formanlage ist die optimierte Anordnung und Ausdehnung der Bestandteile und deshalb schadlos nicht zu verändern. Ihre invarianten geometrischen Eigenschaften bleiben bei allen weiteren Gestaltungsschritten erhalten. Die Gestaltinvarianz stimmt weitgehend mit topologischen Eigenschaften überein. Die Reduktion der geometrischen Merkmale, bis hin zur jeweiligen topologischen Invariante jedes formwirksamen Beitrages erleichtert uns die gewollte Integration, denn dieser hohe Allgemeinheitsgrad löst selbst unverträgliche Unterschiede auf. Diese Lösungsbeiträge erscheinen nur soweit im geometrischen Zustand des Erzeugnisses, wie sie, geometrisch abstrahiert, aufeinander abgebildet werden können. Auf den Zusammenhang des Typischen mit der Formanlage soll hier nur hingewiesen werden. Die Formanlage ist die Stelle des Übergangs zwischen der Konstitution Elemente & Beziehungen > Beziehungsmatrix > Platzierungsgraphen Lagezuordnung Topologie bloße Nachbarschaft Lageverhältnisse Topoproxemie verhältnismäßige Abstände Topometrie Lagebestimmung maßbestimmte Abstände Formanlage Abbildung 2. 54 Struktur Konfiguration Anordnung oeffnungszeiten 22/2008 und der Evolution der Form und lässt sich auch als eine aus dem Kontinuum hervorgegangene Singularität mit darauf folgenden, von Parametern abhängigen Metamorphosen deuten. Tritt die Formanlage diskontinuierlich als nur eine Möglichkeit aus dem Kontinuum ihres sie einschließenden Lösungsfeldes hervor, bildet sie zugleich die Kontinuität aller ihrer Varianten – ein eigentümlicher Dualismus. Aus den Beziehungen der konstituierenden, deshalb unverzichtbaren Funktionsträger untereinander (z.B. jeweils Wirkflächen, Morpheme, Einzelteile, Baugruppen, Geräte usw. einerseits und Gebrauchende andererseits) als Form-Elemente ergibt sich zuerst ihre bloße, maßlich unbestimmte nachbarschaftliche Zuordnung, die topologische Formanlage. Mit den Intensitäten (Link-Werte) der festgestellten Beziehungen werden danach die verhältnismäßigen Abstandsunterschiede (enger/ weiter) bestimmt. Diese so durch Maßverhältnisse bestimmte Nachbarschaften gewonnene konfigurative Invariante ist der geometrische Keim bzw. genetische Code der angestrebten Gesamtform aus den zu integrierenden Formelementen. Von hier aus lässt sich gewissermaßen der vage Urzustand der zu gestaltenden Produktform, ungebunden durch feste Maße, locker skizzieren. In maßlich optimierte oder vorgegebene Elementelagen transformiert, entsteht nun daraus, bei bleibenden, nun maßlich fixierten weiten und engen Nachbarschaften, die anordnungsinvariante Formanlage, der Ausgangspunkt für das konkrete Gestalten der Form. Aus dieser Formanlage mit den konstituierenden Formelementen, letztlich nach Minimalformprinzipien herausgebildet, entsteht das existenzielle Minimum der Formgeometrie, unterhalb dessen keine stabil eigenständige Form bestehen kann. Dazu wird die Transformation der unterschiedlich intensiv verbundenen Elemente vorzugsweise so durchgeführt, dass die stärksten Bindungen am wenigsten gedehnt werden – eng, die schwächsten dagegen am meisten – weit – (nach dem energetischen Prinzip der geringsten Verformungsarbeit, denkt man an entsprechend dicke Gummifäden als Modelle der Beziehungsstärken). Allzu oft wird übersehen, dass, wenn im Verlaufe der weiteren Entwicklung die Beziehungsintensitäten anders bewertet werden, sich dementsprechend die Nähe/Ferne der Nachbarschaften, darüber die schließliche, maßbestimmte anordnungsinvariante Formanlage ändert. Diese Vorgehensweise ist sowohl bei dinglichen wie nichtdinglichen Positionierungsaufgaben im 2D- und 3D-Räumen anwendbar. Es gibt, selbst für große Mengen zu positionierender, verbundener Elemente, rechnerisch/zeichnerisch leicht handhabbare Platzierungsverfahren. Produkttypen, die sich beispielsweise weit gefasst als (größte bis kleinste) Standort gebundene Arbeitsmaschinen identifizieren lassen, können schließlich übergreifend aus der (den) kennzeichnenden Position(-en) des Gebrauchers zur Wirkstelle, den prozessualen Verkettungen und den statisch-konstruktiven Anbindungen als Archetypen bzw. Übergestalttypen erfasst oeffnungszeiten 22/2008 werden, die nach einer logischen Evolution geordnet – übereinstimmend mit der topologischen Evolution – von I- bis O-Formen in verschiedenen Produktklassen nachweisbar sind. Pressen und Mikroskope sind deutliche Beispiele dafür. Ständig aktualisiert, lassen sich hieraus produkttypbezogen im voraus Formvarianten für Formenkataloge entwickeln. Solche Lösungsvielfalten decken auch »weiße Stellen« auf und können damit zum Anlass für Neuentwicklungen werden. Lassen sich stets wiederkehrende Standardsituationen von Anordnungen finden, die jeweils als Invariante eines Produkttyps geeignet sind, liegt es nahe, dafür – vorgreifend – einen Vorrat an Formvarianten zu 1 Eingang 6 Küche 7 Kellner gang 2 Garderobe 5 Vorräte 8 Kuchen Buffet 3 WC 4 Anlief. 9 Gastraum Ordnungsschema. Viele Kreuzungen (oben), kürzere Wege – weniger Kreuzungen (unten). 3 WC 9 Gastraum 7 Kellner gang 2 Garderobe 8 Kuchen Buffet 6 Küche 1 Eingang 4 Anlief. 5 Vorräte 55 entwickeln11. Ergänzbar, tragen derartige Lösungsspeicher zur professionellen Effizienz der Gestaltung bei. Indem einerseits bei vorliegenden Standardfällen nicht nur immer von Null angefangen werden muss, entsteht andererseits die ständig wirkende Herausforderung, über das hiermit schon weit entwickelte Lösungsfeld hinaus, neues Besseres herauszufinden. Zudem werden solche Lösungsuniversalien fallweise mit technologischen Zuordnungen hinsichtlich Verfahrenseignung und Wirtschaftlichkeit nach und nach zu Entscheidungshilfen ergänzt. Schließlich entstehen dadurch, mit formlich definiertem Thesaurus, die Speicherstellen, in denen entsprechend produzierte Lösungen geparkt werden können. Nicht zuletzt, um daraus zeitlich weiterreichende Gestaltungsweisen ableiten zu können. Diese im wesentlichen gebrauchsgeprägten Archetypen sind in ihrer Grundgestalt formsprachlich offensichtlich kulturinvariant. Wieweit Variationen, Modifikationen und Nuancen historische, regionale oder ethnische Besonderheiten hervortreten lassen können und unter welchen Bedingungen, ist wohl einer umfänglichen Untersuchung wert. D Mit den Verhaltensmustern sind zuerst »Handlungsmuster gemeint, die geometrische Festlegungen enthalten und auch außerhalb und zwischen den Erzeugnissen selbst gestalthaft wirken«12. Design schafft entweder neue Präzedenzfälle unseres an Industrieprodukte gebundenen Lebens, oder gewährleistet neu Entfaltungsmöglichkeiten innerhalb überkommener, bewährter, sinnvoll (noch) nicht zu verändernder Präzedenzfälle der Gebrauchssituationen. Hier werden Archetypen herausgebildet oder als Gegebenheiten auf höherem Niveau des Gebrauchskomforts genutzt. Eher rückwirkend auf das Design sind offensichtlich steigende Ansprüche an jeweils kulturelle Identifikationen stärkende Handlungsmuster von zeremonieller bzw. ritueller Qualität, nicht nur bei feiertäglichen Verrichtungen – eine verinnerlichende Reaktionsweise auf die nivellierende kulturelle Globalisierung. Formsprachliche Invarianten Die Reize der Gestalteigenschaften, mittels derer wir die Form wahrnehmen, sind Signale, die der Gebraucher soweit, wie er wahrnehmungstüchtig, willens und fähig ist, sie zu entschlüsseln und im Zusammenhang zu verstehen, als Nachricht auswertet; nur soweit ist eine Formensprache brauchbar, abhängig also von den habituellen und aktuellen Dispositionen des Reizobjektes und des rezipierenden Gebrauchers, wie der zugehörigen (inneren und äußeren) Milieus. Für die formsprachliche (kommunikative) Funktionstüchtigkeit eines Erzeugnisses haben sich das Vorverständnis des Gebrauchers und der ihm vermittelbare Formensinn aus dem Gebrauchszusammenhang als prägende Umstände für sein Produktverständnis und der darauf begründeten Akzeptanz durchgesetzt. Die Wahrnehmungsgestalt zeichnet sich durch invariante Eigenschaften aus, die selbst bei starken Verformungen erhalten bleiben. Es sind die topologischen Eigenschaften der Form, 56 oeffnungszeiten 22/2008 9 Gastraum 3 WC gewissermaßen als ihr genetischer Code. Selbst bei ständigen Änderungen erkennen wir unsere Umwelt immer wieder, en gros und en detail. Diese Beobachtungen veranlassten J. Gibson13 anzunehmen, dass Invarianten der visuell erfassbaren Umwelt es uns ermöglichen, sie unabhängig von ihren Veränderungen zu identifizieren. Er machte entsprechend der Veränderungsmöglichkeiten vier solcherart Invarianten aus: Beleuchtungsinvariante, Invariante des Beobachtungsortes, Stichprobeninvariante, Störungsinvariante. Selbst bei stark veränderter Beleuchtung erkennen wir die Landschaft wieder, ebenso beim Wechseln des Beobachtungsortes usw. So sind die früheren Annahmen, dass dazu eine bleibende Blickrichtung an einem festen Standort dafür nötig wäre, überholt. Stetige Deformationen von Buchstaben können, wie wir seit langem wissen, überraschend weit getrieben werden, ohne dass deren Erkennbarkeit grundsätzlich leidet. Erst durch gewisse desorientierende Veränderungen gelingt es, die Formbedeutung verschwinden zu lassen, auch wenn die topologische Äquivalenz erhalten bleibt. Andererseits können die Stetigkeit der topologischen Transformation bzw. Verformung aufhebende Maßnahmen zur Nichterkennung führen, etwa durch geeignetes Herauslösen von Komponenten. Wir sind indessen durch den täglichen Umgang mit der Balkenschrift bei Displays besonders geübt, rudimentäre Gestalten zur Vollform zu ergänzen. So macht es uns derzeit keine Mühe mehr, auch Dank der betreffenden Dauerwerbung, das große Lambda als A zu interpretieren. In diesem weiten Existenzbereich einer Gestalt bevorzugen wir unbewusst die prägnanten Ausbildungen, weil sie leichter, sicherer und schneller wahrnehmbar sind als andere, sofern nicht Präferenzen (Invarianten!) anderer Art unsere Gestaltwahrnehmung überprägen. Erscheint bereits die anordnungsinvariante Formanlage in prägnanter Gestalt, dann ist der Grund gelegt für gestaltfeste, mitteilungssichere, typische, ästhetisch überzeugende und langlebige Formen, als Invarianten also. Versuche, die Formensprache ständig zu verändern oder gar häufig zu erneuern, sind mit der Erfindung neuer Alphabete, Grammatiken und Bedeutungszuordnungen zu vergleichen. Hier gilt es zwischen einem autonomen Szenesprech und einer notwendig wachsenden Basis zur weltweiten Verständigung der Menschen untereinander über die Dinge und mit ihnen zu entscheiden. Dabei suchen alle Gebraucher das Produkt mitsamt seiner Gebrauchsweise ebenso zu identifizieren, wie sich selbst mit ihm und der Gebrauchsweise – bei dafür in Frage kommenden Erzeugnissen sogar bis hin zum zeremoniellen oder gar rituellen Gebrauch. Das weist auf notwendige, ggf. austauschbare kulturinvariante Anteile der Produktsprache hin. Soll allerdings ein zumutbarer, sicherer, bequemer und effektiver Gebrauch gewährleistet werden, dann ist eine detektivische Entschlüsselung ebensowenig zuzumuten wie die Erfindung neuer Codes, nur der originellen Effekte wegen, sondern erfordert interkulturelle, langlebige plausible Codes und eine eindeutige Logik für die Interpretation, Invarianten also. 2 Garderobe 1 Eingang oeffnungszeiten 22/2008 Anmerkungen 1. A. Hückler, »Einige Design-topo-logische Ansichten von einer Designgeometrie« | 2. Ebenda | 3. J. S. Sharikow et al., Logik der wissenschaftlichen Forschung | 4. A. Hückler, »Als Gestalter« | 5. A. Hückler, »Einige Design-topo-logische Ansichten von einer Designgeometrie« | 6. A. Hückler, »Gerätedesign« | 7. H. A. Simon, Die Wissenschaften vom Künstlichen | 8. A. Hückler, »Gerätedesign« | 9. H. Seeger, Generierung des Maßkonzepts | 10. Siehe auch J. S. Sharikow et al., Logik der wissenschaftlichen Forschung | 11. A. Hückler, »Gerätedesign« | 12. A. Hückler, »Zum Aufbau der Formen und Bedeutungen« und F. Romero-Tejedor, »Topologische Aspekte im Cognition Design« | 13. J. J. Gibson, Wahrnehmung und Umwelt. 8 Kuchen Buffet Bibliografie Gibson, J. J., Wahrnehmung und Umwelt, München, Urban & Schwarzenberg 1982 | Hückler, A., »Zum Aufbau der Formen und Bedeutungen«, Designwissenschaftliches Kolloquium – Burg Giebichenstein, Halle 1987 | Hückler, A., »Als Gestalter« in: Götz, M., Hrsg., Der Tabasco-Effekt, Basel, Schwabe & Co. AG. 1999 | Hückler, A., »Einige Design-topo-logische Ansichten von einer Designgeometrie«, Öffnungszeiten 12/2000 | Hückler, A., »Gerätedesign« in: Krause, W., Hrsg., Gerätekonstruktion, München, Hanser 2000 | Jung, A., Funktionale Gestaltbildung, Berlin, J. Springer 1989 | Ludwig, J., Regeln und Verfahren zur (ingenieurpsychologischen) Anordnungsoptimierung, Berlin, Diss. A. Humboldt-Uni. 1978 | Romero-Tejedor, F., »Topologische Aspekte im Cognition Design«, Öffnungszeiten 16/2002 | Schmigalla, H., Methoden zur optimalen Maschinenanordnung, Berlin, Technik 1970 | Seeger, H., Generierung des Maßkonzepts, Bericht Nr. 537 IKTD Stuttgart, Universität Stuttgart 2007 | Sharikow, J. S. et al., Logik der wissenschaftlichen Forschung, Berlin, Akademie 1969 | Simon, H. A., Die Wissenschaften vom Künstlichen, Berlin, Kammerer & Unverzagt 1990. 4 Anlief 57 diplomarbeiten-corner WS07/08 SS08 Digital Lightwriting Diplomarbeit in Zusammenarbeit mit Jung von Matt, Hamburg FH-Betreuung: Prof. Dr. Felicidad Romero-Tejedor | Externe Betreuung: Simone Ashoff und Dipl.-Medienberaterin Dorte Lücker Nina Borrusch 1. Künstler DAIM mit dem System, 2. Arrangement des Arbeitsplatzes, 3. DAIM testend das System, 4. Erste Ergebnisse. Mehr dazu: www.nextwall.de Digital Lightwriting: ein interaktives, Motion-Capturing basiertes 3D-Zeichentool in einer Augmented Reality-Umgebung ist bei der Agentur Jung von Matt/next das Projekt »Tagged in Motion« entstanden. Am Anfang dieser Arbeit stand die Frage, wie man Streetart und digitale Medien in einem Projekt verbinden kann. Aus dem Gedanken, Graffiti-Kunst im Raum interaktiv erlebbar zu machen, entstand die Idee, ein System zu entwerfen, mit dem ein Künstler schon während der Kreation in die dritte Dimension eintauchen und interaktiv ein virtuelles Kunstwerk in der erweiterten Realität erschaffen kann. Die Entwicklung dieses Systems, welches auf Java und OpenGL basiert, erforderte vor allem im Bereich des Motiontracking in einem 360° Raum kreative, mathematische Lösungen. ARToolKit, ein Open-Source Motiontracking System, das mit optischer Markererkennung arbeitet, bildet das Herzstück der Applikation. Damit ein Künstler mit dem System im Raum frei zeichnen kann, braucht er zwei Marker, die einmal seine Blickrichtung, sowie die Position seines Malwerkzeugs repräsentieren. Ausgerüstet mit an einen portablen Rechner angeschlossenem Head-Mounted Display zur Darstellung der überlagerten Welten, einer Wii-Fernbedienung zur Steuerung diverser Funktionen und getrackt von minde 58 stens drei umstehenden Kameras kann so mit dem »Digital Lightwriting« System frei im Raum schwebendes Lichtgraffiti gemalt werden, das sich in Echtzeit dreidimensional erleben lässt. Der Graffitikünstler DAIM gab dem Tool bei seiner Generalprobe in der Hamburg Messe und Congress GmbH seinen Einstand. Dokumentiert wurde der kleine Event mit Film- und Fotoaufnahmen, die später zu einem kurzen Film verarbeitet wurden. Der Film ging am 17. Januar auf der firmeneigenen Webseite www.nextwall.de online, zehn Tage später folgte die Veröffentlichung auf der Videoplattform You Tube. Mit weit über einer halben Million Klicks wurde »Tagged in Motion« innerhalb kürzester Zeit zu einem der erfogreichsten Viral-Spots von Jung von Matt. Rund 10.000 Websites und Blogs griffen das Thema auf und berichteten über das Projekt. Auf die Nachfragen zahlreicher internationaler Interessenten hin, hat bei Jung von Matt/next bereits die Neu-Konzeption eines professionellen, komplett vermarktungsfähigen Digital Lightwriting-Systems für Einsätze bei Messen, Events und Videoproduktionen begonnen. oeffnungszeiten 22/2008 Optimisation of hair rendering Diplomarbeit in Zusammenarbeit mit Rockstar Leeds FH-Betreuung: Prof. Dr. Felicidad Romero-Tejedor | Externe Betreuung: Ian Bowen Gunnar Dröge Optimisation of hair rendering techniques for the Wii graphics engine and Shaders up to model 4 Videospiele und andere Echtzeitumgebungen beweisen immer mehr die Fähigkeit von Photorealismus in Simulationen. Haar und Fell sind zwei von vielen dreidimensionalen Effekten, die dabei ins Spiel kommen. Diese prozeduralen Effekte stehen im Kontrast zu pur polygonal definierter Geometrie. Studio Max wurde Echtzeit-Manipulation möglich gemacht. Eine Demoapplikation, basierend auf der proprietaeren Engine von Rockstar Games, wurde entwickelt, welche verschiendene Hardwareplattformen emuliert. Es wurden entsprechende Export-Pipelines implementiert. Grafikprozessoren haben sich in den letzten Jahren für bestimmte Aufgaben zu bis zu einer hundertfachen Leistung von CPUs entwickelt. Shader sind Mini-Programme, die auf Grafikchips geladen werden und durch definierte Interfaces Teilberechnungen in Simulationen übernehmen können. Echtzeitumgebungen profitieren äußerst effizient von dieser Auslagerung, sind aber nicht die ausschließlichen Einsatzgebiete. Mit Shader-Technologie lassen sich solch aufwendige Berechnungen wie die detailreichen Bewegungen der komplexen Struktur von Haaren und Fell und die entsprechenden Illuminationsalgorithmen in Echtzeitumgebungen ausführen. Beispiele liefern bekannte Spiele wie »Shadow of the Collossus« und die meisten Spiele des »Next Gen«-Genre, aber auch die Forschung der grossen Grafikchip-Hersteller NVidia und ATi profitieren von der engen Zusammenarbeit mit der Spielebranche und führen diese Effekte als Benchmarks an. Die Diplomarbeit ist im Allgmeinen ein Grundstein für tiefergehende Verknüpfungen zwischen EchtzeitErstellung von prozeduralem Spiele-Content und deren Exportierung in die projektspezifische Umgebung. Die Diplomarbeit beschäftigte sich mit einer Projektion auf den aktuellen Stand der Shader-Technologie und einer Einbindung in den Produktions-Pipeline der Firma Rockstar Leeds. Durch die Einbindung von Shadertechnologie in das 3D-Tool 3D oeffnungszeiten 22/2008 59 diplomarbeiten-corner Webservices der deutschen Telekom Diplomarbeit in Zusammenarbeit mit der deutschen Telekom AG FH-Betreuung: Prof. Dr.-Ing. Holger Hinrichs | Externe Betreuung: Dipl.-Ing. (FH) Michael Sager Oliver Jenny Analyse bestehender Webservices der Deutschen Telekom AG und beispielhafte Orchestrierung zweier Services auf Basis einer BPEL-Engine Durch das Aufkommen von Prozessmodellierungstools und adäquaten Laufzeitumgebungen müssen vorhandene Webservices auf ihre »Prozesstauglichkeit« untersucht werden. Im Rahmen der Diplomarbeit sollten exemplarisch zwei bereits in der Sprache Java implementierte komplexe Geschäftsprozesse in Form eines BPEL-Prozessmodells umgesetzt werden. Bei den beschriebenen Geschäftsprozessen handelt es sich um Webservices innerhalb der Geschäftslogik im Backend des Telekom Internet-Bestellsystems. Ziel war es, die beschriebenen Prozesse visuell abzubilden und aus selbiger Abbildung einen technisch lauffähigen Prozess zu erhalten. Als Grundlage für die technische Prozessmodellierung dienten die mit dem ARIS-Toolset beschriebenen Geschäftsfälle der Telekom. Um eine adäquate Umsetzung der ARIS Modelle in einen lauffähigen Prozess zu erhalten, sollte im Rahmen dieser Diplomarbeit untersucht werden, ob eine BPEL-basierte Laufzeitumgebung eine solche darstellt. Die Modellierung der Geschäftsprozesse erfolgte mit der Applikation Oracle BPEL Designer. Das Ergebnis war die technische Implementierung der Geschäftsprozesse mit den Sprachmitteln der Sprache BPEL sowie die erfolgreiche Ausführung der Prozesse innerhalb der Oracle BPEL-Process-Engine. Die Beschreibung der Modellierungsergebnisse sowie die Beschreibung der aufgetretenen »Fallstricke« bei der Umsetzung bildeten den Abschluss der Arbeit. 60 oeffnungszeiten 22/2008 Ergonomie und Erstellaufwand Diplomarbeit in Zusammenarbeit mit PPI AG Informationstechnologie FH-Betreuung: Prof. Dr.-Ing. Holger Hinrichs | Externe Betreuung: Dipl.-Inf. Jens Dittmer Sarah Mettin Klassifizierung von Ergonomie und Erstellaufwand in abstrahierten Bedienablaeufen grafischer Benutzeroberflaechen eines bankfachlichen Systems Problemstellung Damit in den frühen Phasen der Software-Entwicklung eine einheitliche Gestaltung geplant und geschätzt werden kann, ist eine Art Regelwerk zur Gestaltung von intuitiven Bedienabläufen notwendig. Die Aufgabe der Diplomarbeit war es somit, einen Katalog zu erstellen, der abstrahierte Bedienabläufe auflistet, diese in ihrer Ergonomie bewertet und ihren Erstellaufwand angibt. Vorgehensweise Die Bedienabläufe wurden aus der Produktfamilie TRAVIC (TRAnsaction SerVICes), einer Software-Lösung für Finanzinstitute, herausgefiltert, abstrahiert und klassifiziert. Die Klassifizierung richtet sich nach der Zielgruppe des Katalogs – den Entwicklern der Software. Die abstrahierten Bedienabläufe wurden visualisiert, so dass die Useraktivitäten mit der Ablaufdarstellung auf der Benutzeroberfläche verknüpft werden konnten. Die Ergonomie der jeweiligen Darstellung wurde bewertet, was sich aufgrund der Abstraktion nur unter Berücksichtigung zuvor erstellter Ergonomie-Richtlinien und der jeweiligen Ablaufsituation durchführen ließ. Die Bewertung der Ergonomie erfolgte aufgrund einer Analyse der Zielgruppen der Software. Ergebnisse Die Ermittlung des Erstellaufwands für die einzelnen abstrahierten Abläufe ergab, dass der Aufwand nur für eine bestimmte Technologie betrachtet werden kann und stark von der Fachlichkeit abhängt. Um den Entwicklern schließlich den Katalog leicht zugänglich zu machen, wurde dieser zusätzlich dynamisch, als Webanwendung, umgesetzt. oeffnungszeiten 22/2008 61 diplomarbeiten-corner Image: Produktionsbereich draeger safety Diplomarbeit in Zusammenarbeit mit Dräger Safety FH-Betreuung: Prof. Dr. Felicidad Romero-Tejedor | Externe Betreuung: Dipl.-Ing. (FH) Holmer Freistein Piotr Furman Analyse der Identitaet des Produktionsbereichs von Draeger Safety mit anschliessender Erstellung einer interaktiven Image-DVD In meiner Diplomarbeit erläuterte ich die theoretischen Grundlagen zu den Themen Unternehmenskultur, gestalterische Ansätze, Psychologie in der Werbung und Unternehmensidentität. Nachdem ich den Produktionsbereich von Dräger Safety genau beschrieben habe, teilte ich mir die Erstellung der Image-CD in vier Phasen auf. Es waren die Planungsphase, Konzeptionsphase, Design- und Produktionsphase und die Testphase. Zu den inhaltlichen Rahmenbedingungen gehörten Punkte wie die Visualisierung der Komplexität des Produktionsbereichs, eine einfache Bedienung, eine übersichtliche Navigationsstruktur, Gestaltung nach der Dräger Safety CI, sowie neben der deutschen Sprache die englische einzubinden. Die technischen Rahmenbedingungen waren eine Auflösung von 1024 x 768 Pixel, Einbindung von selsbst erstellten Animationen, Grafiken, Texte und Sprachaufnahmen, sowie insgesamt ein zeitgemäßes und ansprechendes Design zu entwickeln. griert und nach außen präsentiert werden. Denn nur mit transparenter Kommunikation zu seinen Zielgruppen schafft ein Unternehmen Vertrauen. Ich denke, es ist in meiner Diplomarbeit deutlich geworden, dass die Betrachtung der Identität einer großen Abteilung, wie dem Produktionsbereich bei Dräger Safety, die Auseinandersetzung mit den allgemeinen theoretischen Grundlagen zu den Themen Unternehmenskultur und Unternehmensidentität voraussetzt. Abschließend kann festgehalten werden, dass durch die Globalisierung die Strukturen in großen Unternehmen nie von langer Dauer sind und dass die dazu gewonnenen Mitarbeiter die Unternehmenskultur mit beeinflussen. Diese neue Identität muss behutsam inte 62 oeffnungszeiten 22/2008 Farbe & Design unter kulturellen Aspekten Diplomarbeit in Zusammenarbeit mit Conergy AG FH-Betreuung: Prof. Dr. Felicidad Romero-Tejedor Tanja Seetzen Zusammenspiel von Farben und Design unter Beruecksichtigung kultureller Aspekte beim weltweiten Online-Marketing der Conergy AG Durch die alltägliche Anwendung des Mediums Internet werden wir mit Farben und Design in verschiedenen Bereichen konfrontiert. Unterbewusst entscheiden wir, anhand dessen, was wir sehen, ob uns z.B. eine Website oder ein Banner gefällt, und uns dazu verleitet, dafür weitere Zeit für den Erhalt von mehr Informationen aufzuwenden. Aufgrund der Internationalisierung wird oft angenommen, mit den bekannten Farben die gleiche Wirkung bei jedem User, egal mit welchem kulturellen Hintergrund, zu erzielen. Jedoch gibt es heutzutage immer noch signifikante Unterschiede im interkulturellen Verständnis, die bei der internationalen Gestaltung zu beachten sind. Damit sowohl die Internetpräsenz als auch die Aussage bzw. das Image farblich richtig interpretiert wird, ist es entscheidend, in welchem Kontext die gewählten Farben im Design angewendet werden. Für die Herangehensweise in der internationalen Gestaltung ist es wichtig, sich vorher mit der Kultur, aus der die Zielgruppe stammt, auseinanderzusetzen. Auch ist es notwendig zu wissen, wie das eigene Land in dem anderen gesehen wird, wenn ein Unternehmen global tätig ist. Online-Marketing bietet viele verschiedene Möglichkeiten, dem User in kreativer Form ein Unternehmen oder Produkte näher zu bringen. Dieser breite Anwendungsbereich und die immer wachsende internationale Ausrichtung offerieren große Herausforderungen für jeden Designer. Das macht dieses Tätigkeitsfeld so spannend und dynamisch. In meiner Arbeit habe ich mich auf den Weg begeben, dieses genauer durch internationale Interviews und Recherchen zu ergründen. Aufgrund meiner Ergebnisse habe ich gesehen, dass für eine einwandfreie kulturelle Kommunikation viel Wissen und Offenheit erforderlich sind. oeffnungszeiten 22/2008 63 diplomarbeiten-corner Popularitaetsfoerderung: synje norland Diplomarbeit in Zusammenarbeit mit dem Plattenlabel Norland Music FH-Betreuung: Prof. Dr. Felicidad Romero-Tejedor Elisabeth Schwarz Webseite: http://www.synjenorland.com Marketingkonzept sowie die Gestaltung und Umsetzung visueller Werbemittel zur Popularitaetsfoerderung der Kuenstlerin Synje Norland Die Diplomarbeit setzt sich mit der Musikindustrie und mit der Künstler- und Musikvermarktung sowie mit der Gestaltung von visuellen Werbemitteln am Beispiel der Sängerin Synje Norland auseinander. Aufgabenstellung dieser Arbeit war, ein konkretes Marketingkonzept für die Künstlerin zu erarbeiten sowie Werbemittel, die gestaltungstechnische Werbewirksamkeitskriterien berücksichtigen, zu gestalten und umzusetzen. Hierzu zählten eine neue Künstlerwebseite, ein Handzettel und ein Werbebanner. Das Marketingkonzept sollte die Grundlage für die Vermarktung und Promotion des Debütalbums und seiner Künstlerin bilden. Ziel der Vermarktung ist die Steigerung des Bekanntheitsgrades sowie die Gewinnmaximierung. Zur Konzeptentwicklung wurden eingangs das Umfeld der Musikindustrie und die Entwicklung des Musikmarktes näher betrachtet. Auch wurde eine Analyse, die das Verhalten und die Einstellungen 64 von Musikhörern untersucht, durchgeführt. Die aus der Analyse gewonnenen Erkenntnisse sind in das zu entwickelnde Konzept mit eingegangen. Für die Werbemittel wurde ein zur Künstlerin passendes Design gesucht, welches die Musikrichtung erkennen lässt und bei der Zielgruppe Sympathie erzeugt. Bei der Erstellung der Werbemittel sind Untersuchungsergebnisse zur Künstlerdarstellung verschiedener Musikrichtungen in die Gestaltung mit eingegangen. Die erstellte Webseite wurde auf Benutzerfreundlichkeit getestet, die Entwürfe von Werbebanner und Flyer wurden mittels einer Umfrage auf Erkennbarkeit und Sympathie überprüft. Die überwiegend positiven Befragungsergebnisse zeigten, dass das Design seine Anforderungen erfüllt. oeffnungszeiten 22/2008