Inhaltsverzeichnis - Designlabor der Fachhochschule Lübeck

Transcrição

Inhaltsverzeichnis - Designlabor der Fachhochschule Lübeck
Inhaltsverzeichnis
3
Editorial
Felicidad Romero-Tejedor
4
Design nach der Postmoderne
Holger van den Boom
10
Un-Bilder. Im Ruecken der Bildgesellschaft
Felicidad Romero-Tejedor
16
Brauchen wir ueberhaupt design?
Diethard Janßen
20
Zweckrationalitaet als Design
Felicidad Romero-Tejedor
28
Informationsarchitekturen des Kreativen
Holger Ebert
36
Mechanik und Elektronik fuer designer
Diethard Janßen
42
Das Design der Primzahlen
Wulf Rehder
48
Design nur mit Invarianten
Alfred Hückler
58
diplomarbeiten-corner
Digital Lightwriting zur didaktischen planung fuer
Computeranwendung
Nina Borrusch
Optimisation of hair rendering
Gunnar Dröge
Webservices der deutschen Telekom
Oliver Jenny
Ergonomie und Erstellaufwand
Sarah Mettin
Image: Produktionsbereich Draeger Safety
Piotr Furman
Farbe & Design unter kulturellen Aspekten
Tanja Seetzen
Popularitaetsfoerderung: Synje Norland
Elisabeth Schwarz
oeffnungszeiten 22/2008
1
Die Autoren
Univ.-Prof. Dr. habil. Holger van den Boom geb. 1943 in Kiel. Ausbildung als Grafikdesigner. Studium der Philosophie, Mathematik, Linguistik an der Universität Köln. Promotion 1974. Habilitation
TU Berlin 1982. Seither Professor für Designwissenschaft an der Hochschule für Bildende Künste Braunschweig;
Leiter der Arbeitsstelle für Designinformatik. Seit Oktober 2008 Ruhestand | Dipl.-Ing. (FH) Nina
Borrusch IGi-Absolventin 2008. Designerin für Motion Graphics bei Jung von Matt/next GmbH in Hamburg | Dipl.-Ing. (FH) Gunnar Droege IGi-Absolvent 2007. Technical Artist bei Rockstar Leeds
| Prof. Dipl.-Des. Dipl.-Psych. Holger Ebert geb. 1952. Professor für Interaktionsdesign
an der Georg-Simon-Ohm Hochschule Nürnberg, Fakultät Design. Leiter des Usability-Labors | Dipl.-Ing.
(FH) Piotr Furman IGi-Absolvent 2008. Systemadministrator bei Vier Pfoten-Stiftung in Hamburg |
Prof. Alfred Hueckler em. Professor für Designgrundlagen, Entwerfen und Produktlehre an der
Kunsthochschule Berlin-Weißensee – Hochschule für Gestaltung. Von 1991 bis 1996 deren Rektor. Seit
1981 auch konstruktive Grafik und Skulptur, Fotografie in Einzelausstellungen, Ausstellungsbeteiligungen
und öffentlichen Sammlungen. Derzeit mit der Ästhetik des Sachverhalts und Designgeometrie befasst.
| Dr.-Ing. Diethard Janssen geb. 1957. Studium der Elektrotechnik an der TU Braunschweig.
1985 Dipl.-Ing., 1991 Dr.-Ing. Seit 1990 wissenschaftlicher Mitarbeiter an der HBK Braunschweig. Leiter des
Hardwarelabors der Arbeitsstelle für Designinformatik | Dipl.-Ing. (FH) Oliver Jenny IGi-Absolvent
2008. Software-Engineer bei Deutsche Telekom AG, T-Systems Enterprise Services GmbH in Hamburg |
Dipl.-Ing. (FH) Sarah Mettin IGi-Absolventin 2008. IT-Consultant bei der PPI AG in Hamburg
| Dr. Wulf Rehder geb. 1947. Studium der Mathematik und Physik. Nach Universitätslaufbahn in
Berlin, Tokio, Denver und San Jose/Kalifornien Manager und Vice President bei Silicon-Valley-Firmen. Seit
2003 Berater, Börsenspekulant und Privatgelehrter im Weinland nördlich von San Francisco | Prof. Dr.
Felicidad Romero-Tejedor geb. 1967 in Barcelona. Studium Design an der Universität Barcelona,
1990 Licenciatura. 1995 Promotion. Lehraufträge für Design an der HBK Braunschweig und an der FH Hannover.
Vertretungsprofessur an der FH Flensburg. Seit 2002 Professorin für Design digitaler Medien an der FH
Lübeck. 2004 Gründung des Designlabors | Dipl.-Ing. (FH) Tanja Seetzen IGi-Absolventin 2008.
Consultative Seller bei IBM Schweiz AG | Dipl.-Ing. (FH) Elisabeth Schwarz IGi-Absolventin 2008.
Impressum
Öffnungszeiten. Papiere zur Designwissenschaft 22 / 2008 | ISSN 1613-5881
30. September 2008
Herausgeber Präsident der Fachhochschule Lübeck | Redaktionsmitglieder Prof. Dr. Felicidad Romero-Tejedor, Prof. Dr. Dr. Rolf Küster, Prof. Dr. Hinrich Ecklundt | Externer Berater Prof. Dr.
habil. Holger van den Boom | Layout & Illustration Felicidad Romero-Tejedor
Für die Inhalte der Beiträge sind die Autoren verantwortlich
© FH Lübeck
2
oeffnungszeiten 22/2008
Editorial
Der Designtheoretiker Gert Selle schrieb: »Wer einen PC benutzt, denkt nicht
darüber nach, dass ein Programmierer inzwischen weit mehr Designer ist als
der, von dem die Maus ihre handschmeichlerische Form erhalten hat, und dass
das Sitzen am Computer ein neues Design der Arbeit und einen grundlegenden
Wandel kultureller Erfahrung anzeigt.« (Design im Alltag, 2007) Diese Beobachtung wird leider nicht ohne weiteres akzeptiert. Und zwar weniger vonseiten der
Designer als vonseiten der Informatiker. Trotz großzügiger Einladung möchten
Informatiker meistens doch keine Designer sein; das bestätigten mir mehrere Personen aus der Branche. Designer erstaunen darüber – scheinen wir doch, diagnostiziert von Soziologen und Presse, im Jahrhundert des Designs zu leben.
Informatiker entwerfen Unsichtbares für die Zukunft. Designer machen daraus
etwas Sichtbares. Wenn das Zusammenwirken gelingt, entsteht eine Dienstleistung für Menschen in der Interaktion mit der Maschine. Manche Informatiker haben die Kognition noch nicht wirklich entdeckt. Vielleicht denken Designer und Designwissenschaftler interdisziplinärer als Informatiker? Vielleicht
haben Informatiker nur ein veraltetes Bild vom Design vor Augen?
Wie dem auch sei. Es gibt heute mehr und mehr Professionelle, die designen und
programmieren. Einige von ihnen haben bei uns studiert. Ein kleiner Kreis von IGiAbsolventen – die sich in beiden Welten bewegen – stellt hier seine Diplomarbeiten
vor. Ob sich mehr Technik als Design oder mehr Design als Technik in den Arbeiten
zeigt, variiert. Das gründet in dem Vorzug, dass wir ein offenes Studium mit einem
großen Spektrum an Möglichkeiten anbieten und weiter ausbauen wollen. Wir rufen
neue Typen von Ingenieuren mit kreativem Potenzial hervor. Wir schaffen neue
Typen von Designern mit der Denkweise von Ingenieuren. Wir bilden Entwerfer aus
– mit technischem und gestalterischem Know-How –, die im Trend der Entwicklung
liegen. Egal, ob sie sich dann als Designer, Informatiker oder Ingenieure fühlen.
Diese Ausgabe von »Öffnungszeiten« plädiert wieder für eine breitere Perspektive auf Design. Interdisziplinäre Themen werden behandelt: Design nach
der Postmodene, Bilder in der heutigen Gesellschaft, Ergonomie im Design,
zweckrationalisiertes Design, Elektrotechnik und Design, Ingenieur-Hintergrundwissen im Design – und sogar das Design der Primzahlen.
Selle hat ja Recht: Design ist Design, ob sichtbar oder nicht, ob akzeptiert oder nicht.
Inzwischen bestimmt die globale technisch-soziale Entwicklung darüber, was Design ist.
oeffnungszeiten 22/2008
3
Design nach der Postmoderne
Holger van den Boom
4
oeffnungszeiten 22/2008
Es gibt bekanntlich ein sich selbst so verstehendes postmodernes Design. Es ist ein Design, das die einstigen recht strengen
rationalen Vorgaben modernen Designs vonseiten der Protagonisten der Ulmer Hochschule für Gestaltung ausdrücklich
hinter sich lässt. Ich muss gestehen, ich wurde nie warm mit
solchem »postmodernen« Design, etwa der italienischen Memphis-Bewegung der 80er Jahre. Es war mir doch zu lustig. Das
modische Gerede über Postmoderne war mir überhaupt bis vor
kurzem sogar ein callejón sin salida, wie die Spanier sagen: eine
Nebenstraße ohne Ausgang, vulgo Sackgasse. Ich wusste nur so
viel, dass das Gerede von der Postmoderne ein Suizidversuch
der Geisteswissenschaften war, ein Akt der Selbstauslöschung
– ein beinahe erfolgreicher, möchte man sagen, blickt man auf
die Reihe der Totsagungen im Gefolge dieser, wie mir schien,
geistigen Umnachtung. Den Tot der Kunst, der Literatur, der
Philosophie sah man voraus, auch den der Religion. Und
schließlich den Tod der modernen Vernunft. Die Politik zieht
daraus den wohl nahe liegenden Schluss, der insbesondere
mit jener globalen Ökonomiefetischisierung verträglich ist,
von der unsere – postmodernen – Politiker umnachtet sind:
einschlägige Stellenstreichungen an den Hochschulen.
Aber dann las ich Rebecca Goldstein. Sie ermöglichte mir
unversehens einen tiefen Blick ins Innere der Debatte um die
Postmoderne. Die Postmoderne erweist sich im Wesentlichen
als ein Missverständnis, und zwar ein krasses! Wie das?
Zunächst: Wer ist Rebecca Goldstein? Sie ist Philosophieprofessorin am Trinity College in Hartford, USA. Sie schreibt auch
Romane. Und sie ist ausgebildet in Mathematik und moderner Logik; sie promovierte 1977 an der Princeton University.
Aufmerksam wurde ich auf sie, weil ich mich für den Mann
interessiere, über den sie ein fulminantes Buch geschrieben
hat: Kurt Gödel. Es gehört zu den Eigentümlichkeiten dieses
Mannes, dass man erklären muss, um wen es sich handelt.
Kurt Gödel ist einer der bedeutendsten Mathematiker des
oeffnungszeiten 22/2008
zwanzigsten Jahrhunderts, eines Jahrhunderts mit nicht
wenigen bedeutenden Mathematikern. Der Gödelsche Unvollständigkeitssatz von 1931 ist vielleicht das bedeutendste
Theorem der Mathematikgeschichte überhaupt. Rebecca
Goldstein hat ihr Buch über Gödel geschrieben, um Gödel
ausgerechnet gegen die Postmodernisten zu verteidigen!
Die haben sich nämlich seines Unvollständigkeitstheorems
bemächtigt und dessen Sinn ins gerade Gegenteil verkehrt.
Allen voran Jean-François Lyotard, nicht der Vater, aber der
Hauptapostel der Postmoderne. In seiner Schrift Das postmoderne Wissen von 1979 bezieht er sich unter anderem
auf Kurt Gödel, der mathematisch bewiesen habe, dass die
Mathematik prinzipiell unvollständig bzw. unentscheidbar sei,
woraus folge, dass dem vermeintlich sichersten allen Wissens,
dem mathematischen, der Boden unter den Füßen weggezogen worden sei. Und das übertrage sich auf alles Wissen.
Das Wissen darum, dass alles Wissen letztlich bodenlos sei,
charakterisiere das »postmoderne« Wissen. Das heutige frei
schwebende Wissen bestehe nur mehr aus »Sprachspielen«,
deren Realitätsbezug im Ungewissen bleibe. Das Konzept der
Sprachspiele stammt ironischerweise von einem Mann, der
notorisch, wie Rebecca Goldstein zeigt, Gödel zeitlebens falsch
interpretiert hat: Ludwig Wittgenstein (1889 – 1953), zweifellos
einer der wichtigsten Philosophen des 20. Jahrhunderts. Gödel
selbst war der Meinung, er habe bewiesen, dass die Mathematik, weit entfernt, ein bloßes Sprachspiel zu sein, genau
den Stellenwert einnimmt, den bereits Platon ihr zugewiesen
hatte: eine universelle Realität zu sein, womöglich sogar die
fundamentale Realität des Universums – eine Ansicht, die
übrigens auch Einstein teilte, der beste Freund Gödels. Wie
folgt das? Die Mathematik, wie die Mathematiker sie darstellen, ist prinzipiell unvollständig; es ist nämlich nicht möglich,
formale Methoden – rechenmaschinenartige Methoden auf
der Darstellungsebene – zu finden, die alles mathematisch
Mögliche darzustellen gestatten. Der Clou aber ist, dass dieser
5
Beweis letztlich intuitiv geführt wird: er wird nicht formal durch
Rechnen geführt, sondern durch mathematische Evidenz. Und
das besagt, dass mathematische Intelligenz über die Möglichkeiten von Rechenmaschinen prinzipiell hinausgeht. Der
mathematischen Intelligenz korrespondiert so mathematische
Intelligibilität im platonischen Reich des Idealen. Es ist völlig
falsch, so Gödel, das menschliche Gehirn mit einem Computer
(einer Turingmaschine) zu vergleichen, eine Erkenntnis, die
heute auch mit großer Überzeugungskraft der bedeutende
englische Mathematiker Roger Penrose vertritt, dem wiederum neuerdings sogar der ehemals betont »positivistische«
Stephen Hawking zustimmt: Das Gehirn »kann« einfach mehr
als jede mögliche Rechenmaschine, es kann einsehen, dass
2 + 2 = 4 kein Satz ist, der immer wieder gut bestätigt beim
Rechnen herauskommt, der vielmehr zwingend wahr ist. Diesen
Zwang verspürt keine Rechenmaschine, sie könnte schon beim
Versuch, durch vollständige Induktion zu beweisen, dass 1 +
2 + ... + n = n (n+1) / 2 mit dem berühmten Halteproblem
Bekanntschaft machen. Die Frage stellt sich natürlich, wieso ein
materielles, kontingentes Gebilde, unser Gehirn, etwas Mathematisches, d.h. Nichtkontingentes erfassen kann. Das Fundament der Postmoderne aber ist jedenfalls ein kapitaler Irrtum.
Was hat das mit Design zu tun? Zunächst eine kleine Rückblende: Wir verdanken der so genannten Moderne bekanntlich
den Glauben an die Kraft der menschlichen Intelligenz, der
menschlichen Einsichtsfähigkeit. Wenn es wahr ist, so Galilei,
dass die Erde sich um die Sonne dreht und nicht umgekehrt,
wird sich das Wissen darum nicht auf Dauer unterdrücken
lassen. Mitten im 20. Jahrhundert hat das auch der Vatikan eingesehen und sich bei Galilei entschuldigt. Das findet unseren
lebhaften Beifall. Die Moderne hat uns die Aufklärung beschert,
die Menschenrechte, auf denen der Rechtsstaat basiert und
die individuelle Freiheit. Die kann man auch noch zu Beginn
des 21. Jahrhunderts nicht genug feiern und loben, denn sie
ist und bleibt stets bedroht. Sie ist das Beste, was wir haben.
Das finden auch die Postmodernisten, gerade sie. Denn sie
schauen auf das 20. Jahrhundert und erblicken Grausiges; sie sehen Auschwitz und den Archipel Gulag. Sie sehen den modernen Totalitarismus. Die Moderne, die Aufklärung, meinen sie,
ist offenkundig gescheitert. Aufklärung, ins Banale verkehrt, lockert jede Hemmung. Aufklärung stellt Alles in Frage, auch die
abendländischen Werte. Denn wer, außer dem Grundgesetz,
verteidigt sie noch? Gut ja, es gibt Lippenbekenntnisse. Aber
leben wir diese Werte noch? Bedeuten sie uns etwas? Die Postmodernisten ziehen die vermeintlich einzig mögliche Konsequenz: Anything goes (Paul Feyerabend), nichts gilt mehr, nicht
einmal mehr die Mathematik. Oder vielmehr: alles gilt. Wir
bewegen uns nur noch in unterschiedlichen Sprachspielen. Alle
»Metaerzählungen« (Lyotard) sind dahin. Eine übergreifende
Vernunft ist inexistent. Wissen ist wirtschaftlicher Rohstoff, keine galileische Einsicht mehr. Die einzige Aufgabe, die Intellek-
6
oeffnungszeiten 22/2008
tuellen bleibt, ist die kritische »Dekonstruktion« (Derrida) aller
Konstruktionen, unter Einschluss des eigenen Standpunktes.
Wenn es aber richtig ist, dass wir, wie »Der Spiegel« schrieb,
im Jahrhundert des Designs leben, wird es folgerichtig in
der Epoche der Postmoderne auch postmodernes Design
geben, ein Design, das anstelle der modernen Freiheit die
postmoderne Beliebigkeit preist. Design gestaltet Lebensformen – eine These, mit der ich seit fünfundzwanzig Jahren
eine Selbstverständlichkeit ausdrücke oder schlichtweg nicht
verstanden werde. Darum sage ich es hier noch drastischer:
Unser Leben wird, täglich ein Stück effektiver, radikal durchgestaltet, das Leben hat angefangen, nur noch aus Design zu
bestehen – gerade da, wo wir meinen, unser Leben fest in der
Hand zu halten, es selbst zu gestalten. »Vernünftig« zu leben
heißt jetzt, dem Leben Stromlinienform zu geben; alle anderen
Werte gelten inzwischen als antiquiert. Es sollte einfach nur
möglichst alles glatt gehen. Design ist unsichtbar, hatte einst
Lucius Burckhardt gemeint, wie der Eisberg, wir sehen nur
den kleinsten Teil. Ich würde es gerne so sagen: Postmodernes
Design ist im Wesentlichen unsichtbar, wir haben die Fähigkeit
verloren, Design überall da zu erkennen, wo wir ihm ausgeliefert sind. Postmodernes Design ist unsichtbares Design.
Alles Design dient dem Menschen, so habe ich es einmal
gelernt. Design, das ist die Moral der Gegenstände, das ist die
Moral der Umstände. Weil wir das glaubten, können wir das
postmoderne Design nicht mehr sehen. Das Design, das uns
bestimmt, das uns die Freiheit nimmt, indem es uns scheinbar
mehr davon verschafft als uns eigentlich lieb ist, ist postmoderne Wahlfreiheit. Das postmoderne Menschenbild ist das eines
Aktivisten, der beständig an seinem Daseins-Design herumbastelt, um es zu optimieren, indem wir immer das Rationellste
wählen – den Stromanbieter, den Provider, die Riesterrente, die
Krankenversicherung, die Schule für die Kinder. Und so weiter,
und so weiter. Wir richten unser Leben frei von Ideologien
nicht mehr nach Werten aus, sondern nach Optionen.
Indes: Wer wertfrei lebt, ist für Andere verwertbar geworden.
Unsere Optimierungssucht ist ausbeutbar. Wenn es einen
Moment lang »praktisch« erscheint, etwas mit dem Handy zu
erledigen, dauert es nicht lange, bis wir dafür bestraft werden, wenn wir es nicht tun. Wer keinen Führerschein, keine
E-Mail-Adresse und keine Payback-Karte sein eigen nennt, hat
sich von der menschlichen Gesellschaft beinahe ausgeschlossen. Hat sich selber zum Behinderten gemacht. Nur dass für
diese Behinderten kein Engagement existiert, nur Hohn.
Haben Sie schon mal versucht, mit der Telekom, die Ihnen
das Telefon eingerichtet hat, zu telefonieren? Eine Nummer,
ein »Ansprechpartner«, das ist längst vorbei. Der fluchende
Knöpfchendrücker wünscht sich ohnmächtig das Vermittlungsfräulein von annodazumal zurück; die aber ist jetzt bei
oeffnungszeiten 22/2008
Foto: R. Küster.
7
Hartz IV. Sie rennen zum nächsten T-Punkt-Laden, in dem
irrigen Glauben, dort mit der Telekom zu sprechen. Der junge
Mann, der da steht, gehört nicht zur Telekom, sondern zu
einer GmbH, die auf dem Franchising-Weg Sachen der Telekom
verkauft, aber höchst ungern Dienstleistungen übernimmt.
Wenn diese GmbH mit der Telekom telefonieren möchte, müssen die auch frustriert und ergebnislos Knöpfchen
drücken. Bei der Postbank, bei der ich meine Geldgeschäfte
optimiert habe, flüsterte mir ein Angestellter augenzwinkernd
zu, nachdem auch er nicht »durchgekommen« war, er werde
jetzt mit seinem privaten Handy das private Handy seines
»Ansprechpartners« anrufen. Die Telekom machte es möglich.
Manche glauben, »die Wirtschaft« sei schuld. Nein, wir Anhänger der Bequemlichkeit sind es letzten Endes. Ich habe noch die
Euphorie im Ohr, mit der eine naive Kollegenschar mir Skeptiker
die Bequemlichkeit der E-Mails pries, gegenüber der antiquierten »Schneckenpost«. Dieselben Leute klagen jetzt lauthals, wie
genervt sie seien – nicht, weil da eine Lawine von E-Mails auf sie
einstürzte, sondern weil inzwischen die soziale Erwartung etabliert ist, E-Mails müssten gefälligst beantwortet werden, und
zwar sofort. Wer keine Lust auf Kommunikation hat – nach D.
Riesman der »innengeleitete« Mensch –, erfährt Nachteile. Der
bekannte amerikanische Astrophysiker Alan Lightman hat einen
Artikel darüber geschrieben, warum er keine E-Mail-Adresse
mehr habe; seitdem er nur noch über seine »schneckenpostalische« Institutsadresse erreichbar ist, überlegten die Leute
wieder gründlicher, was sie gern mit ihm besprechen würden.
Postmodernes Design, so, wie man es heute verstehen muss,
ist unsichtbar, nichtsdestoweniger aber ein Angriff auf unsere
Lebensqualität. Gerade flatterte mir mit Schneckenpost
eine »Zuteilung der Identifikationsnummer nach § 139b der
Abgabenordnung (AO)« ins Haus. Die soll ich lebenslang
aufbewahren und griffbereit halten. Dient das meiner Bequemlichkeit? Im Gegenteil, ich bin dadurch ein Dienstleister
des Bundeszentralamtes für Steuern geworden, auch wenn ich
keine Steuern zahle. Alle Daten sind korrekt; Zeile 01 ist für Titel
reserviert; ich frage mich, was damit gemeint ist, denn etwa
meine akademischen Titel sind mit Fleiß weggelassen – da war
einer zu faul, sie einzutragen, hat schlecht recherchiert oder
hält sie für bedeutungslos. Mag hingehen. Das aber ist eben
unsichtbares Design: Für Titel eine Rubrik vorzusehen, Titel
aber nicht zu beachten. Das ist Hohn. Die Botschaft habe ich
verstanden. Wahrscheinlich könnte ich mich beschweren, aber
da müsste ich wohl in beglaubigter Abschrift meine Promotionsurkunde und Berufungsurkunde beibringen. Hohn.
8
Postmodernes Design ist unsichtbar. Weil die Leute die davon
ausgehenden Zwänge für naturgegeben halten. Die Postmoderne scheint alle Opfer summarisch zu enthalten, die der
Moderne zu erbringen sind. Einer indes ruft Einhalt: Der Sozialphilosoph Jürgen Habermas erklärt uns geduldig, das »Projekt
der Moderne« sei noch nicht vollendet. Die Anknüpfung des
postmodernen Denkens bei der ideologischen Krankheit des
modernen Totalitarismus sei vollauf berechtigt, daraus jedoch
den Schluss zu ziehen, modernes Denken sei auf der ganzen
Linie gescheitert, gehe fehl. Denn der Wert der Freiheit müsse
auch gegen die Postmoderne verteidigt werden, sie sei, was
die Freiheit betrifft, nur eine modisch aufgeputzte Gestalt
des Positivismus. Die krasseste Form des Positivismus erkennt
Nichtkontingenz nicht an; insbesondere sei die Mathematik (hier
zitiert man fälschlich Gödel) nur die allgemeinste Erfahrungswissenschaft. Das Merkwürdige ist freilich, dass die Postmodernisten einen Beweis anerkennen, den Beweis, die Mathematik sei
prinzipiell unvollständig. Ein Beweis aber ist Nichtkontingenz.
Wie auch immer: Das Projekt der Moderne ist nicht vollendet.
Es gilt, das Projekt noch einmal aufzunehmen. Am besten an
der Stelle, wo Gödel es durch sein Hinscheiden liegen lassen musste: Die Mathematik ist unvollständig; doch dieser
Beweis zeigt, dass menschliche Intelligenz nicht durch eine
(Rechen-) Maschine ersetzt werden kann. Wir müssen die
Intelligenz wieder in ihre Rechte gegenüber den Maschinen
einsetzen. Weil Intelligenz einsehen kann, dass notwendig 2
+ 2 = 4 gilt, ist sie, so Gödel, auch in einer deterministischen
Welt frei. Georg Friedrich Wilhelm Hegel hatte das so formuliert: »Freiheit ist die Einsicht in die Notwendigkeit«.
oeffnungszeiten 22/2008
Daran mitzuwirken, dem Menschen sein Menschenrecht auf
Freiheit zu erhalten, ist die große Aufgabe nachpostmodernen
Designs. Es beinhaltet die Aufgabe, so genannte Sachzwänge,
die aus der »Optimierung« scheinbarer Rationalität erwachsen,
zu beseitigen. Es beinhaltet die Aufgabe, Automaten bedienbar
zu machen – pardon, Automaten endlich dienstbar zu machen.
Damit auch Herr Mehdorn sich an seinen DB-Automaten
endlich eine Fahrkarte ziehen kann. Nicht nur Gedankenfreiheit, Sire, geben Sie Handlungsfreiheit! Dass in der Unzahl von
Wahlfreiheiten und Möglichkeiten, die wir angeblich haben,
aber nicht nutzen können, Unvernunft steckt, weil hinter dem
Design ein Menschenbild steht, das den Aktionär anbetet,
könnte die Einsicht sein, von der her das Projekt der Moderne
nach der Postmoderne wieder in den Blick zu nehmen ist.
Bibliografie Goldstein, Rebecca, Kurt Gödel.
Jahrhundertmathematiker
und großer Entdecker, München, Piper 2006 | Lyotard,
Jean-François, La Condition
postmoderne: rapport sur le
savoir, Editions de Minuit
1979 | Habermas, Jürgen,
Die Moderne – Ein unvollendetes Projekt. Philosophischpolitische Aufsätze, Leipzig
1990
oeffnungszeiten 22/2008
9
Un-Bilder
Im Ruecken
der Bildgesellschaft1
Felicidad Romero-Tejedor
Die Kamera in die Luft werfen. Und während
sie fällt, löst sie Bilder aus. Fotos von Martin
Klabisch, Johannes Jockisch und Daniel Rose,
entstanden im Workshop »Un-Bilder«.
Haben wir heute nicht häufig das Gefühl, schon alle Bilder
gesehen zu haben? Gleicht nicht ein Bild dem anderen?
Plagiieren nicht die Werbebilder der Fotoagenturen sich
selbst ununterbrochen? Wieso sind wir gegenüber Bildern
so stumpf geworden, dass uns nichts mehr nachdenklich macht? Wo gibt es noch neue Wege der Kreativität,
um Bilder zu finden, die uns etwas zu sagen haben?
Diese und andere Fragen stellten sich die Studierenden. Sie
mussten sich auf kreative Weise einen Weg bahnen, um zu
verstehen, wie wenig Bilder heute die Aufmerksamkeit des
Betrachters binden können, wenn man sie, wie in den Fotoagenturen, unter traditionellen Werbemaßstäben produziert.
Im Kurs wurden die Studierenden mit erfolgreichen Kunstfotografen konfrontiert, die das nie Gesehene suchen.
10
oeffnungszeiten 22/2008
auf die verschiedenste Weise vermittelt – durch Kamera und
Druckerpresse, durch Film und Fernsehen. Früher war ein Bild
ein seltenes Symbol, selten genug, um konzentrierte Aufmerksamkeit auf sich zu ziehen. Heute ist es die unmittelbare
Erfahrung, die selten ist; das Bild ist allgegenwärtig geworden.«2
Un-Bilder: Ein Thema mit Geschichte
Es ist lange her, dass man sich noch fragte, ob Fotografie eine Kunst sei. Umfragen von 1922, veranstaltet von
der Zeitschrift »MSS«, legten den Leuten in den Mund,
die Fotografie sei doch so bedeutungsvoll, dass sie eine
Kunst genannt werden könne. Niemand zweifelt heute mehr, dass Fotografie eine Kunstform sein kann.
In dem Augenblick, da die Fotokunst von jedermann und für
jedermann machbar wurde, trat ein unerwartetes Phänomen
in Erscheinung. Das Privatfoto drängte sich in den Vordergrund. Eine allgemeine Bilderfetischisierung bedrohte die
Wahrnehmung von Realität. In Zeiten der Bildüberflutung
erkennt Ezio Manzini in seinem Buch Artefatti (1990) geradezu
einen Bilderstau in unserem Kopf. Die Konsequenzen sind klar:
Bilderabwehr, bewusstes nicht Hingucken. Bilder sind ja doch
immer nur Varianten des schon Gesehenen. Es ist noch nicht
vergessen, dass die 1936 in den USA begründete Illustrierte Life,
die fast nur aus Fotografien bestand, 1972 »starb«. Sie konnte
mit dem Bildersturm aus anderen Medien nicht konkurrieren.
Lewis Mumford klagte andererseits in seinem Aufsatz »Eine
Welt aus zweiter Hand« schon 1952 über eine zunehmende
Bildersucht. Sie artet bisweilen in eine wahrhaftige »Ikonomanie« aus, wie Günther Anders sie 1956 nennt. Was nicht Bild
wurde, ist nicht Bestandteil der Realität. Die Welt wird nicht
mehr nach direktem Augenschein erkannt. Unser Zugang
zur Welt findet paradoxer Weise über die Bilder statt, die wir
eigentlich nicht mehr sehen wollen, sagte Vilém Flusser in Ins
Universum der technischen Bilder (1985). Wir werden das Gefühl
nicht los, dass Mumfords Klage in dem inzwischen vergangenen
halben Jahrhundert dramatisch an Berechtigung zugenommen hat: »Wir sind überwältigt von der üppigen Fruchtbarkeit der Maschine […]. Eine immer höher steigende Flut von
Bildern schwillt an zwischen uns selbst und der wirklichen
Erfahrung, der wirklichen Umwelt; diese Bilder werden uns
oeffnungszeiten 22/2008
Der französische Semiologe Roland Barthes schreibt in
»Schockfotos« (1957), dass die Bilder, die »[vom] Künstler
mit überdeutlichen Angaben versehen, […] für uns keinerlei
Geschichte mehr« haben.3 Diese Bilder, denen Roland Barthes
durchaus ein großes technisches Geschick zuerkennt, tragen
seiner Meinung nach ein Manko, sie sind allzu sehr konstruiert. Barthes stellt fest, diese so genannten professionellen
Fotos könnten nicht länger als eine minimal kurze Betrachtung fesseln, »sie hallen nicht nach, verwirren nicht, unsere
Empfindung schließt sich zu rasch über einem reinen Zeichen.
Die vollkommene Lesbarkeit der Szene, die Tatsache, dass es
in Form gebracht ist, dispensiert uns davon, das Bild in seiner
Ungewöhnlichkeit aufzunehmen. Die auf den reinen Zustand
einer Sprache reduzierte Fotografie desorganisiert uns nicht.«4
Barthes kritisiert gerade die Fotografien einer Ausstellung von
Schockfotos, die in der Galerie d’Orsay 1957 gezeigt wurden. Er
meint, dass es nicht ausreicht, wenn der Fotograf das Entsetzliche durch Fotos stilisieren möchte, um dem Besucher ein
angemessenes Empfinden zu vermitteln. Barthes wundert dies
nicht, da die Fotografien von Reportern gemacht wurden, die
für Bildagenturen arbeiteten. Sie komponierten das Foto wie ein
Gemälde und dabei tötet die kalte Ästhetisierung die Quintessenz der Fotografie: einen Moment von Realität festzuhalten.
Ich denke, dass Roland Barthes auf etwas hinaus will, was heute
durch die digitale Fotografie und den hohen technischen
Standard noch deutlicher geworden ist: die Sterilität der Bilder.
Bilder sehen heute alle gleichermaßen perfekt aus, sie wirken
nicht neu, sie wiederholen sich. Die zugehörige Technik ist
einfach geworden, jeder, der die Technik zur Hand hat, kann ein
Bild auslösen. So ist es nachvollziehbar, wenn Werbefotografen
nicht mehr traditionelle Werbefotografie machen möchten
und sich auf die Suche nach Aussagen begeben. Der ehemalige
Werbefotograf und heutige Kunstfotograf Günther Derleth
möchte seine Fotografie nicht mehr durch ausgefeilte Technisierung – und sogar Digitalisierung – leiden sehen. Er meint,
die Fotografie habe sich durch die technische Einfachheit in
eine stakkatoartige Bilderansammlung verwandelt. Er kehrte
zurück zum Ursprung der Fotografie und begann mit einer
»camera obscura« zu fotografieren. Damit wurde es bedeutend
schwieriger, ein gutes Bild zu machen. Derleth versuchte, die
Langsamkeit der ursprünglichen Fotografie wieder zu finden, die Unsicherheit der Ergebnisse. Die bleibende Spur des
»handwerklichen« Fotografierens brachte seinem Publikum
das, was seit langem nicht mehr in der Fotografie anzutreffen
war: eine visuelle Qualität, die durch einen Arbeitsprozess
entstand, der im Ergebnis seine Spuren hinterlässt – entfernt von der Makellosigkeit des Technikfortschritts.
11
Zufall, Bricolage, Plagiat:
die postmoderne Provokation
Wie die Berliner Kunst- und Sozialhistorikerin – und Fotografin – Gisèle Freund 1976 sagte, ist die »Objektivität des Bildes
[…] nur eine Illusion«5. Da Bilder je nach Kontext verschieden
interpretiert werden, entwickelt sich in der Gesellschaft ein
Misstrauen gegenüber der Fotografie. Die Fotografie enthält immer die »Spur der Realität« (Barthes), aber trotzdem oder sogar
deswegen kann sie als etwas erscheinen, was sie nicht ist. Freund
dachte an die wechselnden Interpretationen von Bildern je nach
politischer Propaganda (besonders in Zeiten von Diktaturen).
Fotografie sendet nie eine einzige Botschaft, sie ist polysemantisch. Der in Barcelona wirkende Semiologe Jordi Pericot zeigt in
seinem Buch Mostrar para decir. La imagen en contexto (2002),
wie Zeitungsbilder je nach politischem Kontext verstanden
werden und was sie bedeuten würden, wenn man sie ohne
Bekanntschaft mit dem Kontext anschaute. Roland Barthes
spricht in einer klassifikatorischen Differenzierung der semiotischen Kategorien über »Paradigmen«. »Paradigma« ist das
Verborgen-Ungesagte6. Umberto Eco vertritt einen ähnlichen
Gedanken in seinem Buch L’opera aperta (1962). Eco sieht, dass
ein Kunstwerk nicht beim Künstler vollendet wird, sondern
beim Betrachter durch dessen vielfältige Interpretation: Wer das
Kunstwerk betrachtet, führt es auf. Es kommt, wie man sagt, auf
den Blick des Betrachters an. Wenn der Fotograf (oder Künstler)
aber nicht bestimmen kann, was Andere sehen, erhalten Bilder
dadurch einen Aspekt des Zufälligen. Jedes Bild ist so beliebig
austauschbar, man muss es nur im richtigen Kontext sehen.
Die Werbefotografie versucht oft, mit visuellen Zitaten aus der
Kunstgeschichte überbordende Interpretationen zu verhindern. Der Kunstkritiker John Berger zeigt in Ways of Seeing
(1972), wie sich die Werbung unserer kulturellen Tradition des
Sehens bedient. Zitate aus der Bildgeschichte ziehen einen
höheren Grad an Aufmerksamkeit auf sich. Hierbei greifen
die Werbefotografen oft auf postmoderne Mischungen von
Bildern der Vergangenheit und aktuellen Kontexten zurück.
Die Postmoderne unterstützt die gegenwärtige Ästhetik einer gesuchten Regellosigkeit. Kritiker wie Frederic
Jameson und Jean Baudrillard sehen die Postmoderne als
einen schizophrenen Moment von Raum und Zeit.
Der Begriff »Postmoderne« wurde von dem englischen
Historiker Arnold Toynbee 1947 gebraucht, danach wanderte
der Begriff in die USA; und in den 1950er und 1960er Jahren
setzte sich die Vokabel als literaturkritischer Begriff durch.
Die Postmoderne gilt als eine Epoche, die der Philosoph Paul
Feyerabend 1980 mit seinem Schlagwort »anything goes«
charakterisiert hat7. Nach dem Philosophen Stefan Majetschak
konstatierte Adorno 1977, die Kunst des 20. Jahrhunderts
präge sich durch »formnegierende, anti-kompositorische
Maßnahmen verschiedener Art« aus. Die Kunst hat sich
»mehr und mehr von klassischen Konzepten der schönen,
12
zweckmäßigen und mit Lust erlebbaren ›ästhetischen Form‹«
gelöst. Der französische Philosoph der Postmoderne, Jean
François Lyotard, erklärte 1966, für die Kunst sei der Schönheitsbegriff nicht mehr relevant – sondern das »Erhabene«8.
Nach Norbert Schneider9 provoziert Ihab Hassan mit dem der
Postmoderne nahe stehenden Begriff des »Unmaking«10.
Der Kritiker Frederic Jameson sieht, dass durch die Postmoderne sich die Zitatcollage als allgegenwärtige Mode (besonders im Kino) etabliert hat. Er wertet das als Symptom einer
»schizophrenen« Konsumgesellschaft, einer Gesellschaft
der Dissoziation, in der die einst verbundenen Dinge wieder
aufgetrennt werden. Das Ausschneiden und Neu-Zusammenbringen reflektiert auch die Fotografie. Die Fotografieautorin
Marga Clark beschreibt in Photographische Eindrücke (1990)
plausibel, wie die Fotografie sich neu erfindet. Die Fotografie
der 1980er Jahre negiert die Originalität und Authentizität des
Kunstwerks. Marga Clark stellt fest, die wichtigste Botschaft der
damaligen Fotografie sei es, zu zeigen, dass das Original nicht
existiert. Damit ergibt sich eine Entmystifizierung des Autors
als Schöpfer originärer Bilder. Der Fotograf Richard Prince
»klaut« Werbung, indem er Werbeplakate fotografiert. Seine
Serie Cowboys ist berühmt dafür. Er wollte die Machowelt der
amerikanischen Gesellschaft und die Herrschaft des Menschen über das Tier – wie in der Werbefotografie von Marken
wie Marlboro zur Schau gestellt – kritisieren. Prince sah die
Fotokamera als elektronische Schere der Ausschnitte. Die Fotografie enthält daher nicht mehr die direkte Spur der Realität,
vielmehr wird die Realität vertreten von Realitätsdarstellung.
Un-Bilder: Der unzufaellige Zufall im Bild
Zufällige Bilder, die trotzdem eine neue Ästhetik vertreten, sind
weit entfernt von alltäglicher Knipserei. Der Kunstwissenschaftler Horst Bredekamp zeigt in seinem Buch Bilder bewegen. Von
der Kunstkammer zum Endspiel (2007), dass der Zufall sich zu
einem »fruchtbare[n] Augenblick« erheben kann. Aus einer
Menge für sich unprätentiöser Fotografien werden einige gute
Bilder heraussortiert. Bredekamp zeigt, wie der Zufall Bilder
in gesellschaftlich bedeutungsvolle Botschaften verwandeln
kann. Bredekamp bespricht ein Foto des Fotografen Thomas
Kienzle von 2005. Auf dem Foto erscheint Papst Benedikt,
der aus einem Flugzeug aussteigt. Ein Windstoß führt das
Birett des Papstes hinweg. Kienzle drückt den Auslöser in dem
Moment, wo das Birett in der Luft schwebt. Ein solches Bild
ist unwiederholbar; der Fotograf erhält einen Sonderpreis im
Wettbewerb »Rückblende 2005«. Bredekamp sagt: »Die Szene
wäre belanglos, wenn sie nicht die Erwartung düpiert hätte,
daß der Paps bedeckt zu sein habe.«11 In diesem Foto zeigt
zufällig die Ikonologie der päpstlichen Kleidung ihr besonderes
Gewicht. Die Geschichte der Kopfbedeckung wird in Erinnerung gerufen. Römische Sklaven erhielten bei ihrer Freilassung
eine diese symbolisierende Filzkappe. Der Untertan hatte vor
der sozial höher stehenden Person den Hut abzunehmen. Der
Wind nimmt in solchem Zusammenhang auf dem Papstfoto
oeffnungszeiten 22/2008
Links: Thomas
Kienzle, Papst
Benedikt vor dem
Weltjugendtag in
Köln, Fotografie,
18.8.2005. Bildzitat nach Horst
Bredekamp, Bilder
bewegen, S. 43
Unten: T. Lux Feininger, Der Sprung über
das Bauhaus, um
1928. Bildzitat nach
Bredekamp, Bilder
bewegen, S. 170.
Links-Oben: Weltmeisterschaft 1966,
England, Vorrunde,
Nordkorea–Italien
1:0, 19. Juli, Bildzitat nach Horst
Bredekamp, Bilder
bewegen, S. 178.
Links-Unten: Michelangelo, Jüngstes
Gericht (Ausschnitt),
Fresko, um 1538.
eine Bedeutung an. Ist er ohne Hut ein Untertan? Bredekamp knüpft im Weiteren an die übernatürliche Wirkung
des Windes in den Malereithemen der Kunstgeschichte an.
Einen anderen Fototyp, den Bredekamp heraushebt, bilden die
Fotos, die bei Fußballspielen entstehen. Wo etwa der Zufall der
Bewegungen eine klassische Komposition ergibt. Bredekamp
betont die Unkonstruiertheit dieser Bilder. Er zeigt ein Foto
von Lux Feininger um 1927 mit dem Titel Der Sprung über das
Bauhaus. Andere Bilder, die zum Beispiel 1966 während der
Weltmeisterschaft entstanden sind, werden von Bredekamp
mit Michelangelos Jüngstes Gericht von 1538 verglichen. »Die
Aufnahme hält eine Gruppe von Verteidigern und Stürmern
fest, die sich im Strafraum zu einer Pyramide aufgetürmt und in
die Höhe geschraubt haben. Bei der strengen Komposition, in
der sich die Protagonisten der Strafraumszene für den Bruchteil
einer Sekunde zusammenfügen, scheint ein Künstler Regie geführt zu haben.«12 Und später: »Zahlreiche Szenen des Fußballs
sind instinktiv in die Geschichte kodifizierter Erregungsformen
aufzunehmen. Im Fall der steigenden und fallenden Athleten
der Aufnahme von 1966 kommt eine der berühmtesten
Darstellungen von strudelnd im Raum emporstrebenden und
saugend herabgezogenen Menschen in den Sinn: Michelangelos
Gruppe der sich gegen ihren Absturz wehrenden Verdammten
des Jüngsten Gerichts in der Sixtinischen Kapelle.«13 Bredekamp
beweist, dass solche Assoziationen keineswegs abwegig sind.
Viele Komponenten stimmen gleichzeitig zusammen: die
Perspektive, die Bewegung der Spieler und der richtige Sekundenbruchteil des Knopfdrucks. Dass häufig für ein solches Foto
viele in der Serie davor und dahinter stehen, tut der Aura keinen
Abbruch. Das geschulte Auge des Fotografen wird vielleicht
nachträglich sogar nur einen Ausschnitt wählen. Wie John
Berger deutlich macht, ist überhaupt der Vergleich und die
oeffnungszeiten 22/2008
Anerkennung eines guten Bildes nur durch die lange Tradition des Bilderlesens in unserer Kultur möglich. Perspektive,
Konfiguration, Bildkomposition, sie sind in unserem Gehirn
gespeichert. Der Fotograf drückt den Knopf zufällig, nachher
verwandelt er den Zufall in die Bestimmung eines Bildes.
Un-Bilder: Den Zufall lenken
Einige bekannte Fotografen suchen konsequent den Zufall,
indem sie fotografische Prozesse entwickeln, um dem Zufall
Wirkung zu verschaffen. Es handelt sich nicht um den ahnungslosen Zufall, der mit den zufälligen Umständen zu tun
hat. Man denke an die »Reporter«-Fotos, die zufällige Zeugen
eines Geschehens mit ihrem Handy aufnehmen. Vielmehr
geht es um eine Suche nach neuer Ausdrucksform, welche
der Langeweile der technischen Perfektion und der sinnlosen
Überflutung immer gleicher Bilder entgegen steuern möchte.
IGi-Studierende befassten sich mit fotografischen Prozessen
einschlägig bekannter Fotografen. Da gab es etwa die Möglichkeit, »blinde« Bilder zu machen. Blinde Bilder machen, das
erscheint zuerst wie eine Paradoxie. Eine andere Möglichkeit
ist die Mechanisierung des fotografischen Aktes. Hier wird
gegen das Prinzip von Philippe Dubois in L’acte photographique bewusst verstoßen, das in der bewussten Entscheidung des Augenblicks der Auslösung bestehe. Ein weiterer
Prozess besteht darin, dass der Fotograf ignoriert, was ihm
13
vor die Kamera kommt. Er sucht versteckte Welten, die er nie
körperlich erkunden könnte, es sei denn mit der Kamera.
Blinde Bilder: Jeder kann »blind« fotografieren, ohne seinen
Verstand zu benutzen. Daher stammen die Abertausenden
von privaten Urlaubsfotos. Doch es gibt tatsächlich blinde
Menschen, die fotografieren. Was kann Blinde zur Fotografie
motivieren? Sie suchen dabei die ihnen eigene Realität zu
dokumentieren. Die Fotos sind für Sehende nicht immer sofort
nachvollziehbar. In der Tat kennt die Welt mehrere blinde
Fotografen, wie Paco Grande, bekannt durch seine Fotografien
von Andy Warhol. Vielleicht ist der komplexeste Fotograf der
Gegenwart Evgen Bavcar. Der international bekannte blinde
Kunstfotograf Bavcar wurde 1946 in Slowenien geboren. Er
liefert das Beispiel, wo die blinde Herbeiführung von Bildern eine einzigartige Magie schafft, eine Magie, die von der
»Perfektion« des technischen Sehens niemals erreicht werden
kann. Dass die Fotografie von Bavcar viel mehr sein wird als eine
bloß mechanische Produktion, lässt schon sein intellektueller
Hintergrund als studierter Historiker und Philosoph erahnen.
Kunstkritiker haben ihn nach Nièpce, Talbot und Daguerre den
»vierten Erfinder der Fotografie« genannt. Mit der Fotografie
möchte er etwas besitzen, was er nie sehen wird. Deswegen
sind die Beschreibungen seiner Werke für ihn ein Höhepunkt
seiner Arbeit – genau wie Picasso die Kunstkritiker gerne über
seine Werke sprechen hörte. Bavcar fotografiert nicht mit der
Hoffnung, doch einmal die Bilder sehen zu können, die er erlebt,
aber nicht gesehen hat. Er fotografiert seine Vorstellungen,
die Originale sind in seinem Kopf. Wenn er fotografiert, stellt
er die Kamera vor seinen Mund und häufig spricht er dabei
die Leute an. Mit den Händen misst er die Entfernungen.
Bavcar verschafft uns die Möglichkeit, die Wahrnehmung des
Blinden der Wahrnehmung des Sehenden näher zu rücken. Er
sagte: »Fotografie erlaubt mir, die etablierte Wahrnehmung
Sehender und Blinder zu verdrehen.« Er bringt die Welten
des Sichtbaren und des Unsichtbaren zusammen. Seine
Bilder, die sehr viel mit Berühren durch Licht zu tun haben,
kann man visuell ertasten. Wir sehen häufig Fotos, die in der
Dunkelheit entstanden sind, »hingeschrieben« mit einer
Taschenlampe. Wir erleben sie dadurch wie ein Negativbild.
Bavcars Fotos haben eine ganz eigene Bildsprache, sie gleichen
niemals jenen Fotos, die wir nur zu gut kennen. Sie gewinnen eine piktorische Qualität, manchmal erinnern sie uns an
chinesische Tusche-Malerei, ein andermal an Radierungen.
Die Fotos von Evgen Bavcar führen uns scheinbar in eine
frühere Zeit der Fotografie zurück. In seiner Blindheit kann
er die Bildkomposition nicht exakt vorhersehen. Dies provoziert einen Zufall, der aber in seinen Bildern auftritt wie
wenn die Fotografie selbst dächte. Denken wir an Daguerres
»Komposition« von 1837. Daguerre hatte wohl sehr gut
die Objekte gesehen, die er festhalten wollte, aber er hatte
seine Komposition in der Realität gemacht und nicht auf
der Bildebene. Denn er wusste nicht, wie seine Komposition
14
auf der Bildebene in der Kamera aussehen würde. Gerade
diese Ohnmacht in der Kontrolle bringt die Magie der alten
Bilder zustande, eine Magie, die von den heutigen »professionellen« Bildern nicht mehr kommuniziert werden kann.
Um eine vergangene Magie in die Bilder zurück zu bringen,
sollten die Kursteilnehmer »blind« fotografieren – indem
sie ihre Augen verbanden (natürlich wurden sie dabei von
einem Dokumentator begleitet, der gleichzeitig die Aufgabe
hatte, Unfälle zu verhüten). Es ergaben sich wie bei Bavcar
Bilder, die mit Licht »gezeichnet« waren, aber auch Bilder,
die man auf eine einzigartige Weise zu »hören« glaubte. Die
studentischen Fotografen reagierten auf akustische Reize; sie
fotografierten, wo geräuschvolle Leute oder andere ungewöhnliche Laute sie faszinierten. Andere Experimente bestanden
in der Konstruktion einer »mechanisierten Kamera«. Dabei
blieb die Kamera in dauernder Bewegung, um so bewusst die
Kontrolle über die Aufnahme aufzugeben. Mit Selbstauslöser
und Kamera in Bewegung konnte der Fotograf nicht mehr
bestimmen, was wann fotografiert wurde. (Der Hamburger
Fotograf Bernhard Blume und seine Studenten machten
Sofortbilder mit einer Kamera, die an einem Pendel befestigt
war.) Noch eine weitere Übung der IGi-Studierenden war,
versteckte Welten zu fotografieren, zu denen sie in alltäglicher Sicht visuell keinen Zugang hatten. Die Kamera, an
einem langen Besenstil befestigt, gewann Zugang zu Plätzen
und Perspektiven, die vorher ungesehen waren (Kanalisation,
Müll, uneinsehbare Baustellen, Dächer von Telefonzellen).
Werbefotografie heute:
den Zufall nachahmen
Werbefotografie ist auf der Suche nach dem Ungewohnten.
Fotografie, die nicht schon allen Fotografien ähnelt, ist schwer
zu realisieren, insbesondere in einer Gesellschaft, die alles vorgeplant, designed, haben möchte. Weil kaum neue Ideen zu haben
sind, wird das künstlerische Potenzial der postmodernen Kunstfotografie ausgebeutet. Wird die Werbung durch ihre Anleihe
bei »Un-Bildern« mit einer neuen Ausdrucksweise an den Tag
treten? Werden Un-Bilder, wenn wir uns an ihnen satt gesehen
haben, wiederum zur traditionellen Bilderform verkommen?
Was kommt danach? Zurück zur »modernen« Kunst? Wer weiß.
Die Situation scheint widersprüchlich zu sein, wie so manches
in der Werbebranche. Zufall ist eben Zufall. Sollte der Zufall
»berechnet« werden, verschwindet seine Subversivität. In
dem Buch von Sigrun Brox, Bilder sind Schüsse ins Gehirn
(2003), finden sich Beispiele einer inzwischen schon nicht
mehr so innovativen Tendenz, sichtbar an dem, was sich
1998 die Hamburger Werbeagentur Jung von Matt traute.
Bewusst »fehlerhafte«, provozierende Bildausschnitte, die
gegen jede Bildkompositionsregel anzurennen scheinen.
Models, die nicht dem geltenden Schönheitsideal entsprechen. Auch in der Fernsehwerbung erscheinen inzwischen
unzulängliche Amateurpräsentationen, die auf Sympathie
oeffnungszeiten 22/2008
aus sind. Ein Neustil, der sich einen Eintrag in die neuerdings
zahlreichen bildwissenschaftlichen Arbeiten verdient hätte.
Nach Sigrun Brox löst sich diese »[…] neue Art des fotografischen Bildes […] aus der bisher inszenierten Scheinwelt der
Werbung. [Die Fotos] sind nicht die banale Abbildung der
Realität, sondern deren Interpretation.«14 Das psychologische
Phänomen der »Irritation« in der Werbung versucht weiterhin, die knappe Ressource Aufmerksamkeit auszubeuten. Das
gelingt natürlich nie mit dauerhaftem Erfolg. Mit bewusst
gestalteten Un-Bildern versucht die Werbefotografie, gegen
das Gefühl »das Bild habe ich schon gesehen« zu steuern. Es
wird ihr nicht wirklich gelingen, denn der gestaltete »Zufall«
sieht doch am Ende eben gestaltet aus. Unsere Studenten
sollten lernen, worin der Unterschied zwischen bedeutungsvollem Zufall und Zufall als Maskerade besteht.
Anmerkungen 1. Thema des Wahlpflichtfach-Workshops »Formen der Kreativität« des Studiengangs Igi im WS 07/08. Die
Teilnehmer waren Studierende des dritten Semesters | 2. In »Eine Welt aus zweiter Hand«,
S. 103 | 3. Roland Barthes »Schockfotos.
1957«, S. 106 | 4. Ders., S. 107 | 5. Photografie
und Gesellschaft, S. 173 | 6. Siehe Norbert
Schneider, Geschichte der Ästhetik von der
Aufklärung bis zur Postmoderne, S. 252 | 7.
Erkenntnis für freie Menschen | 8. Siehe Stefan
Majetschak, Ästhetik zur Einführung, S. 95 |
9. Norbert Schneider, Geschichte der Ästhetik
von der Aufklärung bis zur Postmoderne, S.
258 | 10. Ders., S. 257 | 11. Horst Bredekamp,
Bilder bewegen, S. 44 | 12. Ders., S. 176 | 13.
Ders., S. 178 - 179 | 14. Sigrun Brox, Bilder
sind Schüsse ins Gehirn, S. 171.
Michael Gack,
Eric Schlottke,
David Engelhardt,
Olaf Röpcke, Jörn
Michaelis, Fotografien »Versteckte
Welten« (links) und
»Mechanisierte
Kamera« (unten).
oeffnungszeiten 22/2008
Bibliografie Anders, Günther, »Ikonomanie. 1956«, in: Wolfgang Kemp, Theorie
der Fotografie III, 1945 – 1980, München,
Schirmer / Mosel 1999, S. 108 - 113 | Barthes,
Roland, »Schockfotos. 1957«, in: Wolfgang
Kemp, Theorie der Fotografie III, 1945 – 1980,
München, Schirmer / Mosel 1999, S. 105
- 108 | Berger, John et al., Ways of Seeing,
Middlesex, Penguin Books 1972 – 1985
(17. Auflage) | Bredekamp, Horst, Bilder
bewegen. Von der Kunstkammer zum Endspiel,
Berlin, Klaus Wagenbach 2007 | Brox, Sigrun,
Bilder sind Schüsse ins Gehirn, Kiel, Ludwig
2003 | Flusser, Vilém, Ins Universum der
technischen Bilder, Göttingen, European
Photography 1985 | Dubois, Philippe, L’acte
photographique, Brüssel, Labor 1983 | Foster,
Hal, J. Habermas, J. Baudrillard, E. Said, F.
Jameson et al., The Anti-Aesthetic: Essays on
Postmodern Culture, Bay Press 1983 | Freund,
Gisèle, Photografie und Gesellschaft, Reinbek
bei Hamburg, 1989 | Jameson, Frederic,
»Postmodernismo y sociedad de consumo«,
in Foster, Hal, et al., La Postmodernidad,
Barcelona, Kairós 1985 (5. Auflage 2002)
[oV: Foster, Hal, J. Habermas, J. Baudrillard,
E. Said, F. Jameson et al., The Anti-Aesthetic:
Essays on Postmodern Culture, Bay Press
1983] | Kemp, Wolfgang und Hubertus
von Amelunxen, Theorie der Fotografie,
Band I-IV 1839 – 1995, München, Schirmer
/ Mosel 2006 | Majetschak, Stefan, Ästhetik
zur Einführung, Hamburg, Junius 2007 |
Manzini, Ezio, Artefatti. Verso una nuova
ecologia dell’ambiente artificiale, Milano,
Domus Academy 1990 | Mumford, Lewis,
»Eine Welt aus zweiter Hand«, in: Wolfgang
Kemp, Theorie der Fotografie III, 1945 – 1980,
München, Schirmer / Mosel 1999, S. 100 - 105
| Pericot, Jordi, Mostrar para decir. La imagen
en contexto, Barcelona, Universitat autònoma
de Barcelona 2002 | Schneider, Norbert,
Geschichte der Ästhetik von der Aufklärung
bis zur Postmoderne, Stuttgart, Reclam 2005,
4. Auflage
15
Diethard Janßen
Brauchen wir
Ueberhaupt
Design?
16
oeffnungszeiten 22/2008
ergänzen oder den Hersteller zu verklagen. Der Affe ist im
Gegensatz zum Menschen nicht in der Lage, im voraus visuell
zu erkennen, dass die eine Harke funktional eingeschränkt ist.
Deshalb ist er ja auch nur unser Vorfahre und evolutionsbiologisch gesehen, eine oder mehrere Grobstufen hinter uns.
Die letzte »Öffnungszeiten« ist meiner Erinnerung nach
die erste, in der ich keinen Artikel geschrieben habe und
auch nicht mit der Herstellung in irgendeiner Form beschäftigt war, also war ich neugierig und las sie. Ganz.
Was sagt uns das? Ein Mensch mit seiner überragenden Intelligenz wäre ohne Zweifel (na gut, fast ohne) in der Lage, mit
dem Stiel das abgetrennte Harkenteil an sich heranzuziehen,
die Harke zu reparieren, und dann die Banane ihrem Daseinszweck nahe zu bringen oder viel einfacher: Die vollständige
Harke gleich zu benutzen. Der Affe nicht. Die Schlussfolgerung
daraus lautet: Aus Harken mit eingeschränkter Funktionalität kann der Intelligenzquotient des Probanden ermittelt
werden und damit auch seine Position auf der Evolutionsleiter. Natürlich nur, wenn man voraussetzt, dass größere
Intelligenz ein Kennzeichen für eine höhere Position auf der
Leiter ist, aber das möchte ich hier einmal. Kommen wir jetzt
zum Design zurück. Es ist schon angeklungen, dass der Affe
bei falscher Wahl der Harke mit dem Design dieser Harke
nicht zufrieden sein kann. Das liegt aber nur an der Evolutionsstufe, auf der er sich befindet, und nicht an der Harke.
Mal abgesehen von der Gestaltung der Zeitschrift, die über
jeden Zweifel erhaben ist, und auch vom Farbdruck, den ich
mir immer wegen meiner Bilder gewünscht hatte, war ich doch
etwas verwundert darüber, dass soviel über Design geschrieben worden ist. Man hat fast den Eindruck, Design müsste
erklärt und verteidigt werden. Dabei weiß doch jeder, was
Design ist. Eine schöne Vase, einer netter Schlenk am Kotflügel
eines Autos, ein Stuhl, der dekorativ ist, eine Lampe, die adrett
aussieht, alles das ist Design. Da muss man sich doch nicht
so viele Gedanken machen und so viele Zeilen schreiben. Ein
paar Bilder würden genügen. Dann müsste ich auch nicht so
viel nachdenken beim Lesen. Wie war das noch einmal – die
Bedienung vereinfachen, so dass ich die innere Komplexität
nicht bemerke? Das ist doch bei der adretten Lampe der Fall.
Ich musste innerhalb der letzten Zeit zu meinem Leidwesen
erfahren, dass es tatsächlich noch Menschen gibt, die nicht
in der Lage sind, ein Heimnetzwerk mit den vom Provider
gelieferten Geräten aufzubauen, geschweige denn, einen
Internetzugang für die heimischen PCs herzustellen. Eigentlich sollte man meinen, diese Art von Zivilisationswissen sei
Allgemeingut, dem ist aber anscheinend nicht so. Also auch
innerhalb unserer Gesellschaft gibt es, zieht man das Beispiel
des Affen wieder heran, Mitglieder unserer Art, die nicht auf
gleicher Evolutionsstufe stehen wie der überwiegende Teil der
Bevölkerung und somit nicht erkennen können, welche Schritte
sie unternehmen müssen, um schließlich zur Banane bzw. zum
Internetzugang zu kommen. Genau an dieser Stelle ist zu erkennen, wie wichtig evolutionsbiologisch gesehen, Keindesign ist.
Parallel zu den »Öffnungszeiten« lese ich auch schon mal die
»Spektrum der Wissenschaft«, allein wegen der netten Sternenbilder und der schönen Zeichnungen. In einer der letzten
Ausgaben war ein Artikel über Affenintelligenz (Spektrum der
Wissenschaft 3/2008, Seite 50ff., »Wie rational sind Affen?«)
mit einer ansprechenden Zeichnung, auf der ein Affe in einem
Versuchslabor mit einer Versuchsperson abgebildet ist. Der
Affe hat vor sich zwei Harken, eine davon ist insofern funktional eingeschränkt, dass Harke und Stiel getrennt sind, die
andere dagegen vollständig funktionsfähig. Beide Werkzeuge
sind so angeordnet, dass er sie nur zu benutzen braucht, um
eine Banane zu sich hinzuziehen, an die er ohne Hilfsmittel
nicht herankommt. Wählt er die eine Harke, hat er Glück
und wird satt, wählt er die andere, wird er über das miese
Design der Harke fluchen und, wenn er ein schlauer Affe ist,
möglicherweise in Erwägung ziehen, die Harke funktional zu
Aber auch ich sehe meine Grenzen beim Erklimmen der Evolutionsleiter. Vor eineinhalb Jahren durfte ich einmal einen neuen
Opel Astra probefahren. Grundsätzlich unterschied sich das
Fahren nicht vom Vorgängermodell, nur mit dem Blinken haperte es bei mir. Nicht, dass ich nicht gerne blinke, aber egal wie
lange ich den Blinkhebel betätigte, der Blinker blinkte immer
mindestens dreimal. Wenn ich den Hebel in die andere Richtung
betätigte, hörte das Blinken auf der einen Seite auf, um auf der
anderen Seite wieder mindestens dreimal zu blinken. Während der ganzen Fahrt war ich hauptsächlich mit dem Blinken
beschäftigt. Ich habe mich dann schließlich für das alte Modell
entschieden, ich kenne meine Grenzen. Im letzten Urlaub allerdings hat mich diese Begebenheit wieder eingeholt, diesmal bei
einem VW Polo, auch ein neues Modell. Um den Urlaub trotzdem genießen zu können, habe ich weitgehend aufs Blinken verzichtet; auf der kleinen Insel war nicht soviel Verkehr. Diese Art
oeffnungszeiten 22/2008
17
von Blinker erfordert eine spezielle telemotorische Kraft, mit
der der Blinker ohne Betätigung durch Hände abgeschaltet wird.
Diese Kraft ist auf meiner Evolutionsstufe noch nicht vorhanden
und ich muss zugeben, dass ich auf meine Artgenossen etwas
neidisch bin, die über diese Kraft verfügen. Im Gegensatz zur
Situation des Versuchsaffen ist dieses Manko aber nicht kritisch,
ich verhungere nicht und fahre einfach mein altes Auto weiter.
Beispiele dieser Art gibt es viele, alle dienen dazu, uns auf
unserer Evolutionsleiter weiter nach oben zu befördern, oder,
wie man so schön sagt, die Spreu vom Weizen zu trennen.
Nehmen wir beispielsweise die Handy- oder Internettarife.
Ich werde es nie schaffen, den billigsten Tarif auszuwählen,
weil ich erst gar nicht kapiere, wie das funktioniert. Und wenn
ich tatsächlich einmal geschafft haben sollte, einen anderen
(nicht unbedingt billigeren!) auszuwählen, gibt es bestimmt
wieder einen Tarif der noch billiger ist. Ökonomisch betrachtet
schränkt dieser teure Tarif auf Grund des verbleibenden Rests
an Geldern mein anderes Agieren in der Wirtschaftswelt ein
und lässt so meinen Artgenossen, die die Billig-Tarif-Kenntnis
haben, mehr Freiraum in der Gestaltung ihrer Finanzen und
gibt ihnen somit mehr Macht. Eben typisch Evolution.
Die Zukunft wird für den Menschen nicht einfacher. Naturwissenschaftliche Erkenntnisse und technologischer Fortschritt
stellen eine große Herausforderung an den Menschen im Alltag
dar. Aber diese Herausforderung ist notwendig, um weiterhin
zu Erkenntnissen und Fortschritt zu gelangen. Mangelhaftes
Design oder Keindesign trainiert uns schon im Alltag für die
Aufgaben, die vor uns liegen. Nur wenn wir unseren Kindern
von klein auf nahebringen, wie kompliziert unsere Umwelt ist
(siehe Handy), können wir sie darauf vorbereiten, die zweiundvierzigste Dimension der Stringtheorie zu entdecken.
Passend zu diesem Artikel hat die »ZEIT« dem Thema Design
ein ganzes Heft gewidmet (Zeitmagazin Nr. 14, 24.3.2008).
Beeindruckend ist das Interview mit Philippe Starck, einem
Designer aus Frankreich. In diesem Interview wird deutlich, dass er Design für überflüssig hält (»Alles, was ich
gestaltet habe, ist absolut unnötig. Strukturell gesehen, ist
Design absolut nutzlos. Ein Beruf, der Sinn hat, ist Astronom, Biologe oder etwas Ähnliches. Design ist nichts.«).
Vielleicht ein bisschen hart ausgedrückt, schließlich gibt es
ja auch noch die adretten Lampen, die so nett aussehen.
Auch der Artikel über Dieter Rams, einem deutschen Designer, ist nicht erbaulicher (»Ich habe einen Traum«). Er
fordert in seinem Traum eine Verbesserung der Intelligenz (des
Menschen). Wenn dieses durch Ausbildung nicht möglich
sein sollte, dann eben mit Hilfe von Maschinen. Aber auch
dem heutigen Design steht er kritisch gegenüber (Zitat: »Bei
uns (Anm.: Braun) gab es damals die Devise, nur ein neues
Produkt zu lancieren, wenn es auch eine wirkliche Neuerung
in der Funktion gab. Wenn man sich heute anguckt, was so
18
auf den Markt gebracht wird, werden alle meine Träume in
dieser Hinsicht obsolet. Produktdesign dient oft nur noch
dazu, das Land mit Überflüssigem zu überschwemmen.«)
Aber ist nicht gerade dieses Überflüssige das, was uns trainiert,
mit Komplexität umzugehen? Wir brauchen das Überflüssige,
um zu trainieren, das Wesentliche herausfiltern zu können. Ist es
nicht so, dass Keindesign unsere Intelligenz langfristig steigert?
Na ja, ich jedenfalls tue mein Bestes, um mich evolutionsbiologisch gesehen in Topform zu bringen. Um dieses Pamphlet
zu schreiben, benutze ich nicht etwa ein Apple mit System 6
oder gar einen TOS-Rechner, das wäre, als ob ich ein Telefon mit
Wählscheibe anstelle eines Handys mit unlesbarer Tastaturbeschriftung und vier Kameras zum Telefonieren benutzen würde.
Nein, ich nehme die Herausforderung ernst und schreibe auf
einem Linux-Rechner, auf dem, wenn ich einen Buchstaben
schreibe, gleichzeitig Myriaden von Prozessen ablaufen, die
nichts mit dem Buchstaben zu tun haben, geschweige denn mit
mir. Man muss sich eben der Kompliziertheit des Lebens stellen.
Ich hoffe, liebe Leserin und lieber Leser (früher: lieber Leser),
Sie nehmen diesen Artikel als Ansporn, Ihre Einstellung zum
Design zu überdenken. Kaufen Sie sich Navigationsgeräte,
DVD-Recorder, Flachbildfernseher, Handys, MP3- und Videospieler, Computer und EBooks. Schließen Sie Versicherungen
ab, legen Sie Ihr Geld an. Machen Sie sich fit, so dass Sie Ihren
Kindern ein Vorbild sein können, damit diese wiederum fit
für ihre Zukunft sind. Benutzen Sie einfach Keindesign.
Nachtrag
Sie haben möglicherweise bemerkt, dass der Artikel bisher
überwiegend sarkastisch gemeint war. Aber jetzt wird es ernst.
Ich muss zugeben, dass ich bei der Darstellung bezüglich
des Aufbaus eines Heimnetzwerks etwas geflunkert habe.
Zwar habe ich unser Netzwerk zu Hause eingerichtet und es
funktioniert auch ganz gut, aber es gibt da eine Kleinigkeit.
Aus bestimmten, erziehungsmäßigen Gründen soll unser
Sohn eine bestimmte Website nicht erreichen können. Unser
Router (Speedport) bietet dafür eine sogenannte URL-Sperre,
die im Idealfall dafür sorgt, dass diese Adresse nicht erreichbar
ist. Leider tritt dieser Idealfall nicht im normalen Leben auf.
Die Adresse wird zwar gesperrt, aber nach wenigen Sekunden werden auch alle anderen Adressen gesperrt, der Router
hängt sich also auf. Schließlich haben wir, meine Frau und ich,
beschlossen, einen neuen Router zu kaufen. Er sollte nicht so
teuer sein, deshalb wurde es einer von Netgear. Ein anderer
Router wird natürlich auch völlig anders eingerichtet als unser
alter, es vergeht also über eine Stunde, bis man überhaupt in der
Lage ist, sich im Menü zu orientieren und die Basiseinstellungen
vorzunehmen. Dummerweise funktionierte nach einem Abend
Konfigurieren zwar die URL-Sperre, aber die WLAN Verschlüsselung nicht, zumindest nicht mit meinen Linux-Rechnern.
Auch ICQ und MSN waren nicht erreichbar. Na gut, dachte ich
oeffnungszeiten 22/2008
mir, dann muss es wohl doch ein etwas teurerer Router sein.
Gesagt, getan, am nächsten Tag ging es in die Stadt und es
wurde eine Fritz!box besorgt. Auch hier war wieder weit mehr
als eine Stunde nötig, um sich im Menü zurechtzufinden und
alles einzustellen. Doch siehe da, es funktionierte alles wie
beim alten Router, nur die URL-Sperre ließ sich nicht finden.
Mein Sohn frohlockte bereits mit der Bemerkung »Die Welt
wird immer professioneller, da kommst Du nicht mehr mit!«
und nur durch eine schnelle Reaktion seinerseits konnte er
sich einer Erziehungsmaßnahme entziehen. Nachforschungen
im Internet ergaben dann, dass dieses Gerät tatsächlich nicht
mit einer URL-Sperre ausgestattet ist, es wird also wieder
zurückgebracht. Das Leben ist wirklich kompliziert. Wie viele
Router sollen wir denn noch testen, bis wir einen finden, der
allen unseren Erfordernissen entspricht? Um diesen Prozess
abzukürzen, habe ich im Internet nach einer anderen Lösung
gesucht – und gefunden. Das Problem wird dezentral gelöst,
auf jedem Rechner wird die Adresse »www.sowieso.de« auf
localhost umgeleitet, so dass der Browser die richtige Seite
nicht findet. Wie das genau geht, schreibe ich hier nicht, es
könnte ja sein, dass mein Sohn diesen Artikel liest. (Nachtrag 2:
Diese Lösung ist leider auch keine richtige Lösung, weil durch
direkte Eingabe der IP das System ausgehebelt wird. Wir sind
inzwischen wieder beim Netgear-Router, der jetzt auch einigermaßen läuft, nachdem einige Untiefen umschifft worden sind.)
Mein naives Fazit (nicht sarkastisch gemeint): Ich fände es gut,
wenn der Umgang mit vielen Dingen des Lebens einfacher
wäre, wenn der Begriff Design nicht mit Styling verwechselt
und wenn ab und zu bei der Gestaltung von Handlungsabläufen nachgedacht werden würde. Die Lebenszeit ist einfach
zu kostbar, als dass man sich mit solch unwichtigen Dingen
beschäftigen sollte.
oeffnungszeiten 22/2008
19
Zweckrationalitaet als Design
Felicidad Romero-Tejedor
»Das Sichtbare mag man bestaunen oder genießen. Über das Unsichtbare muss nachgedacht werden.«1
Gert Selle
Im Winter 2006 unternahm ich eine Stippvisite nach Rom. Trotz
Reiseführer für stilvolle Restaurants, bekannte Trattorien mit
Mittelmeer-Atmosphäre und historischen Cafès war es für eine
Touristin, die sich nicht sehr weit von den Sehenswürdigkeiten
wegbewegen mochte, schwer, zurecht zu kommen. Ich ging
jeden Tag vorbei, verbot mir aber, einzutreten und probierte
stattdessen die nächstbeste Trattoria. Am letzten Tag suchte
ich zu Mittag ein im Reiseführer hoch gelobtes Restaurant auf.
Ich aß ein Primo, dann Kaninchen mit römischen Spinaci und
natürlich ein Dessert. Ich trank Rotwein, Wasser und Espresso.
Keine Frage: sehr wohl schmeckend. Wenn die Portionen auf
dem Teller nur solche gewesen wären: nämlich Portionen…
Am letzten Abend vor der Abreise tat ich’s dann. Nach dem
Einkauf von Modekrimskrams globalisierter Marken im
Konsumparadies Rom ging ich einfach rein. Ich nahm einen
Hamburger mit Pommes und Cola, vielleicht einen Salat?
Ja, gut. Bei McDonald’s. Dieses kulturelle Verbrechen nach
mehreren Tagen erlebter Hochkultur ist sicherlich unentschuldbar, aber vielleicht tolerierbar: Es war das unüberwindliche Bedürfnis entstanden, etwas vorhersehen zu können.
McDonald’s liefert, was du erwartest. Fooddesign, Design
überhaupt bringt in die Globalisierung sicherlich wenig
Individualität ein, andererseits scheinen designte Strukturen,
wie bei der genannten Company, einen gewissen Level der
Orientierung zu garantieren. Das mögen die Leute. Ich auch.
McDonald’s steht für ein weltweites Phänomen: die McDonaldisierung. Ein Begriff, den der amerikanische Soziologe George
Ritzer für die Beschreibung unserer Gesellschaft geprägt hat.
McDonaldisierung demonstriert die Konsequenzen eines
zweckrationalen Designs, das durch Expansion und Nachahmung in der Globalisierung nicht mehr wegzudenken ist.
20
oeffnungszeiten 22/2008
Bögen der Abtei von Cluny aus der Mitte des 12. Jahrhunderts
oder an die Kirche der Abtei von Maria Laach aus derselben
Zeit. Die goldene Farbe des Logos verleiht ihm den Glanz der
Aura und erinnert an die goldenen Majuskeln mittelalterlicher
Handschriften. Die Bögen von McDonald’s bringen uns einer
heilen, himmlischen Welt näher. Die Botschaft ist einfach: Hier
zu essen ist angesagt, nach dem Gottesdienst. McDonald’s
verwandelt das Essen in ein »happy meal«. Erwachsene essen
mit und gucken zu, wie ihre Kinder beim Essen fröhlich sind.
Sind wir Opfer von McDonaldisierung?
Als McDonald’s sein historisch erstes Restaurant abzureißen plante, trat eine bemerkenswerte soziale Reaktion in
Erscheinung. Hunderte Briefe protestierten: Man möge
das bitte nicht tun; McDonald’s sei ein fester Begriff in
der ganzen Welt. McDonald’s war gnädig: Das Restaurant
wurde zum ersten McDonald’s-Museum umgebaut.
Ray Kroc (1902 –1984) brachte als Musterbeispiel für McDonaldisierung das System des Franchising ein. Kroc konnte
nicht ahnen, dass dieses System viele Bereiche der Ökonomie verändern würde. George Ritzer erklärt in seinem
Buch Die McDonaldisierung der Gesellschaft (in vierter,
neu bearbeiteter Auflage 2006), dass das McDonald’sPrinzip einer der einflussreichsten wirtschaftlichen Fortschritte in der Entwicklung der heutigen Gesellschaft sei.
Vielleicht hätte McDonald’s nicht den großen Erfolg gehabt,
wenn Amerika den amerikanische Lifestyle nicht schon zuvor
exportiert hätte. Es war die Marke Coca-Cola, die von der
»Medizin« zum »Lifestyle of America« wurde. Es wird erzählt, dass der Name Coca-Cola aufgrund von Klangproben
gewählt wurde. Während des Zweiten Weltkriegs verbreitete
sich Coca-Cola mühelos: Amerikanische Soldaten machten
mit ihren Uniformen, Jeeps, Kaugummis und ihrer Musik
den amerikanischen Lebensstil nachahmenswert. Es war
natürlich nicht die Marke Coca-Cola allein, auch Marken wie
Marlboro vermittelten der Welt den Genuss der Freiheit.
Alle Welt schien sich vom amerikanischen Lebensstil verführen
zu lassen – und McDonald’s kam noch dazu. Die zwei Bögen
des Buchstabens »M« im Logo erinnern an die monumentale
Form von Sakralarchitektur, an die Gotik, zum Beispiel an die
oeffnungszeiten 22/2008
Das Design bei McDonald’s greift viel mehr auf als das Logodesign. McDonald’s ist Design. Es äußert sich als Kommunikationsund Grafikdesign, Mediendesign, Werbedesign, Fooddesign,
Marktdesign, soziales Design und sogar Handlungsdesign. Darüberhinaus nutzt McDonald’s Industriedesign für Verpackung
und Nebenprodukte, Interiordesign für Restaurants und Hotels.
Da herrscht ohne Zweifel Interdisziplinarität: Ökonomen,
Psychologen, Soziologen, Stylisten, Informatiker, ja Ingenieure
arbeiten am selben Mythos. In Illinois gibt es seit 1961 sogar
eine »Hamburger University«. Dort gibt es den Unterricht zur
Globalisierung der McDonaldisierung. Nichts darf dem Zufall
überlassen bleiben. Ein sehr großer Anteil der Restaurants befindet sich im Ausland. Japan hatte 2002 etwa 4000 McDonald’sRestaurants. Dafür muss McDonald’s manchmal kulturell
entgegenkommende Gesten zeigen, wie das Angebot Terayaki in
Japan oder kein Rindfleisch in Indien. Aber überall auf der Welt
ist McDonald’s schnell, lustig und wohlschmeckend. Schöne Familienmomente sind zu erleben. Der Service ist freundlich. Eine
mit globaler Bedeutung erfüllte Marke. McDonald’s-Garantie.
Das Konzept McDonald’s wurde vielfach kopiert. Hamburgermarken wie Burger King oder Wendy’s haben es übernommen.
Demselben Modell folgen Pizza Hut, Kentucky Fried Chicken
oder Subway. Das Prinzip findet sich auch in gehobenen Sektoren wie Outback Steakhouse oder Olive Garden. Sie alle folgen
»dem Buch« des jeweiligen Unternehmens. Im »Buch« werden
detailliert die Rezepte vorgeschrieben, die Form der Herstellung
und, höchst wichtig, das Aussehen. Das »Buch« sagt, wie das
Design der Speisen vom Einzelelement bis zur Synthese des
Ganzen befolgt werden muss. In der »Küche« herrscht äußerste
Rationalisierung: Bei Morton’s sollen 500 unterschiedliche
Gänge durch Farbfiguren differenziert werden, zur schnelleren
Klassifizierung und Handlungsorientierung bei der Produktion.
Unser Anspruch auf globale Esskultur auch zuhause erfüllt
sich inzwischen genau so. Um in den Supermärkten französische, italienische, türkische, japanische, russische oder
indische Produkte anzubieten, wurden Herstellungsprozesse
und Verkaufstrategien durchweg McDonaldisiert. Doch die
McDonaldisierung geht noch darüber hinaus: Toys R Us, H&M,
Zara, Body Shop oder Ikea operieren mit gleichen Methoden.
Die McDonaldisierung ist inzwischen in fast alle Strukturen der
Gesellschaft eingesickert, etwa in die öffentliche Verwaltung. In
den Hochschulen erleben wir täglich den Erfolg der McDonal-
21
disierung. Studierende werden als Kunden jetzt schneller und
effektiver bedient. Die Ausbildung wird mundgerecht in kleine
Happen zerteilt, auf dass die Portionen rascher aufgenommen
und in Form von Prüfungen (am liebsten multiple choice)
kontrolliert werden. Lieber einen Kurs in Flash besuchen als
sich Grundlagen von Technik und Gestaltung zu erarbeiten.
Die Ausbildung ist flach geworden. Suzanne S. Hudd2 spricht
sogar von einer McMoralisierung in den Schulen: Die amerikanische Schulausbildung sieht – wegen Gewalt und Werteverlust
– das Fach »Character Education« vor. Aber da auch hierbei
Rationalisierung den Ton angibt, so Hudd, können die Kinder
die Moral nur für die Prüfung pauken, nicht verinnerlichen.
McDonaldisierung bedeutet unter anderem Optimierung.
Aber von lauter Optimierung des Lebens vergessen wir zu
leben. Inzwischen ist bekannt, wie sehr das gerühmte »Zeitmanagement« in Wahrheit Zeitverlust bedeutet. Unser Alltag
wird in kleine Zeithäppchen höchst diverser Aktivitäten
zerhackt. Das Problem bleibt McDonaldisierten Unternehmen wie Ikea nicht verborgen. Der Werbespruch »Lebst Du
noch oder wohnst Du schon?« scheint von einer Ahnung
getragen zu sein. Das ist nämlich vordergründig Design:
Semantik in berechnet entworfene Strukturen zu füllen, um
den gesellschaftlichen Optimierungswahn zu überdecken.
In der Tat scheint sogar McDonald’s in letzter Zeit gewisse
Schwierigkeiten zu haben, so Ritzer. Abstoß einiger Gesellschaften. McDonald’s wurde Ziel von Attentaten. Ein
McDonald’s-Lokal brennt, aus Protest gegen die Politik der
USA. Vor den Restaurants wird demonstriert. McDonald’s ist
in Prozesse verwickelt, weil das Essen dick macht oder weil
ein Teil des Essens falsch als vegetarisch bezeichnet wurde.
Erste ökonomische Verluste. McDonald’s reagierte. Restaurants wurden in bestimmten Ländern geschlossen, geplante
Expansionen überdacht, Chefs gewechselt, Restaurants
umgebaut. Personal wurde abgebaut. McDonald’s versuchte
auch, die Zielgruppe zu erweitern, bis heute mit wenig Erfolg.
Aber deswegen kann man doch nicht sagen, die McDonaldisierung habe keinen Erfolg mehr. Im Gegenteil. Wir leben
McDonaldisierter als je zuvor. Wir räumen freiwillig der Rationalisierung unserer Lebensbereiche immer mehr Raum ein.
Der Soziopsychologe Kurt T. Lewin erforschte in den dreißiger
Jahren, wie die Lebensräume der Menschen sich wandeln, wenn
die menschlichen Beziehungen sich ändern. Wenn jemand heiratet, müssen die jeweiligen Lebensräume mit dem Partner neu
abgestimmt werden. Bekommt ein Paar ein Kind, werden alle
Lebensräume (Arbeit, Freizeit, Sport…) neu gestaltet. Heutzutage ist aber auch dieser Prozess optimiert. Partner oder Partnerin
nehmen sich abwechselnd einen Tag in der Woche frei. Einer
übernimmt Kinder und Hauspflichten, während der andere sich
den »freien Tag« gönnt. Das bedeutet Einbettung der McDonaldisierung im Privatbereich. Optimierungsdesign im Alltagsleben.
22
In einem Artikel »Vom König zum Knecht« (Die Zeit, Nr. 39
vom 21. September 2006) – der sich mit der McArbeit-These
von George Ritzer befasst – wird kritisch nachgezeichnet, was
McDonaldisierung der Gesellschaft bedeutet. Im Jahrhundert
der Amateure sehen wir jetzt Freizeit und Arbeit verschmelzen.
Ein zentraler Aspekt der McDonaldisierung beruht darauf, dass
Kunden in allen Belangen dem Unternehmen Dienstleistungen
erbringen. Bei McDonald’s räumt der Kunde seinen Tisch ab. Die
Marketingwelt nennt das »Consumer Education«. Ikea verkauft
halb fertige Ware, welche die Kunden in ihrer Freizeit zu Ende
bauen. Der Kunde ist stolz auf sein Produkt und spart Geld.
Denn die Dienstleistung erbringt er selbst. Hardware- und Software-Produkte kommen nicht fehlerfrei auf den Markt. Der Fehler meldende Kunde trägt ohne Entlohnung dazu bei, das Produkt reifer zu machen. Am Telefon leitet der Kunde sich selber
weiter (»wenn x, drücken Sie die 1…«). Am Bankautomaten erledigt der Kunde im wahrsten Sinne des Wortes Bankgeschäfte.
Ist dies alles noch zu stoppen? Auch wenn McDonald’s
einmal nicht mehr so allgegenwärtig wie heute sein wird…
Eines bleibt klar: Die McDonaldisierung der Gesellschaft lebt
auch ohne McDonald’s weiter. Wir entkommen ihr nicht.
McDonaldisierung:
angewandte Zweckrationalitaet
Ritzer geht mit anderen Autoren in McDonaldization: The
Reader der Frage nach, ob es eine unMcDonaldisierte Welt
überhaupt noch gibt? Ritzer untersucht den Sachverhalt
nach soziologischen Kriterien. Er beschreibt die McDonald’sWelt wie eine eigene Form von Soziologie. Es gibt Kunstsoziologie, Politiksoziologie, Mediensoziologie, Religionsoziologie… und eben so etwas wie »McDonald’s-Soziologie«.
Ritzer findet in ihr die Theorie der »Zweckrationalität« des
deutschen Soziologen Max Weber (1864 – 1920) wieder.
McDonald’s bildet Verwaltungsstrukturen gemäß der Weberschen Theorie der Bürokratie in der Konsumwelt ab.
Moderne Gesellschaften wandeln sich bürokratisch und
kontrolliert. Weber sah die Bürokratisierung als fundamentales
Strukturmerkmal der modernen gesellschaftlichen Ordnung.
Rationalisierung ist verbunden mit Analyse, Organisation,
Professionalisierung und Bürokratie. Die Rationalisierung
wurde zeitgleich von Ingenieuren wie Frederick Winslow
Taylor (1856 – 1915) in die Industrie eingeführt – persifliert
in Modern Times von Charles Chaplin oder in Metropolis von
Fritz Lang. Nach Weber wird die Welt durch Zweckrationalität zu einem effizienten, voraussagbaren, berechenbaren
Ablauf. Personen werden kontrolliert durch Technologien.
Jeder erlebt, wie Zweckrationalität in der öffentlichen Verwaltung wirkt. Ob wir den gelben Müllsack zum richtigen
Datum auf die Straße bringen, ob wir unsere Steuererklärung
anfertigen, ob wir unseren neuen Wohnsitz anmelden, ob wir
oeffnungszeiten 22/2008
heiraten wollen – stets handeln wir nach auferlegten Regeln.
Wenn wir sterben, hinterlassen wir einen veritablen Verwaltungsprozess. Alles das funktioniert ähnlich: Prozesse werden
in Komponenten zerlegt. Jedes Büro prozessiert ein bestimmtes
Modul; wir holen ein Formular irgendwo, zahlen eine Gebühr
irgendwo anders, an einem dritten Ort geben wir das ausgefüllte Formular mit dem Stempel der Gebührenzentrale ab.
Nicht die Verwaltung bewegt sich, sondern wir bewegen uns.
Zweckrationalität ist ein Medium; durch Regeln und Regulierungen bestimmt es die sozialen Strukturen. Die Menschen
können nicht mehr an diesem Medium vorbei ihre Zwecke
verwirklichen. Kein Zweck mehr ohne Zweckrationalität. Die
Leute müssen weitgehend selbst die geeigneten Mechanismen der Zweckrationalität herausfinden. Determinierend für
Zweckrationalität nach Weber ist, dass wenige, überschaubare
Möglichkeiten zu wählen sind, um Zwecke zu realisieren – auch
bei McDonald’s haben Mitarbeiter und Kunden konkret aufgeteilte Aufgaben zu erledigen. Niemand »kann« bei McDonald’s
ein individuelles Menü in neuer Kombination bestellen.
Weber sah, dass nur mit zweckrationalen Verfahren die Millionen jährlicher Steuererklärungen eines Landes bewältigt werden
können; er sah aber auch, dass eine Steuererklärung eben selbst
schon das Produkt von Zweckrationalität ist. Der Vorteil von
Ins System eintreten
Bürokratie nach Weber liegt stets in einer Qualifizierung durch
Quantifizierung. So wird ein Funktionieren unabhängig von
menschlichen Entscheidungen möglich. Verwaltung und Management werden vorhersehbar. Man weiß, was, wann und wie
etwas zu erwarten ist. Wenn wir die Steuererklärung abgeben,
wissen wir, wieviel Geld wir zahlen oder bekommen werden.
Bürokratie übt Kontrolle über Personen aus durch Verschiebung
des personalen Urteils hin zu einem Diktat von Regeln und
Strukturen. Max Weber war keineswegs naiv, was Zweckrationalität anging. Er hatte die Vorteile genauso im Blick wie die
Nachteile. Zweckrationalität kann in Irrationalität umschlagen,
wenn sie, wie Weber sagt, zum »stahlharten Gehäuse« wird.
Mitarbeiter und Kunden sind bei McDonald’s gleichermaßen
in ihren Aufgaben rationalisiert: Jeder hat bestimmte, erlernte
Aufgaben im gesamten Prozess zu erledigen. Jeder hat seine
vordeterminierte Rolle zu spielen. Ein Mitarbeiter darf den
für ihn designten Raum nicht verlassen, es gibt sogar Schulungen. An der »Hamburger University« werden die Leute
ausgebildet, die in den Filialen das Gelernte an die Mitarbeiter
weitergeben. Wie soll der Mitarbeiter grüßen, um freundlich
und glücklich zu wirken? Die Mitarbeiter haben ein script
zu lernen; es enthält die Regeln, was sie sagen sollen, wie sie
reagieren sollen. Höchste Priorität: nicht selbst denken, nicht
selbst entscheiden, und auf keinen Fall improvisieren. Glauben Sie das nicht? Besuchen Sie das nächste McDonald’s und
fragen Sie bei der Menübestellung den Angestellten etwas wie:
»Was können Sie mir heute empfehlen?« Sie werden komisch
angeguckt, fast wie ein Außerirdischer. Sie haben Ihre Aufgabe als Kunde nicht richtig erledigt. Bei McDonald’s muss wie
in der Bürokratie nicht jede Eventualität vorausgesehen und
determiniert werden, es gibt nur einen begrenzten Variationsspielraum. Ein funktional durchrationalisiertes Design wie
bei McDonald’s ist effektiv, aber nicht flexibel. Die Starrheit
des »stahlharten Gehäuses« bringt nur Vorteile, wenn der
involvierte Mensch sich immer an das »Vereinbarte« hält.
Angebotenes Menü auswählen
Zahlen
System verlassen
Essen
Aufräumen
Zweckrationalität
bei FastfoodKetten
oeffnungszeiten 22/2008
Weber sagte voraus, dass jede Operation von Bürokratie,
die designt worden ist, um hochrational zu wirken, in Irrationalität enden kann. Wir alle werden schließlich Opfer
der Irrationalität von Rationalität. Die Inhumanisierung der
öffentlichen Verwaltung kann jeden Tag in den Boulevardsendungen des Fernsehens besichtigt werden. Die Verfahren
verstricken sich in rationale Zwischenschritte, die im Ergebnis
dem gesunden Menschenverstand Hohn sprechen. Quantifizierung, der einstige Garant von Qualifizierung der Leistung,
landet häufig in der Ohnmacht scheinbarer Sachzwänge.
Ritzer erklärt, dass für Mitarbeiter bei Unternehmen wie
McDonald’s, Ikea, Schlecker, Lidl, Aldi… ihr Arbeitsplatz
ein inhumanisierender Ort ist. Das »Ich« der Mitarbeiter
wird zurückgenommen, ihre Emotionen werden annuliert.
Menschen sind geformte Normteile des Mechanismus.
23
Ins System eintreten
Zweckrationalität
in Kaufketten, wie
z.B. Ikea.
Alles sehen und auswählen
Selbst tragen
System verlassen
Selbst bauen
Zahlen
Selbst transportieren
Raum verlassen
Auf der Kundenseite ist es nicht viel anders, wenn sich das
Design auch über ihn hermacht. McDonald’s Kunden sind überbestimmt. Sie bilden den Teil des Prozesses, der die Ergebnisse
in der Kette abholt, bezahlt, isst und kurz danach weggeht. Es
werden etwa 20 Minuten pro Kunde an Verweildauer kalkuliert.
Die Marke Ikea verkauft sich über einen semantischen Inhalt:
die großartige Naturverbundenheit Schwedens. Wieder eine
heile Welt. Die Autoren Olivier Bailly, Denis Lambert und
Jean-Marc Caudron erinnern in ihrem Buch Ikea. Un modèle à
démonter daran, dass man als Kunde bei Ikea den Weg durch
die Verkaufsräume kaum verkürzen kann. Wer einmal die
Filiale betreten hat, muss sich alles angucken. Es gibt keine
Möglichkeit der Verkürzung, um schneller wieder ins Freie
zu gelangen. Damit ist der Konsument nicht mehr Eigentümer seiner Zeit. Ikea hemmt den freien Willen, nimmt die
Freiheit. Beschwert man sich darüber, wie es einmal vor etwa
fünfzehn Jahren naiver Weise die Autorin dieses Aufsatzes
versuchte, kommt vom Großkonzern ein Dank, das Versprechen, man werde sich mit dem Problem beschäftigen, und
ein Gutschein für das Ikea-Restaurant – natürlich irgendwo
zwischen Möbeln und Wohnungsaccessoires platziert. Das
rational-funktionalistische Design bei Ikea macht sich in allen
Einzelheiten bemerkbar. Der Kunde, scheinbar hofiert, ist, wie
alles am McDonaldisierungs-Prinzip, nur ein Mittel zum Zweck.
Die zunehmende Hilflosigkeit des »Kunden« in den zweckrationalisierten, verwaltungsförmigen Prozessen wurde
24
bereits von Weber beschrieben. Stadtverwaltung bedeutet
Interaktion mit der Bürokratie durch Formulare. Bürger
brauchen Stunden, um sich zurecht zu finden; wenn das
Erreichte nicht mit dem Erwarteten übereinstimmt, gibt
es wenig, und wiederum abschreckend formalisierte, Instanzen, die Einsprüche entgegen nehmen. Falsche Entscheidungen inhumanisierter Bürokratie können sogar kaum
noch auf dem jurististischen Klageweg – wieder formalisiert
– korrigiert werden. Ein scheinbarer »Naturzustand«.
Dieselbe Gestalt der Zweckrationalität schleicht sich auch
ins Alltagsdesign ein. Unsere Waschmaschinen sind längst
McDonaldisiert: Viele kleine Schritte in der richtigen Reihenfolge sind nötig, um ein »Waschprogramm« einzustellen.
Design erstellt »das Buch« zur formalisierten Kommunikation
mit der Maschine. Gibt es einen Fehler in der Beschreibung
– keineswegs selten –, hat man ein nutzloses Gerät vor sich.
Wiederum Folge des McDonaldisierungs-Prinzips: Du kriegst,
was du willst, wenn alles gut geht; wenn nicht, gib die Hoffnung
auf; »Fehlerbehebung« ist nicht vorgesehen. Es fehlt nicht an
formalisierter Gestaltung, sondern an Gestaltung der Lebensformen, die Holger van den Boom seit langem vorschlägt.3
Wieviel Zweckrationalitaet vertraegt der
Mensch?
Für Weber schlägt Zweckrationalität an der Stelle in Irrationalität um, wo sie zum »stahlharten« oder »ungeheuren
Gehäuse« wird, zur Zwangsanstalt, zum Gefängnis. Zweckrationalisierte Systeme nehmen den Menschen schließlich in Gefangenschaft, obwohl oder gerade weil sie ihn
scheinbar in seinen Zwecken zur Priorität erklären; vom
»König« wird der Kunde zum »Knecht«. Alles wird durchrationalisiert: Von rationalisierten Bildungsstrukturen über
rationalisierte Berufsstrukturen führt uns das Leben bruchlos in rationalisierte Freizeitstrukturen. Wir leben bequem,
doch wir kommen aus dem Gehäuse nicht mehr heraus.
Ritzer beleuchtet, wie wir im Zeitalter der McDonaldisierung »Freizeitaktivitäten« leben: Zum Beispiel die
organisierte Reise. Sie ermöglicht das kostengünstige
Sehen von mehr Sachen in weniger Zeit, vom Bus aus,
unterbrochen von kurzen Ausstiegen, um ein paar Fotos
zu machen… Alles ist wunderbar, perfekt organisiert,
wenn alles klappt. Wenn nicht, gelangt das McDonaldisierungsprinzip sehr rasch an seine irrationale Grenze.
Spanien, mein Geburtsland, übernimmt mit grundsätzlicher
Begeisterung alle Varianten von McDonaldisierung. Wir Spanier
stehen jeder neuen Technologie aufgeschlossen gegenüber. Wir
haben den modernsten Personalausweis Europas. Längst sind
da Daten kodiert, die deutsche Datenschützer um den Schlaf
bringen würden. Wir lieben die Vereinfachung – und vermehren
unbesorgt die Kontrolle. Die spanische Gesellschaft hat sich
inzwischen in eine wohlgetaktete Stressgesellschaft verwandelt.
oeffnungszeiten 22/2008
Die Leute sind den ganzen Tag in mußeloser Beschäftigung; alles
ist organisiert: Kindergarten, Job, Psychotherapeut. Das Bild von
der mediterranen Neigung zur Siesta existiert vor allem in den
Touristenkatalogen. Nur das moderne China scheint das Prinzip
der McDonaldisierung noch gründlicher zu übernehmen.
Dagegen hilft nur eine Form der Betäubung. Man geht zum
Psychotherapeuten. Auf die Frage, ob das helfe, antwortete mir
eine Bekannte mit verblüfftem Gesichtsausdruck: Das könne sie
nicht beantworten, aber sie möge die Therapeutin. Therapie ist
gut, negative Gedanken zu vermeiden. Kürzlich wurde die Flamencotherapie erfunden, McDonaldisierung auf dem Psychosektor. In Spanien hörte ich zum ersten Mal von »Fibromyalgie«.
Mir war peinlich, keine Ahnung zu haben. Jeder Spanier weiß
genau, was das ist, und kennt Leute, die darunter leiden. Eine
Krankheit, die von Kraftlosigkeit und Schmerzen zu Depression
und Phobien führt und sich auch in physischen Bewegungseinschränkungen zeigt. Ein Bestseller wie Plato, not Prozac!
des amerikanischen Philosophieprofessors Lou Marinoff ist ein
Zeichen dafür, dass die Gesellschaft massiv beginnt, die Zweckrationalität in so vielen Bereichen des Lebens (ökonomischen,
sozialen, familiären, beruflichen…) nicht mehr zu verkraften.
Die Gesellschaft fühlt sich krank und greift zu Heilmitteln, die,
statt die Ursachen des Problems an der Wurzel zu packen, die
eingetretenen Symptome verdecken sollen: Man nimmt Prozac,
um das Gefühl von Eingezwängtheit erträglich zu machen.
Alles Marke, oder was?
Ritzer meint, die soziale Anziehungskraft von McDonald’s
gehe vom intelligenten Design der Werbekampagnen und
Marketingstrategien aus. Sicherlich ist McDonald’s etwas
anderes als nur eine Company, McDonald’s ist pures Design.
Fooddesign und Geschmacksdesign: McDonald’s garantiert
einen konstruierten, immer wiederkehrenden Geschmack.
Aus den Untersuchungen des Ernährungs- und Haushaltswissenschaftlers Udo Pollmer wissen wir, dass Fooddesign über
den Weichheitsgrad und die optimale Wärme des idealen
Hamburgers entscheidet. Der ideale Hamburger soll zart wie
Babykost wirken, zum Weiteressen stimulieren, nicht gleich
beim Essen satt machen, aber wenig später doch das Gefühl
einer eingenommenen Mahlzeit vermitteln. Fettgehalt, Salzmenge, Soße und Duft müssen genauestens berechnet sein.
Verantwortlich sind hier die »Psychophysikalischen Designer«.
Egal ob Sofia, Rom, Barcelona oder Hamburg, die Verpackung
bei McDonald’s sieht überall gleich aus (wie ich festgestellt
habe). Die Speisen werden verpackt, die Mitarbeiter sind verpackt, die Räumlichkeiten sind verpackt. Das ganze Unternehmen präsentiert sich visuell zu hundert Prozent einstimmig. Das
Design hat absolut nichts dem Zufall überlassen. Die Botschaft
der Marke, »McDonald’s ist einfach gut!«, wird multimedial in
der TV-Werbung, Webpräsenz, auf Plakaten usw. mit variierten
oeffnungszeiten 22/2008
Szenen, Geschichten, Sprachspielen vermittelt. Ritzer stellt
fest, der Erfolg des Unternehmens liege in der Zuverlässigkeit,
genau das vorhersagen zu können, was man bekommt.
Die weltbekannte Antiglobalisierungs-Journalistin Naomi
Klein stellt in ihrem Bestseller, der in 25 Sprachen übersetzt wurde, No Logo, die Kraft der Marken dar. Klein sagt,
früher sei die Industrie in Amerika auf die Herstellung von
Produkten angewiesen gewesen. Je bessere Produkte, desto
bessere Verdienste. In den 1980er Jahren, mit der amerikanischen Rezession, änderte sich die Denkweise; die Ökonomie Amerikas hat sich verschoben. Unternehmen wie Nike,
Microsoft, Tommy Hilfiger oder Intel vertraten die Ansicht,
die Produktherstellung sei sekundär geworden in den Unternehmensoperationen. Die Produkte wurden jetzt über
Verträge, viele im Ausland, hergestellt. Was das Unternhemen
kommerzialisiert, ist das Image, die Marke – also reines Design.
Klein geht weiter: Ikea, McDonald’s, Burger King, Body Shop
und viele andere, die dem McDonaldisierungs-Prinzip folgen, begründen Oligopole: ihre Präsenz ist so stark, dass
die Konkurrenz häufig nicht überleben kann. Durch Oligopole verliert jede Gesellschaft ihre kulturellen Differenzierungen. Kulinarisch herrscht Einheitlichkeit. Jeder trägt
heute Levi’s 501. McDonaldisierte Companies versenden
Botschaften der freien Welt Amerikas, der heilen Familie
Schwedens, der ökologischen Körpepflege. Was sich häufig
hinter diesen Fassaden versteckt, ist eine harte Ausbeutung von Ressourcen und Mitarbeitern, so Naomi Klein.
Aber der Schein kehrt sich auch nach aussen. Sich zuhause
WLAN einzurichten ist durch die McDonaldisierten Telekommunikations-Strukturen nicht so einfach, wie die Werbung
verheißt. WLAN zu installieren ist komplexer als eine »happy meal«. Beide präsentieren sich für den Kunden aber auf
gleiche Weise. Als ich im Januar 2008 WLAN bei der deutschen
Telekom kaufte, hieß es aus dem Munde des Verkäufers, das
laufe von selbst. Zweckrationalisierte Marken sind indes nicht
so flexibel, wie sie sich gerne verkaufen. Zum Beispiel sieht die
Telekom keine Installationsmöglichkeit für Macintosh-User
vor. Der Markt sei zu klein, hört man. (Obwohl sie so stolz
den iPod verkauft.) Ich schaffte es nicht, WLAN auf meinem
Mac zu installieren; ich schaffte es auch nicht, bei der Telekom
jemanden für das Problem zu interessieren. Schliesslich kaufte
ich ein Service-Paket, das darin bestand, dass ein franchisierter
Beauftragter der Telekom erschien und mit den Worten eintrat,
»bei Apple kann ich nichts garantieren«. Nach zweieinhalb
Stunden und mehrfacher Versicherung, dafür werde er nicht bezahlt, hatte er es geschafft. Aufgrund persönlicher Kompetenz.
Schein zu verkaufen kann aber auf Dauer keinen Erfolg
bringen. Denn eine Sache ist klar: Wer Dienstleistungen
verkauft, muss sie auch zuwegebringen. McDonald’s
nachzuahmen sollte gerade diesen Punkt beachten.
25
Schon gut, und jetzt?
Es mag paradox klingen, aber ohne Design kommen wir nicht
gegen die Unflexibilität des Designs eines »stahlharten Gehäuses« weiter. Designfehler können nur mit Design beseitigt
werden. Heute erleben wir gleichzeitig die bequeme Seite wie
auch die irrationale Kehrseite zweckrationalisierten Designs.
Vielleicht hilft uns Tomás Maldonados Empfehlung von 2003
weiter, des internationalen Nestors der Designwissenschaft,
»dass die Entwerfer mit allen zur Verfügung stehenden
Mitteln den Horizont ihrer gesellschaftlichen und kulturellen
Verantwortung erweitern sollten; dass sie sich von den engen,
bisweilen erstickenden Grenzen einer aufs Professionelle
beschränkten Sichtweise befreien sollten; dass sie den Folgen
ihres Handelns für die konkrete Lebenswelt der Menschen
eine immer größere Aufmerksamkeit widmen sollten.«4 Ich
habe unlängst versucht, dieser Empfehlung in einem eigenen
Buch nachzugehen5. Es ist heute keine Frage mehr, dass Design
maßgeblich gesellschaftliche Strukturen mitbestimmt. Dafür
müssen wir alle Verantwortung übernehmen. Mag das nun
unserer McDonaldisierten Ausbildung gefallen oder nicht.
26
26
oeffnungszeiten 22/2008
Anmerkungen 1. Gert Selle, Design im
Alltag, S. 11 | 2. Suzanne S. Hudd, »Acerca de la McMoralidad. ¿Crear caracteres
irracionales?«, S. 143 | 3. Holger van den
Boom, Betrifft: Design, S. 64 – 68 | 4. Tomás
Maldonado, Digitale Welt und Gestaltung,
S. 374 | 5. Felicidad Romero Tejedor, Der
denkende Designer.
Bibliografie Bailly, Olivier, Denis Lambert und Jean-Marc
Caudron, IKEA. Un modelo desmontable, Madrid, Popular, col. Sociologías 2007 | Boom, Holger van den, Betrifft: Design. Unterwegs zur
Designwissenschaft in fünf Gedankengängen, Alfter, VDG 1994 | Heins,
Volker, Max Weber zur Einführung, Berlin, Junius 2004 (3. Auflage)
| Hudd, Suzanne S., »Acerca de la McMoralidad. ¿Crear caracteres
irracionales?«, in: George Ritzer, Hg., Los tentáculos de la McDonaldización, Madrid, Popular, col. Sociologías 2007 | Klein, Naomi, No
Logo, Toronto, Alfred A. Knopf 2000 | Helmut E. Lück, Kurt Lewin. Eine
Einführung in sein Werk, Weinheim, Beltz 2001 | Maldonado, Tomás,
Digitale Welt und Gestaltung. Ausgewählte Schriften herausgegeben
und übersetzt von Gui Bonsiepe, Basel, Birkhäuser 2007 | Marrow,
Alfred J., Kurt Lewin. Leben und Werk, Weinheim, Beltz 2002 | Posner,
Roland, »Kulinarische Semiotik. Syntax der Mahlzeit«, in: Zeitschrift
für Semiotik, Band 4, Heft 4, Wiesbaden, Akademische Verlagsgesellschaft Athenaion 1982. | Ritzer, George, Die McDonaldisierung der
Gesellschaft, Konstanz, UVK Verlagsgesellschaft 2006 (4., völlig neue
Auflage) | Ritzer, George, Hg., Los tentáculos de la McDonaldización,
Madrid, Popular, col. Sociologías 2007 | Romero-Tejedor, Felicidad,
Der denkende Designer. Von der Ästhetik zur Kognition. Ein Paradigmenwechsel, Hildesheim, Olms 2007 | Selle, Gert, Design im Alltag.
Vom Thonetstuhl zum Mikrochip, campus 2007 | Weber, Max, Soziologische Grundbegriffe, Tübingen, Mohr 1976 (3. Auflage).
oeffnungszeiten 22/2008
27
Informationsarchitekturen
des Kreativen
Design auf dem Weg zur
Gestaltungswissenschaft
1
Holger Ebert
Thesis: Design – verstanden als Disziplin, die in Lebensprozesse des Menschen
eingreift und diese veraendert, kann im
Verbund mit Arbeitswissenschaft, Informatik und Kunst – das Rueckgrat fuer eine
transdisziplinaere Gestaltungswissenschaft bilden.
Informationsarchitektur – lautet das Thema unserer heutigen
Zusammenkunft. Im Nachdenken, ob ich den Begriff der
»Informationsarchitektur« bereits mein geistig Eigen nenne,
hilft mir das angehängte Motto: »Information Raum geben«.
Architektur als Begriff wie Disziplin beinhaltet das Konzept
des Raumes als solchen und kristallisiert sich zuvörderst
im Raum, in dem es ihn zunächst einmal mit Gliederung
und Struktur versieht, funktionalisiert und semantisiert.
In menschlicher Perspektive entstehen daraus »Behausungen«.
Behausungen sind Haus = Unterbringung und Hausung
= Dynamik des Behaustseins. So gesehen reden wir über
Behausungen von Information, die Arten und Weisen ihrer
Unterbringung, die Bewegtheit ihres Daseins einschließlich ihrer
Sonderformen wie Verfestigung oder Verflüchtigung u.a.m.
Was meinen wir, wenn wir von Information sprechen? Der
Begriff der Information hat eine unüberschaubare Karriere
hinter und wohl auch noch vor sich. In der technischen Moderne überwiegend als Vermittlung technisch-physikalischer
Signale oder bloßer Daten aufgefasst, wurde sie im Zuge der
Digitalisierung immer mehr mit Universalcharakter versehen.
Soziotechnisch gesehen, stieg Information zu den Grundelementen der Weltvermittlung auf, ähnlich wie physikalisch
die Atome. Ursprünglich meint (lat.) informatio bilden bzw.
Bildung und damit jede Art von Vermittlung die zum Abbau eines Wissensdefizits führt. Oder umgekehrt: das, was
Wissen schafft. Hier sind Information und Wissen noch aufs
engste verknüpft. Das aber hat sich geändert. Im Universalcode des Binären schlüpft die Welt in das Einheitskleid
der Information und emanzipiert sich von ihrer Herkunft.
Meint: Wissen und Information driften auseinander.
28
Information ist, so sagt es der Philosoph Jürgen Mittelstraß, »nur eine besondere Form des Wissens […] nämlich die Art und Weise wie sich Wissen transportabel
macht«.2 Und »Information sagt was der Fall ist und wie
etwas der Fall ist, d.h. in welcher Form, z.B. auch in Gewißheits- oder Meinungsform ein Tatbestand oder Sachverhalt vorliegt. Sie ist in diesem Sinne nicht eigentlich eine
Wissensform, sondern eine Kommunikationsform«.3
Mit unserem Generalthema der Informationsarchitekturen
bewegt man sich also im Spannungsfeld von Bedingungen,
Struktur und Prozess von Kommunikationsformen zur
Bildung von Wissen einerseits und von Praxis andererseits.
Kernaspekt aller dieser Ausrichtungen – der Begriff »Behausung«4 sollte es andeuten – ist und bleibt die anthropologische
Gültigkeit – d.h. ihr Wert und ihr Nutzen für den Menschen.
So gesehen beinhaltet Informationsarchitektur neben ihrer
weitreichenden praxeologischen Komponente nicht minder
weit reichendes epistemisches Potenzial, d.h. Wissensbildungspotenzial.5 Das ist gut so, denn es führt m. E. über eine
Engführung des Begriffs auf informationstechnische Anwendungen (Web) oder bereichsspezifische Fragestellungen wie
sie im Feld der Untersuchung der Gebrauchstauglichkeit
(Usability) hochaktuell sind, hinaus. Überhaupt muss man
zum Usability-Hype kritisch anführen, dass er sich dem
schlichten aber beinahe skandalösen Umstand verdankt,
dass allen voran in Technik und Informatik der Mensch das
ähnlich unbekannte Wesen ist, wie er es in der Sexualität dieser
Gesellschaft bis weit in die 70er Jahre hinein war. So heißt
der Oswalt Kolle des Webzeitalters heute Jakob Nielsen6.
oeffnungszeiten 22/2008
Eine kurze Situationsbeschreibung: Digitale Technik bestimmt –
vielfach im Verborgenen – unser aller Lebensalltag: Die Zeitung
ist nicht mehr nur Papier, sondern per Internet ein immer
aktueller, dynamischer Informationsraum, der so gar nicht
– entgegen seinem papiernen Pendant – aufs stille Örtchen
passen will; das Auto, in dem wir sitzen, entpuppt sich als ein
uns assistierender, gelegentlich auch mal limitierender oder gar
kollabierender Fahrcomputer und hinter der angenehmen Stimme der Fahrplanauskunft verbirgt sich eine sprachmodulierte
Datenbank, die nicht wissen kann, was sie doch sagen kann.
Mit all den Errungenschaften unserer neuen Welt geht zugleich
ein gravierender Wandel unserer Gegenstandsbeziehung
einher. Während wir früher dem eher passiven und unendlich
geduldigen Objekt der Begierde gleichsam durch gekonntes
Handauflegen virtuos seine Funktionen entlockten, haben
wir es in der Digitaltechnik mit Funktionskomplexen beliebigen Ausmaßes zu tun. Die Hand allein vermag da wenig.
Will sagen: Das Ding macht sich für uns nicht einfach mehr
krumm, wie einstmals, vielmehr kommuniziert es erst einmal
mit uns. Aber, wer heute das babylonische Sprach-, Zeichenund Bedienwirrwarr der High-Tech-Produkte nicht beherrscht,
der wird beherrscht – vom absurden Kampf um die Tücke des
Objekts.
Weniger kämpferisch nennt sich das: Interaktion. Interaktion
ist eines der, vielleicht das Zauberwort des Informationszeitalters. Aber wie so vieles, ist es geklaut, denn es stammt
ursprünglich aus der Sphäre des menschlichen Miteinander.
»Soziale Interaktion« lautet die (lat.) Bezeichnung für solche
Vorgänge, die »von Mensch zu Mensch« ablaufen und i. Allg.
einer gleichberechtigten, wechselseitigen Verständigung dienen.
Damit geht soziale Interaktion über bloße Kommunikation
hinaus, da sie den Aspekt des gegenseitigen Handelns (lat. agere
– handeln) beinhaltet. Sie kann nur dort gelingen, wo zwischen
den Beteiligten ein gemeinsames Repertoire an normativen
Vorstellungen und kommunikativen Techniken vorhanden ist.
Menschen untereinander tun sich damit meist leicht.
Was wir menschliche Kommunikation nennen ist ein untrennbares Gesamt unserer Sinne, unseres Körpers, unserer Identität, unseres natürlichen In-der-Welt-Seins. Will
meinen: Menschliche Interaktion ist ebenso unvermeidlich wie einzigartig – und daher schlicht unersetzlich.
Wird zur Interaktion nun Technik gebraucht, schiebt sich
diese vermittelnd – gleichsam als Mediator – zwischen die
Kommunikationspartner. Dann muss zusammenkommen,
was nicht immer zusammen gehört. Die daraus resultierenden Kommunikationssituationen erweisen sich als höchst
unterschiedlich: Das Funkloch im Handy-Handling mag
eine beiläufige Unterbrechung sein, die Fehlkommunikation
entscheidender (Lande-) Parameter im Flugzeug-Handling
eine tödliche, wenn sie die Unterschiedschwellen menschoeffnungszeiten 22/2008
Ergon.design GmbH
für Siemens Medical
Solutions: Steueranlage für AngiographieGeräte.
Grafik: H. Ebert
licher Wahrnehmung nicht berücksichtigt (so geschehen in den 90er Jahren in Frankreich und anderswo).
Hier liegt des Pudels Kern. Zu jeder Technik gehören eben
mehr als nur die so hoch gepriesenen kognitiven Leistungen.
Von gleicher Relevanz sind die sinnlichen, handlungsbezogenen und sozialen Belange ihres Gebrauchs, respektive
ihrer Gebraucher. Dieses Junktim hat sich mit dem Einzug
der Informationstechnologien noch erheblich verschärft.
Da unser technisch gestütztes Handeln immer stärker
vermittelt – medial – abläuft, sind wir mehr denn je abhängig von den Qualitäten dieser Informationsvermittlung,
von der Effektivität (Genauigkeit und Vollständigkeit)
der Informationsverarbeitung, von der Effizienz der Entscheidungsfindung (Aufwand) und von der Evidenz seiner
(mentalen und leiblichen) Verinnerlichung. (Gemeint ist
das Maß der inneren Vertrautheit, die das Wahrgenommene und Verarbeitete zu erzeugen in der Lage ist.)
Das, was wir wahrnehmen über Anzeigen, Bildschirme oder
Schnittstellen, ist von nun an ungleich mehr als nur Information. Es ist Wahrnehmen im Sinne von »Für wahr nehmen«. Das, was uns vermittelt wird, bekommt zwangsläufig
Wahrheitsgehalt7, denn überprüfen können wir es im Fluss
seines Geschehens in der Regel nicht mehr. Zu den Fakten
unserer natürlichen Wahrnehmung kommen die künstlichen
Fakten, »Arte-Fakte« der Technikwahrnehmung. Zur Realität gesellt sich in zunehmendem Maße die Virtualität, zum
Wirklichen das Mögliche – und das will rangiert werden.
Gefordert sind darin das reflexive Urteil wie die emotionale Einfühlung – der rationale wie der ästhetische Mensch. Ohne diese
Rückkehr zum ganzen Menschen werden wir in medialen Umgebungen nicht mehr angemessen handeln können: Die Kids
vor der Spielkonsole, wir Normalos im Alltag oder die AirbusPiloten beim Stratossphären-Transport im gigantischen A380.
Die Rückkehr zum ganzen Menschen – das mag ein wenig
pathetisch klingen, meint aber ganz pragmatisch gesehen die
auf dieses Ziel ausgerichtete Zweckgemeinschaft etablierter
Berufssparten. Soll heißen: Das Design, die Informationswis-
29
Grafik: H. Ebert
senschaft und die Informatik sind die alten und noch mehr
die neuen Partner des Fortschritts! Zu ihnen gesellen sich die
Arbeitswissenschaft, respektive die Psychologie – insbesondere
die Handlungspsychologie und nicht zuletzt: die Kunst!
Diese Disziplinen möchte ich zu einer Gestaltungswissenschaft
vereint sehen, die in der Lage ist, die Eigenart des jeweiligen
Faches zu bewahren, in der Kumulation ihrer Qualitäten aber
zugleich eine transdiziplinäre Entwicklungskompetenz zu
erreichen.
Diese Gestaltungswissenschaft ist keine nomothetische Wissenschaft, die in wissenschaftstheoretischer Verabsolutierung
nach allgemeingültigen Gesetzen fahndet. Wenn ihr Erkenntnisgegenstand der fühlende, denkende und tätige Mensch ist,
kann sie nur eine Subjektwissenschaft sein, und das aus ganz naheliegenden Gründen: Subjektivität betrifft das »sich ins Leben
setzen« des Individuums, sein Wahrnehmen und Wirken aus
ureigenster Sicht. Und das ist niemals bis ins letzte ausbestimmoder vorhersehbar – was in vielen Wissenschaften – auch
z.B. den Ingenieurwissenschaften und der Informatik vielfach
ausgeblendet wird (auch das Design tut sich damit immer
noch schwer). Das bedeutet, dass Gestaltung, gleich welcher
Ausrichtung, neben faktischen immer auch verstehende Anteile
der Biographie und Lebensdispositon ihrer Klientel einzubeziehen hat. Denn Menschen definieren sich nunmal fortlaufend
durch Selbstdeutungen ihrer momentanen sowie Projektionen
ihrer erreichbaren Situationen. Und selbst wenn die Sicht auf
das Subjekt zur methodologischen Pflicht erklärt wird, bleibt zu
berücksichtigen, dass Subjektivität ganz wesentlich gesellschaftlich ist, das Individuum selbst aber einmalig. Seine Entfaltung benötigt daher unabdingbar Leerstellen, Offenheiten, Spielräume.
Für eine Wissenschaft der Gestaltung, wären nun vordringlich
zwei Fragen zu beantworten: Auf welchem Weg kommt die
Praxis zu »guter Gestaltung« und wie kommt die Gestaltungswissenschaft zu ihrem Wissen?8
Hier herrscht bereits Konfusion und Missverständnis. Im theoriearmen Design meint mancher, eine affirmative Gestaltungspraxis brächte ihn allemal ans Ziel (»Der Designer macht alles
feiner«). Den Ingenieurwissenschaften wie der Informatik fehlt
es häufig an einem angemessenen Menschmodell. Menschliches
Handeln – vom Erleben mal ganz abgesehen – wird in den
Entwicklungsprozessen für Hard- und Software immanent technozentriert – auf das technisch und wirtschaftlich Machbare
reduziert und einseitig auf Effektanz ausgerichtet. Auch die gegenwärtige Usability-Praxis folgt vielfach diesem verkürzten Ansatz – in ultrakurzen Testsitzungen, mit all zu wenig Probanden
grobe Nichtentsprechungen im Software-Anpassungsprozess
per Hoppla-Hopp-Verfahren raus zu bügeln. Solcherart Sichtund Verfahrensweisen mögen marktwirtschaftlich erfolgreich
sein – gleichwohl sind sie inhuman, weil menschliches Handeln
auf die Ebene maschineller Prozeduren herunter gestuft wird.
Nicht zuletzt muss sich die Ergonomie die Frage gefallen lassen,
wieweit sie einem rationalistischen Leitprinzip der Anpassung
und Effektivierung folgt, das allzu häufig einer korrektiven statt
einer notwendig konzeptiven Perspektive das Wort redet.
Das verkennt die Grundprinzipien eines unabdingbar in
vitale Kontexte eingebundenen menschlichen Daseins:9
• Menschen gehen ihre eigenen Entwicklungswege nach
selbstständig gesetzten Zielen – das gilt für ihre Lebens- und
Tätigkeitsplanung ebenso wie für die triviale Bedienung einer
Kaffeemaschine.
• Als körperliche Wesen sind sie unauflösbar und existenziell an
ihre vielfältigen Sinne gebunden, d.h. ohne Einfühlung gelingt
kein Umgang mit irgendetwas wirklich.
• Menschliches Denken, Fühlen und Handeln ist untrennbar
in soziale Zusammenhänge eingebunden, d.h. das soziale Netz
eines jeden prägt alles Tun und Sein ausnahmslos mit.
Daraus ist zu folgern, dass Gestaltungswissenschaft von
ihrer Intention her gegenstand- oder handlungssorientiert, und von ihrer Methode her reflexiv zu sein hätte.
Usability-Lab an der Georg-Simon-Ohm
Hochschule Nürnberg.
Grafik: H. Ebert.
30
oeffnungszeiten 22/2008
Bekannt ist das »normative Paradigma«, d.h. wissenschaftliches
Wissen wird als gültig und überlegen gesetzt, das notwendige
Vorgehen daraus abgeleitet, wobei die Durchsetzungsbedingungen und Folgen i. d. R. nicht mitreflektiert werden.
Im »diskursiven Paradigma« dagegen wird nicht von einem
überlegenen Expertenwissen ausgegangen. Hier begibt sich
der Wissenschaftler als »primus inter pares« in den Praxiszusammenhang, um »die partikularen Ziele und Kriterien
der Klienten zu ermitteln, eine gemeinsame Problemsicht
herzustellen und zu einer konsensuellen Zieldefinition zu
gelangen«.10 Jedoch werden in diesem prozeduralen Ansatz die
Verantwortlichkeiten in hohem Maße auf die Beteiligten aus
der Praxis verschoben. Die daraus resultierenden Folgen sind
z.B. aus der Partizipativen Softwareentwicklung bekannt: Die
beteiligten Anwender waren oft erst nach dem Projektablauf
in der Lage, ihre Anforderungen in technische Kriterien zu
übersetzen, Alternativen zu finden oder Gründe für Annahme
bzw. Ablehnung zu artikulieren. (Klassische Rechtfertigungsrhetorik: Zuerst unisono fragen: Wie willst du es haben – um
hinterher lakonisch festzustellen: ihr habt es ja so gewollt).
So verbleibt, aus zwei Wegen einen dritten zu machen. In
diesem werden aus dem vorhandenen Wissen im Beisein
der Betroffenen handhabbare Prozeduren abgeleitet, die
im Sinne experimenteller Anordnungen miteinander konkurrieren. Durch Schichtenmodelle kritischer Evaluation
werden dann step-by-step ebenso praxisrelevante wie konzeptuell nachvollziehbare Lösungen herausgefiltert und
zugleich auf ihre Ausgangsbedingungen hin reflektiert.
Eine gegenstandsorientierte Gestaltungswissenschaft speist
sich daher nicht in erster Linie aus klassischen Prinzipien der
Wissenschaftstraditionen. Sie fragt vielmehr, was notwendig
ist, um einen bestimmten Gegenstand oder eine bestimmte
Sache der sozialen Praxis zu verstehen. Und sie fragt, welche Disziplinen hierzu welchen Beitrag liefern können.
Damit sind wir bei meinem Modell transklassischer Gestaltungswissenschaft. Als Katalysator möchte ich darin das Design sehen.
Eine Gestaltungswissenschaft wäre m. E. in der Lage, die
performativen Daseinsformen des Menschen angemessen in
die informationstechnische Welt zu bringen. Menschliche
(Handlungs-) Abläufe sind wechselhaft, intensitätsschwankend,
beiläufig, situativ, spontan – auch regelhaft, niemals aber
iFly. Funknavigationstrainer für
die allgemeine
Luftfahrt.
Grafik: H. Ebert.
oeffnungszeiten 22/2008
entsprechen sie einer maschinellen Determiniertheit. Sie folgen
dem Kalkül ebenso wie der Intuition, der Rationalität ebenso
wie der Phantasie. Daraus folgt, informations-technische
Anwendungen müssen die performativen Dimensionen
der Menschen kennen und ihnen entsprechen können. Sie
müssen der Spontaneität wie der Gerichtetheit menschlichen
Verhaltens folgen und sich variablen Handlungsmustern
anpassen können. Dies ist die veritable Option zur
Entfaltung der menschlichen Handlungskompetenz.
Ein Beispiel: Während meiner Flugausbildung stellte ich fest,
dass es für einen wichtigen Teil der Ausbildung nur sehr
unzureichendes Material gab. Privatpiloten navigieren überwiegend terrestrisch, d.h. nach Regeln für den Sichtflug (Visual
Flight Rules – VFR). Als nächst höhere Stufe gibt es den sog.
Kontrollierten Sichtflug (Controlled Visual Flight Rules – CVFR)
bei dem man mithilfe von Funkanlagen am Boden navigiert.
Diese Funknavigation wird auch beim Durchflug durch Kontrollzonen an Verkehrsflughäfen oder beim Flug über Wolkendecken benötigt. Für die notwendige Vorbereitung am Boden
(Flugpraxis ist teuer) gab es nur eindimensionale Lernhilfen, die
das Flugzeug im Verhältnis zum Funkfeuer mit der entsprechenden Instrumentenanzeige im Cockpit darboten. Sie bieten zwar
praxisgerechte konstellative Veranschaulichungen, bleiben aber
zugleich ausschnitthaft und aus dem Gesamtgeschehen isoliert.
In einem Interaktionsdesign-Projekt im Hauptstudium haben
wir daraufhin »iFly« entwickelt, einen interaktiven Trainer für
die Funknavigation. Seine Konzeption folgt der realen Arbeitsaufgabe des Piloten: funknavigieren unter den zeitkritischen
Bedingungen der laufenden Flugzeugführung. Hinzu kommen
Kommunikation und Systembedienung. Diese Art Multitasking
kann nur gelingen, wenn der Pilot in der Lage ist, ein ständig
mitlaufendes räumliches Lagebild des Flugzeuges und seiner
Umgebung zu generieren. Er muss »In the loop sein«. Doch
damit nicht genug, er muss zudem diese komplexe Situationsanpassung immer ein Stück weit in die Zukunft projizieren – antizipieren. Ein Pilot, der mental dem Fluggeschehen
hinterher läuft oder auch nur auf gleicher Höhe ist, befindet
sich auf der Stufe höchster Gefährdung. In der Luftfahrt nennt
man diese Fähigkeit zur Wahrnehmung, Entscheidungsfindung
und Antizipation »Situation Awareness«. Auf diesem Konstrukt eines umfassenden Situationsbewußtseins sowie der
Reflexion auf die Spezifik der Zeit in der Fliegerei setzt unser
Navigationstrainer auf. Seit 2005 bieten wir ihn auf unserem
Webportal »isoftworks« Flugschülern und Interessierten an.
In der Gestaltungswissenschaft sind Formen immer zugleich Handlungsformen, sie sind weniger Information, denn
Performation.
Ein anderes Beispiel. Bei der Entwicklung des Infotainment des
Volkswagen Phaeton standen wir bei ergon.design vor der
Aufgabe, die Bedienung von Informations-, Unterhaltungs- und
31
ergon.design für
Volkswagen AG:
Infotainment VW
Phaeton.
Grafik: H. Ebert.
Assistenzsystemen neu auszulegen. Eine derartige Komplexion
von Funktionalitäten technisch in zwei Baugruppen verdichtet
(Kombi und Mittelkonsole), hatte es zuvor im Automobil nicht
gegeben. Es galt, die primäre Fahraufgabe unbeeinträchtigt zu
gewährleisten, diese in ein Situationsbewusstsein hoher Güte
einzubinden, um letztlich trotz »mehr Auto« eine höhere
Fahrzeugführungskompetenz zu ermöglichen. Es würde zu
weit führen, den umfangreichen Gestaltungsprozess hier zu
erläutern. Was wir entwickelt haben, lässt sich vielleicht so
zusammenfassen: anstelle singulärer Bedienformen haben wir
versucht Handlungsgestalten zu entwickeln, immer bedacht auf
den Dreiklang von prototypischem Vorstellungsbild (fokale
Instanz) des Benutzers, Repräsentation auf der Benutzungsebene und Transformation einschließlich Manipulation auf der
Umgebungsebene (Fahrzeug und Fahrzeugumgebung). Diese
Umgebungsebene ist beim Automobil in erster Linie eine permanent dynamische und nur nebensächlich eine statische. Alles
Gestalten betrifft darin weniger Produkte, denn Prozeduren.11
In Anlehnung an den Modernen Tanz könnte man auch
sagen, wir choreographieren die Tätigkeit des Benutzens.
Im Gang der Entwicklung hat sich nun gezeigt, dass eine hohe
Handlungsqualität weitgehend abhängig ist von Art und
Ausmaß der Subjektivierung der Tätigkeit durch den Fahrer.
D.h. subjektive Faktoren wie Gefühl, Empfinden und Erleben
sind gerade auch bei der technisch-funktionalen Bewältigung
von Handlungsanforderungen bedeutsam. Der wahre Könner
– ganz gleich welchen Metiers – bringt seine körperlich-sinnliche Wahrnehmung ungebrochen-fließend in seine kognitive Verarbeitungsleistung ein, stärkt damit sein subjektives
Empfinden »ganz in der Sache zu sein« und vermag über diese
enge Situationseingebundenheit anschaulich-assoziativ das auf
ihn Einströmende störungsfrei zu absorbieren, um letztlich mit
einer mühelosen Entsprechung des Verhaltens zu antworten.12
Entwürfe Screens Infotainment.
Grafik: H. Ebert.
32
oeffnungszeiten 22/2008
Es dürfte deutlich werden, dass ich das Handeln der Benutzer sehr viel enger mit dem Sinnlichen verknüpft sehen
möchte, und zwar mit dem initialen Potenzial des Sinnlichen, d.h. mit dem Ästhetischen. Das Ästhetische ist in
allen Disziplinen, ausgenommen die Kunst, die am meisten
verkannte, gleichwohl die unverzichtbare Größe. Gerade auch das Design, die selbsternannte Königsdisziplin für
menschangemessene Gegenständlichkeit, tut sich damit
schwer. Sie ist hochentwickelt, was die Vermittlung von
Produktqualitäten angeht, aber nicht selten stümperhaft,
was die Handlungsqualitäten von Produkten angeht. Das
Gros der mit Design befassten oder eine inhaltliche Ausrichtung dazu pflegenden Disziplinen versteht Objektästhetik
entweder als schmuckhafte Applikation, gleichsam als
Überstülpen eines nicht zum Gebrauchswert benötigten
»schönen Scheins« oder aber als produktdifferenzierendes
Instrument zur Absatzsteigerung und Markenbildung.
informatorischen Umgebungen, ganz besonders in zeitkritischen, jegliche von außen kommende Information in »Körperinformation« gewandelt werden muss. Auf der mentalen
Ebene muss das erwähnte Situationsbewusstsein hergestellt
werden; auf der körperlichen Ebene wird die rationale Einschätzung gleichsam als eine hochverdichtete, antizipierende
Form des Handlungentwurfs im Akt eines fortlaufenden
Gelingens unablässig sinnlich-gefühlsbezogen13 verifiziert.
Mit anderen Worten: Nur ein umfassend »gutes Gefühl«
im Sinne eines »Körperbewusstseins« lässt Könnerschaft
im Handeln und somit Handlungskompetenz entstehen.
Spätestens mit den Gegenständen der Moderne ist
das Ästhetische jedoch für alle anthropozentrisch
gerichteten Tätigkeiten ebenso substanziell wie
konstitutiv geworden. Dies gilt in besonderem Maße für
die Informationstechnologien. Sinnliche Wahrnehmung
und handlungsbezogene Informationsverarbeitung
verschmelzen zum Ästhetischen Denken.
Wir nennnen diesen Ansatz bei ergon.design die »Handlungsästhetische Methode« oder kurz: Handlungsästhetik.
Handlungsästhetik ist die sinnliche und performative
Komponente nutzerbezogener Gestaltung. Sie ist eine
systematische und normative Ästhetik, die im Prozess der
Fühlung, der Involvierung, der Situierung und der Entfaltung
von Situationen gegenständlichen Handelns ihren Platz findet.15
Handlungsästhetik begreift den Gegenstand sehr viel mehr
so, wie er für den Menschen Bedeutung erlangt, nämlich als
Ereignis.
Aus dieser Erkenntnis lässt sich die substanzielle Rolle des
Design im Informationszeitalter reformulieren: Design gestaltet
vermittels Entwurfsprozess Gegenstände und Systeme in Hardund Software, die für ihre Benutzer eine spezifisch auf ihre
sinnliche, kognitive und performative Ausstattung bezogene
Aneignung erlauben müssen. Die Auslegung dieser Objektsysteme fördert und fordert das Lernpotenzial der Adressaten
in unterschiedlichen Anspruchsstufen zur Entwicklung ihrer
Handlungskompetenz (bis hin zu einem artistischen Gegenstandsumgang). Über die Schaffung solcher Handlungskompetenz hinaus kann Design gleichsam der Türöffner einer
objektalen Ich-Identifikation werden. Damit sind alle Aspekte
gemeint, die ein gekonnter Gegenstandsumgang zur Persönlichkeitsbildung des Einzelnen beitragen kann. Kurz gesagt:
Design macht das »Ding an sich« zum »Ding durch uns«.
Das Ästhetische steht darin in einem unauflösbaren Verbund
mit dem Gebrauch, respektive den Vorstellungen zur Gebrauchbarkeit der Objekte, weil die sinnliche Evidenz einer
Sache oder eines Gegenstands genuin mit dessen Begreifbarkeit – physisch wie geistig – einhergeht. Wir wissen alle, eine
Sache nur rational zu verstehen, erlaubt allenfalls eine stümperhafte, hölzerne Umgangsform. Das lässt sich sowohl bei
überwiegend sensumotorischen Tätigkeiten wie z.B. Skifahren,
wie auch bei vornehmlich informatorischen Tätigkeiten, etwa
dem Führen eines computerbestückten High-Tech-Flugzeugs
gleichermaßen unter Beweis stellen. Hinzu kommt, dass in
oeffnungszeiten 22/2008
Fazit: Gutes Handeln ist gelebtes Handeln – Handlungskompetenz und Handlungskontrolle sind in jeglichem
Gegenstandsumgang, insbesondere aber bei SoftwareProdukten auf gleichermaßen rationales wie ästhetisches Wahrnehmungsvermögen angewiesen.14
Ein anders Beispiel: Interface- und Dialogentwicklung eines
Elektronischen Prüfsystems für vernetzte Fahrzeugelektronik
der Volkswagen AG. Ausgangspunkt sämtlicher Aktivitäten
war die Analyse der zielführenden Handlungssequenzen
im Verhältnis funktionaler Nutzen zu performativer Qualität. Parallel dazu ging es darum, die mentalen Modelle der
Anwender zu verstehen, um sie in wiedererkennbare, signifikante Zeichen, Darstellungen und Abläufe zu übersetzen.
Ein Vorteil bei der Gestaltung war, dass der Bedienablauf
grundsätzlich hierarchisch-sequenziell organisierbar war.
D.h. er besaß bereits eine gültige implizite Gliederung. Wir
konnten uns somit weitgehend auf die Choreographie der
ergon.design für
Volkswagen AG:
Elektronisches
Prüfsystem EPS201
(Neu-alt).
Grafik: H. Ebert.
33
einzelnen Bediensequenzen konzentrieren. Die Verkettung der
Einzelsequenzen zum durchgängigen Systemablauf benötigte vor allem Anpassungen. Die Entwürfe haben wir dann
mithilfe von Simulationen auf dem Zielgerät evaluiert.
Der gekonnte Gegenstandsumgang setzt also ein hohes Maß an
Einfühlung voraus und dieses ist unmittelbar an das Ästhetische
gebunden. Seine Relevanz für das »In-die-Welt-Setzen« des Individuums ist nicht hoch genug einzuschätzen. Mit Recht könnte
man vom eigentlichen Wissensmodus des Menschen sprechen.
Dann aber müsste man gleichsam rückwirkend anerkennen,
dass Design – im Sinne einer reflexiven Gestaltungswissenschaft – nicht unerheblich zur Episteme der Moderne beiträgt.
Erkenntnistheoretisch wie methodologisch liegen dahinter
die Großgebiete des Impliziten Wissens, der Intuition, der
Kreativität, der Heuristik, der Emergenz. Die noch junge, kaum
überschaubare Disziplin der Bildwissenschaft wird davon
gespeist, Visualisierungsforschung – eine Stärke professionellen Designs – bleibt nicht länger ein zerfaserter Begriff,
sondern wird zum Antrieb organisierter Wissensarbeit.
Ein Beispiel, das ein paar dieser Aspekte andeutet. In einem
Projekt für die Leica Microsystems GmbH in Mannheim ging
es um die Revision einer Software zur Steuerung von LaserKonfokal-Mikroskopen. Diese werden zur 3D-Analyse von
Präparaten etwa der biomedizinischen Forschung eingesetzt.
Der Nutzungsumfang der Software erstreckt sich von der
Routineanwendung im Labor bis zu Forschungsexperimenten
mit offenem Ausgang. Eine wesentliche Zielstellung bestand
in der Gewährleistung hoher Benutzbarkeit des komplexen
Funktionsangebots durch unterschiedlich qualifizierte Benutzer.
Dazu wurden sämtliche Funktionen des Systems in Hinblick auf
die gebräuchlichsten Anwendungsprozeduren neustrukturiert
und workflow-optimiert. Eine Schwierigkeit bestand in der
Anforderung, ein hoch beherrschbares System herzustellen,
das zugleich dem Entwurf experimenteller Konstellationen
keinerlei Einschränkungen auferlegt. Im Sprachgebrauch
der Musik: das Spiel von der perfekten Partitur bis zur freien
Improvisation übergangslos zu ermöglichen. Es galt also, hoch
strukturierte, systemgeführte Tätigkeitsabläufe zu entwickeln, versehen mit den »Slots«, den Startfenstern, wie wir in
der Fliegerei sagen, die heuristische Ausflüge ins Unbekannte
gewährleisten. Dass wir uns damit wieder im Bereich der
Subjektivierung von Tätigkeiten oder besser: der Handlungsästhetik bewegen, sollte vielleicht plausibel geworden sein.
tion, die Informationsarchitektur keine vom Produzenten
oder Rezipienten unabhängige Existenz besitzt, sondern vor
allem eins ist: Ereignis. Das bloße Verstreichen von Zeit etwa als
Bedingung von Wahrnehmung und vor allem als Bedingung
von Veränderung aller darin Involvierten zu begreifen und
nicht als Verhaltensdeterminante elektronischer Schaltkreise, wäre ein kleiner Schritt zu einer performativen Wende.
Schaut man z.B. nur einmal auf das Notfallmanagement von
software-gesteuerter Gerätetechnik, sollte deutlich werden, was
ich meine.
Wir haben bereits Mitte/Ende der 90er Jahre versucht, etwa
das Infotainment des VW Phaeton angelehnt an die szenischen Aufzüge der Guckkastenbühne des Theaters sehr viel
stärker verlaufs- und übergangsorientiert zu konzipieren.
Die mäßigen Performanceleistungen der damaligen Technik
haben das jedoch nicht zugelassen. Mittlerweile sind solcherart scenarische Erscheinungsweisen State of the Art.
Unmittelbar am Subjekt selbst befinden sich die Aufführungskünste. Sie haben theoretisch wie praktisch vermittelt,
dass Ästhetisches und Nichtästhetisches sich nicht äußerlich
gegenüberstehen, sondern prozessual aufeinander bezogen sind.
Die Interaktive Kunst etwa leistet in Hinblick auf unser heutiges
Thema eine veritable Forschungsarbeit. In ihr finden wir alle
denkbaren Formen evidenzgeleiteter Kommunikation und Interaktion in gleichermaßen realen wie virtuellen Umgebungen.
In Kooperation der Fakultät Design mit der Studienrichtung
Media Engineering experimentieren wir an der Georg-SimonOhm-Hochschule in Nürnberg seit knapp zehn Jahren in diesem
Feld.
Schon Marshall McLuhan, der Nestor medialen Denkens hatte
in den sechziger Jahren des letzten Jahrhunderts die Relevanz
der Künste beim Aufbruch in die Moderne klar benannt. »Der
ernsthafte Künstler ist der einzige Mensch, der der Technik
ungestraft begegnen kann, und zwar nur deswegen, weil er
als Fachmann die Veränderungen in der Sinneswahrnehmung
erkennt«.17
Informationsarchitekturen sind die Behausungen des
modernen Menschen. Um sich in ihnen einzurichten, braucht
es Architektur, um sich in ihnen wohl zu fühlen, braucht es
Atmosphäre. In der Gestaltungswissenschaft können wir sie
herstellen.
Last but not least: Im Ensemble der beteiligten Disziplinen feht
noch die Kunst. Aber genau genommen ist sie die ganze Zeit
bereits anwesend. So in Form der Kunstwissenschaft, die uns
bereits vor geraumer Zeit klar gemacht hat, dass die Dichotomie
von Mensch und Ding, von Person und Handlungsgegenstand
im Denken wie im Machen nicht länger aufrecht zu erhalten
ist16. Sie hat überzeugend dargelegt, dass das Ding, die Informa
34
oeffnungszeiten 22/2008
ergon.design für
Leica Microsystems:
Software für konfokale Mikroskopie.
Grafik: H. Ebert.
oeffnungszeiten 22/2008
Anmerkungen 1. Vortrag auf der IA
Konferenz »Informationsarchitektur –
Information Raum geben» an der Hochschule
der Medien in Stuttgart am 8. November 2007
| 2. Mittelstraß, J., Leonardo-Welt, Suhrkamp
1992, S. 226. | 3. Ders. a.a.O., S. 229 | 4. So
wird im Bereich des sog. »Knowledge Media
Design« von »Kognitiver Behausung« gesprochen. | 5. Das ist auch der Ansatz derzeitiger
Aktivitäten zur metadisziplinären Bündelung
im Bereich der Medien, wie sie etwa unter
dem erwähnten Stichwort »Knowledge Media
Design« betrieben werden. | 6. vgl. Dazu:
Volpert, W., Wider die Maschinenmodelle des
Handelns, Lengerich 1994 | 7. Vgl. Welsch,
Wolfgang, »Ästhetisches Denken«. In: Kunstforum International, Bd. 100, Köln 1989 | 8. Vgl.
Moldaschl, M.: »Zukunftsfähige Arbeitswissenschaft«, in: Ders. (Hg) »Neue Arbeit – Neue
Wissenschaft der Arbeit?« Asanger 2006, S.32.
| 9. Vgl. Volpert, W., »Gefahren der Informationstechnik und das Prinzip der Kontrastiven
Analyse«. In: ders., Humanwissenschaft der
Arbeit - ein Rückblick, Berlin 1994, S.36. | 10.
Moldaschl, M. a.a.O., S. 32. | 11. Zu unserer
Überraschung erwies sich dieses Design von
Verfahrensweisen in hohem Maße patentfähig.
Innerhalb von knapp sechs Jahren resultierten
rund vier Dutzend nationale wie internationale Patente aus diesen Arbeiten. | 12. Vgl. dazu
die zahlreichen, bahnbrechenden Arbeiten
zur psychologischen Handlungstheorie des
Schweizer Psychologen Ernst E. Boesch, bes.,
Das Magische und das Schöne. Zur Symbolik
von Objekten und Handlungen, FrommanHolzboog 1986. | 13. Zu verstehen als eine
Art »emotionaler Gesamtlagebericht«. |
14. Damit schließt sich auch ein Kreis zur
anfänglichen Bestimmung des Ästhetischen
als »Sinnliche Erkenntnis« durch Alexander
Baumgarten vor gut 250 Jahren. | 15. S. dazu:
Csikscentmihalyi, M., Das Flow-Erlebnis: Jenseits
von Angst und Langeweile, Stuttgart 1987 | 16.
Vgl. Fischer-Lichte, Erika, Ästhetik des Perfomativen, Frankfurt 2004, S. 19 ff. | 17. Marshall
McLuhan, Die magischen Kanäle, Basel: Verlag
der Kunst 2/1995, S. 38 f. (Originalausgabe
Understanding Media, McGraw Hill 1964).
35
Mechanik
und
Elektronik
fuer
Designer
36
Diethard Janßen
oeffnungszeiten 22/2008
Bild 1: Teile eines Handys. Elektronik…
Im Bachelor-Studiengang Industrial Design an der Hochschule für Bildende Künste Braunschweig ist in diesem Jahr
zum ersten Mal das Technik-Modul »Grundlagen Technik«
für das dritte Semester unterrichtet worden. Das Modul
besteht aus drei Fächern, nämlich Mechanik, Werkstoffkunde und Elektronik. Jedes der Fächer wird zwei Stunden in
der Woche unterrichtet und am Ende des Semesters erfolgt die Modulprüfung, die, entsprechend der Fächer, aus
drei Einzelprüfungen, in diesem Fall Klausuren, besteht.
Wird Industrial Design an einer Technischen Hochschule unterrichtet, stellt sich im Allgemeinen die Frage nach
dem Sinn eines solchen Moduls nicht, ein solches Modul
oder ein Modul in ähnlicher Form ist obsolet. An einer
Kunsthochschule allerdings gibt es zumindest innerhalb
der Hochschule Erklärungsbedarf für die Existenz eines
solchen Moduls. Nach landläufiger bzw. kunstläufiger
Ansicht widersprechen sich Kreativität und Technik.
Das ist natürlich mitnichten der Fall, ich denke sogar,
Kreativität kann im Industrial Design durch technisches
Verständnis gesteigert werden. Zumindest ist es manchmal von Vorteil, wenn die Ergebnisse kreativer Prozesse
unter technischen Gesichtspunkten betrachtet werden.
Bei den beiden Fächern Mechanik und Elektronik, die ich
unterrichte, ist es nicht ganz einfach, zu entscheiden, welche
Themen ausgewählt und mit welcher Intensität sie behandelt
werden sollen. Es gibt nach meiner Ansicht grundsätzlich zwei
Möglichkeiten, den Stoff zu vermitteln, wobei man aber nie aus
den Augen verlieren darf, dass es sich um ein technisches Modul
für Industrial Designer an einer Kunsthochschule handelt. Die
eine Methode besteht in der Behandlung mechanischer und
elektronischer Komponenten auf visueller und möglicherweise
haptischer Ebene. Nach meiner Einschätzung käme eine solche
Methode den Denkprozessen von Designern entgegen, könnten
sie doch so in ihren Denk- und Arbeitsstrukturen verhaftet
bleiben. Beispielsweise könnte man ein Handy mechanisch
zerlegen und die einzelnen Bauelemente (Platine, Taster, Schale
usw.) nach mechanischen und elektronischen Gesichtspunkten
visuell untersuchen. Die einzelnen Elemente würden dann in
ihrer Funktionsweise erklärt werden. Ein Nachteil dieser Methode wäre, dass es sich bei der Betrachtung der mechanischen
Komponenten nicht um ein Verständnis auf mechanischer,
sondern eher auf konstruktiver Ebene handelte. Genauso
würde die Beschreibung der elektronischen Funktionsblöcke
eine Metaebene darstellen, aber das grundlegende Verständnis
elektronischer Bauteile nicht vermitteln können. Es handelt sich
letztendlich um Faktenwissen und nicht um Verständnis. Diese
Art von Wissen kann auch über das Internet erlangt werden
(siehe: www. howstuffworks.com, Beispiel »Introduction to
Bild 2: … und Gehäuse. Foto (Bild 1 und 2): D. Janßen.
oeffnungszeiten 22/2008
37
Ein weiterer Nachteil dieser Methode soll nicht verschwiegen
werden. Aufgrund der Komplexität heutiger Geräte, besonders elektronischer Geräte, ist man kaum in der Lage, innerhalb eines entsprechenden Zeitrahmens die Funktionsweise
eines Gerätes zu beschreiben. In der Zeit, die während eines
Semesters zur Verfügung steht, könnte man sich also auf nur
wenige Geräte spezialisieren und hätte darüber hinaus noch
das Problem, sich diese Geräte zu beschaffen, um sie daraufhin zu zerlegen. Dieses Zerlegen ist oftmals ein irreversibler
Prozess mit der Folge, dass ein Funktionieren hinterher nicht
mehr gewährleistet ist. Und der Dozent müsste sich immer
um neue Produkte bemühen, denn es nützt bei dieser Art
der Wissensvermittlung nichts, zum Beispiel ein zwar schon
zerlegtes, aber bereits 15 Jahre altes mobiles Telefon zu erklären.
Bild 3: Träger auf zwei Lagern. Freischnitt.
Grafik: D. Janßen.
How Cell Phones Work« oder auch die Zeitschrift »Technology Review« aus dem Heise Verlag, in der in jeder Ausgabe ein
technisches Gerät zerlegt dargestellt ist). Von einem Designer
sollte verlangt werden können, sich dieses Wissen gegebenenfalls selbstständig anzueignen, wenn ein entsprechendes
Objekt gestaltet werden soll. Aus meiner Erfahrung mit unseren
Studierenden verfahren sie beim Gestaltungsprozess auch auf
diese Art und Weise, sollten sie nicht an die erforderlichen
Informationen gelangen können, bleibt ihnen immer noch
die Möglichkeit, sich diese Informationen durch persönlichen
Kontakt mit technisch ausgebildeten Personen zu besorgen.
Bild 4: Differenzial:
Abstraktes und
strukturiertes
Denken fällt den
meisten Desig­nern
schwer.
Foto: D. Janßen.
38
Aus diesen Überlegungen heraus habe ich in meinen Veranstaltungen den für Designer unbequemeren Weg gewählt.
Ich möchte sie mit abstrakten und logischen Denkvorgängen
konfrontieren, gewissermaßen als Gegensatz zum normalen Ablauf des Designstudiums, das mehr auf Emotionalität
und Intuition setzt. Dabei möchte ich die Arbeitsweise von
Designern nicht herabsetzen, aber nach meiner Ansicht
lernt man mehr, wenn man während der Ausbildung auch
Unbekanntem und Ungewöhnlichem ausgesetzt ist. (Kleine Anmerkung: das gilt natürlich nicht nur für Designer,
auch Ingenieuren und Naturwissenschaftlern täte Entsprechendes, also Emotionalität und Intuition, in ihrer Ausbildung gut. Meine Ausflüge in die Welt der Emotionalität im
Studium waren damals auf Scientific English beschränkt.)
Die beiden Fächer Mechanik und Elektronik haben eines
gemeinsam: sie erfordern Denken in abstrakten Strukturen, wobei die Elektronik um einiges abstrakter oder
auch unwirklicher ist als die Mechanik. In der Mechanik ist
es noch leicht, Prinzipien zu erklären. Zur Not kann man
zum Beispiel die Wirkung angreifender Kräfte auf einen
Träger mit Unterstützung seiner Hände erläutern (siehe
Bild 3), Stromverläufe in einem Widerstandsnetzwerk hingegen können nur auf abstrakter Ebene erklärt werden.
Abstraktes und strukturiertes Denken fällt den meisten Desig­
nern schwer. Bei mir hat es recht lange gedauert, bis ich diese
Tatsache begriffen und meinen Unterrichtsstoff angepasst
habe. Es ist schwierig, sich vorzustellen, wie ein anderer Mensch
denkt. Gerade wenn man eine technisch-naturwissenschaftlich
orientierte Ausbildung erfahren hat, ist es schwer vorstellbar,
dass einige Menschen zum einen nicht den Anspruch haben, Technik und Naturwissenschaft zu verstehen, und zum
anderen auch nicht die Fähigkeit besitzen, komplexe technische Vorgänge zu begreifen. Sie haben ihre Stärken eben auf
anderen Gebieten, die mir als technisch-naturwissenschaftlich
denkenden Menschen möglicherweise verschlossen bleiben.
Technik ist für Industrial Designer sekundär, aber trotzdem
wichtig, denn aller Gestaltung zum Trotz müssen sie sich
oeffnungszeiten 22/2008
während des Designprozesses mit diesem Metier auseinander
setzen. Etwas abgeschwächt, aber in Zukunft mehr, gilt dieses
auch für Kommunikationsdesigner, gerade, wenn sie sich mit
neueren Kommunikationsmedien auseinander zu setzen haben.
Bild 5: Eine Feder…
Technik im Design an einer Kunsthochschule ist also ein Kompromiss, der durch aufzuwendende Zeit, Fähigkeit und Notwendigkeit bestimmt ist. Aus diesem Grund habe ich meinen
Unterricht in beiden Fächern in zwei Ebenen unterteilt. Die eine
Ebene behandelt Technik und Naturwissenschaft im sozialen
Umfeld, konkret realisiert durch Referate, die Themen aus der
Zeitschrift »Technology Review« behandeln. Die Studierenden
können sich zu zweit am Anfang des Semesters ein Thema
aussuchen, das sie bearbeiten und vortragen. Anschließend
erfolgt eine kurze Diskussion. Durch diese Referate erfahren sie
den Stellenwert von Technik und Naturwissenschaft in dieser
Gesellschaft, welche zukünftigen Möglichkeiten technische
Entwicklungen für Designer bieten und wie sich solche Entwicklungen möglicherweise auf die Gesellschaft auswirken. Diese
Referate erweitern das Weltbild des einzelnen und können dazu
beitragen, dass technische Entwicklungen kritisch hinterfragt
werden (z.B. das soziale Internet, Energieversorgung durch
Brennstoffzellen, Verkehrskonzepte, Autotuning). Da, wo es notwendig scheint, sind sie später in ihrem Berufsleben vielleicht in
der Lage, negative, technikbedingte Auswirkungen durch den
Einfluss von positivem Design zu mildern oder sogar positive
Entwicklungen zu unterstützen. Gewiss, dieser Anspruch an die
Studierenden ist nicht gering, aber nach meiner Ansicht besteht
der Sinn des De­signs darin, unsere, meistens von Technikern
geschaffene künstliche Umgebung in ihrer Komplexität zu
vereinfachen und, was von sehr großer Bedeutung ist, angenehm zu gestalten. Und das möchte ich ihnen vermitteln.
Besonders wichtig ist in diesem Zusammenhang gerade für Designstudenten einer Kunsthochschule, dass sie
die Terminologie und die Denkweise der Ingenieure und
auch der Naturwissenschaftler in Ansätzen kennenlernen
und auf einer gewissen Ebene damit umgehen können.
Kommen wir nun zur anderen Seite der Veranstaltungen, nämlich dem technisch trockenen Teil. Das Mechanik-Seminar ist
so aufgebaut, dass zunächst mit der Kinematik, also der Lehre
von der Bewegung ohne Einfluss der Masse, begonnen wird. Die
Kinematik wird zum großen Teil in der Schule am Anfang der
Oberstufe oder sogar schon vorher behandelt und ist eine Möglichkeit, die Studierenden in ihrem Kenntnisstand so abzuholen,
dass nicht schon zu Beginn des Seminars Frustration auftritt.
Das gelingt natürlich nicht immer: einige wenige Studenten
sind unterfordert und andere (mehr) überfordert, obwohl es
sich eigentlich um eine Auffrischung des Schulstoffs handelt.
Die Beschäftigung mit zurückgelegten Wegstrecken, Geschwindigkeit und Beschleunigung und der Zusammenhang zwischen
diesen Größen ist vielleicht nicht das, was sich die Studierenden
an einer Kunsthochschule unter Industrial Design vorstellen.
oeffnungszeiten 22/2008
Bild 6: …und ihre
Längenänderung.
Foto (Bild 5) und
Grafik (Bild 6): D.
Janßen.
39
Bild 7: Schräger Wurf. Grafik: D. Janßen.
Bezogen auf die Mathematik, die für dieses Seminar benötigt
wird, habe ich mich bemüht, komplexe mathematische Konstrukte zu vermeiden und nur Schulmathematik zu verwenden,
wobei ich auch hier weitgehend auf Integrale und Differentiale
verzichtet habe. Einzig Ansätze der Vektorrechnung finden
Verwendung, allerdings ohne Skalar- und Vektorprodukte.
Auf die Kinematik folgt die Statik, also die Lehre von den
Kräften unter ruhenden Bedingungen, wobei hier die technischen Aspekte Vorrang vor den physikalischen haben.
Zunächst erfolgt eine Einführung in die Wirkung von Kräften,
dann in die verschiedenen Sätze, wie z.B. Überlagerungssatz,
Erweiterungssatz und Verschiebungssatz. Anschließend
wird das Gleichgewicht von Kräften und die Bestimmung
der resultierenden Kraft behandelt, wobei währenddessen
auf die unterschiedlichen Lager- und Trägertypen, an denen die Kräfte wirken, eingegangen wird. Notwendig dafür
ist auch die Kenntnis, wie Kräfte frei geschnitten werden.
Bild 8: Wechselspannungsverstärker.
Grafik: D. Janßen.
40
oeffnungszeiten 22/2008
Kräfte können Drehmomente erzeugen, der Umgang mit
diesen Momenten und deren Einfluss auf Träger werden im
Anschluss behandelt. Gegen Ende der Veranstaltung wird noch
auf Reibung und Federkraft eingegangen. Auf Dynamik habe
ich verzichtet, die mathematischen Voraussetzungen (Differentialgleichungen) sind bei den Studierenden nicht gegeben.
Vielleicht sollte parallel zu dieser Veranstaltung eine kleine Einführung in die höhere Mathematik erfolgen, so dass auch dieser
Themenbereich zumindest in Ansätzen berührt werden kann.
Die abschließende Prüfung, auch eine Premiere, war jedenfalls
trotz meiner Befürchtungen ein voller Erfolg. Die Studierenden
haben anscheinend meine Vorschläge zur Erarbeitung des
Themas befolgt.
Genau wie im Mechanik-Seminar habe ich versucht, auch die
Elektronik-Veranstaltung auf zwei Ebenen zu unterrichten, nämlich einmal durch Referate und zum anderen durch Vermittlung
von Grundlagen der Elektronik. Nach der Definition von Strom
und Spannung werden die Bauelemente Widerstand, Kondensator und Spule erklärt. Die Berechnung von Netzwerken mit
Spannungsteilern und Stromteilern berücksichtigt nur ohmsche
Bauelemente, ist also auf Gleichspannungen und Gleichströme
reduziert. Tiefpass und Hochpass werden in erster Ordnung
vorgestellt als auch erklärt und bei der Berechnung des Übertragungsverhaltens wird auf die Darstellung der imaginären
Anteile verzichtet. Nur zur Anschauung habe ich versucht, die
komplexen Zahlen vorzustellen und am Beispiel eines Tiefpasses erster Ordnung das komplexe Übertragungsverhalten,
also den Verlauf von Spannung und Phase in Abhängigkeit von
der Frequenz, zu verdeutlichen. Abgeschlossen wird das Seminar mit der Einführung und Erklärung von Halbleitern auf Siliziumbasis. Wie funktioniert eine Diode, wozu wird sie benötigt?
Für welche Anwendungen wird ein Transistor benötigt? Diese
Fragen werden beantwortet und mit Schaltungsbeispielen
erklärt, selbstverständlich ohne die Einführung eines Ersatzschaltbildes für diese Bauelemente, das würde zu weit führen.
Foto: D. Janßen.
oeffnungszeiten 22/2008
Somit haben die Studierenden einen kleinen Einblick in die Mechanik und in die Elektronik bekommen und können einfache
Kraftverhältnisse analysieren und berechnen. Auch die Bestimmung von Vorwiderständen für die bei Designern so beliebten
LEDs dürfte nun keine Probleme bereiten. Inwieweit noch tiefer
in die Materie einzudringen ist, wird sich im nächsten Jahrgang
zeigen.
41
Das Design der Primzahlen
Wulf Rehder
Leopold Kronecker,
1823 – 1891.
»Die ganzen Zahlen hat der liebe Gott gemacht«, so soll
der Mathematiker Leopold Kronecker gesagt haben, »alles übrige ist Menschenwerk.« Man ist versucht zu ergänzen, dass ein witziger Engel dem Herrn wohl einen Streich
gespielt und unter die göttlichen Zahlen eine Reihe von
Teufelchen gestreut hat: die Primzahlen. Scheinbar unregelmässig, tauchen sie plötzlich wie kleine rote Kobolde
auf, um sich dann wieder auf längere Zeit zu verstecken:
13
…
17
14 15 16
19
18
Primzahlen, auf
einer Spirale.
42
23
20 21 22
29
24 25 26 27 28
31
30
Sie sind vage Erinnerungen aus der Schulzeit, wie die verschiedenfarbigen Elemente des Periodenystems aus dem
Chemieunterricht. Die Assoziation ist richtig. Primzahlen
sind die unteilbaren Elemente unter den Zahlen, die Atome,
aus denen alle anderen ganzen Zahlen zusammengesetzt
sind. Etwas technischer ausgedrückt: Primzahlen haben
keine Teiler außer der Zahl 1 und sich selber, und jede andere natürliche Zahl lässt sich in einer ganz bestimmten und
eindeutigen Weise als Produkt von Primzahlen darstellen1.
37
32 33 34 35 36
38 39 …
Das ist eine erstaunliche Tatsache. Denn die Eindeutigkeit bedeutet, dass einerseits jede Zahl, zum Beispiel 42,
ihre Primfaktoren 2, 3 und 7 eindeutig bestimmt, und dass
andererseits jede Kombination von Primzahlen eine, und
nur eine, Zahl bestimmt: ihr Produkt. Eine solche Redeweise hört sich wie Haarspalterei an; aber sie erinnert an das
analoge Faktum aus Physik und Chemie, wonach die Natur
der Atome die Eigenschaften der Moleküle bestimmt.
Atome, so mag man einwenden, sind aber doch sehr regelmässig und aus den einfachsten Bestandteilen aufgebaut, aus
Protonen, Neutronen, und um den Kern herumschwirrenden
Elektronen. Angesichts dieses attraktiven Planetenmodells
sieht die Anordnung, die unerklärliche Abfolge der Primzahlen, geradezu chaotisch aus. Sollte man also, wie es die
Atomphysiker mit ihren Atomen getan haben, in denen sie
oeffnungszeiten 22/2008
Quarks und neue Gesetze gefunden haben, näher ins Innere
der Primzahlen eindringen, um aus dem offenbaren Chaos
ihrer Bestandteile eine neue Ordnung herauszulesen? Es hat
seit jeher Versuche gegeben, aus gewissen geometrischen
Anordnungen der Primzahlen (als Spirale, als Stern) ein allgemeines Muster herauszulesen, das ihre Verteilung durch ein
Gesetz oder sogar eine mathematische Formel beschreibt.
Aber eine solche klassische »Regelmäßigkeit« des Details
gibt es bei den Primzahlen nicht. Im Gegenteil: Gesetzartige Muster stellen sich erst ein, wenn man sich von den
Details zurückzieht und eine größere Kollektion von Primzahlen von weitem betrachtet. Eine solche Richtungswende
ist für Mathematiker ganz typisch. Wenn es nicht möglich
ist, die Problemnüsse direkt zu knacken, werden sie immer
versuchen, einen neuen Standort zu finden, von dem aus
das Rätsel in einem neuen Licht erscheint, oder wo bessere Werkzeuge und Methoden zur Verfügung stehen.
Das hat gegen Ende des 18. Jahrhunderts auch schon der
junge Carl-Friedrich Gauß gewusst. Statt Zahlen wie Perlen
an einer Kette aufzureihen und sich dann zu wundern, wie es
wohl weitergeht und wo die nächste Primzahlperle auftritt,
hat er den Standort geändert und sich gefragt: Wenn ich von
weitem einem Wanderer zuschaue, der auf der Zahlengeraden
Schritt für Schritt von Zahl zu Zahl marschiert, bis er bei einer
großen Zahl x=1000 oder x=10000 angelangt ist, auf wieviele
Primzahlen π(x) ist er dann auf seinem Wanderweg getreten?
Die Frage war ihm also nicht, aus welchen Ziffern die Primzahlen im einzelnen bestehen, etwa ob sie öfters mit der Ziffer
3 oder mit der Ziffer 7 enden2, sondern wie sie sich im Großen,
in einem globalen Design, zeigen. Was sah er? Er sah, was auch
wir in einem einfachen Experiment wahrnehmen können. Die
folgenden drei Abbildungen Abb. 1, Abb. 2, und Abb. 3 zeigen
die Ergebnisse unserer Versuche mit Listen von Primzahlen,
die auf mehreren Internetseiten zur Verfügung stehen. Wir
finden auf der x-Achse jeweils die Schritte des Gaussschen
Wanderers, während auf der y-Achse, oder auf der blauen
Kurve, jeweils die Anzahl π(x) von Primzahlen bis x abgetragen
ist, also wie oft der Wanderer auf seinem Weg bis 100 oder
1000 oder 10000 in Abb. 3 auf eine Primzahl getreten ist.
Wenn der Wanderer bei seiner ersten Wanderung in Abb. 1 genau aufpasst, dann merkt er, dass sich zwischen den Primzahlen
13 und 17 der Wert π(13)=6 bei den nächsten drei Schritten
nicht ändert3, denn 14, 15, und 16 sind keine Primzahlen.
Zwischen 13 und 17 gibt es also eine Lücke. Zwischen 89 und
97 gibt es eine noch längere Lücke. Dagegen sind die Lücken
zwischen 5 und 7, 17 und 19, und immer mal wieder bis 71 und
73 minimal, nämlich von der Länge 2. Diese letztgenannten
Primzahlpaare heißen aus naheliegenden Gründen Primzahlzwillinge. Wir werden ihnen später noch einmal begegnen.
oeffnungszeiten 22/2008
Oben: Carl Friedrich
Gauß, 1777 – 1855.
Links: Primzahlen, auf
10-zackigem Stern.
Abb. 1: Primzahlen π(x) bis x=100 (blaue Kurve) mit Approximation
x/ln(x) (rote Kurve).
Abb. 2: Primzahlen π(x) bis x=1000 (blaue Kurve) mit Approximation
x/ln(x) (rote Kurve).
Abb. 3: Primzahlen π(x) bis x=10000 (blaue Kurve) mit Approximation
x/ln(x) (rote Kurve).
43
Euklid, 365 – 300 v. Chr. (unten) | Leonard Euler, 1707 – 1783 | Bernhard Riemann, 1826 – 1866.
Gauß sieht von seinem erhöhten Standpunkt aber noch
mehr. In Abb. 2, die auf der x-Achse Zahlen bis 1000 auflistet, glättet sich die blaue Kurve, die die Werte π(x) enthält,
und in Abb. 3, für x bis 10000, wird die blaue Kurve noch
glatter. Der Betrachter vermutet also ein Muster, ein Gesetz,
ein Design, das dieser erhöhten »Glattheit« zugrunde liegt.
Design: das äußert sich mathematisch oft in einer Formel. Welche Formel beschreibt also die blauen Kurven?
Der junge Gauß vermutete, dass die Kurve π(x) so wächst
wie die Funktion4 F(x)=x/ln(x). Der Wanderer, Gauß, und
auch wir Leser sehen, dass diese Funktion F(x) unterhalb
der Funktion π(x) liegt, die die Primzahlen bis x zählt. »So
wachsen wie« heißt, dass der Quotient π(x)/F(x) gegen den
Grenzwert 1 strebt, wenn x immer größer wird: π(x) und
F(x) sind »asymptotisch gleich.« Das wird so ausgedrückt5:
π(x)~F(x).
Das war der Stand der Dinge vor zweihundert Jahren, am
Anfang des neunzehnten Jahrhunderts6. Wie sich in den
Jahrzehnten danach herausstellte, war es äußerst schwierig, diese asymptotische Gleichheit zu beweisen.
Was war denn eigentlich zu der Zeit bekannt und gesichert?
Erstaunlich viel. Schon Euklid wusste, dass es unendlich
viele Primzahlen gibt. Sein Beweis ist einfach, indirekt, und
trotzdem konstruktiv. Indirekt: Angenommen, es gäbe
nur endlich viele Primzahlen, 2, 3, 5, 7, 11, 13, 17, 19, … bis
zu einer letzten, die wir pn nennen wollen. Nimm sie alle,
bilde ihr Produkt, und füge 1 hinzu. Dann ist die Zahl
pn+1=2·3·5·7·11·13·17·19· … · pn+1 wieder eine Primzahl, die
natürlich größer ist als alle anderen zuvor. Die Prozedur ist
konstruktiv: Die neu konstruierte Zahl pn+1 ist prim, denn wenn
sie durch eine kleinere Primzahl geteilt wird, bleibt der Rest
1. Wir haben also einen Widerspruch zur Annahme. Es muss
somit unendlich viele Primzahlen geben. So einfach war das.
Wir haben natürlich längst vermutet, dass es unendlich viele
Primzahlen gibt, denn die blauen Kurven gehen alle aufwärts7.
Aber erst der Beweis macht aus der Vermutung eine Tatsache,
ein Theorem.
44
Um 1737, also mehrere Generationen vor Gauß, hatte Leonard
Euler einen sehr originellen Beweis für die Unendlichkeit der
Primzahlen gefunden. Er brauchte dazu keine blauen Kurven,
sondern nur, dass sich alle natürlichen Zahlen eindeutig als
Produkt von Primzahlen schreiben lassen. Daraus folgt nach ein
paar Schritten, die wir hier auslassen müssen, um die Geduld
des Lesers nicht zu sehr zu beanspruchen, dass die Summe der
Kehrwerte der Primzahlen divergiert, d.h., wenn man immer
längere Summen von Kehrwerten aus Primzahlen bildet
1/2 + 1/3 + 1/5 + 1/7 + 1/11 + …+ 1/p + …
dann wird diese Summe immer grösser, und der Grenzwert ist Unendlich oder, wie man es heute schreibt, =
∞.8 Dies kann aber nur wahr sein, wenn die Reihe nie abbricht. Es muss also unendlich viele Primzahlen geben.
Der Eulersche Beweis ist raffinierter als der von Euklid,
tieferliegend und daher interessant. Dem Beweis zugrunde liegt seine sogenannte Produktformel, die auf den
ersten Blick überraschend ist (der nicht so schwere Beweis nimmt dann die Überraschung wieder weg):
∑ n–s = π(1– p–s)–1, s>0.
Hier geht die Summe auf der linken Seite von 1 bis ∞, und
das Produkt auf der rechten Seite wird über alle Primzahlen
gebildet.9
Wer hätte das gedacht: links eine Summe, rechts ein Produkt, links natürliche Zahlen rechts Primzahlen. Gauß kannte
die Formel auch, und sie war natürlich den Generationen
von Mathematikern bekannt, die sich um den Beweis von
π(x)~F(x) bemühten – ohne Erfolg. Dann, um 1859, betritt
Bernhard Riemann die Bühne. Sein kurzer Artikel aus dieser
Zeit beginnt mit einer kühnen Verallgemeinerung. Mit ihm
beginnt das Studium der sogenannten Riemannschen ZetaFunktion – ζ(s) = ∑ n–s – für komplexe10 Exponenten s. Diese
Funktion benimmt sich anständig, bis auf den Punkt s=1,
wo sie unendlich wird. Für Uneingeweihte sind komplexe
Funktionen meist etwas unheimlich, denn sie spielen sich in
einem 4-dimensionalen Raum ab: Die Argumente s haben zwei
Dimensionen, und die Funktionswerte ζ(s) haben auch zwei
Dimensionen.11 Aber das soll uns jetzt nicht stören. Erstaunlich ist es, dass dieser neue Standort, anstatt Primzahlen zu
zählen eine komplexe Funktion zu untersuchen, zu einem
Beweis der alten Gaussschen Vermutung führt: π(x)~F(x).
oeffnungszeiten 22/2008
Aber es dauerte noch eine Weile. Das Studium komplexer
Funktionen hatte kurz vor Riemanns Zeit einen enormen
Aufschwung erlebt, besonders durch die Arbeiten von
Augustin Cauchy (1789 – 1857), der einen neuen, schärferen
Grad von Präzision in die Mathematik und ihre Beweise
gebracht hatte. Riemanns Genie kehrte sich in seinem Artikel
von 1859 nicht sehr um Beweise. Diese wurden erst dreißig
Jahre später von anderen nachgeliefert: von Mangoldt
1895, Hadamard 1896, und de la Vallée Poussin 1899.
Also was war der Knueller?
Das Verhalten der Funktion π(x) wird direkt durch die Nullstellen12 der Riemannschen Funktion ζ(s) = ∑ n–s bestimmt.
Und die vermutete asymptotische Gleichheit π(x)~x/ln(x),
oder auch π(x)~ li(x) (siehe Fußnote 6), ist im wesentlichen
äquivalent zur Behauptung, dass ζ(s) keine Nullstellen mit dem
Realteil σ=1 hat.
Hinter diesem Formelsammelsurium, das den Leser nicht
erschrecken soll, verbergen sich mehrere Sensationen. Zunächst einmal ist es phantastisch, dass sich das Design der
Primzahlen, also die Verteilung einer unendlichen Anzahl von
Kobolden in der Menge der ganzen Zahlen, in den NullstellenEigenschaften einer einzigen Funktion ζ(s) verstecken kann13.
Und zweitens, man kann dieses Design, also etwa die blauen
Kurven weiter oben, in einer Formel ausdrücken, in denen die
Nullstellen der Riemannschen Funktion ζ(s) explizit vorkommen. Diese Formel erlaubt es dann sogar, den »Fehler«,
also die Differenz von π(x) und li(x) numerisch anzugeben.
Je mehr man also über ζ(s) und ihre Nullstellen herausfinden kann, desto mehr wird man über π(x) wissen. Nun hatte
Riemann schon 1859 vermutet, dass alle Nullstellen von
ζ(s) einen Realteil σ=1/2 haben, und dass es keine anderen
Nullstellen gibt. Das ist die berühmte Riemannsche Hypothese. Sie ist auch heute, 150 Jahre später, noch nicht bewiesen.
Tausende haben sich daran versucht. Seit ein paar Jahren hat
das Clay Institut ein Kopfgeld auf die Hypothese ausgesetzt:
Wer zuerst den Beweis von σ=1/2 erbringt, oder ein Gegenbeispiel liefert, gewinnt den Preis von 1000000 Dollar.
Ein Beweis der Riemann Hypothese hätte einen
grossen Einfluss auf die Verteilung, die Ordnung und
Gesetzmäßigkeit der Primzahlen. Oder anders ausgedrückt,
mit den Worten des Zahlentheoretikers Bombieri: »Wenn
die Riemannsche Hypothese nicht gültig sein sollte, dann
gäbe es merkwürdige Unregelmässigkeiten unter den
Primzahlen, an die allerdings niemand ernsthaft glaubt.«
Doch die Geschichte ist damit noch nicht zuende. Das nächste
Kapitel beginnt an einem Märztag im Jahr 2003 mit einem
Vortrag am Mathematischen Forschungsinstitut in Oberwolfach. Am nächsten Tag, und danach für ein paar Wochen,
schreiben Journalisten in aller Welt, reden Kommentatoren
oeffnungszeiten 22/2008
im Fernsehen, schwärmen mathematische Kollegen aufgeregt von einem dramatischen Durchbruch in der Theorie der
Primzahlen. Es ist von einem sensationellen Resultat über
»kleine Lücken« (small gaps) bei Primzahlen die Rede.
Was ist geschehen?
Design bedeutete bisher Anordnung, Verteilung, Benehmen der Primzahlen »im Grossen«: Wie verhalten sich die
Primzahlen, wenn man eine »unendlich« große Anzahl
von ihnen von weitem ansieht. Oben haben wir gesehen, dass es etwa hundert Jahre dauerte, bis diese Frage
endlich Ende des neunzehnten Jahrhunderts mit Hilfe
der Riemannschen ζ-Funktion beantwortet wurde:
π(x) ~ x/ln(x).
Dieser Primzahlsatz kann aber auch als eine »lokale«
Aussage »im Kleinen« interpretiert werden. Er besagt
nämlich, dass für große n der Abstand zwischen einer
willkürlich gewählten Primzahl pn und ihrem nächstgrößeren Nachbarn pn+1 im Durchschnitt etwa ln(pn) ist:
pn+1 – pn ~ ln(pn) oder (pn+1 – pn)/ln(pn) ~ 1.
Diese Schreibweise suggeriert die Frage: Wie nahe beieinander
können Primzahlen liegen? Wir kennen die Antwort schon: Die
kürzeste Lücke ist 2. Unsere lokale Fragestellung ist also noch
nicht gut genug – ein besserer Standort ist vonnöten. Eine bessere Frage ist: Wie nahe können Primzahlen pn und pn+1 relativ
zu ihrem durchschnittlichen Abstand liegen, der ja ln(pn) beträgt?
Diese Frage ist nun aber zu allgemein, und auch nicht zu beantworten, solange niemand weiss, ob es unendlich viele Primzahlzwillinge gibt. Mathematiker haben also wie bei Euklid und
Gauß wieder die Unendlichkeit ins Spiel gebracht, und den folgenden Standort eingenommen: Für welche Zahlen c ≤ 1 gilt für
unendlich viele Primzahlen pn und ihre rechten Nachbarn pn+1
(pn+1 – pn)/ln(pn) ≤ c ?
Es hat lange gedauert, bis der geniale ungarische Tüftler Erdös
um 1940 beweisen konnte, dass es ein c gibt, welches echt
kleiner als 1 ist: c < 1. Das war der erste Hinweis dafür, dass
es immer mal wieder Paare pn, pn+1 gibt, die gegen die Durchschnittsnorm verstoßen und näher beieinander liegen, als es der
Primzahlsatz vorschreibt14.
Seitdem haben Zahlentheoretiker mehr als sechzig Jahre
lang versucht, immer kleinere Konstanten c zu finden und
damit die Frage zu beantworten, wie nahe sich die Nachbarn
in einer unendlichen Schar Primzahlen kommen können.
Im Jahr 1888 stand der Rekord bei c=0,248. Danach gibt
es also unendlich viele Nachbarpaare, die den zu erwartenden Abstand mindestens um den Faktor 4 schlagen15.
Danach gab es erstmal keine großen Fortschritte mehr.
Und dann ist es März im Jahr 2003. Dan Goldston, ein freundlich beleibter Mann in mittleren Jahren, der an der Universi-
45
2003 im März: Dan
Goldston hat zusammen mit einem
türkischen Kollegen
bewiesen, dass die
relativen Differenzen
zwischen Nachbarn
noch unendlich
kleiner sind als bisher
angenommen.
Foto: Wulf Rehder.
tät in San Jose, Kalifornien, lehrt, hält in Oberwolfach einen
Vortrag. Zusammen mit einem türkischen Kollegen habe er
bewiesen, dass die relativen Differenzen zwischen Nachbarn
noch unendlich kleiner seien als bisher angenommen. In
mathematischer Schreibweise hat er an die Tafel geschrieben:
liminf (pn+1 – pn)/ln(pn) = 0.
Das bedeutet, dass es für jedes noch so kleine c>0 noch unendlich viele Nachbarpaare pn und pn+1 gibt, die näher zusammenliegen als ein solches c, multipliziert mit ln(pn).
Wenn man sich wieder in den Gausschen Standpunkt versetzt
und von weitem guckt, bedeutet diese Aussage etwas ganz
Merkwürdiges: Wir wissen ja bereits, dass sich die Primzahlen,
je weiter der Wanderer auf der Zahlengeraden nach rechts
wandert, immer weiter voneinander entfernen. Das besagen
qualitativ auch unsere blauen Kurven, die sich veflachen, je
weiter man nach rechts sieht: es dauert im Allgemeinen immer
länger, bis man wieder auf eine Primzahl stößt. Und doch besagt
Dan Goldstons Resultat nun, dass es immer wieder vorkommt,
egal wie weit man schon gewandert ist, dass sich Primzahlen
relativ zu ihrem erwarteten Abstand beliebig nahe kommen.
Interviews folgen: Dan Goldston ist mit einem Schlag berühmt. Und dann, zwei Monate später, finden zwei Mathematiker einen fatalen Fehler in seinem Beweis. Die mathematische Gemeinschaft ist enttäuscht – das Resultat war
ja auch zu gut, um wahr zu sein. Zeitungen machen Rückzieher. Reporter wenden sich wieder den Popstars zu. Auch
Dan ist enttäuscht. Aber er ist auch stoisch. Seine Familie
kauft ihm einen Hund namens Koume, und sein professorales Leben an der Universität in San Jose geht weiter.
46
Ist das alles?
Nein. Ein Jahr später steht aus der Asche der Enttäuschung
der Phönix des Ruhms wieder auf. Mit Hilfe eines Kollegen
aus Ungarn gelingt es, den defekten Beweis zu reparieren. Und seitdem kann man an den besten Universitäten
der Welt in Zahlentheorieseminaren mehr über Dans Ergebnis lernen. Bücher werden zur Zeit umgeschrieben.
Und Dan, das hat er mir vertraulich erzählt, hat inzwischen eine bescheidene Gehaltserhöhung bekommen.
Und das nächste Ziel? Der nächste große Fortschritt
wäre gemacht, wenn man in Dans Gleichung den Nenner ln(pn) weglassen und schreiben könnte:
pn+1 – pn = 2 unendlich oft.
Das wäre dasselbe wie: Es gibt unendlich viele Primzahlzwillinge. Niemand kann das bisher beweisen. Aber wie der junge
Gauß, können auch wir Experimente machen und raten, was
uns die experimentellen Kurven nahelegen. In Abb. 4 habe
ich die Primzahlzwillinge unter den ersten 10000 Zahlen
wieder in einer blauen Kurve π2(x) dargestellt. Diese Kurve
steigt langsamer an als π(x), wie zu erwarten (denn natürlich
gibt es weniger Zwillinge als Einzelgänger). Was ist hier das
Design, die globale Funktion, die die Gestalt der Verteilung
von Zwillingen beschreibt? Schon in den zwanziger Jahren des
vorigen Jahrhundert haben die beiden Mathematiker Hardy
und Littlewood vermutet, dass π2(x) um den Faktor ln(x)
langsamer wächst. Ja, sie haben sogar eine präzise, errechenbare
Konstante k angegeben und die Hypothese aufgestellt, dass
π2(x) ~ k · x/ln2(x) gilt. k ist etwa 1,3203…, und die rote
Kurve F2(x) = 1,3203 · x/ln2(x) scheint in unserem Experiment tatsächlich so zu wachsen wie π2(x).
Und danach? Danach wartet immer noch die Riemannsche
Hypothese und die Belohnung von 1000000 Dollar auf das
nächste Genie.
Wenn der liebe Gott tatsächlich die ganzen Zahlen gemacht
hat, dann muss man ihm zugestehen, dass sein Design intelligent war. Aber warum hat er soviele Geheimnisse in den Primzahlen versteckt? Wollte er damit die Existenz von Mathematikprofessoren, den Priestern der Unendlichkeit, rechtfertigen?
oeffnungszeiten 22/2008
Abb. 1: Primzahlzwillinge π2(x) bis x=10000 (blaue Kurve) mit Approximation k · x/ln2(x) mit k=1.3203… (rote Kurve).
Anmerkungen 1. »Eindeutig« bis auf die Reihenfolge, die bei der Multiplikation ja keine
Rolle spielt: 21=3•7 oder =7•3; 700=7•5•5•2•2 oder =2•5•7•2•5, usw. | 2. Z.B. sind unterhalb von
100 die sieben auf 3 endenden Zahlen 3, 13, 23, 43, 53, 73, 83 prim, aber nur sechs auf sieben
endende: 7, 17, 37, 47, 67, 97. | 3. D.h., die blaue Kurve bleibt dort konstant, oder flach. | 4. ln(x)
bezeichnet hier wie später immer den natürlichen Logarithmus von x, also den Logarithmus zur
Basis e. | 5. Bei asymptotisch gleichen Funktionen strebt der Quotient gegen 1, aber die Differenz
kann sehr groß sein, sogar gegen Unendlich streben. Zum Beispiel ist x2~x2+ln(x) für wachsendes
x, aber die Differenz ln(x) strebt mit x auch gegen Unendlich. | 6. Gauß ging noch weiter in seiner
Vermutung: Er sah an Beispielen, dass eine andere Funktion, das sogenannte logarithmische
Integral li(x)= 2∫xdt/ln(t), das Integral der Funktion 1/ln(t) von 2 bis x, sehr viel näher bei π(x) liegt
als unser F(x). Aber auch das logarithmische Integral ist asymptotisch gleich der Funktion F(x),
die deshalb, im Großen und »von weitem« gesehen, genauso »gut« ist wie das logarithmische
Integral. | 7. Wenn man die Primzahlzwillinge in gleicher Weise in einem Graph aufführt, also von
links nach rechts die Primzahlpaare zählt, bekommt man auch eine steigende Kurve. Es ist aber
bis heute nicht bekannt, ob sie immer weiter steigt, ob es also unendlich viele Paare gibt, oder ob
sie von einem bestimmten Punkt an flach wird. Darüber später mehr. | 8. Nicht jede »unendlich
lange« Summe (die dann »Reihe« heißt) aus positiven Zahlen muss = ∞ sein. Zum Beispiel ist die
Reihe der Kehrwerte der Quadrate 1/1 + 1/4 +1/9 + 1/16 + … endlich. Das bedeutet unter anderem, dass es mehr Primzahlen als Quadrate gibt! | 9. Für s=1 muss man etwas aufpassen, denn die
Summe konvergiert dann nicht, sie geht gegen unendlich. Man kann ziemlich einfach zeigen, dass
die Summe asymptotisch gleich ln(x) ist. Dagegen ist die Summe der Kehrwerte der Primzahlen
asymptotisch gleich ln(ln(n)). | 10. Komplexe Zahlen können in einer 2-dimensionalen Ebene
dargestellt werden, d.h. jede komplexe Zahl s hat einen Realteil, den Riemann mit σ bezeichnet,
und einen Imaginärteil, bei Riemann mit t (nicht mit τ, wie man erwarten sollte) bezeichnet: s =
(σ,t). Das kann man dann auch in bekannter Weise so schreiben: s = σ + it, wo i die sogenannte
»imaginäre Einheit« ist, die Einheit auf der y-Achse. | 11. Die Funktionen F(x) und π(x) haben
jeweils nur eine Dimension für ihre Argumente x (nämlich die x-Achse) und eine weitere für die
y-Werte. Insgesamt reicht also eine 2-dimensionale Ebene zur Darstellung bei solchen »reellen
Funktionen« aus. | 12. Nullstellen von ζ(s) sind diejenigen (komplexen) Zahlen s, für die ζ(s)=0
gilt. Man kennt inzwischen mehrere Millionen von Nullstellen von ζ(s), aber nicht alle. | 13. Es ist
seit zwei Jahrhunderten ein üblicher Trick, unendliche Folgen von Zahlen, etwa an, n=1,2,3,4… in
einer Funktion zu komprimieren, aus denen man umgekehrt die an wieder zurückgewinnen kann.
Die einfachsten Beispiele sind Polynome mit Koeffizienten an. Man kann hier die an durch Differenzieren zurückgewinnen. | 14. Der Primzahlsatz verbietet solche Nähe nicht. Seine Interpretation besagt nur, dass unser Wanderer im Durchschnitt ln(pn) Schritte machen muss, um von pn
nach pn+1 zu gelangen. Er besagt aber auch, dass eine größere Nähe etwas Besonderes ist, etwas,
das bewiesen werden und eine tiefere Ursache haben muss als dass es durch das globale Design,
ausgedrückt durch den Primzahlsatz, ausgedrückt wird. | 15. Denn 0,248<1/4.
oeffnungszeiten 22/2008
47
Design nur mit Invarianten
Alfred Hückler
Weil wir nichts unter dem Hintern haben, müssen wir uns den Kopf anstrengen
(Dänische Antwort auf die Klage, unabänderlich keine Bodenschätze zu besitzen)
Gelegentlich wird noch immer der Aberglauben verbreitet,
dass feste Vorgaben in Aufgabenstellungen die Kreativität, um
diese lösen zu können, grundsätzlich einschränken würden. Das
wird gern mit der Auffassung verknüpft, Designer hätten nicht
Aufgaben zu lösen, schon gar nicht während der Ausbildung,
sondern Probleme. Vom Verwirklichen von Utopien ist sogar
die Rede, also vom Hantieren im Nirgendwo und Nirgendwann,
irgendwie mit Irgendwas, Verwirklichen außerhalb der Wirklichkeit. Außer vagen Allgemeinplätzen, lassen sich Probleme
außerhalb von Ort und Zeit weder erkennen noch lösen; weder
das physische noch das soziale Überleben kann ohne diesen Bezug überhaupt problematisiert werden. Feste Vorgaben, Kriterien, Grenzwerte usw., also Invarianten schränken allerdings die
davon unabhängige mögliche, unüberschaubare Lösungsvielfalt
bis auf den jeweils bedingt verwendbaren Anteil ein, ermöglichen jedoch erst eine bestmögliche Auswahl zu treffen: Gestalten heißt bekanntlich Entscheidungen fällen. Da helfen nur
Invarianten, als orientierende Kriterien genutzt, um Entscheidungen blockierende Hilflosigkeit zu vermeiden. Es ist indessen
die Gestaltungsfreiheit, die durch Festlegungen eingeschränkt
wird, nicht die Kreativität, die dadurch, wie alle Erfahrungen
zeigen, eher verstärkt wird, schon wegen der »Reduktion von
Komplexität«. Mitunter widersprechen sich aber manche Festlegungen in Aufgabenstellungen und können ebenso, wie durch
mehr Anforderungs- als mögliche verfügbare Lösungsmerkmale
und durch Überbestimmung zueinander, objektiv Lösungen
verhindern, weshalb rückwirkend Aufgabenstellungen verändert werden müssen. In der Entwurfspraxis sind es, meist
aus Bequemlichkeit, subjektiv und starrsinnig als notwendig
behauptete Festlegungen, die dann durch Nerven zehrenden,
klärenden Streit tatsächlich Kreativität töten können.
Invariant sind solche singulären und komplexen Eigenschaften,
die bei Transformationen (Abwandlungen) von Zuständen und
Vorgängen erhalten bleiben. Invarianten begleiten durchgängig alle, wie auch speziell einzelne oder mehrere Schritte
48
der Erzeugnisentwicklung, beispielsweise als Gestaltungsziele, Gestaltungsprinzipien, Maßstäbe bzw. Wertsetzungen,
Kriterien, Vorschriften, Normen, zu überwindende Mängel,
dingliche und nichtdingliche Vorgaben, neue Zwecke und
Umstände bzw. Anforderungen und Bedingungen, Randbedingungen und Grenzwerte, (Zwischen-) Lösungen, Sachverhalte, Konstellationen, Materialien und Verfahren, Richtgrößen, usw., personelle Möglichkeiten gehören auch dazu.
Invarianten (vornehmlich als invariante Sachverhalte) bestehen, entstehen und vergehen mit der Evolution der Produkte
und Prozesse, mitunter sogar während der Bearbeitung nur
einer Entwicklungsaufgabe. Die Entwicklung der Form von
Produkten und Prozessen ist auch eine Geschichte ihrer
Invarianten, von deren Entstehen und, dann konstituiert, ihres
Bestehens als deren Varianten, Modifikanten und in Nuancen,
um sich so diverser und sich verändernder Anforderungen und
Bedingungen anzupassen. In allen diesen Abwandlungen sind
die unverzichtbaren Merkmale enthalten, welche die konstitutionelle Identität der Invarianten minimal definieren: die Invarianten sind die Gemeinsamkeiten der zu ihnen gehörenden Variationen (Abwandlungen). Verschiedene Entwicklungsphasen
sind neben durchgehend gleichen, durch jeweils unterschiedliche, auch zusätzliche Invarianten gekennzeichnet. Im Design
sind Invarianten fast nur Setzungen, bestgeeignete (Zwischen-)
Ergebnisse oder Vereinbarungen auf Zeit. Mindestens aber
sollten sie innerhalb einer Entwicklungsphase unabänderlich
gelten. Im Höchstfall gelten sie ewig, so, wie der rechte Winkel:
er existiert ehern als fester Winkel zwischen den NormalenSchnittebenen einer beliebig gekrümmten Fläche mit der jeweils größten und der kleinsten Krümmung der Schnittkurven
um einen Flächenpunkt bzw. der Flächennormalen herum – er
stützt innerlich selbst die krümmste aller doppelt gekrümmten
Flächen (eine der wohl genialsten Entdeckungen durch Leonhard Euler!). Dabei stört es uns wenig, wenn nun Physiker entdeckten, dass sich selbst kosmologische Konstanten doch im
oeffnungszeiten 22/2008
Laufe der Zeit ändern können: Konstanten werden zwar dauerhaft invariant verwendet, doch Invarianten müssen es von
Hause aus nicht bleiben, wenn sie als Ergebnisse von Entscheidungen existieren. Das hat mit einer Relativierung der Invarianz
ebensowenig zu tun, wie die praktisch unumgänglich zulässigen
Abweichungen (Toleranzen) invarianter Eigenschaften.
topologisches Paradigma als Invariante
Verheftet man gedanklich-anschaulich die Fügestellen zusammengesetzter Produkte glatt bündig, dann lässt sich ein
Produkt als eine gänzlich zusammenhängende Oberfläche
vorstellen. Entfernt man noch die Ecken und Kanten, dann
entsteht das Flächenparadigma des Produktes. Es ist dann eine
geschlossene Fläche mit oder ohne Löcher (Tunnel, Henkel)
und Ränder. Die topologische Invarianz besteht dann in dem
Geschlecht bzw. dem Zusammenhang (die höchstmögliche
Anzahl durchgehender Schnitte, bis die Fläche zerfällt). Die vorübergehend entfernten Ecken und Kanten lassen sich wieder
als Graph in die Fläche einlagern. Mit oder ohne Graph können
nun aus dem Paradigma, bei bleibenden Nachbarschaften in
stetiger Verformung, also topologisch äquivalent, beliebig viele
Formen, also auch andere Produkte als topologische Varianten
herausgebildet werden: die topologische Metamorphose. Aus
einer PKW-Karosserie entsteht damit, nur durch andere Proportionen, die einer Treidellok, und schließlich das zugehörige
topologische Paradigma. Zerschneidet man das Paradigma bis
eine einfach zusammenhängende Vieleckfläche entstanden ist,
dann erkennt man unmittelbar: jedes Produkt kann topologisch aus einer Vieleckfläche als Ausgangsinvariante geheftet
entstanden sein. Weniger der ganze Vorgang, als vielmehr die
schrittweise Verwendung des Vorgehens lässt, zu Zwischenformen geheftet, neue Herstellmöglichkeiten erkennen1. Heftet
man rückbildend so, wie man das Paradigma zerschnitten
hat, dann besteht wieder topologische Äquivalenz. Man
kann aber auch topologisch andere Gebilde daraus heften.
oeffnungszeiten 22/2008
Invariante Bilanzen
Ein besonderer Invariantentyp ist der, bei dem nicht jeweils
einzelne Bestimmungsstücke (Komponenten) eines dinglichen
oder gedachten Gebildes festgelegt sind, sondern deren stets
gleichbleibende, von jedweder Konfiguration unabhängigen
(!) Bilanzsumme der Komponenten. Jede Abweichung von
diesen festen Bilanzen ergibt existenzunfähige geometrische
Zustände solcher Gebilde. Wohl ewig gültig zeigt sich eine
solche Bilanz beispielsweise bei Vielflächnern in Gestalt des
erweiterten Eulerschen Polyedersatzes: sind die Anzahl der
Ecken e, der Kanten k, der (Teil-)Flächen f, die Eulersche
Charakteristik C (Festwert), das Geschlecht l (Anzahl der
Tunnel-Löcher), dann gilt für Vielflächner: +e – k + f = 2 – 2l
= C (Grundfläche mit l und eingelagertem Netz-Graphen).
Eine solche Invariante steht paradigmatisch für das Gestalten der geometrischen Varianten aus jeweils verschiedenen
Bestimmungsstücken, indem diese derart untereinander
abgestimmt verändert werden, dass für jede Variante ein
und dieselbe invariante Gesamtquantität herauskommt.
Kommen die Krümmungen der Komponenten hinzu,
können die Anzahl der Ecken, Kanten, Flächen (-bereiche), Ränder und Löcher auch mit ihren Krümmungscharakteristiken nur innerhalb einer ehernen Bilanz
existieren: die punktweise aufsummierten Flächenkrümmungen entsprechen (als Integralkrümmung) dem Geschlecht einer randlos gedachten, glatten Oberfläche,
mithin der Anzahl Löcher, die sie hat – oder nicht, wie
beim Geschlecht Null der Sphäre, entsprechend dem Satz
von Gauß-Bonnet Integralkrümmung prop. Geschlecht2.
49
Somit stehen sowohl die Anzahl der Bestimmungsstücke
(Morpheme) für sich, wie deren Krümmungseigenschaften
und die der verbindenden Flächenbereiche im gegenseitigen
Bestimmungszwang, denn nicht eines davon kann gewählt
werden, ohne Einfluss auf die anderen bzw. ohne von den
anderen abhängig zu sein. Es gibt somit keine Freiheit in der
Wahl plastischer Mittel ohne gegenseitige Beschränkung,
deren Strenge umso deutlicher wird, je weniger Bestimmungsstücke (Elemente/ Morpheme) eingesetzt werden.
Dieser Zwang löst sich begrenzt auf, wenn eine Fläche jeweils
höheren Geschlechts gewählt wird, etwa statt einer ursprünglich gewählten Sphäre ein Torus (wenn es denn über die
reine Geometrie bzw. Topologie hinaus Sinn macht). Oder
die Anzahl der Komponenten wird zu verändern sein.
Invarianten als Singularitaeten
Singularitäten lassen sich als das Hervortreten diskreter
Strukturen aus glatt-fortsetzenden (kontinuierlichen) beschreiben (V. I. Arnold3): »Die mathematische Beschreibung
der Welt beruht auf einer delikaten Wechselwirkung zwischen kontinuierlichen und diskontinuierlichen, diskreten
Erscheinungen. Die letzteren werden zuerst wahrgenommen. Funktionen, genau wie lebende Wesen, sind durch
ihre Singularitäten charakterisiert erklärte P. Montel«.
Das gleichmäßig fortschreitende Anschleifen der Ecken
des Kubus unter 45° (»Entecken«) führt von der zu Beginn
fein abgestumpften Würfelecke, begrenzt großflächiger
werdend, über Zwischenformen mit ungleichen Kantenlängen zu singulären, gleichkantigen, halbregulären Formen,
dem abgestumpften Kubus zuerst, dann dem Kuboktaeder,
darauf dem abgestumpften Oktaeder als dritte singuläre
Station, und schließlich zu einem – diesmal regulären – Polyeder, dem Oktaeder (als Duale des Kubus!). Beginnend
mit einer kleinflächigen Nuancierung entstanden, in gleichbleibender Art und Weise und stetig fortschreitend, aus
einem Kontinuum also, singuläre, kantenlängengleiche
Polyeder, dazwischen solche mit ungleichen Kantenlängen.
Als topologische Invariante für den gesamten Abwandlungsprozess ist lediglich die geschlossene Gesamtfläche als solche,
d.h. ohne die jeweils unterschiedliche Anzahl Ecken und Kanten
auszumachen – und damit, entsprechend der invarianten
Bilanzsumme – die gleichbleibende Gesamtkrümmung (hier als
die Summe aller Flächenneigungen zueinander), das gleiche Geschlecht l = 0. Das ist ein schönes Beispiel für das Hervortreten
von Singularitäten aus einem Kontinuum, einer zwar genetisch
zusammenhängende Formenfolge, für einen stetig fortschreitenden Vorgang, der aber insgesamt eine Folge entstehen lässt,
die unterschiedliche Kontinua über diskrete Singularitäten verbindet, mithin keine durchgehende topologische Transformation darstellt. Zudem sind die singulären Polyeder untereinander
und mit denen zwischen ihnen topologisch nicht äquivalent
– bis auf die genannte graphenfrei gedachte Gesamtfläche. So
50
ist es nicht angebracht, die so entstandenen Singularitäten als
Varianten zu verstehen, es sind durch unterschiedliche Werte
besetzte Variablen der Bilanzformel, formelhaft gleichwertige,
formlich, zweckabhängig, zum Teil höchst unterschiedlich
wertige, aber immer selbstständige, eigenwertige Lösungen
bzw. Invarianten des Problems, geschlossene, regelmäßige
Vielflache ohne Loch zu erzeugen. Zu den unterschiedlichen
Eigenwerten gehört das jeweilige Verhältnis der Flächengröße
zum umschlossenen Volumen (isoperimetrischer Quotient).
Rezepte als Invarianten fuer den Designprozess
Schließlich ist die Form der integrierende Funktionsträger, der,
genutzt oder ungenutzt, für jeden jeweils sinnfälligen Gebrauch,
die gewollten Wirkungen treffsicher bereitstellt. Gibt es auch
Rezepte, um dahin zu kommen? Trotz der nach wie vor obwaltenden Tabuisierung solcherart designpraktischer Probleme,
steht fest: irgendwie schon4. Man weiß eben, dass für ein bestimmtes Palisanderholz, eingesetzt im Wirkungsfeld der Innenraumausstattung, ein Taubenblau, Chrom und Fallschirmseide
dazu, die Wirkung von nobler Eleganz vermitteln. Doch Rezepte,
wie Formeln, gelten nur innerhalb von Randbedingungen
und nur in einem jeweiligen Existenzbereich: Der historische,
wie soziokulturelle Kontext, speziell der des Gebrauchens zu
bestimmter Zeit an einem bestimmten Ort unter bestimmten
Umständen (usw.), können andernfalls erfolgreiche Rezepte
unwirksam werden lassen oder ihre beabsichtigte Wirkung gar
ins Gegenteil verkehren. Rezepte bestehen aus Rezepturen (einer
Mischung oder nur einem Vorrat an Lösungsbestandteilen,
Ingredienzien bzw. Zutaten) und Prozeduren (zielsicheren Vorgehens- und Anwendungsweisen) um ein Ergebnis zu erhalten,
welches innerhalb des zugehörigen Toleranzbereiches wiederholbar und beständig in der Lösungsqualität ist. Aber eben
nur das, jene Variabilität wie die scheinbar gleich wirkenden
Bilanzformeln haben sie nicht, da jeder ihrer Bestandteile fest,
wenn auch bedingt austauschbar, vorgegeben ist. Gesetzmäßigkeiten, Regeln und Rezepte unterscheiden sich vor allem in der
möglichen Variationstiefe und -breite: Rezepte sind regelgemäße Singularitäten, die nur nuanciert, höchstens modifiziert
werden können, aber nicht variiert – das wäre dann ein neues
Rezept. Aluminium, naturfarben belassen, fast unabhängig
vom Glanzgrad und der Oberflächenbeschaffenheit, verträgt
sich (»steht«) farblich nur zu bestimmten Farben, und zwar
unabhängig von irgendeinem Zweck in irgendeinem Einsatzgebiet. Jeder Designprofi weiß zu welchen. Der Kontext, wenn der
Begriff hier überhaupt trifft, ist lediglich durch die intersubjektiv
gleiche Empfindsamkeit gegeben, wobei nicht hinreichend geklärt ist, ob es sich hier um habituelle, gar soziologisch neutrale,
harmoniebildende psycho-physische Stabilisierungsvorgänge
handelt, um Gestalt- bzw. Formgesetze, oder kulturhistorisch bestimmt ist. Ist das Anwenden dieses harmonisierten,
auf einen Reiz (Aluminium) bezogenen Lösungsvorrates an
Farbtönen nun eine Rezeptur oder gehört er zum bestehenden, sich entwickelnden, oder gar wahrnehmungsgesetzlichen
oeffnungszeiten 22/2008
Repertoire? Umgekehrt wäre dann zu fragen, ob das verfügbare
Repertoire eine Sammlung von Rezepten ist. Reduziert man das
Aluminium-Beispiel auf eine reine Farbharmonie, wie sie etwa
in Harmonieregeln formuliert sind, die über Generationen einen
intersubjektiven Konsens fanden, dann wird die Unschärfe der
Begriffe, oder besser, der Gültigkeitsgrenzen zwischen Gesetzmäßigkeiten, Regeln und Rezepten deutlich. Rezepte bilden, geschickt angewandt, auch »persönliche Handschriften«, bis hin
zur stereotypen Masche: dezent, mitunter sogar unterschwellig,
als empfindsamer persönlicher Formduktus, aber auch als
vordergründige, Funktion ignorierende Überformungen, etwa
so, dass alle Produkte, selbst Standgeräte, aussehen, als ob
sie sich mit 250 km/h windschlüpfig fortbewegen müssten.
Ob nicht zuweilen solcherart Rezepte eine »gestalterische
Haltung« hinreichend beschreiben? Treffsicher anwendbare
Rezepte ermöglichen, Zeit frei zu machen für wirklich notwendige innovative Invarianten, neue Rezepte eingeschlossen.
Das macht sie im professionellen Design unentbehrlich – kein
echter Profi arbeitet wirklich ohne sie, denn, was für Laien ein
Problem, ist für Profis meist (hoffentlich) eine einfache Frage.
Die Invarianten der Geometrie
Im Invarianzproblem besteht wohl der bemerkenswerteste
Zusammenhang zwischen der Entwurfspraxis und der modernen Geometrieauffassung. Felix Klein definierte Anfang des
zwanzigsten Jahrhunderts vier Geometrien, innerhalb derer
bestimmte Größen bei jeweiligen Transformationen erhalten
bleiben5. So werden bei der ersten vagen Gestaltanlage die
allgemeinsten nicht-maßlichen Invarianten durch die Topologie
erfasst: Nachbarschaft, Dimension, stetige Transformierbarkeit/Transplantierbarkeit durch Äquivalenz (Bilanz der Ecken,
Kanten, Flächen/Gleichlagerung im 3D-Raum), Zusammenhang/Geschlecht, Gesamtkrümmung. Mit fortschreitender
Gestaltung, d.h. mit jedem Entwicklungsschritt, werden weitere
Invarianten eingeführt, bis schließlich die reine maßgetreue
Decklagengeometrie nötig wird. Alle Schritte zur Endform werden von einem Gestaltbildungsvorgang begleitet, der auf jeder
Entwicklungsstufe auf die gemäße Weise als Abbildungsvorgang unter Nachbarschaftsbedingungen, praktisch als Häufen
verträglicher formwirksamer Merkmale von Lösungsbeiträgen
sowie das Einbinden formlicher Singularitäten der Lösungsbeiträge aller am Entwicklungsprozess beteiligten Disziplinen
betrachtet werden kann. Das Häufen von Formmerkmalen,
sowie markante Singularitäten und ihre gemeinsame nachbarschaftliche Transformierbarkeit ergeben mit der Formanlage
das eigentümliche Gerüst der allgemeinen, typischen und
charakteristischen Erscheinung eines Erzeugnisses (die genaue
bauliche Konstitution ist darin natürlich eingeschlossen). Die
topologische Isomorphie bzw. Äquivalenz aller zu integrierenden, auf das jeweilige topologische Paradigma reduzierten
Lösungsanteile, ist die ideale Voraussetzung für eine integrierende Gesamtform. Als invariantes »Formprinzip« praktiziert, wird
daraus über die Entwicklungsstufen Grobform und Feinform6
der produktionsreife Entwurf angefertigt (vereinfacht).
oeffnungszeiten 22/2008
Invariante Form als Kriterium fuer die
Formenauswahl
Unter dem »Primat des Gebrauchs« hat das Formprinzip, als
alle formwirksamen Lösungsbeiträge integrierende Gesamtform, dem umfassenden Gebrauch bestmöglich zu entsprechen.
Die spezielle Bestlösung wird zum »Gebrauchsformprinzip« als
invariantes formliches Auswahlkriterium für die Formvarianten
zur Formanlage entwickelt. Das bedeutet für die Sinnfälligkeit
der zu bildenden »Übergestalt« (durch »Superisation«), dass
die semantisch-geometrische Struktur des Gebrauchszusammenhanges (dessen Formlogik) mit der Baustruktur (der zu
erfassenden Produktform in ihren Teilen und ihrer Gliederung)
sinnfällig korrespondiert. Das kann soweit gehen, dass die
zuzuordnenden technischen Lösungen damit nicht nur nicht
kollidieren, sondern dazu und untereinander nach gemeinsamen Formmerkmalen ausgesucht werden (vorausgesetzt,
sie sind technisch und technologisch in der dafür engsten
Auswahl enthalten). Schon hierdurch kann der Grund für eine
formale Prägnanz und Kompaktheit gelegt werden. Das betrifft
nun keineswegs nur die äußere Hülle im Sinne des Interface,
sondern bringt diese nicht nur mit der äußeren Beziehungsvielfalt, sondern auch mit der inneren, d.h. dem Innenaufbau
in Einklang, der ggf. als Aggregatform genauso stringent zu
entwickeln ist wie die meist simplexartige Außenform.
Abwandlungen aendern Wirkungen
In der Folge Lösungsansätze/Invarianten-Varianten-Modifikanten/Nuancen ist beim praktischen Anwenden jede
Position die invariante Vorstufe für die nachfolgende (wenn
ich modifiziere, ist die dafür ausgewählte Variante, so lange
ich es tue, methodisch gesehen, invariant). Die Bedeutung für
die konstitutionelle Qualität eines Produktes nimmt hin zur
nuancierenden Gestaltung naturgemäß ab. Aber: Für viele
Aspekte der Gebrauchstüchtigkeit sind es mitunter Nuancen,
die erst den erwünschten Leistungssprung hervorbringen
lassen – ein schwieriges Feld für Schutzbegehren und Bewertungen von Gestaltungsleistungen! Etwa kleinste Korrekturen
an der Form von Buchstaben, die erheblich die Lesbarkeit
verbessern können, wie auch durch minimale, nuancierende
Verschiebungen im Layout; die Berührungen beim Umgreifen
eines Werkzeuggriffes können durch entsprechend veränderte
Oberflächennuancen der Greifflächen nicht nur angenehmer,
sondern auch sicherer gestaltet werden, gegebenenfalls mehr als
durch Formänderungen; und, was für diese Beispiele insgesamt
gilt, eine geschickt eingesetzte Nuance an der Gestalt kann
manchen grundlegend angesetzten Gestaltungsmaßnahmen
erst den ergonomisch-ästhetischen Erfolg ermöglichen. Dabei
können gleichgerichtet wirksame, jedoch verschiedene Gestaltungsmaßnahmen quantitativ wie qualitativ anders wirken. So
würde unter Umständen eine entsprechende Farbnuance eine
gewollte Gestaltwirkung sinngemäß stärker beeinflussen, als
eine derentwegen ausgeführte Modifikation oder gar plastische
Variante. Und: was für einen Bereich eine Variante darstellt,
muss in einem anderen nicht gelten; so kann beispielsweise eine
51
Variation im Bereich der ästhetischen Funktionsträger im zugeordneten konstruktiven Bereich – bei sachlicher Gleichheit –
nur eine Modifikation oder gar nur eine Nuancierung bedeuten.
Es war einmal
In diesem Zusammenhang ist die Formgestaltung von Kleinbildkameras in den dreißiger Jahren des vorigen Jahrhunderts
nicht nur historisch interessant: Die starken Unterschiede in
deren Erscheinung, mithin auch die ästhetischen Differenzierungen der Kleinbildkameras waren fast ausschließlich durch
ihre deutlich voneinander unterscheidbaren technischen und
ergonomischen Prinziplösungen und denen fast unmittelbar
folgenden Bauformen gegeben, d.h. durch prinzipiell unterschiedliche Lösungsansätze=Invarianten. Die bloße Ästhetik der
Sachverhalte konnte hier dominieren. Heute sind es, bezogen
auf die konstitutionellen Gestalteigenschaften, fast nur noch
Nuancen, höchstens Modifikationen zu Varianten einer Invariante von einem der weltweit weniger gewordenen, nahezu
vereinheitlichten Lösungsansätze, die eine Flut an Nuancen,
vergleichsweise aber eine Ebbe in wirklich neuer, besserer
Kameragestaltung ausgelöst haben. Die allzu schnelle Produktablösung lässt einfach tiefgründigere Gestaltungsänderungen
nicht zu; andererseits ist das aber auch ein Ergebnis eines Reifeund Ausleseprozesses – leider nicht nur nach funktionalen
Gesichtspunkten – so, wie manch älterer Fotograf so gern
und so schmerzlich den Wegfall von Möglichkeiten beklagt.
Unser Design ist in verschiedener Hinsicht ein Invariantenproblem. A: Der Entwurfs- (Gestaltungs-) ablauf wird durch
unveränderliche Gestaltungsziele, Anforderungen und
Bedingungen für alle Seiten eines Produktes ausgerichtet,
hier zuerst auf den umfassenden Gebrauch. B: Die »inneren Mechanismen« des Suchens und Findens von Lösungen
einerseits und andererseits die Folgerichtigkeit des Vorgehens
– die Entwicklungslogik – bestimmen, begleitet von jeweils
zutreffenden Lösbarkeitskriterien, den Entwicklungsablauf aus
sich heraus mit. C: Invariante formwirksame Eigenschaften
der bestgeeigneten Prinziplösung für ein geplantes Erzeugnis,
bilden, formiert zur Formanlage, den prägenden Keim der
zu gestaltenden Form. D: Die gestalterischen Ergebnisse des
Designs haben mehr oder weniger festsetzende Wirkungen. Sie
schaffen jeweils einen neuen Standard der Produkte und Prozesse und entsprechend neue Verhaltensmuster als Stereotype
des (umfassenden) Gebrauchens. Haben diese die Qualität
von Präzedenzfällen, lösen sie auch Weiterentwicklungen auf
anderen, vor allem sachlich benachbarten Gebieten aus.
A
Die in der ursprünglich in der (ggf. selbst) gestellten, problemhaltigen Aufgabe enthaltenen Zwecke und Umstände
werden aufgabenkritisch (Negationsfragen!) und konzeptionell
bearbeitet und präzisierend in Anforderungen und Bedingungen überführt. Gerade schicksalhaft für den erfolgreichen
Entwicklungsverlauf ist es, die Verbindlichkeit bzw. Bestimmt
52
heit/Unbestimmtheit aller Einzelheiten und deren zeitliche
Gültigkeit in dieser präzisierten Aufgabenstellung einvernehmlich festzulegen. Danach unterscheiden sich bekanntlich die
Anforderungen in Festforderungen, bedingte Forderungen,
Wunschforderungen, Zielforderungen und die Bedingungen in
Gegebenheiten, Vorgaben und Annahmen. Harte und weiche
Invarianten gewissermaßen. Würden die aus der Konzeption
abgeleiteten Festforderungen und Gegebenheiten als »harte«
Invarianten nicht erfüllt werden, wären die Sinnfälligkeit und
Existenzfähigkeit der Konzeption aufgehoben. Das Fehlen der
»weichen« Invarianten würde die zu Grunde gelegte Konzeption nur mehr oder weniger beschädigen. Zu den härtesten
Invarianten gehören die Normen bzw. Standards (nach ISO, DIN,
aber auch innerbetriebliche), vor allem, wenn diese gesetzlich
verbindlich sind. Normen, ursprünglich die Grundlage für den
Austauschbau, wodurch erst eine wirklich industrielle Fertigung
ebenso wie eine effektive Distribution und eine Lebensdauer
sichernde Produktpflege ermöglicht wurde; heute als »Kompatibilität« für Baukästen und Systementwicklungen mit Interfaces,
ein Faktor der differenzierten Globalisierung, unverzichtbar
und heutzutage eher nicht dinglich als bislang vorherrschend
dinglich orientiert. Jede Norm ist wie jede Invariante nur auf
Zeit, wenn auch meist »epochenstabil« sinnvoll gültig. O.
Kienzle hat die dementsprechend hohe Anforderung und
damit die Existenzberechtigung an eine Norm beschrieben: eine
Norm ist die Bestlösung einer sich wiederholenden Aufgabe.
Ändern sich im Laufe der Zeit die betreffenden Aufgaben und
die Bestlösungen dafür deutlich und erkennbar nachhaltig,
dann müssen Normen verändert oder abgeschafft werden.
So gesehen sind also Normen nicht nur wirtschaftlich höchst
nützliche, sondern besonders verlässliche Invarianten.
B
»In der Anhäufung von mehr Wissen über mehr Dinge wächst
der Gedächtnisspeicher im Prinzip unbeschränkt. Ungeachtet
des erreichten Umfanges bleibt das Gedächtnis jedoch aus
den gleichen Grundkomponenten zusammengesetzt, nach
denselben Prinzipien organisiert und indiziert, und die auf
ihm operierenden Prozesse bleiben von gleicher Form. Wir
können sagen, das System werde komplexer, weil sein Umfang
zunimmt, wir können aber auch sagen, es bleibe einfach, da
sich seine fundamentale Struktur nicht ändert. […] Die äußeren
Umgebungen des Denkens, die reale Welt wie das LangzeitGedächtnis, sind ständiger Wandlung ausgesetzt. Wir dürfen
annehmen, daß […] die, die Adaption des Langzeit-Gedächtnisses bewirkenden Prozesse, welche wir als Lernen bezeichnen,
die unbewegten Beweger sind, die in einfacher und invarianter
Weise den Wandlungsvorgängen zugrunde liegen« H. A. Simon7.
oeffnungszeiten 22/2008
Ziel
Beheben des Widerspruchs zwischen gewachsenen Ansprüchen und
dem Stand Produktbedingter Lebensweise
verwirklichbar, wenn
neue Bedürfnismerkmale
bestimmt, neue Zwecke &
Umstände formuliert werden
können: problemhaltige Aufgabenstellung
Neue Zwecke und Umstände
diese in Anforderungen und
Bedingungen (des Gebrauchs und der Erzeugung)
überführt werden können:
Präzisierte Aufgabenstellung
Präzisierte Aufgabenstellung
dafür geeignete, untereinander koppelbare
(kompatible) Funktionen
formuliert werden können: Funktionsstruktur
Abbildung 1.
Formgestaltung ist eine Invariante
im Design
Ein vereinfachtes Beispiel des Kaskadenprinzips als logisch strukturierte Folge von Entwicklungsstadien (aufeinander folgende
Implikationen »erst wenn…, dann kann…«) zeigt, auch bei
anderer und vollständiger Darstellung des Prinzips, einen nicht
zu umgehenden »inneren Mechanismus« des Entwurfsprozesses. Solche Kaskade wird meist in Schleifen durchlaufen, weil
rückgreifend notwendige Veränderungen erst beim Fortschreiten in eine folgende Entwurfsphase durch dadurch entstehende neue Erkenntnisse, unerwartete Irrtümer oder vorher
gefällte Fehlentscheidungen sichtbar werden. Das entspricht
auch dem Prinzip »ein Schritt voraus«, d.h. erst dann über das
Ergebnis des Schrittes zuvor zu entscheiden (siehe Abb. 1).
Ein solcher Ablauf wird etwa beim Design unserer Provenienz (dem Entwerfen für den umfassenden Gebrauch8) in drei
Handlungsebenen realisiert: Konzipieren/Lösungen entwickeln/
Repertoires bilden/Formgestalten. Mit der Formgestaltung als
prozessuale Invariante wird mit Hilfe der entwickelten Repertoires die kommunikativ-ästhetische, wie die ergonomische
Funktion gestalterisch umgesetzt. Vor allen anderen beteiligten
Disziplinen aber ist, vom Design geführt, die unveräußerliche,
höchst problematische Aufgabe zu lösen, das Formprinzip als
integrierende Gesamtform zu entwerfen (im formsprachlichen
Sinne, die »Superisation« der formwirksamen Ergebnisse aller
an der Entwicklung Beteiligten zu vollziehen) und gestalterisch über die Grobform zur Feinform, dem produktionsreifen
Endzustand des Entwurfsprozesses zu führen. Ohne Formgestaltung, verantwortlich nicht zuletzt für die Produktkultur, wäre es
also ein rein technisches Design oder das von Systemplanern.
oeffnungszeiten 22/2008
Zu viel oder zu wenig Invarianten
Zu den Lösbarkeitskriterien problemhaltiger Aufgaben gehört
vor allem das Gebot, Über- und Unterbestimmungen zu
vermeiden. Das gilt für die Aufgabenstellung zwar zuerst, aber
nicht weniger für Zwischenlösungen. Theoretisch bedarf jeder
herzustellende Lösungszustand einer genau bestimmten Menge
hinreichender Informationen. In der Praxis stehen meist noch
nicht einmal alle notwendigen, geschweige denn hinreichenden
Informationen zur Verfügung, um die Aufgabe lösen zu können.
Da muss dann ersatzweise mit plausiblen Annahmen und
brauchbaren Hypothesen gearbeitet werden, ein Zustand, der
bis zum Abschluss der Entwurfsarbeit anhalten kann. Fehlende Informationen, hier die invarianten Anforderungen und
Bedingungen vor allem, fallen leicht auf, überschüssige dagegen
sind als solche schwerer als Blockadeursachen auszumachen.
Ueberbestimmungen
Die erste und wesentlichste Gefahr für die Lösbarkeit einer
problemhaltigen Aufgabenstellung liegt bei den in ihr selbst
festgelegten invarianten Forderungen und Bedingungen entweder dann, wenn diese einander widersprechen, oder falls mehr
Anforderungsmerkmale als jeweils mögliche, zugestandene oder
verfügbare Lösungsmerkmale eine aufgabengemäße Lösung
objektiv blockieren. Des weiteren können durch nicht aufeinander abgestimmte Lagen und Maße von Invarianten jedweder
Art Kollisionen entstehen, die jedoch in der Regel durch maßliche Korrekturen leicht aufgehoben werden können. Neben
diesen offensichtlichen Versagensfällen ist der im folgenden
als Beispiel modellierte Typ von Überbestimmungen dagegen
nicht vordergründig ersichtlich, aber für den gestalterischen
Spielraum von erheblicher Wirkung. Die für den Gebraucher
günstigsten Lagen der Gebrauchszonen, Betätigungs- und Meldeelemente am Erzeugnis und die einem technischen Prinzip
(oder mehreren miteinander verbundenen) innewohnende
Starrheit, deren funktionstragende Bauelemente in ihrer Lage
zueinander und zum räumlichen Bezugssystem des Erzeugnisses plazieren zu können, lassen der Wahl der bestmöglichen
Formanlage und des darauf bezogenen konstruktiven Aufbaus
sowie der daraus formierten, integrierenden Gesamtform wenig
Freiheit. Umgekehrt können auch lagebestimmende Vorgaben
an die Konstruktion und gut arrangierte Gebrauchslagen auf die
Auswahl eines dafür räumlich kompatiblen technischen Prinzips
entscheidend einwirken, eine Tatsache, die noch immer ungern
zugestanden wird. Diese Bestimmungsrichtung wird im Bereich
der häufig und vielfältig mit dem Menschen in Kontakt stehenden Erzeugnisse unausweichlich bedeutsamer werden. Hierin
liegt auch der von der Nutzungsseite her objektive Zwang
zur Verkleinerung und dem dadurch möglichen, räumlich
flexiblen Dezentralisieren von Antrieben, Ein- und AusgabeAufbereitungen, selbst bei noch mechanischen Systemen.
Aus diesem vereinfachten Erklärungsmodell ergibt sich sehr
wirklichkeitsnah die Erkenntnis, wie leicht es zu einer gegenseitigen Überbestimmung von festen Vorgaben bzw. Festforde-
53
rungen kommen kann, die gute Lösungen für den inneren und
äußeren Produktaufbau blockiert. Hier helfen nur Entscheidungen über Prioritäten, andere Invarianten (Lösungsansätze)
zu wählen oder wo Abstriche bei den Forderungen gemacht
werden müssen. Diese Problematik ist weitgreifend: so wird die
Konstruktionsform und damit das technisch-bauliche Gerüst
der Erscheinung durch die äußere Anpassung des Erzeugnisses
an andere oder an bauliche Bedingungen der Umwelt eingegrenzt. Weiterhin können die inneren Aufbaubedingungen
der Bauteile und Baugruppen des Erzeugnisses dem jeweiligen
Vorrang gemäß die entstehende Bauform grob festlegen.
Dahinein spielen noch die notwendigen Beziehungen vom
Außenraum zum Innenraum des Erzeugnisses und umgekehrt.
Es sind Anforderungen, innere Bereiche von außen zugänglich
zu machen, für Zugriffe und Einblicke des Gebrauchers, aber
auch für das Zu- und Abführen von Arbeitsstücken, Hilfsstoffen
und Abfällen, wie von Zuleitungen und Ableitungen jeglicher
Art, soweit sie nicht zentralisiert werden können. Die Wahl
als Einzelform oder als offene Aggregatform ist hiervon stark
betroffen. Wie hier im Sinne des gebrauchsorientierten Design
komplexe Invarianten gesetzt werden und zum Lösungsansatz
beitragen können, aber auch die Gestaltungsarbeit kreativ
disziplinieren, zeigt H. Seeger9 in einer beispielhaften Studie zum
PKW-Design anhand eines auf die Nutzer bezogen generierten
Maßkonzeptes (Außen–Innen und Innen–Außen) als erste Entwurfsinvariante vor der aerodynamisch und danach der ästhetisch orientierten, um einen Karosseriegrundtyp zu formulieren.
nächsten Entwicklungsschritt auf Funktionsträger abgebildet
werden, zuerst auf Wirkeffekte jedweder Art ermöglichender
Eigenschaften. Da konkrete Funktionsträger (Bauelemente)
stets mehrere für Funktionen nutzbare Eigenschaften besitzen, wird man, wenn wirtschaftlich (im allgemeinen Sinne)
irgend möglich, diese weitgehend ausnutzen, wodurch eine
Funktionsintegration bzw. eine funktionelle Mehrfachausnutzung eines Bauelements entsteht. Das heißt nichts
anderes, als dass die Funktionsstruktur nicht mit der Baustruktur übereinstimmen wird, die bei der Aufteilung des Produktes
in Bauelemente bzw. Einzelteile und Baugruppen entsteht. Das
schließt Lösungen nicht aus, bei denen – als Funktionstrennung – jeder Teilfunktion ein Bauelement als Funktionsträger
zugeordnet wird, um z.B. Funktionen einzeln austauschen zu
können. Entsprechend der unterschiedlichen Abbildungen
Funktion – Funktionsträger – Bauelement – Baugruppe ist
die integrierende Gesamtform natürlich jeweils eine andere.
Hier liegt die mögliche Umbruchstelle zwischen der Strukturierung der Vorgeschichte zur eigentlichen Formentwicklung.
Diese Situation wird noch verschärft, wenn Baugruppen nach
technologischen Ordnungsmerkmalen gebildet werden, etwa
durch das Zusammenfassen der präzisionsmechanischen
Bauteile, oder der zur automatischen Montage und die nur
herkömmlich montierbar geeigneten Bauteile usw. Von einer
simplen Linearität dieses grundsätzlich folgerichtigen Vorgehens
(Kaskadenprinzip) im Entwicklungsprozess, kann, selbst nur
unter formbildenden Aspekten, überhaupt keine Rede sein.
Besonders zu vermerken sind neben den hier auf eine Abschlusslösung ausgerichteten Betrachtung, die festsetzenden
Wirkungen innerhalb des Entwurfs- bzw. Gestaltungsprozesses.
So wirkt bereits die Formulierung der Aufgabenstellung (die
erste Form ihres »Inhalts«) und der in ihr enthaltenen Problemstruktur in gewisser Weise präformierend auf die Struktur
der folgenden Lösungsstufen, ob ggf. bis hin zum gestalterischen Endergebnis, das ist noch sehr unklar10. Die Möglichkeit der Strukturfortpflanzung, auch ein Invarianzproblem,
ist bei der noch immer wichtigsten Art, ein Problem zu lösen,
am wirkungsvollsten, nämlich, wenn das Problem geschickt
in einfache Fragen zerlegt wird, die aus dem vorhandenen
Lösungsvorrat beantwortet werden können. Zerlegt man nun
eine problemlösende Funktion sinnfällig in eine sie erfüllende
Menge geeigneter, miteinander verbundener Teilfunktionen
(hintereinander, verzweigt, vernetzt), erfindet also eine
dementsprechende Funktionsstruktur, dann heißt das nicht
zwangsläufig, dass diese, schließlich invariante Struktur weiter
fortgepflanzt werden kann. Die Teilfunktionen müssen in einem
C: Zur Formanlage
Die Formanlage ist der kleinste gemeinsame Nenner aller zu
integrierenden formwirksamen Lösungsbeiträge, dominiert
durch die der im erweiterten Sinne ergonomischen und
technischen Bestlösung (siehe Abb. 2). Die Formanlage ist die
optimierte Anordnung und Ausdehnung der Bestandteile und
deshalb schadlos nicht zu verändern. Ihre invarianten geometrischen Eigenschaften bleiben bei allen weiteren Gestaltungsschritten erhalten. Die Gestaltinvarianz stimmt weitgehend
mit topologischen Eigenschaften überein. Die Reduktion der
geometrischen Merkmale, bis hin zur jeweiligen topologischen
Invariante jedes formwirksamen Beitrages erleichtert uns die
gewollte Integration, denn dieser hohe Allgemeinheitsgrad löst
selbst unverträgliche Unterschiede auf. Diese Lösungsbeiträge
erscheinen nur soweit im geometrischen Zustand des Erzeugnisses, wie sie, geometrisch abstrahiert, aufeinander abgebildet
werden können. Auf den Zusammenhang des Typischen mit
der Formanlage soll hier nur hingewiesen werden. Die Formanlage ist die Stelle des Übergangs zwischen der Konstitution
Elemente & Beziehungen > Beziehungsmatrix > Platzierungsgraphen
Lagezuordnung
Topologie
bloße Nachbarschaft
Lageverhältnisse
Topoproxemie
verhältnismäßige Abstände
Topometrie
Lagebestimmung
maßbestimmte Abstände
Formanlage
Abbildung 2.
54
Struktur
Konfiguration
Anordnung
oeffnungszeiten 22/2008
und der Evolution der Form und lässt sich auch als eine aus
dem Kontinuum hervorgegangene Singularität mit darauf
folgenden, von Parametern abhängigen Metamorphosen
deuten. Tritt die Formanlage diskontinuierlich als nur eine
Möglichkeit aus dem Kontinuum ihres sie einschließenden
Lösungsfeldes hervor, bildet sie zugleich die Kontinuität
aller ihrer Varianten – ein eigentümlicher Dualismus.
Aus den Beziehungen der konstituierenden, deshalb unverzichtbaren Funktionsträger untereinander (z.B. jeweils Wirkflächen,
Morpheme, Einzelteile, Baugruppen, Geräte usw. einerseits und
Gebrauchende andererseits) als Form-Elemente ergibt sich
zuerst ihre bloße, maßlich unbestimmte nachbarschaftliche
Zuordnung, die topologische Formanlage. Mit den Intensitäten (Link-Werte) der festgestellten Beziehungen werden
danach die verhältnismäßigen Abstandsunterschiede (enger/
weiter) bestimmt. Diese so durch Maßverhältnisse bestimmte
Nachbarschaften gewonnene konfigurative Invariante ist der
geometrische Keim bzw. genetische Code der angestrebten
Gesamtform aus den zu integrierenden Formelementen.
Von hier aus lässt sich gewissermaßen der vage Urzustand
der zu gestaltenden Produktform, ungebunden durch feste
Maße, locker skizzieren. In maßlich optimierte oder vorgegebene Elementelagen transformiert, entsteht nun daraus,
bei bleibenden, nun maßlich fixierten weiten und engen
Nachbarschaften, die anordnungsinvariante Formanlage,
der Ausgangspunkt für das konkrete Gestalten der Form.
Aus dieser Formanlage mit den konstituierenden Formelementen, letztlich nach Minimalformprinzipien herausgebildet, entsteht das existenzielle Minimum der Formgeometrie,
unterhalb dessen keine stabil eigenständige Form bestehen
kann. Dazu wird die Transformation der unterschiedlich intensiv
verbundenen Elemente vorzugsweise so durchgeführt, dass die
stärksten Bindungen am wenigsten gedehnt werden – eng, die
schwächsten dagegen am meisten – weit – (nach dem energetischen Prinzip der geringsten Verformungsarbeit, denkt man an
entsprechend dicke Gummifäden als Modelle der Beziehungsstärken). Allzu oft wird übersehen, dass, wenn im Verlaufe der
weiteren Entwicklung die Beziehungsintensitäten anders bewertet werden, sich dementsprechend die Nähe/Ferne der Nachbarschaften, darüber die schließliche, maßbestimmte anordnungsinvariante Formanlage ändert. Diese Vorgehensweise ist
sowohl bei dinglichen wie nichtdinglichen Positionierungsaufgaben im 2D- und 3D-Räumen anwendbar. Es gibt, selbst für große
Mengen zu positionierender, verbundener Elemente, rechnerisch/zeichnerisch leicht handhabbare Platzierungsverfahren.
Produkttypen, die sich beispielsweise weit gefasst als (größte
bis kleinste) Standort gebundene Arbeitsmaschinen identifizieren lassen, können schließlich übergreifend aus der (den)
kennzeichnenden Position(-en) des Gebrauchers zur Wirkstelle,
den prozessualen Verkettungen und den statisch-konstruktiven
Anbindungen als Archetypen bzw. Übergestalttypen erfasst
oeffnungszeiten 22/2008
werden, die nach einer logischen Evolution geordnet – übereinstimmend mit der topologischen Evolution – von I- bis
O-Formen in verschiedenen Produktklassen nachweisbar sind.
Pressen und Mikroskope sind deutliche Beispiele dafür. Ständig
aktualisiert, lassen sich hieraus produkttypbezogen im voraus
Formvarianten für Formenkataloge entwickeln. Solche Lösungsvielfalten decken auch »weiße Stellen« auf und können damit
zum Anlass für Neuentwicklungen werden. Lassen sich stets
wiederkehrende Standardsituationen von Anordnungen finden,
die jeweils als Invariante eines Produkttyps geeignet sind, liegt
es nahe, dafür – vorgreifend – einen Vorrat an Formvarianten zu
1
Eingang
6
Küche
7
Kellner
gang
2
Garderobe
5
Vorräte
8
Kuchen
Buffet
3
WC
4
Anlief.
9
Gastraum
Ordnungsschema. Viele Kreuzungen (oben),
kürzere Wege – weniger Kreuzungen (unten).
3
WC
9
Gastraum
7
Kellner
gang
2
Garderobe
8
Kuchen
Buffet
6
Küche
1
Eingang
4
Anlief.
5
Vorräte
55
entwickeln11. Ergänzbar, tragen derartige Lösungsspeicher zur
professionellen Effizienz der Gestaltung bei. Indem einerseits
bei vorliegenden Standardfällen nicht nur immer von Null
angefangen werden muss, entsteht andererseits die ständig
wirkende Herausforderung, über das hiermit schon weit
entwickelte Lösungsfeld hinaus, neues Besseres herauszufinden. Zudem werden solche Lösungsuniversalien fallweise mit
technologischen Zuordnungen hinsichtlich Verfahrenseignung
und Wirtschaftlichkeit nach und nach zu Entscheidungshilfen ergänzt. Schließlich entstehen dadurch, mit formlich
definiertem Thesaurus, die Speicherstellen, in denen entsprechend produzierte Lösungen geparkt werden können. Nicht
zuletzt, um daraus zeitlich weiterreichende Gestaltungsweisen
ableiten zu können. Diese im wesentlichen gebrauchsgeprägten Archetypen sind in ihrer Grundgestalt formsprachlich
offensichtlich kulturinvariant. Wieweit Variationen, Modifikationen und Nuancen historische, regionale oder ethnische
Besonderheiten hervortreten lassen können und unter welchen
Bedingungen, ist wohl einer umfänglichen Untersuchung wert.
D
Mit den Verhaltensmustern sind zuerst »Handlungsmuster
gemeint, die geometrische Festlegungen enthalten und auch
außerhalb und zwischen den Erzeugnissen selbst gestalthaft
wirken«12. Design schafft entweder neue Präzedenzfälle unseres
an Industrieprodukte gebundenen Lebens, oder gewährleistet neu Entfaltungsmöglichkeiten innerhalb überkommener,
bewährter, sinnvoll (noch) nicht zu verändernder Präzedenzfälle der Gebrauchssituationen. Hier werden Archetypen herausgebildet oder als Gegebenheiten auf höherem
Niveau des Gebrauchskomforts genutzt. Eher rückwirkend
auf das Design sind offensichtlich steigende Ansprüche an
jeweils kulturelle Identifikationen stärkende Handlungsmuster von zeremonieller bzw. ritueller Qualität, nicht nur bei
feiertäglichen Verrichtungen – eine verinnerlichende Reaktionsweise auf die nivellierende kulturelle Globalisierung.
Formsprachliche Invarianten
Die Reize der Gestalteigenschaften, mittels derer wir die Form
wahrnehmen, sind Signale, die der Gebraucher soweit, wie
er wahrnehmungstüchtig, willens und fähig ist, sie zu entschlüsseln und im Zusammenhang zu verstehen, als Nachricht
auswertet; nur soweit ist eine Formensprache brauchbar,
abhängig also von den habituellen und aktuellen Dispositionen des Reizobjektes und des rezipierenden Gebrauchers,
wie der zugehörigen (inneren und äußeren) Milieus. Für die
formsprachliche (kommunikative) Funktionstüchtigkeit eines
Erzeugnisses haben sich das Vorverständnis des Gebrauchers
und der ihm vermittelbare Formensinn aus dem Gebrauchszusammenhang als prägende Umstände für sein Produktverständnis und der darauf begründeten Akzeptanz durchgesetzt.
Die Wahrnehmungsgestalt zeichnet sich durch invariante
Eigenschaften aus, die selbst bei starken Verformungen erhalten
bleiben. Es sind die topologischen Eigenschaften der Form,
56
oeffnungszeiten 22/2008
9
Gastraum
3
WC
gewissermaßen als ihr genetischer Code. Selbst bei ständigen
Änderungen erkennen wir unsere Umwelt immer wieder,
en gros und en detail. Diese Beobachtungen veranlassten J.
Gibson13 anzunehmen, dass Invarianten der visuell erfassbaren Umwelt es uns ermöglichen, sie unabhängig von ihren
Veränderungen zu identifizieren. Er machte entsprechend der
Veränderungsmöglichkeiten vier solcherart Invarianten aus:
Beleuchtungsinvariante, Invariante des Beobachtungsortes,
Stichprobeninvariante, Störungsinvariante. Selbst bei stark
veränderter Beleuchtung erkennen wir die Landschaft wieder,
ebenso beim Wechseln des Beobachtungsortes usw. So sind
die früheren Annahmen, dass dazu eine bleibende Blickrichtung an einem festen Standort dafür nötig wäre, überholt.
Stetige Deformationen von Buchstaben können, wie wir seit
langem wissen, überraschend weit getrieben werden, ohne dass
deren Erkennbarkeit grundsätzlich leidet. Erst durch gewisse
desorientierende Veränderungen gelingt es, die Formbedeutung verschwinden zu lassen, auch wenn die topologische
Äquivalenz erhalten bleibt. Andererseits können die Stetigkeit
der topologischen Transformation bzw. Verformung aufhebende Maßnahmen zur Nichterkennung führen, etwa durch
geeignetes Herauslösen von Komponenten. Wir sind indessen
durch den täglichen Umgang mit der Balkenschrift bei Displays
besonders geübt, rudimentäre Gestalten zur Vollform zu
ergänzen. So macht es uns derzeit keine Mühe mehr, auch
Dank der betreffenden Dauerwerbung, das große Lambda
als A zu interpretieren. In diesem weiten Existenzbereich
einer Gestalt bevorzugen wir unbewusst die prägnanten
Ausbildungen, weil sie leichter, sicherer und schneller wahrnehmbar sind als andere, sofern nicht Präferenzen (Invarianten!) anderer Art unsere Gestaltwahrnehmung überprägen.
Erscheint bereits die anordnungsinvariante Formanlage in
prägnanter Gestalt, dann ist der Grund gelegt für gestaltfeste, mitteilungssichere, typische, ästhetisch überzeugende
und langlebige Formen, als Invarianten also. Versuche,
die Formensprache ständig zu verändern oder gar häufig
zu erneuern, sind mit der Erfindung neuer Alphabete,
Grammatiken und Bedeutungszuordnungen zu vergleichen.
Hier gilt es zwischen einem autonomen Szenesprech und einer
notwendig wachsenden Basis zur weltweiten Verständigung
der Menschen untereinander über die Dinge und mit ihnen
zu entscheiden. Dabei suchen alle Gebraucher das Produkt
mitsamt seiner Gebrauchsweise ebenso zu identifizieren, wie
sich selbst mit ihm und der Gebrauchsweise – bei dafür in
Frage kommenden Erzeugnissen sogar bis hin zum zeremoniellen oder gar rituellen Gebrauch. Das weist auf notwendige,
ggf. austauschbare kulturinvariante Anteile der Produktsprache hin. Soll allerdings ein zumutbarer, sicherer, bequemer
und effektiver Gebrauch gewährleistet werden, dann ist eine
detektivische Entschlüsselung ebensowenig zuzumuten wie die
Erfindung neuer Codes, nur der originellen Effekte wegen, sondern erfordert interkulturelle, langlebige plausible Codes und
eine eindeutige Logik für die Interpretation, Invarianten also.
2
Garderobe
1
Eingang
oeffnungszeiten 22/2008
Anmerkungen 1. A. Hückler, »Einige Design-topo-logische Ansichten von
einer Designgeometrie« | 2. Ebenda | 3. J. S.
Sharikow et al., Logik der wissenschaftlichen
Forschung | 4. A. Hückler, »Als Gestalter« |
5. A. Hückler, »Einige Design-topo-logische
Ansichten von einer Designgeometrie« | 6.
A. Hückler, »Gerätedesign« | 7. H. A. Simon,
Die Wissenschaften vom Künstlichen | 8. A.
Hückler, »Gerätedesign« | 9. H. Seeger, Generierung des Maßkonzepts | 10. Siehe auch J. S.
Sharikow et al., Logik der wissenschaftlichen
Forschung | 11. A. Hückler, »Gerätedesign« |
12. A. Hückler, »Zum Aufbau der Formen und
Bedeutungen« und F. Romero-Tejedor, »Topologische Aspekte im Cognition Design« | 13. J.
J. Gibson, Wahrnehmung und Umwelt.
8
Kuchen
Buffet
Bibliografie Gibson, J. J., Wahrnehmung und Umwelt, München,
Urban & Schwarzenberg 1982 | Hückler, A., »Zum Aufbau der Formen
und Bedeutungen«, Designwissenschaftliches Kolloquium – Burg
Giebichenstein, Halle 1987 | Hückler, A., »Als Gestalter« in: Götz, M.,
Hrsg., Der Tabasco-Effekt, Basel, Schwabe & Co. AG. 1999 | Hückler, A.,
»Einige Design-topo-logische Ansichten von einer Designgeometrie«,
Öffnungszeiten 12/2000 | Hückler, A., »Gerätedesign« in: Krause, W.,
Hrsg., Gerätekonstruktion, München, Hanser 2000 | Jung, A., Funktionale Gestaltbildung, Berlin, J. Springer 1989 | Ludwig, J., Regeln und
Verfahren zur (ingenieurpsychologischen) Anordnungsoptimierung, Berlin, Diss. A. Humboldt-Uni. 1978 | Romero-Tejedor, F., »Topologische
Aspekte im Cognition Design«, Öffnungszeiten 16/2002 | Schmigalla,
H., Methoden zur optimalen Maschinenanordnung, Berlin, Technik
1970 | Seeger, H., Generierung des Maßkonzepts, Bericht Nr. 537 IKTD
Stuttgart, Universität Stuttgart 2007 | Sharikow, J. S. et al., Logik der
wissenschaftlichen Forschung, Berlin, Akademie 1969 | Simon, H. A.,
Die Wissenschaften vom Künstlichen, Berlin, Kammerer & Unverzagt
1990.
4
Anlief
57
diplomarbeiten-corner
WS07/08 SS08
Digital Lightwriting
Diplomarbeit in Zusammenarbeit mit Jung von Matt, Hamburg
FH-Betreuung: Prof. Dr. Felicidad Romero-Tejedor | Externe Betreuung: Simone Ashoff und Dipl.-Medienberaterin Dorte Lücker
Nina Borrusch
1. Künstler DAIM
mit dem System, 2.
Arrangement des Arbeitsplatzes, 3. DAIM
testend das System,
4. Erste Ergebnisse.
Mehr dazu:
www.nextwall.de
Digital Lightwriting: ein interaktives, Motion-Capturing basiertes 3D-Zeichentool in
einer Augmented Reality-Umgebung ist bei der
Agentur Jung von Matt/next das Projekt »Tagged in Motion«
entstanden.
Am Anfang dieser Arbeit stand die Frage, wie man Streetart
und digitale Medien in einem Projekt verbinden kann. Aus
dem Gedanken, Graffiti-Kunst im Raum interaktiv erlebbar zu
machen, entstand die Idee, ein System zu entwerfen, mit dem
ein Künstler schon während der Kreation in die dritte Dimension eintauchen und interaktiv ein virtuelles Kunstwerk in der
erweiterten Realität erschaffen kann. Die Entwicklung dieses
Systems, welches auf Java und OpenGL basiert, erforderte vor
allem im Bereich des Motiontracking in einem 360° Raum
kreative, mathematische Lösungen. ARToolKit, ein Open-Source
Motiontracking System, das mit optischer Markererkennung arbeitet, bildet das Herzstück der Applikation. Damit ein Künstler
mit dem System im Raum frei zeichnen kann, braucht er zwei
Marker, die einmal seine Blickrichtung, sowie die Position seines
Malwerkzeugs repräsentieren. Ausgerüstet mit an einen portablen Rechner angeschlossenem Head-Mounted Display zur
Darstellung der überlagerten Welten, einer Wii-Fernbedienung
zur Steuerung diverser Funktionen und getrackt von minde
58
stens drei umstehenden Kameras kann so mit dem »Digital
Lightwriting« System frei im Raum schwebendes Lichtgraffiti gemalt werden, das sich in Echtzeit dreidimensional erleben lässt.
Der Graffitikünstler DAIM gab dem Tool bei seiner Generalprobe in der Hamburg Messe und Congress GmbH seinen Einstand.
Dokumentiert wurde der kleine Event mit Film- und Fotoaufnahmen, die später zu einem kurzen Film verarbeitet wurden.
Der Film ging am 17. Januar auf der firmeneigenen Webseite
www.nextwall.de online, zehn Tage später folgte die Veröffentlichung auf der Videoplattform You Tube. Mit weit über einer
halben Million Klicks wurde »Tagged in Motion« innerhalb
kürzester Zeit zu einem der erfogreichsten Viral-Spots von Jung
von Matt. Rund 10.000 Websites und Blogs griffen das Thema
auf und berichteten über das Projekt. Auf die Nachfragen
zahlreicher internationaler Interessenten hin, hat bei Jung von
Matt/next bereits die Neu-Konzeption eines professionellen,
komplett vermarktungsfähigen Digital Lightwriting-Systems für
Einsätze bei Messen, Events und Videoproduktionen begonnen.
oeffnungszeiten 22/2008
Optimisation of hair rendering
Diplomarbeit in Zusammenarbeit mit Rockstar Leeds
FH-Betreuung: Prof. Dr. Felicidad Romero-Tejedor | Externe Betreuung: Ian Bowen
Gunnar Dröge
Optimisation of hair rendering techniques
for the Wii graphics engine and Shaders
up to model 4
Videospiele und andere Echtzeitumgebungen beweisen immer mehr die Fähigkeit von Photorealismus in Simulationen.
Haar und Fell sind zwei von vielen dreidimensionalen Effekten, die dabei ins Spiel kommen. Diese prozeduralen Effekte
stehen im Kontrast zu pur polygonal definierter Geometrie.
Studio Max wurde Echtzeit-Manipulation möglich gemacht.
Eine Demoapplikation, basierend auf der proprietaeren
Engine von Rockstar Games, wurde entwickelt, welche
verschiendene Hardwareplattformen emuliert. Es wurden entsprechende Export-Pipelines implementiert.
Grafikprozessoren haben sich in den letzten Jahren für
bestimmte Aufgaben zu bis zu einer hundertfachen Leistung
von CPUs entwickelt. Shader sind Mini-Programme, die auf
Grafikchips geladen werden und durch definierte Interfaces
Teilberechnungen in Simulationen übernehmen können.
Echtzeitumgebungen profitieren äußerst effizient von dieser
Auslagerung, sind aber nicht die ausschließlichen Einsatzgebiete. Mit Shader-Technologie lassen sich solch aufwendige
Berechnungen wie die detailreichen Bewegungen der komplexen Struktur von Haaren und Fell und die entsprechenden
Illuminationsalgorithmen in Echtzeitumgebungen ausführen.
Beispiele liefern bekannte Spiele wie »Shadow of the Collossus« und die meisten Spiele des »Next Gen«-Genre, aber
auch die Forschung der grossen Grafikchip-Hersteller NVidia
und ATi profitieren von der engen Zusammenarbeit mit der
Spielebranche und führen diese Effekte als Benchmarks an.
Die Diplomarbeit ist im Allgmeinen ein Grundstein
für tiefergehende Verknüpfungen zwischen EchtzeitErstellung von prozeduralem Spiele-Content und deren
Exportierung in die projektspezifische Umgebung.
Die Diplomarbeit beschäftigte sich mit einer Projektion auf den
aktuellen Stand der Shader-Technologie und einer Einbindung
in den Produktions-Pipeline der Firma Rockstar Leeds. Durch
die Einbindung von Shadertechnologie in das 3D-Tool 3D
oeffnungszeiten 22/2008
59
diplomarbeiten-corner
Webservices der deutschen Telekom
Diplomarbeit in Zusammenarbeit mit der deutschen Telekom AG
FH-Betreuung: Prof. Dr.-Ing. Holger Hinrichs | Externe Betreuung: Dipl.-Ing. (FH) Michael Sager
Oliver Jenny
Analyse bestehender Webservices der
Deutschen Telekom AG und beispielhafte Orchestrierung zweier Services auf Basis einer BPEL-Engine
Durch das Aufkommen von Prozessmodellierungstools
und adäquaten Laufzeitumgebungen müssen vorhandene
Webservices auf ihre »Prozesstauglichkeit« untersucht
werden. Im Rahmen der Diplomarbeit sollten exemplarisch
zwei bereits in der Sprache Java implementierte komplexe
Geschäftsprozesse in Form eines BPEL-Prozessmodells umgesetzt werden. Bei den beschriebenen Geschäftsprozessen
handelt es sich um Webservices innerhalb der Geschäftslogik im Backend des Telekom Internet-Bestellsystems.
Ziel war es, die beschriebenen Prozesse visuell abzubilden
und aus selbiger Abbildung einen technisch lauffähigen
Prozess zu erhalten. Als Grundlage für die technische Prozessmodellierung dienten die mit dem ARIS-Toolset beschriebenen Geschäftsfälle der Telekom. Um eine adäquate
Umsetzung der ARIS Modelle in einen lauffähigen Prozess
zu erhalten, sollte im Rahmen dieser Diplomarbeit untersucht werden, ob eine BPEL-basierte Laufzeitumgebung
eine solche darstellt. Die Modellierung der Geschäftsprozesse erfolgte mit der Applikation Oracle BPEL Designer.
Das Ergebnis war die technische Implementierung der
Geschäftsprozesse mit den Sprachmitteln der Sprache BPEL
sowie die erfolgreiche Ausführung der Prozesse innerhalb der
Oracle BPEL-Process-Engine. Die Beschreibung der Modellierungsergebnisse sowie die Beschreibung der aufgetretenen »Fallstricke« bei der Umsetzung bildeten den Abschluss der Arbeit.
60
oeffnungszeiten 22/2008
Ergonomie und Erstellaufwand
Diplomarbeit in Zusammenarbeit mit PPI AG Informationstechnologie
FH-Betreuung: Prof. Dr.-Ing. Holger Hinrichs | Externe Betreuung: Dipl.-Inf. Jens Dittmer
Sarah Mettin
Klassifizierung von Ergonomie und Erstellaufwand in abstrahierten Bedienablaeufen grafischer Benutzeroberflaechen
eines bankfachlichen Systems
Problemstellung
Damit in den frühen Phasen der Software-Entwicklung
eine einheitliche Gestaltung geplant und geschätzt werden kann, ist eine Art Regelwerk zur Gestaltung von intuitiven Bedienabläufen notwendig. Die Aufgabe der
Diplomarbeit war es somit, einen Katalog zu erstellen,
der abstrahierte Bedienabläufe auflistet, diese in ihrer Ergonomie bewertet und ihren Erstellaufwand angibt.
Vorgehensweise
Die Bedienabläufe wurden aus der Produktfamilie TRAVIC
(TRAnsaction SerVICes), einer Software-Lösung für Finanzinstitute, herausgefiltert, abstrahiert und klassifiziert. Die Klassifizierung richtet sich nach der Zielgruppe des Katalogs – den
Entwicklern der Software. Die abstrahierten Bedienabläufe wurden visualisiert, so dass die Useraktivitäten mit der Ablaufdarstellung auf der Benutzeroberfläche verknüpft werden konnten.
Die Ergonomie der jeweiligen Darstellung wurde bewertet,
was sich aufgrund der Abstraktion nur unter Berücksichtigung
zuvor erstellter Ergonomie-Richtlinien und der jeweiligen
Ablaufsituation durchführen ließ. Die Bewertung der Ergonomie
erfolgte aufgrund einer Analyse der Zielgruppen der Software.
Ergebnisse
Die Ermittlung des Erstellaufwands für die einzelnen abstrahierten Abläufe ergab, dass der Aufwand nur für eine
bestimmte Technologie betrachtet werden kann und stark
von der Fachlichkeit abhängt. Um den Entwicklern schließlich den Katalog leicht zugänglich zu machen, wurde dieser
zusätzlich dynamisch, als Webanwendung, umgesetzt.
oeffnungszeiten 22/2008
61
diplomarbeiten-corner
Image: Produktionsbereich draeger safety
Diplomarbeit in Zusammenarbeit mit Dräger Safety
FH-Betreuung: Prof. Dr. Felicidad Romero-Tejedor | Externe Betreuung: Dipl.-Ing. (FH) Holmer Freistein
Piotr Furman
Analyse der Identitaet des Produktionsbereichs von Draeger Safety mit anschliessender Erstellung einer interaktiven
Image-DVD
In meiner Diplomarbeit erläuterte ich die theoretischen
Grundlagen zu den Themen Unternehmenskultur,
gestalterische Ansätze, Psychologie in der Werbung
und Unternehmensidentität. Nachdem ich den Produktionsbereich von Dräger Safety genau beschrieben
habe, teilte ich mir die Erstellung der Image-CD in
vier Phasen auf. Es waren die Planungsphase, Konzeptionsphase, Design- und Produktionsphase und die
Testphase. Zu den inhaltlichen Rahmenbedingungen
gehörten Punkte wie die Visualisierung der Komplexität des Produktionsbereichs, eine einfache Bedienung,
eine übersichtliche Navigationsstruktur, Gestaltung
nach der Dräger Safety CI, sowie neben der deutschen
Sprache die englische einzubinden. Die technischen
Rahmenbedingungen waren eine Auflösung von
1024 x 768 Pixel, Einbindung von selsbst erstellten
Animationen, Grafiken, Texte und Sprachaufnahmen, sowie insgesamt ein zeitgemäßes und ansprechendes
Design zu entwickeln.
griert und nach außen präsentiert werden. Denn nur mit
transparenter Kommunikation zu seinen Zielgruppen schafft ein Unternehmen Vertrauen.
Ich denke, es ist in meiner Diplomarbeit deutlich geworden, dass die Betrachtung der Identität einer großen
Abteilung, wie dem Produktionsbereich bei Dräger
Safety, die Auseinandersetzung mit den allgemeinen
theoretischen Grundlagen zu den Themen Unternehmenskultur und Unternehmensidentität voraussetzt.
Abschließend kann festgehalten werden, dass durch
die Globalisierung die Strukturen in großen Unternehmen nie von langer Dauer sind und dass die dazu
gewonnenen Mitarbeiter die Unternehmenskultur mit
beeinflussen. Diese neue Identität muss behutsam inte
62
oeffnungszeiten 22/2008
Farbe & Design unter kulturellen Aspekten
Diplomarbeit in Zusammenarbeit mit Conergy AG
FH-Betreuung: Prof. Dr. Felicidad Romero-Tejedor
Tanja Seetzen
Zusammenspiel von Farben und Design
unter Beruecksichtigung kultureller Aspekte beim weltweiten Online-Marketing
der Conergy AG
Durch die alltägliche Anwendung des Mediums Internet
werden wir mit Farben und Design in verschiedenen Bereichen konfrontiert. Unterbewusst entscheiden wir, anhand
dessen, was wir sehen, ob uns z.B. eine Website oder ein
Banner gefällt, und uns dazu verleitet, dafür weitere Zeit
für den Erhalt von mehr Informationen aufzuwenden.
Aufgrund der Internationalisierung wird oft angenommen, mit den bekannten Farben die gleiche Wirkung bei
jedem User, egal mit welchem kulturellen Hintergrund, zu
erzielen. Jedoch gibt es heutzutage immer noch signifikante Unterschiede im interkulturellen Verständnis, die
bei der internationalen Gestaltung zu beachten sind.
Damit sowohl die Internetpräsenz als auch die Aussage bzw. das Image farblich richtig interpretiert wird, ist
es entscheidend, in welchem Kontext die gewählten
Farben im Design angewendet werden. Für die Herangehensweise in der internationalen Gestaltung ist es
wichtig, sich vorher mit der Kultur, aus der die Zielgruppe
stammt, auseinanderzusetzen. Auch ist es notwendig
zu wissen, wie das eigene Land in dem anderen gesehen wird, wenn ein Unternehmen global tätig ist.
Online-Marketing bietet viele verschiedene Möglichkeiten, dem
User in kreativer Form ein Unternehmen oder Produkte näher
zu bringen. Dieser breite Anwendungsbereich und die immer
wachsende internationale Ausrichtung offerieren große Herausforderungen für jeden Designer. Das macht dieses Tätigkeitsfeld
so spannend und dynamisch. In meiner Arbeit habe ich mich
auf den Weg begeben, dieses genauer durch internationale
Interviews und Recherchen zu ergründen. Aufgrund meiner Ergebnisse habe ich gesehen, dass für eine einwandfreie kulturelle
Kommunikation viel Wissen und Offenheit erforderlich sind.
oeffnungszeiten 22/2008
63
diplomarbeiten-corner
Popularitaetsfoerderung: synje norland
Diplomarbeit in Zusammenarbeit mit dem Plattenlabel Norland Music
FH-Betreuung: Prof. Dr. Felicidad Romero-Tejedor
Elisabeth Schwarz
Webseite: http://www.synjenorland.com
Marketingkonzept sowie die Gestaltung
und Umsetzung visueller Werbemittel zur
Popularitaetsfoerderung der Kuenstlerin
Synje Norland
Die Diplomarbeit setzt sich mit der Musikindustrie
und mit der Künstler- und Musikvermarktung sowie
mit der Gestaltung von visuellen Werbemitteln am
Beispiel der Sängerin Synje Norland auseinander.
Aufgabenstellung dieser Arbeit war, ein konkretes
Marketingkonzept für die Künstlerin zu erarbeiten
sowie Werbemittel, die gestaltungstechnische Werbewirksamkeitskriterien berücksichtigen, zu gestalten
und umzusetzen. Hierzu zählten eine neue Künstlerwebseite, ein Handzettel und ein Werbebanner.
Das Marketingkonzept sollte die Grundlage für die Vermarktung und Promotion des Debütalbums und seiner
Künstlerin bilden. Ziel der Vermarktung ist die Steigerung
des Bekanntheitsgrades sowie die Gewinnmaximierung.
Zur Konzeptentwicklung wurden eingangs das Umfeld der Musikindustrie und die Entwicklung des
Musikmarktes näher betrachtet. Auch wurde eine
Analyse, die das Verhalten und die Einstellungen
64
von Musikhörern untersucht, durchgeführt.
Die aus der Analyse gewonnenen Erkenntnisse sind
in das zu entwickelnde Konzept mit eingegangen.
Für die Werbemittel wurde ein zur Künstlerin passendes
Design gesucht, welches die Musikrichtung erkennen
lässt und bei der Zielgruppe Sympathie erzeugt. Bei
der Erstellung der Werbemittel sind Untersuchungsergebnisse zur Künstlerdarstellung verschiedener Musikrichtungen in die Gestaltung mit eingegangen.
Die erstellte Webseite wurde auf Benutzerfreundlichkeit
getestet, die Entwürfe von Werbebanner und Flyer wurden
mittels einer Umfrage auf Erkennbarkeit und Sympathie
überprüft. Die überwiegend positiven Befragungsergebnisse zeigten, dass das Design seine Anforderungen erfüllt.
oeffnungszeiten 22/2008

Documentos relacionados