virtuelle räume haben fenster - Have you tried turning it off and on
Transcrição
virtuelle räume haben fenster - Have you tried turning it off and on
Freie Universität Berlin FB Philosophie und Geisteswissenschaften Institut für Theaterwissenschaft VIRTUELLE RÄUME HABEN FENSTER Untersuchungen an den Schnittstellen zwischen Virtualität und Alltagserfahrungen Magisterarbeit zur Erlangung des akademischen Grades Magister Artium (M.A.) im Fach Theaterwissenschaft eingereicht von Armin Hempel geb. am 12.06.1980 in Kassel Erstgutachterin: Prof. Dr. Doris Kolesch Zweitgutachter: PD Dr. Matthias Warstat Berlin, den 27. Juni 2008 Im Grunde genommen sind wir elektronische Affen. Wir erwachen in dieser elektronischen Morgendämmerung, und dort, vor dem heller werdenden Himmel, ragt dieses große schwarze Rechteck auf. Und wir strecken die Hand aus und berühren es und fragen: »Ist es WAP-fähig? Können wir Sex damit haben? Kann man es in einer anderen Farbe bekommen? Wird es billig angeboten, weil nächsten Monat der Monolith 2 mit eingebautem PDA für den gleichen Preis herauskommt? Können wir Sex damit haben? Sieh nur, hier steht ›Viel Geld im Monat verdienen, ohne etwas dafür zu tun‹! Meine Güte, können wir es benutzen, um Schweinen damit eins auf die Rübe zu geben? He, können wir Sex damit haben?« Und wie Affen, die zum ersten Mal Stöcke, Steine und Feuer ausprobieren, hauen wir uns auf die Füße, lassen versehentlich Steine auf die Kinder fallen, bekommen akute Probleme damit, Sex mit dem Feuer zu haben, und so weiter. Wir müssen lernen, damit klarzukommen. Terry Pratchett Inhalt Prolog 5 1. Einleitung – Der blutarme digitale Raum 7 1.1. Was sind virtuelle Räume? 10 1.2. Zum Aufbau der Arbeit 11 1.3. Zum aktuellen Forschungsstand 15 2. Körperlichkeit 18 2.1. Drei Formen virtueller Körperlichkeit 18 2.2. Merkmale der Körpersprache und Körperlichkeit im virtuellen Raum 20 2.2.1. Abschaffung / Ausgrenzung des Leibes? 22 2.2.2. Die Organe des in der Virtualität geborenen Körpers 23 2.2.3. Repräsentationsflächen - Das Äußere der in der Virtualität geborenen Körper 25 2.2.4. Zurück zur Körpersprache 25 2.3. Voyeuristisch, gar masochistisch? Zur bewussten Aufgabe der Privatsphäre 26 2.4. Handeln, Erinnern, Lernen, Spielen 28 2.5. Der virtuell-soziale Körper – 24/7-Kommunikationsgemeinschaften 30 2.6. Interfaces – Verbindungsstellen zwischen Virtualität und biologischem Körper 32 2.7. Digitales Sterben und Not-So-Tiny-Sex 33 2.8. Auf der Suche nach Aufmerksamkeit 35 3. Authentizität 37 3.1. Urheberrecht und Creative Commons – Fesseln oder Flügel einer neuen Welle der Kreativität? 39 3.2. Automatische Kreativität? 41 3.3. last.fm – Authentisch, weil omnipräsent? 42 3.4. Von der Echtheit der Kopie 45 3.5. Die Ökonomie der Aufmerksamkeit 47 3.5.1. Vom Radio zum Web 2.0 – Brechts Radiotheorie und das Internet 49 3.5.2. Informationelle Massenbestäubung 52 3.5.3. Zur medialen Inszenierung von Authentizität 53 3.5.3.1. Das Netz vergisst (fast) nichts 54 3.5.3.2. Eine Ästhetik der Aufmerksamkeit 56 3.5.3.3. Nicht, wer am lautesten schreit… 58 3.6. Echt ist, was ich sehen kann. 58 3.7. Echt ist, was ich anfassen kann. 62 4. Materialität 63 4.1. Von der Materialität des Netzes 64 4.2. Ritzen, Kratzen, Stechen – Haptik und Prozessualität des Schreibens 65 4.3. Tippen, Kopieren, Einfügen und Löschen – die schleichende Abkehr von der emotionalen Schreiberfahrung 65 4.4. Die Rückkehr des Drückens: Vom Anschmiegen der Gadgets 71 4.5. Exkurs – Turings Träume: Von ELIZA zu Rolly 73 4.5.1. Der Stellenwert des Schachspiels 73 4.5.2. Schauspielqualitäten als Maß der Intelligenz? 74 4.5.3. ELIZA – Das berühmteste „intelligente“ Programm der Welt 75 4.5.4. Love the machines! – Von der Projektion zur emotionalen Bindung zwischen Mensch und Maschine 76 4.6. Von der Maus zu Minority Report – Die haptische Revolution im Umgang mit visuellen Medien 80 5. Interaktivität 84 5.1. Die kollektive Geburt sozialer Software 85 5.2. Interaktive Massenphänomene 87 5.3. Interaktivität, Intuition und Zugänglichkeit 91 5.4. Interaktive Omnipräsenz – Location-Based-Services 92 5.5. Ästhetik und Interaktivität – Yugo Nakamura 93 6. Fazit 96 6.1. Zur Körperlichkeit 97 6.2. Zur Authentizität 98 6.3. Zur Materialität 98 6.4. Zur Interaktivität 99 6.5. Schlussbemerkungen 100 I Glossar 101 II Literaturverzeichnis 105 III Abbildungsverzeichnis 111 IV Erklärung 112 Prolog Es ist ein ganz normaler Morgen im Februar. Ich trinke einen Milchkaffee und überfliege mit erlahmendem Interesse die über Nacht herein gekommenen Mails, ich sortiere Spam aus und wühle mich durch RSS-Feeds und die aktuellen Nachrichten. Danach besuche ich Spreeblick und stolpere schnell über die Überschrift When Jane became insane1 und halte kurz inne. Spreeblick-Autor René fragt sich in diesem lakonischen Posting, ob es ethisch vertretbar sei, die Planung des eigenen Selbstmordes in einem anonymen Blog zu veröffentlichen. Das zieht meine Aufmerksamkeit auf sich und ich folge dem Link zur Webseite 90dayjane. blogspot.com. Auf den ersten Blick ein ganz normales Blog, schwarzer Hintergrund, weiße und violette Schrift. Die einzelnen Postings sind mit einer Art Countdown versehen, vor jeder Überschrift ist eine bestimmte Anzahl von Tagen vermerkt: Day 86: Dress – Day 85: Stop This? – Day 84: A Date. Für ein relativ junges Blog mit nur einigen wenigen Beiträgen von einer völlig anonymen Autorin sind erstaunlich viele Leserkommentare vorhanden, den Beitrag Day 84 – A Date haben beispielsweise 684 Leser kommentiert. Rechts neben den Postings, in der Sidebar, befindet sich ein kleines Foto der Autorin, gefolgt von einem kurzen Text, der mit About Me überschrieben ist. Was ich nun lese, lässt mir einen Schauer über den Rücken laufen: »I am going to kill myself in 90 days. What else should i say? This blog is not a cry for help or even to get attention. It’s simply a public record of my last 90 days in existence. I’m not depressed and nothing extremely horrible has lead me to this decision. But, does it really have to? I mean, as an atheist I feel life has no greater purpose. My generation has had no great depression, no great war and our biggest obstacle is beating Halo 3. So, if I feel like saying ‚game over‘, why can’t I? Anyway, I hope you enjoy my thoughts as the clock runs out. Also, if blogspot takes this down before i‘m gone just go to www.90dayjane.com. Please don’t attempt to ‚help‘ me. If you want to truly help, please send me ideas on how to do the deed. thx-Jane« Kann das wahr sein? Kündigt dort wirklich die bis auf ihren Vornamen selbstverständlich anonyme Jane ihren eigenen Selbstmord an und bittet ihre Leserschaft um Hinweise, was geeignete Methoden, den perfekten Zeitpunkt, die passende Kleidung und den richtigen Ort für dieses Vorhaben angeht? Oder handelt es sich nur um eine ausgeklügelte Werbestrategie, so genanntes Grassroot- oder Guerilla-Marketing, welches die Aufmerksamkeit der Internetgemeinde auf ein spezielles Produkt lenken soll? Die zweite Erklärung erscheint mir plausibler, denn normalerweise sind es immer die Werber oder die Sex-Industrie, welche ein neues Medium sehr früh zu ihren Gunsten zu nutzen wissen. Nur, um welches Produkt sollte es sich dabei handeln? Vielleicht eine Kampagne für die Sterbehilfe? Das Bestatterblog, in welchem ein Angestellter eines Bestattungsunternehmens über die Skurrilitäten seines Alltages berichtet, ist in der deutschsprachigen Blogosphäre mittlerweile äußerst bekannt, handelt es sich bei 90DayJane möglicherweise um etwas Vergleichbares? 1 Spreeblick (2008, Internet): When Jane became insane. 5 PROLOG Ich lese weiter. Die spärliche Ausstattung mit dafür um so aussagekräftigeren Bildern2 lässt die skurrile Ankündigung nur noch authentischer wirken. Handelte es sich um ein Fake, so denke ich mir, inszeniert durch eine Agentur mit kommerziellen Hintergedanken, wäre das Blog mit Sicherheit reichhaltig bebildert. Oder gehört auch das zur Strategie? Immer verunsicherter tauche ich weiter ein und klicke mich durch das Blog; ich lese es – der aktuelle Beitrag ist Tag 83, also Nummer acht – komplett durch. Zwischendurch frage ich mich, ob ich herausfinden könnte, wer die Autorin wirklich ist, welche Gründe sie hat, aus dem Leben treten zu wollen – denn darüber lässt sie mich völlig im Unklaren. Ob ich ihr irgendwie helfen kann, ob ich sie durch geschicktes Kommentieren von ihrem Vorhaben abbringen könnte, das sind die Fragen, die mich umtreiben. Ich empfinde Mitleid und bin um ihr Leben besorgt. Je weiter ich lese, desto mehr schaudert es mich; nach einer ergebnislosen Recherche nach ihrem Namen und der Lektüre einiger haltloser Spekulationen über ihre wahre Identität gebe ich auf und wende mich tief bewegt dem Alltagsgeschäft zu. Dieses Alltagsgeschäft besteht momentan darin, eine Arbeit über verschiedene Merkmale eines noch nicht näher definierten virtuellen Raumes zu schreiben. Nach einigen Minuten der Auseinandersetzung mit der Definition dieser Virtualität überkommt mich der Gedanke, dass ich gerade ein perfektes Beispiel für eine intensive mentale und körperliche Erfahrung, in genau diesem virtuellen Raum, mit dem ich mich auseinandersetzen möchte, erlebt habe. Zudem bewegte mich das geradezu virtuose Spiel der Autorin mit einem Eindruck von Authentizität. Ich habe dieser Frau abgenommen, dass sie sich wirklich umbringen will und ich habe ihr Gefühle entgegen gebracht, die in einer virtuellen Umgebung nicht selbstverständlich sind: Mitleid, Angst und Traurigkeit haben mich genauso beschäftigt wie Hilfsbereitschaft und Sorge. 2 Beispielsweise zeigte ein Foto zwei deutlich weibliche und zum Betrachter gekehrte Hände, deren Handgelenke mit einer Tätowierung versehen sind: Vergleichbar mit dem Schnittmuster einer Kostümbildnerin wird hier symbolhaft die Anweisung vermittelt, an welcher Stelle die Pulsadern zu durchtrennen sind. 6 ERSTES Kapitel / Einleitung Der blutarme digitale Raum »Die technische Neu- und Rekonstruktion der Welt schafft eine zweite Natur, in der wir uns bewegen, eine zweite Natur, die sich ständig ändert und dabei mehr und mehr artifiziell wird. (…) Der Streit um das Begriffspaar Natürlich/Künstlich ist damit immer schon ein Streit um die aktuellen und künftigen technischen Vermittlungen der Wahrnehmung – also um die historische Form von Produktion und Medien.«3 Das Begriffspaar Natürlich/Künstlich kann analog zum Paar Real/Virtuell aufgefasst werden. Wenn die Worte Realität und Virtualität in einem Satz zusammengebracht werden, wenn es um Schnittstellen zwischen Realität und Virtualität geht, so drängt sich sofort der Begriff der virtuellen Realität auf. Was ist eigentlich diese virtuelle Realität, und – sofern sie existiert – gibt es ein entsprechendes Pendant in Form einer realen Virtualität? Ist Virtual Reality4 nur ein überstrapaziertes Schlagwort der 90er-Jahre, welches mittlerweile in den allgemeinen Sprachgebrauch übergegangen ist? Per definitionem handelt es sich bei VR-Szenarien um die Darstellung und gleichzeitige Wahrnehmung der Wirklichkeit und ihrer physikalischen Eigenschaften in einer in Echtzeit computergenerierten, interaktiven virtuellen Umgebung.5 Ihre Vorläufer findet VR im Panorama des 18. Jahrhunderts: Robert Barker patentierte im Juni 1787 ein Verfahren, das es ermöglichte, eine im Vollrund angebrachte Leinwand perspektivisch korrekt zu bemalen. Steht man auf einer Plattform in einem derart ausstaffierten Raum, ermöglicht diese Technik einen natürlich wirkenden Eindruck des Gemäldes. Der Unterschied zur virtuellen Realität besteht darin, dass es bei Barkers Verfahren unmöglich ist, sich innerhalb der Szenerie zu bewegen.6 In VR-Szenarien wird die Perspektive der bildlichen Ebene immer aufs Neue dem Standpunkt des Betrachters angeglichen und berechnet, so dass ein realitätsnäheres Eintauchen in die Virtualität möglich wird. VR-Szenarien sind ein Phantasma der neunziger Jahre, welches bis heute nur im fiktionalen Rahmen erreicht wird, etwa in der Matrix-Trilogie oder in der Star-Trek-Saga. In diesen High-Tech-Epen vermitteln hochentwickelte Computersysteme eine perfekte Sinnestäuschung, sei es unter Zuhilfenahme eines direkten Zuganges zum Zentralnervensystem in Matrix oder auf der Basis von Holographien (wie es beim Holo-Deck in Star Trek geschieht). Mit heutigen technischen Mitteln kann diese perfekte Sinnestäuschung nicht er- 3 Bolz (1994), S. 29 4 Im Folgenden als VR-Szenario oder Virtuelle Realität bezeichnet, um sie vom Begriff des virtuellen Raumes abzugrenzen. 5 Vgl. Wikipedia (2008, Internet), Artikel Virtuelle Realität. 6 Vgl. Grau (2002), S. 52 7 DER BLUTARME DIGITALE RAUM Abbildung 1: Tron / Disney 1982 Abbildung 2: Patti Maes Installation Alive (Artificial Life Interactive Video Environment) Abbildung 3: Szenen aus World of Warcraft (links) und Second Life (rechts) 8 DER BLUTARME DIGITALE RAUM reicht werden, weswegen eine heutzutage künstlich erzeugte Realität keinesfalls als realistisch wahrgenommen werden kann. Könnte diese aber erreicht werden, so handelte es sich ohne Zweifel um Virtuelle Realität. Wenn wir dieses Wort benutzen, sprechen wir also von einem Phänomen, welches nicht existiert. Vor dem Tag allerdings, an dem die sie zu existieren beginnt, warnt der Medienwissenschaftler Lev Manovičh: »From that moment on, we will carry our prisons with us – not in order to blissfully confuse representations and perceptions (as in cinema), but rather always to ‚be in touch‘, always connected, always ‚plugged in‘. The retina and the screen will merge.«7 Manovičh spricht von Gefängnissen, wenn er von Werkzeugen zur Medienrezeption spricht. Er meint damit die Beobachterperspektive, in die man ganz automatisch gezwungen wird, sobald man vor einem wie auch immer gearteten Kunstwerk steht, sei es ein Bild, eine Skulptur, ein Theaterstück oder ein Video. Und er prophezeit, dass wir diese Gefängnisse mit uns tragen werden, sobald die technischen Möglichkeiten dazu gegeben sind: »Wir werden unsere Gefängnisse mit uns führen, (…) um miteinander in Verbindung zu bleiben.« Manovičhs The Language of New Media steht mit dieser Gefängnismetapher und seiner allgemein eher kulturpessimistisch anmutenden Sichtweise auf neue Medien und deren Einfluss auf unser Leben bei weitem nicht allein – Medienwissenschaftler glaubten und glauben an VR, fürchten aber deren Auswirkungen auf unser Leben, während andere Philosophen und Soziologen am Ende des zwanzigsten Jahrhunderts kaum einen Zweifel an der Vermutung zu hegen scheinen, dass die virtuelle Realität eine Totgeburt ist.8 An sich stellt eine solche Meinung natürlich kein Problem dar, denn die wie auch immer gestaltete virtuelle Realität existiert bisher nur in der Phantasie, meist in dunklen Varianten dieser. Die VR wurde erstmalig im 1982 erschienenen Disney-Film Tron (Abbildung 1) thematisiert, in dem die Hauptfigur Fevin Flynn (Jeff Bridges) durch ein bösartiges Computerprogramm (MCP, Master Control Program) mittels eines Laserstrahls digitalisiert und in den „Computer“ versetzt wird. Dieser Computer ist ein VR-Szenario, in welchem Programme – verkörpert durch Schauspieler – unter der Herrschaft dieses Master Control Programs leben und in verschiedenen Spielsituationen gegeneinander antreten. Allen fiktiven VR-Szenarien gemeinsam ist das Eintauchen des Betrachters in eine computergenerierte Wirklichkeitssimulation, welche durch eine ausgefeilte Sensorik Eingaben erhält und durch andere Schnittstellen Informationen an die Sinnesorgane des Benutzers zurückgibt. Die Sensorik misst dabei die Körperbewegungen, die anderen Schnittstellen sind direkt an den Sinnesorganen angebracht: 3D-Brillen, VR-Anzüge und Datenhandschuhe sind das für das Betreten eines virtuellen Raumes zwingend erforderliche Instrumentarium. Ein VR-Szenario ist der Idealtypus des immersiven Mediums.9 7 Manovičh (2001), S. 114 8 Beispielsweise sei hier nur Jean Baudrillard genannt, der gleich ein Requiem für die Medien komponiert hat. Ersch. in Baudrillard (1978), S. 83-118 9 Ich beschränke mich in dieser Arbeit auf nicht-immersive virtuelle Räume. Beeindruckende Körpererfahrungen in immersiven virtuellen Räumen (z.B. Höhenangst) werden beispielsweise im Text Verschwindet 9 DER BLUTARME DIGITALE RAUM Leider wird die oben angedeutete skeptische Sichtweise verschiedener Medien- und Kulturwissenschaftler auf solche VR-Szenarien, auf die Betrachtung der gesamten Virtualität bzw. auf die aller möglichen Formen virtueller Räume ausgeweitet, obwohl die Virtuelle Realität nur einen winzigen Teilbereich der denkbaren virtuellen Räume darstellt. Wenn ich in diesem Text die Bezeichnung „virtueller Raum“ verwende, sind damit aber ausdrücklich nicht diese fiktiven VR-Szenarien gemeint, die sowohl mit dem heutzutage verfügbaren technischen Instrumentarium nicht umsetzbar sind als auch für die meisten Menschen wahrscheinlich so uninteressant und umständlich zu bedienen wären, dass sie es niemals zur Marktreife bringen würden. Auch ist das künstliche Versetzen z.B. eines Museumsbesuchers in eine virtuelle Umgebung, in der dieser mit computergenerierten Figuren interagieren kann, wie es in Patti Maes Installation Alive (Abbildung 2) praktiziert wurde, kein Beispiel für einen virtuellen Raum, wie ich ihn untersuchen möchte. Die virtuellen Räume, welche ich untersuchen möchte, haben – gewissermaßen durch die Hintertür und fast unmerklich – Einfluss auf unser aller Leben bekommen: Soziale Netzwerke, Online-Communities, das Web 2.010 und Online-Computerspiele berühren Millionen von Menschen, sie bieten ihnen Kommunikationsmittel und Präsentationsflächen. Alle untersuchten Phänomene verbindet der Gebrauch von aus dem phänomenalen Raum übernommenen Metaphern, um sie abzugrenzen und zu definieren. Das Augenmerk dieser Arbeit soll auf den Fenstern dieser virtuellen Räume liegen, sie untersucht die Berührungsstellen, welche eine Verbindung zwischen Realität und Virtualität schaffen. Es geht also nicht um eine Flucht aus der Realität in den virtuellen Raum hinein, sondern um das Zusammenspiel zwischen virtuellen und phänomenalen Räumen, um die brandneuen Bindeglieder zwischen Online- und Offline-Welt. 1.1. Was sind virtuelle Räume? Virtuelle Räume sind Räume, die sich einerseits nicht verorten lassen, trotzdem aber zahlreiche Interaktionsmöglichkeiten bieten. Die in dieser Arbeit behandelten virtuellen Räume sind zum Beispiel nicht-immersive soziale Netzwerke wie MySpace, Facebook oder StudiVZ. Genau wie die Möglichkeiten des virtuellen Raumes unbegrenzt sind, scheinen auch diese Räume selbst nicht eingrenzbar zu sein, zumindest nicht im geographischen Sinne. Es gibt keinen Fußboden, keine Decken oder Wände. Wo aber können solche Räume innerhalb einer aus Bits, Bytes und Pixeln zusammengesetzten, rein virtuellen Umgebung – scheinbar ohne jegliche räumliche Dimensionen – konstituiert werden? In den behandelten virtuellen Räumen sind Verweise auf geometrische Räumlichkeit dennoch sehr gebräuchlich, um sie zu definieren und von anderen Phänomenen abzugrenzen: Es gibt ein „Drinnen“ und ein „Draußen“, man kann im Zusammenhang mit Erfahrungen in der Körper? von Sybille Krämer beschrieben. Vgl.: Krämer in Maresch / Werber (2002), S. 49-68 10 Der Oberbegriff Web 2.0 steht in diesem Zusammenhang für das „moderne Internet“, für die Blogosphäre, für Social Networks und für Location-Based-Services. Eine nähere Erklärung ist im Glossar dieser Arbeit zu finden. 10 DER BLUTARME DIGITALE RAUM virtuellen Räumen sowohl von einem Gefühl bedrückender Enge befallen werden als auch befreiende Weite empfinden. Um die Grenzen zwischen diesen Räumen zu überwinden oder sie überhaupt zu betreten, ist es nötig, sich auszuweisen um dann nach einem Login-Vorgang hineingelassen zu werden – genau, wie es an jeder geographischen Ländergrenze oder beim Einlass in eine geschlossene Gesellschaft verlangt wird. Es ist zwingend notwendig, bestimmte Parameter für eine genauere Untersuchung des virtuellen Raumes auszuwählen. Welche Parameter könnten dies sein? Ich möchte versuchen, bei der Auswahl dieser Parameter nicht dem allgegenwärtigen Kulturpessimismus verfallen; Ich stellte mir die Frage, welche Merkmale den virtuellen Räumen von vielen Medientheoretikern der neunziger Jahre bis zur Jahrtausendwende in besonderer Weise abgesprochen werden, welche Eigenschaften einer virtuellen Realität negiert werden, um einen Gegenpol zur „echten“, anfassbaren Realität zu schaffen. Es sind hauptsächlich diese vier Kennzeichen, die angeblich die Wirklichkeit von Erfahrungen innerhalb virtueller Räume unterscheiden: Körperlichkeit, Authentizität, Materialität und Interaktivität als konstitutive Merkmale eines virtuellen Raumes. 1.2. Zum Aufbau der Arbeit Es stellt sich als verbreiteter Standpunkt heraus, dass Erfahrungen innerhalb virtueller Räume diese Eigenschaften vermissen lassen: Ein virtueller Raum ließe sich schließlich nicht befühlen, er sei blutleer und immateriell. Das Internet habe keine Wände und keine Türen, es bestehe höchstens aus meistenteils unvollkommenen und bei weitem nicht authentischen Repräsentationen.11 Sogar diese böten nur den Ansatz eines phänomenalen, eines greifbaren Eindrucks. Denn alles, was im Normalfall unter Körperlichkeit verstanden wird, fußt zu weiten Teilen auf dem Moment der Berührung: Was man nicht anfassen kann, ist nicht vorhanden, was sich nicht berühren lässt, ist materiell nicht erfahrbar. Demzufolge entziehen sich virtuelle Räume einem Eindruck von phänomenaler Körperlichkeit. Es existieren jedoch einzelne, sehr deutlich auszumachende Momente von virtueller Körperlichkeit in diesen Räumen: Einerseits sind verschiedene Formen der Körperlichkeit in einem immensen Ausmaß zu beobachten – imaginierte Körper werden konstruiert, beispielsweise, indem in Social Networks der Gestaltung der konkreten Körpermerkmale eines Avatars ein hoher Stellenwert beigemessen wird. Auf der anderen Seite wirken virtuelle Räume an ihren Schnittstellen direkt auf den Körper eines Nutzers, sei es beim Umgang mit einem Steueroder Ausgabegerät, oder seien es die ungewöhnlich anmutenden, fast kultischen Rituale, welche verschiedenste Mitglieder von Social Networks in ihrem Offline-Leben ausüben.12 Drittens ist eine Form der virtuellen Körperlichkeit zu beobachten, die ich im Folgenden den 11 Selbst den virtuellen Räumen gegenüber grundsätzlich positiv eingestellte Autoren sprechen der Virtualität diese Eigenschaften ab. Derreck de Kerckhove listet beispielsweise als erstes, grundlegendes und konstitutives Merkmal der Virtualität die Immaterialität auf. Vgl. de Kerckhove (1995), S. 172 ff. 12 Siehe Kapitel 2.8. der vorliegenden Arbeit: Digitales Sterben und ein bisschen Sex. 11 DER BLUTARME DIGITALE RAUM in der Virtualität geborenen Körper13 nennen werde. Die Auswahl der dabei betrachteten Untersuchungsgegenstände ist bewusst sehr breit angelegt, um verschiedene virtuelle Räume und ihre Eigenschaften untersuchen zu können: Im Kapitel zur Körperlichkeit soll das Hauptaugenmerk meiner Untersuchung auf sozialen Netzwerken wie Facebook, StudiVZ und MySpace liegen. Daran anschließend soll das Anfang 2005 von Blizzard Entertainment veröffentlichte World of Warcraft (Abbildung 3) als Beispiel für das Genre der Mehrspieler-Online-Rollenspiele14 dienen. Ein ähnlich aufgebauter, wenn auch nicht so erfolgreicher Vertreter dieser Gattung ist beispielsweise das in medientheoretischen Schriften oft behandelte Final Fantasy XI. Neben den Online-Rollenspielen, bei denen vom Spieler mittels der Steuerung eines Avatars durch einen virtuellen Raum verschiedenste Aufgaben bewältigt werden müssen, zähle ich auch das komplette Genre der virtuellen Online-3D-Welten, deren bekanntester Vertreter in Linden Labs Second Life (Abbildung 3) besteht, zu dieser Kategorie. An diesen Beispielen möchte ich mich nach einer kurzen Einführung in den aktuellen Forschungsstand zum Thema dem Phänomen der Körperlichkeit im virtuellen Raum nähern. Im Prolog dieser Arbeit wird deutlich, dass ein Erlebnis im virtuellen Raum durchaus authentisch sein kann. Fragen zur Glaubwürdigkeit der Inhalte virtueller Räume bilden den Gegenstand eines angeregten Diskurses.15 Ich werde mich mit dem Begriff der Authentizität und – damit untrennbar verbunden – der Aufmerksamkeit im virtuellen Raum, vor allem bezogen auf die so genannte Blogosphäre16, befassen. Der Großteil der aktuellen Publikationen, die sich mit diesem Thema befassen, bedient sich ökonomischer Termini, man schreibt beispielsweise vielfach von der »Ware Aufmerksamkeit«.17 Ohne einen damit zusammenhängenden florierenden Werbemarkt wäre der virtuelle Raum Blogosphäre nicht vorstellbar. Der Begriff der Authentizität hängt eng mit Fragen von Originalität und Kopie zusammen, die im digitalen Zeitalter eine sehr bedeutende Rolle spielen. Ein Exkurs zu Walter Benjamins Kunstwerkaufsatz18 – angewandt auf das Phänomen digitalisierter Musik und die Plattform last.fm, die den virtuellen Raum der Musikhörer darstellt – scheint hier also angebracht und wird das dritte Kapitel einleiten. 13 Siehe Kapitel 2.1. der vorliegenden Arbeit: Drei Formen virtueller Körperlichkeit. 14 Engl. MMORPGs, also Massively-Multiplayer-Online-Role-Playing-Games, siehe Glossar der vorliegenden Arbeit. 15 Als Beispiel sei hier die oft gestellte Frage nach der Zitierfähigkeit der Online-Enzyklopädie Wikipedia oder generell von Internetquellen genannt. Siehe Kapitel 5.2. der vorliegenden Arbeit: Interaktive Massenphänomene. 16 Der Begriff Blogosphäre beschreibt gleichzeitig das Netzwerk aus allen bekannten Blogs und den Kommunikationsapparat, der diese verbindet. (Die Definition des Begriffes Blog ist umstritten. Die meines Erachtens neutralste Art und Weise, Blogs zu beschreiben, lautet wie folgt: Blogs sind Internet-Publikationen in chronologischer Reihenfolge, bei denen der neueste Beitrag an oberster Stelle steht). Ich begreife die Blogosphäre als virtuellen Raum. 17 Vgl. Friebe / Lobo (2006), S. 218 18 Benjamin (1974) 12 DER BLUTARME DIGITALE RAUM Im Anschluss daran befasse ich mich mit dem Begriff der Materialität. Ich werde mich mit der Materialität einerseits im konkreten Umgang mit Werkzeugen, mit Interfaces, die zum Eintritt in diesen Raum notwendig sind, andererseits mit der Materialität der Hardware, die den Virtuellen Raum bedingt, befassen. Beginnen möchte ich mit einem Exkurs zu Vilém Flusser, der in seinem Gesten-Band eine Phänomenologie des Schreibvorganges entwickelt. Flussers Essay beschreibt die Geste des Schreibens, die sich vom Kratzen und Ritzen eines Griffels beim Einschreiben ausgehend bis zur Erfindung der hämmernd-prägenden Schreibmaschine einschneidend verändert hat. Auf Basis dieses Textes beschreibe ich den gewohnten Umgang mit digitaler Datenverarbeitung, welcher meines Erachtens hauptsächlich dafür verantwortlich ist, dass ein digitaler virtueller Raum als blutleer, als nicht materiell, nicht körperlich wahrgenommen wird. Davon ausgehend werde ich neuartige Technologien beschreiben, die im Begriff sind, diesen Umgang zu verändern. Dabei berücksichtige ich neueste Entwicklungen sowohl auf Hardware- als auch auf Software-Ebene. Während die Auswahl in Bezug auf mangelnde Körperlichkeit und Blutarmut sowie auf fehlende Materialität und Authentizität leicht nachvollziehbar ist, stellt der Interaktivitätsbegriff den komplexesten Untersuchungsgegenstand dar: Wie komme ich darauf, dass dem virtuellen Raum seine Interaktivität abgesprochen wird, gerade weil es doch fast schon zum Allgemeinwissen zählt, dass der Umgang mit einem Computer oder mit dem Internet als Grundvoraussetzung die Interaktivität beinhaltet. Lev Manovičh beginnt das Kapitel What New Media is Not im inzwischen zum Standardwerk avancierten The Language of New Media mit sechs Feststellungen, die populäre Irrtümer in Bezug auf Neue Medien aufdecken sollen. Der sechste Punkt dieser Aufzählung lautet wie folgt: »6. New Media is interactive. In contrast to old media where the order of presentation is fixed, the user can choose which elements to display or which paths to follow, thus generating a unique work. In this way the user becomes the co-author of the work.«19 Manovičh versucht im nun folgenden Kapitel The myth of interactivity deutlich zu machen, dass jegliche Art von Kunstrezeption Interaktivität voraussetzt. »Therefore, to call computer media „interactive“ is meaningless – it simply means stating the most basic fact about computers. (…) All classical, and even moreso modern, art is „interactive“ in a number of ways.« Genau hier liegt das Problem. Interaktivität ist zum Allgemeinplatz geworden. Sie war angeblich schon immer da, gerade im Diskurs über bildende Kunst und Musik ist sie zum Schlagwort herabgesunken. Das Sprechen über die Rezeption eines Kunstwerks, gleich, ob es sich um medial konnotierte Kunstwerke wie Videos oder Musik oder Museumskunst handelt, ist ohne einen Rückbezug auf die sprichwörtliche Interaktivität scheinbar unmöglich geworden. Interaktivität ist offensichtlich zu einem fast beliebigen Charakteristikum jeglicher Art von Rezeption geworden. Dies wird dadurch legitimiert, dass jede Art der Rezeption einen indi19 Manovičh (2001), S. 49 13 DER BLUTARME DIGITALE RAUM viduellen Rezipienten voraussetzt, der sich von allen anderen Zuschauern unterscheidet und demzufolge auch anders, eigenständig wahrnimmt. Da nicht alle Arten der Wahrnehmung gleich oder wenigstens miteinander vergleichbar sind, wirkt die jeweilige Verfassung des Rezipienten rekursiv ko-konstituierend auf das Kunsterlebnis. Nur – ganz banal gesprochen – ändert die Art der Rezeption etwas am Kunstwerk selbst? Geschieht dabei wirklich etwas Nachvollziehbares, etwas Beschreibbares? Manovičh warnt davor, beide Arten der Interaktivität in einen Topf zu werfen: Die Ebene der physischen Interaktion mit einem Kunstwerk, also etwa dem Klicken von Links und dem Ein-Greifen in eine Handlung muss von der eher psychologischen Ebene des Einsetzens von fehlenden Informationen, des unbewussten Setzens von „missing links“, unterschieden werden. Genau darum geht es mir, wenn ich in dieser Arbeit von Interaktivität spreche: Es geht um ein ständiges Oszillieren zwischen Virtualität und Realität, um Kunstwerke, die ohne ein bewusstes und konkretes physisches Eingreifen des Rezipienten de facto nicht funktionieren, bei denen es unmöglich ist, sie aus einer rein passiven Beobachterperspektive heraus zu konsumieren und damit die Interaktivität auf eine psychologische Ebene auszulagern. Diese Art des konkreten, physischen Interagierens sollte der Virtualität nicht abgesprochen werden, sie ist im Gegenteil eines der konstitutiven Merkmale des virtuellen Raumes. Die Existenz eines nicht-interaktiven virtuellen Raumes ist – gerade im Hinblick auf virtuelle Räume als im Alltag verankerte Massenphänomene – undenkbar. Einleitend werde ich auf die Paradebeispiele interaktiven Handelns innerhalb eines virtuellen Raums, nämlich auf World of Warcraft und Second Life zurückgreifen, und Synchronizität als meist unterschätztes, aber wesentliches Merkmal der Interaktivität herausstellen. Im Kapitel, welches sich mit der Ästhetik der Interaktivität auseinandersetzt, werde ich verschiedene Projekte Yugo Nakamuras vorstellen, der schon Mitte der 90er Jahre interaktive Online-Installationen kreierte, die ohne das Eingreifen mehrerer über das Internet miteinander verbundener Teilnehmer nicht ausführbar sind. Nakamura stellt in diesen Kunstwerken eine Form von künstlicher Synchronizität her, deren Untersuchung ich mich abschließend widmen möchte. Virtuelle Räume sind – wie das Medium Internet, durch das sie fast immer vermittelt werden und in das sie sich einbetten – selbst Medien. Denn sie vermitteln gleichermaßen zwischen Mensch und Maschine wie zwischen Menschen. Die Begriffe „Neue Medien“ und „virtuelle Räume“ sind schwer voneinander abzugrenzen: Ohne die Verwendung von neuen Medien zur Generierung und Aussendung ihrer Inhalte würden virtuelle Räume leer bleiben bzw. nicht existieren. Dahingegen sind aber virtuelle Räume – gleich einer Matrjoschka-Puppe – selbst „Neue Medien“, innerhalb derer wiederum Inhalte erzeugt und distribuiert werden. Dieser Text versucht nicht, eine umfassende Phänomenologie dieser Medien darzustellen, denn das würde neben seiner augenscheinlichen Unmöglichkeit20 sicherlich den Rahmen der Arbeit sprengen. Ich möchte versuchen, einen Einblick in den neuartigen Umgang mit ver- 20 Neue Medien entwickeln sich im Augenblick so schnell, dass ein Text mit umfassenden Anspruch schneller veraltet wäre, als er fertiggestellt werden kann. 14 DER BLUTARME DIGITALE RAUM schiedenen Medien zu geben, die gerade im Entstehen begriffen sind. Ich möchte zeigen, was diese Medienformen den etablierten Print- und Sendemedien voraus haben und was dafür verantwortlich ist, dass sie von exotischen Randphänomenen einiger Technikbegeisterter zu Massenphänomenen avancieren. 1.3. Zum aktuellen Forschungsstand Betrachtet man die Forschungsliteratur in Bezug auf Körperlichkeit, Authentizität, Materialität und Interaktivität, so zeigt sich, dass der Großteil aller Publikationen, die diese Phänomene in Zusammenhang mit Virtualität und virtuellen Räumen behandeln, in den Jahren zwischen 1985 und 1998 veröffentlicht wurde. Aufbauend auf Platon, Walter Benjamin, Max Horkheimer und Theodor W. Adorno, veröffentlichten Marshall McLuhan, Friedrich Kittler, Lev Manovič und Vilém Flusser Medienontologien, die über die herkömmlichen Theorien zu neuen Medien hinausgehen und die erst in dieser neuen Form Aspekte der Intermedialität untersuchen und formulieren konnten.21 Es entstand neben den bisher vorherrschenden Einzelmedienontologien eine neue Systematik22, deren erklärtes Ziel es war, sich von einer Vorstellung der Einzelmedien zu distanzieren und eine verallgemeinernde Medienontologie zu begründen. Dagegen versucht eine Forschergruppe um Claudia Liebrand und Irmela Schneider, diesen generalisierenden Tendenzen etwas entgegenzuhalten. Sie sprechen sich für eine Systematik der verschiedenen Medientheorien aus, welche diese in vier Gruppen einteilt: Zeichentheoretische, technikzentrierte, gesellschaftsorientierte und systemtheoretische Medientheorien.23 Legt man diese Betrachtungsweise zugrunde, untersuchen zumindest in den neunziger Jahren die meisten und einflussreichsten Publikationen den virtuellen Raum aus einer technikzentrierten Perspektive. Unter den Schlagworten Virtual Reality, Cyberspace und Immersion erschienen Schriften, welche die neuen Medien hauptsächlich aus einer fast formalästhetischen Perspektive beschreiben. Die Entwicklung der Medien vom singulären Analogmedium bis hin zu digitalen Netzwerken wurde aus einer technozentristischen und vermehrt individualistischen Sichtweise heraus beschrieben, die relativ wenig Raum für systemtheoretische, ästhetische und soziale Betrachtungsweisen lässt. Medienkunst und das Erleben im virtuellen Raum wird größtenteils – ganz im Sinne des Personal Computers – auf die Interaktion des Einzelnen mit der Maschine reduziert. Es fällt nicht leicht, sich von einer hauptsächlich technischen Perspektive zu lösen, denn gerade digitale Medien sind ohne einen Blick auf die technischen Errungenschaften, die sie erschaffen, die sie speichern und verbreiten, nicht zu erklären. Mike Sandbothe fordert für 21 Schlüsselwerke sind: Platon - Höhlengleichnis, Benjamin – Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit, Hawkheimer / Adorno – Dialektik der Aufklärung, McLuhan – Understanding Media, Kittler – Grammophon Film Typewriter, Manovič – The Language of New Media, Flusser – Medienkultur. 22 Dies geschieht unter besonderer Berücksichtigung des Begriffes der Interferenz zwischen Einzelmedien. Vgl. Müller (1996). 23 Vgl. Claudia Liebrand, Irmela Schneider, Björn Bohnenkamp, Laura Frahm (2005). 15 DER BLUTARME DIGITALE RAUM die wissenschaftliche Betrachtung neuer Medien einen neuen, neopragmatischen Zugang: Er begreift die Art und Weise der Nutzung neuer Medien nicht als Folge technischer Entwicklungen. Sandbothe sieht es als eine der wichtigsten Aufgaben der Medienwissenschaft an, verschiedene beschreibbare Nutzungsmöglichkeiten von Medien mit konkreten Mitgestaltungsvorschlägen zu verknüpfen und so eine demokratische Medienpraxis zu etablieren.24 Dennoch werden die Betrachtung ihrer gesellschaftlichen Funktion und ästhetische Aspekte den Hauptteil dieser Arbeit bilden. Es geht also weniger darum, wie neuere Medien funktionieren, als vielmehr um die Frage, wie sie wirken und welche Vorgänge beim Umgang mit ihnen zu beobachten sind. Dies können ganz private, aber auch vollkommen öffentliche Vorgänge sein. Nach der durch Manfred Faßler erweiterten Medientheorie Werner Faulstichs,25 die Medien je nach Technikeinsatz in Primär-, Sekundär-, Tertiär- und Quartärmedien unterscheidet, behandele ich in dieser Arbeit ausschließlich Quartärmedien – das sind Medien, bei denen Technik gleichermaßen bei ihrer Produktion, ihrer Rezeption sowie ihrer digitalen Distribution eine zentrale Rolle spielt. Die Projektgruppe Kulturraum Internet, eine Kooperation zwischen der Volkswagen-Stiftung, dem Wissenschaftszentrum Berlin für Sozialforschung und der Technischen Universität Berlin, begann zwischen 1994 und 1998 mit einer Untersuchung des Internets und betrachtete dabei die »konstitutiven Merkmale der Netzkultur und Netzwerkorganisation«26. Innovative Ansätze, die das Internet als Aktionsraum und nicht mehr etwa als Datenautobahn begreifen, die Anzeichen der Individualisierung und Globalisierung sowie das durch die zunehmende Vernetzung bedingte Näherrücken der Objekte beschreiben, mischen sich hier mit ersten Untersuchungen zu virtuellen Räumen. Auch Körperphänomene werden in diesem Zusammenhang – vornehmlich durch Jörg Müller – angesprochen.27 Virtuelle Räume werden aber auch bei Müller grundsätzlich als entkörperlicht begriffen. Wann immer im virtuellen Raum ein Eindruck von Körperlichkeit entsteht, dann ist dies allenfalls aus der immateriellen Repräsentation eines Körpers zu erklären – und selbst diese immaterielle Form der Körperlichkeit wird ausschließlich im Zusammenhang mit Virtual Reality oder interaktiven Installationen beschrieben. Zu eventuell vorhandenen, nicht-repräsentierten Körpermerkmalen, zu einem individuellen, direkt in virtuellen Räumen beliebiger Ausformung entstehenden, in der Virtualität geborenen Körper existiert keinerlei Literatur. Auch eine Klassifizierung verschiedener Formen der virtuellen Körperlichkeit scheint ein Forschungsdesiderat darzustellen. 24 Vgl. Sandbothe (1998, Internet). 25 Vgl. Faulstich (2003) und Faßler / Halbach (1998). 26 Vgl. Projektgruppe „Kulturraum Internet“ am Wissenschaftszentrum Berlin für Sozialforschung: Internet... the Final Frontier: eine Ethnographie (1998, Internet). 27 Vgl. Jörg Müller: Virtuelle Körper (1996, Internet). 16 DER BLUTARME DIGITALE RAUM Mehrere Gründe sind zu nennen, warum es nur wenige Publikationen gibt, die sich mit den behandelten virtuellen Räumen und ihren Eigenschaften und Einflüssen auf ihre Nutzer als Massenphänomen auseinandersetzen:28 Es ist sowohl die genannte individualistische Herangehensweise, die sich – gerade im Hinblick auf einen generalisierenden Medienbegriff – zur Blüte der Medientheorien entwickelte, es ist die rasante Entwicklung der Verbindungs- und Vernetzungstechnologien, die es erst möglich machte, dass sich eine große Anzahl von Menschen gleichzeitig in virtuellen Räumen aufhalten kann. Es ist der stetige Anstieg der Prozessorleistung, die Privatpersonen zur Verfügung steht und damit die grafische Repräsentation virtueller Räume von Text-Adventures und 16-farbigen Pixelhaufen zu beinahe fotorealistischen Darstellungen vorangetrieben hat. Und nicht zuletzt ist es der Generationenwechsel, der zu breiterer Akzeptanz und selbstverständlichem Umgang mit neuen Medien führt. Eigentlich muss man ganz von vorn anfangen. Denn virtuelle Räume sind ganz selbstverständlich und von den Sozial- und Medienwissenschaften nahezu unbemerkt in den Alltag von Millionen von Menschen eingezogen, und das in einer vollkommen unerwarteten Form: Während in den neunziger Jahren der Siegeszug der umjubelten Virtual Reality als beinahe unbestreitbare Tatsache hingenommen wurde, haben Social Networks und grafisch anspruchsvolle Online-Rollenspiele29 die Verfechter der individuellen Mensch-MaschineInteraktion Lügen gestraft und für eine andere Verbindung zwischen virtuellen Räumen und dem Alltag einer modernen Gesellschaft gesorgt. Der Umgang mit diesen neuen Formen der Kommunikation, mit dem Internet, mit Social Networks ist für unsere Generation nicht nur eine Möglichkeit, er ist zu einer Verpflichtung geworden. Wer heutzutage als 18-Jähriger ohne Computerspiele und Internet, ohne InstantMessenger und Voice-Over-IP-Telefonie aufgewachsen ist, gilt als sozial (und nicht etwa als technisch!) inkompetent.30 28 Die einzige mir bekannte Ausnahme bildet der Ansatz, welcher im Buch Wir nennen es Arbeit von Holm Friebe und Sascha Lobo verfolgt wird. Siehe Friebe / Lobo (2006). 29 Und eben nicht die MMORPG‘s, ihre textbasierten Vorgänger! 30 Vgl. Heise Online (2008, Internet): Harvard-Studie erkennt klar positive Eigenschaften bei Videospielen. 17 ZWEITES KAPITEL Was ist ein virtueller Körper? // Wie manifestiert er sich? // Kann Körperlichkeit als Phänomen innerhalb eines virtuellen Raumes beobachtet werden? // Gibt es verschiedene Typen virtueller Körperlichkeit? // Was kann im virtuellen Raum als ein Körpermerkmal gelten? // Ist der virtuelle Körper sterblich? // Gibt es Verbindungsstellen zwischen virtueller Körperlichkeit und dem biologischen Körper? Körperlichkeit 2.1. Drei Formen virtueller Körperlichkeit Um sich diesen Fragestellungen nähern zu können, muss zunächst geklärt werden, wie Virtualität und Körperlichkeit zusammen gebracht werden können. Der Untertitel dieser Arbeit weist darauf hin – es soll um Körperphänomene an der Schnittstelle zwischen Virtualität und Realität gehen. Darunter fallen zunächst sämtliche körperlichen Handlungen, die durch Ereignisse im virtuellen Raum motiviert sind oder verursacht werden. Diese können beispielsweise als Aufgaben, die im Gelände oder im urbanen Raum durchzuführen sind,31 in die Handlung eines Online-Rollenspiels eingebettet sein – auch Geocaching, eine moderne High-Tech-Form der Schnitzeljagd, ist ohne Verabredungen, die in virtuellen Räumen getroffen werden, undenkbar. Die mit Abstand am häufigsten vorkommenden, aber aus verständlichen Gründen seltener zu beobachtenden Phänomene sind – meist durch Internet-Pornographie motivierte – sexuelle Handlungen. Nicht ohne Grund heißt es im Broadway-Musical Avenue Q: »The Internet is for Porn.«32 Es ist nicht der vielzierte Cybersex mit Anzug, VR-Brille, Headmount-Displays und InternetVerbindung zwischen den Partnern, auf den ich hinaus will – dieser gehört eher ins Reich der Mythen und Legenden. Neben herkömmlichen, bereits etablierten Internet-PornographiePortalen, auf welchen Videos und Bilder als Masturbationsvorlage konsumiert werden, etablierten sich in letzter Zeit vor allem Mitmach-Porno-Portale wie youporn oder RedTube.33 Das Besondere an diesen Portalen ist, dass sie – nach dem Vorbild von YouTube – ihren Mitgliedern die Möglichkeit bieten, selbst gedrehte Videos pornographischen Inhalts hochzuladen und sie so einer breiten Öffentlichkeit zu präsentieren. Exhibitionismus und Voyeurismus 31 Das bekannteste Spiel dieses Genres trägt den Namen Street Wars und ist dem Rollenspiel Assassin nachempfunden, welches vor allem auf den Campus amerikanischer Universitäten gespielt wird. 32 Avenue Q, ein Musical von Jeff Whitty, Robert Lopez und Jeff Marx, feierte 2003 seine Broadway-Premiere. Der Titel eines Song im ersten Akt, The internet is for porn, erfreute sich schnell großer Bekanntheit und wurde zur Vorlage für hunderte von Parodien und Zitaten. 33 Zu finden unter http://www.youporn.com und http://www.redtube.com. 18 KÖRPERLICHKEIT entwickeln sich so – befördert durch die Technologien des Web 2.0 – erstmals zu einem Massenphänomen. Andere Beispiele für durch ein Ereignis im virtuellen Raum motivierte Handlungen sind beispielsweise Flashmobs34 oder auch das Online-Dating, welches seit neuestem auch in einer Hochgeschwindigkeitsversion mit Kamera- und Mikrofon-Unterstützung Verbreitung findet.35 Dies sind körperbetonte Handlungen meist sportlicher oder sexueller Natur, die ihren Anstoß in virtuellen Räumen bekommen haben. Eigentlich alltägliche Aktionen, die durch eine sehr enge Beziehung zwischen Körperlichkeit und Virtualität in einen neuen Rahmen versetzt werden. Diese Phänomene möchte ich als virtuell berührte Körperlichkeit bezeichnen. Die zweite Form virtueller Körperlichkeit erfordert eine differenziertere Beschreibung: Sobald nicht nur die biologische Leiblichkeit in die Überlegungen zur virtuellen Körperlichkeit mit einbezogen wird, sondern sich der Fokus hin zum Körper als Gegenstand eines Diskurses bewegt, tritt auch der virtuelle Körper in ein neues Licht: Wenn die äußere Form sowie die Oberfläche des biologischen Körper schon in der Realität ständig neu verhandelt werden kann und zum Gegenstand der verschiedensten Transformationen36 wird, so stellt dies in der Virtualität überhaupt kein Problem mehr dar: Gender swapping, Avatare und tausende Chatter – angeblich mit den Idealmaßen eines Topmodels ausgestattet – die gegen Mitternacht in zwielichtigen Chatrooms anzutreffen sind, sind nur einige Beispiele dafür. So kann jedes Phänomen, von der Preisgabe und Vermittlung körperbezogener Informationen auf virtueller Ebene bis zu jeglicher Verwendung körperbezogenen Vokabulars, als ein Hinweis auf virtuelle Körperlichkeit betrachtet werden. Ich nenne diese Form der Körperlichkeit die virtuell vermittelte Körperlichkeit. Die dritte Erscheinungsform virtueller Körperlichkeit erscheint mir am Interessantesten: Wurde vor allem der virtuell vermittelte Körper schon zum Gegenstand eines regen wissenschaftlichen Diskurses,37 existieren zu dieser dritten Art der virtuellen Körperlichkeit noch keine Publikationen, obwohl mir diese zumindest zur Zeit am bedeutensten erscheint: Es geht um den Körper, welcher bereits in der Virtualität erschaffen wurde, es geht um den in der Virtualität geborenen Körper. Der momentane Forschungsstand zur virtuellen Körperlichkeit bezieht sich ausschließlich auf den virtuell berührten und den virtuell vermittelten Körper. Das Hauptaugenmerk richtet sich im Bereich der virtuell berührten Körperlichkeit auf immersive Effekte und die Interfaces, durch die diese vermittelt werden. Diese Immersionseffekte sind in allen Formen 34 Ein aktuelles Beispiel für einen sehr körperbezogenen Flashmob bietet das finnische Kulturfestival HelsinkissBerlin, das am 25. April 2008 eine „Große Küsserei“ im Flashmob-Format auf dem Berliner Alexanderplatz veranstaltete. 35 Das Dating in virtuellen Umgebungen wird im von Marc Ries, Hildegard Fraueneder und Karin Mairitsch herausgegebenen Band dating.21 – Liebesorganisation und Verabredungskulturen beschrieben. Vgl.: Ries / Fraueneder / Mairitsch, 2007. 36 Beispielsweise durch Make-Up, Schmuck und kosmetische Chirurgie. 37 Vgl. Turkle (1998) und Donna Harraway: A Manifesto for Cyborgs, in: Wardrip-Fruin / Montfort (2003), S. 516-541, siehe außerdem Kapitel 1.3. der vorliegenden Arbeit: Zum aktuellen Forschungsstand. 19 KÖRPERLICHKEIT der Virtual Reality zu beobachten. Der Forschungsstand zur virtuell vermittelten Körperlichkeit ist wesentlich ausdifferenzierter: Vor allem Sherry Turkle untersucht das Rollenspiel in MUDs38 und anderen virtuellen Welten. Ihr Blick auf virtuelle Räume zeugt von einem hohen Grad an praktischer Erfahrung: »Als ich viel später einmal eine männliche Rolle spielte, erlebte ich tatsächlich jene Bewegungsfreiheit, von der ich schon immer angenommen hatte, sie sei ein Geburtsrecht des Mannes. Nicht nur, daß ich weniger Annäherungsversuche über mich ergehen lassen mußte, ich fand es auch leichter, einen unerwünschten Antrag abzuschmettern, indem ich beispielsweise sagte: ‚Sehr schmeichelhaft, Ribald_Temptress, aber ich bin schon vergeben.‘ Dabei betraf das neue Gefühl der Freiheit nicht nur eine veränderte Einstellung zu sexuellen Angeboten, die mir unter diesen Vorzeichen weniger bedrohlich erschienen. Als Frau habe ich auch immer Schwierigkeiten gehabt, ein Gespräch abzublocken und einfach das zu tun, was ich vorgehabt hatte. Wenn ich dies (auf freundliche Weise) als MUD-Mann tat, wirkte es viel natürlicher.«39 Während virtuell berührte und virtuell vermittelte Körperlichkeit sich immer auf den biologischen, außerhalb der Virtualität verorteten Körper beziehen lassen, existiert der in der Virtualität geborene Körper schon immer und ausschließlich im virtuellen Raum. Er ist das, was wir an Datenspuren im Netz zurücklassen. Spuren, anhand derer wir identifizierbar und letztlich auch verfolgbar sind, Daten, die uns charakterisieren. Diese Datenansammlungen sind Merkmale, die uns immer begleiten und mittels derer wir mit unserer Umwelt kommunizieren, es sind die Merkmale, Proportionen und Organe des in der Virtualität geborenen Körpers. 2.2. Merkmale der Körpersprache und Körperlichkeit im virtuellen Raum Körpersprache – oder besser: nonverbale Kommunikation – bildet einen beträchtlichen Anteil der alltäglichen vis-à-vis-Kommunikation. Mimik und Gestik, aber auch der Tonfall – also jene Anteile einer Unterhaltung, welche neben den eigentlichen Nachrichten und ihrem Informationsgehalt übermittelt werden – helfen uns bei der Deutung der übertragenen Informationen. Ironie wäre beispielsweise ohne eine bestimmte Änderung im Tonfall unmöglich zu verstehen und die Verständlichmachung von emotional aufgeladenen Informationen ist ohne aussagekräftige Körpersprache geradezu undenkbar. Alle diese, durch den Körper übermittelten Informationen, könnten als Meta-Informationen betrachtet werden.40 38 Multi-User-Dungeon, siehe Glossar der vorliegenden Arbeit. 39 Turkle (1998), S. 341 f. 40 Dies könnte analog zum Begriff der Meta-Information im Zusammenhang mit dem Schreibprozess geschehen, welchen ich in Kapitel 4.3. der vorliegenden Arbeit einführe. Beide Prozesse unterscheidet aber etwas Grundlegendes: Die Meta-Information, welche der Schrift anhaftet, ist von der eigentlichen Information abtrennbar, beide Informationen existieren unabhängig voneinander und sind deut-lich, sie lassen sich also deuten, sie verweisen auf etwas. Meta-Informationen in Bezug auf gesprochene Sprache, also Tonfall, Lautstärke, Mimik, Gestik und Heiserkeitsgrad oder etwa näselnde, lispelnde und schmatzende Sprechweise, haben meist keine eigenständige Bedeutung, sondern können erst in Verbindung mit der eigentlichen Information sinnbildend ergänzt werden. 20 KÖRPERLICHKEIT Bei der Online-Kommunikation gehen diese Meta-Informationen oft verloren – häufig sind sie gar nicht vorhanden. Die Verantwortung dafür wird zumeist dem narrow-bandwidthProblem41 zugeschrieben. Durch das Nadelöhr der Internet-Kommunikation, durch die schmale Bandbreite42, die im Falle der textbasierten Online-Kommunikation den Informationsfluss einschränkt, fehle einerseits die bereits erwähnte Möglichkeit, emotionale Inhalte unabhängig von der Textebene zu übertragen. Wesentlich einschränkender für eine deutliche Kommunikation jedoch ist das Fehlen einer Korrektivinstanz. Das Korrektiv der Mimik, der Gestik, des Tonfalles, des Flüsterns und des Schreiens hilft uns normalerweise, vergleichbar mit einer allgegenwärtigen Prüfsumme, empfangene Informationen richtig zu deuten und damit Missverständnisse zu vermeiden. Wird das Internet in einer Stellvertreterfunktion, also als Ersatz für vis-à-vis-Kommunikation, als Ersatz für das Gespräch oder für eine Video-Aufzeichnung gesehen, so scheint eine derartige Auffassung völlig plausibel zu sein: Kommunikation über das Netz wirkt unvollkommen, sie scheint etablierten Kommunikationsformen unterlegen. Denn ihr fehlen essentielle Bestandteile dieser gewohnten, der „normalen“ Kommunikation, ohne die sämtliche Inhalte wesentlich schwieriger zu deuten sind. Online-Kommunikation wird als unkörperlich und damit als unverständlich empfunden: Fehlende Mimik, kein Tonfall, keine Ironie – und deshalb keine Kommunikation. Wer in dieses Horn stößt, wird Erfindungen wie InternetTelefonie oder Online-Videokonferenzen sicherlich begrüßen, denn diese scheinen bessere und gemeinhin akzeptierte Stellvertreter für das Telefon und die direkte Gesprächssituation zu sein.43 In diese Argumentation fügt sich der Diskurs über die Verwendung von so genannten Emoticons oder emote-Tags44 als Online-Écriture-Surrogat für echte Mimik und Gestik hervorragend ein. Kein Zweifel – Emoticons und emote-Tags sind der Mimik und Gestik unserer biologischen Körper nachempfunden. Smileys lächeln, sie weinen, und sie runzeln die Stirn. Mittels der ausführlicheren, text-basierten Emote-Tags lassen sich sogar komplexere körpervermittelte Gefühlsäußerungen bezeichnen.45 Diese virtuell vermittelte Körperlichkeit weiter zu betrachten, erscheint als wenig sinnvoll, da 41 Sandy Stone führt den Begriff der Narrow-Bandwidth-Kommunikation für die auf den ASCII-Zeichensatz und die Übertragung durch ein Modem beschränkte Buchstabenkommunikation ein. Narrow-Bandwidth-Kommunikation werde etwa in Online-Foren, Chatrooms oder in MUDs genutzt. Vgl. Sandy Stone (1995), S. 92 ff. 42 Auch, wenn sich die Worte „narrow-bandwidth“ als „schmale Bandbreite“ übersetzen lassen und hier der Ursprung der Bezeichnung liegt, geht es nicht um geringe Datenraten oder die Geschwindigkeit, mit der die Bits und Bytes unterwegs sind, das Narrow-Bandwidth-Problem bezeichnet das grundlegende Fehlen von Mimik und Gestik bei textbasierter Kommunikation. Nicht nur das Internet, auch Briefwechsel sind vom Narrow-Bandwidth-Problem betroffen. 43 Der Begriff des Stellvertretermediums wird ausführlicher in Kapitel 3.5.1. der vorliegenden Arbeit abgehandelt: Vom Radio zum Web 2.0 – Brechts Radiotheorie und das Internet. 44 Siehe Glossar der vorliegenden Arbeit. 45 Vgl. die ausführliche Beschreibung von Emote-Befehlen in: Müller (1996), S. 10. 21 KÖRPERLICHKEIT hierzu einschlägige Publikationen existieren46. Die Untersuchung der computervermittelten Kommunikation beschränkte sich über einen längeren Zeitraum auf Zeichen, die ausschließlich einer sehr unvollständig anmutenden Betrachtung als Stellvertretermedium entspringen. Smileys, Emoticons und Floskeln, wie das in Chatrooms und Foren allgegenwärtige »rotfl«47, sind zwar Zeichen von Körperlichkeit innerhalb eines virtuellen Raumes, aber es sind bestenfalls Zeichen, die darauf hindeuten, dass die Bewohner des virtuellen Raumes außerhalb dieses Raumes der Biologie unterworfen sind und dort über einen realen Körper verfügen. Es sind Zeichen, die auf die virtuell vermittelte Körperlichkeit zurückgehen. Die genuin virtuelle Körpersprache, also die Kommunikation zwischen in der Virtualität geborenen Körpern, muss man sich völlig anders vorstellen. Da diese virtuellen Körper völlig anders beschaffen sind als ihre biologischen Pendants, da sie sich vielgliedriger und differenzierter darstellen,48 muss auch die Kommunikation unter ihnen anderer Art sein. Doch wie sind diese in der Virtualität geborenen Körper beschaffen? Bevor ich ihre Sprache beschreiben kann, möchte ich sie selbst und ihren Aufbau beschreiben. 2.2.1. Abschaffung / Ausgrenzung des Leibes? Künstlich erschaffene Körperlichkeit in Virtual-Reality-Umgebungen zeichnet sich vor allem dadurch aus, dass die Existenz eines phänomenalen Leibes vor, neben und hinter den Geräten, die sie vermitteln, völlig vernachlässigt wird und höchstens von indirekter Bedeutung ist. Der eigene Leib wird aus der fiktionalen Ebene getilgt, er wird ausradiert. Gegenstand der vorhandenen Forschungsliteratur sind dabei vor allem Betrachtungen von MehrspielerOnline-Rollenspielen und Chat-Räumen sowie verschiedene Ausformungen der Virtuellen Realität. Die dort auffindbare virtuelle Körperlichkeit – und nicht zuletzt der TinySex49 – wird größtenteils über Avatare, welche von den Usern meist als Idealmodelle ihres Selbst50 erschaffen werden, vermittelt. Diese unterscheiden sich – mutmaßlich aufgrund einer latenten Unzufriedenheit vieler mit dem eigenen Körper – nicht selten völlig von den manchmal geradezu gegenteiligen biologischen Gegebenheiten. Magere Menschen verfügen oft über muskulöse Avatare, eher füllige Menschen bevorzugen schlanke Stellvertreter. Sobald der Fokus aber nicht mehr auf Virtual-Reality-Installationen bzw. auf Online-Rollenspielen liegt, sondern andere virtuelle Räume, wie beispielsweise die Blogosphäre, untersucht 46 Zu nennen sind Publikationen von Sherry Turkle, Heather Bromberg und Amy Bruckman. 47 Abk. für „Rolling over the Floor, laughing“. 48 Vgl. Kap. 2.2.2. der vorliegenden Arbeit: Die Organe des virtuellen Körpers. 49 TinySex oder virtueller Sex wird von zwei oder mehreren Personen in virtuellen Räumen praktiziert. Es handelt sich hierbei um Beschreibungen körperlicher Handlungen, mündlichen Äußerungen und emotionalen Reaktionen ihrer Figuren und ist somit ein Phänomen, welches der virtuell vermittelten Körperlichkeit zuzuordnen ist. Vgl.: Turkle (1998), S. 363 ff. 50 Die User erschaffen natürlich nicht ausschließlich Idealmodelle ihres Selbst, sie schlüpfen in Rollen, um sich selbst in anderen bzw. fremden Identitäten auszuprobieren. Diese Formen der Identität – die sich ausschließlich auf den virtuell vermittelten Körper beziehen – stellen Turkles Hauptuntersuchungsgegenstand nach. Vgl.: Turkle (1998). 22 KÖRPERLICHKEIT werden, zerfasert das Bild völlig: Nicht einmal mehr die Stellvertreter des biologischen Körpers in Form von Avataren existieren: Der Körper und mit ihm alle seine Merkmale scheinen plötzlich nonexistent geworden zu sein. Es findet ein scheinbar völlig entkörperlichter Austausch von reinen Informationen statt. Bei der Untersuchung dieser Phänomene stellt sich die Frage, ob es tatsächlich nötig ist, konkrete biologische Manifestationen oder Zeichen, welche auf diese verweisen, zu untersuchen, wenn von Körperlichkeit im virtuellen Raum die Rede ist. Dem ist nicht so, die Untersuchung eines sozialen Körpers innerhalb sozialer Räume bilden schon seit Jahrzehnten ein beliebtes Themenfeld der Gesellschaftswissenschaften. Um jedoch konkrete körperliche Funktionen im virtuellen Raum zu untersuchen, reicht die These vom sozialen Körper nicht aus. Es ist mit Sicherheit lohnenswert, den Repräsentationsbegriff auf Avatare und andere körperbezogene Entsprechungen innerhalb der virtuellen Realität hin zu betrachten. Interessanter aber scheint es, zu beleuchten, welche konkreten Körperfunktionen keinen Ersatz, sondern eine Entsprechung in der Virtualität gefunden haben. Was sind diese Organe des virtuellen Körpers und wie lässt sich ihre Funktion definieren? 2.2.2. Die Organe des in der Virtualität geborenen Körpers Es geht um die Frage nach der Präsenz im virtuellen Raum. Bekannte Blogger wie Hosea Jan Frank (zeFrank) oder Felix Schwenzel51 schaffen es, ein konkretes Bild von sich zu vermitteln, welches wiedererkennbar ist und sie von anderen Personen, die »ins Internet schreiben«52 abhebt und zu berühmten Netzpersönlichkeiten macht. Dies lässt sich nicht nur über die Qualität der vermittelten Inhalte erklären, denn Netzpersönlichkeiten arbeiten genau wie andere Personen des öffentlichen Lebens an ihrer Selbstdarstellung innerhalb des Mediums und hinterlassen dort Spuren. Genau wie ein biologischer Körper innerhalb einer Gesprächssituation oder einer Theateraufführung die Person, zu der er gehört, definiert, weist ein virtueller Körper innerhalb des virtuellen Raumes auf diese Person hin. Stößt man in der Blogosphäre53 oder andernorts im Internet auf eine manifestierte Datenstruktur, welche auf eine einzelne Person hinweist, so kann man diese entweder als eine simple Hinterlassenschaft oder aber als ein ausschließlich im virtuellen Raum existentes Körpermerkmal dieser Person deuten. Dies trifft beispielsweise auf die Internetseite dieser Person und alle ihre Profile in Social Networks zu, die als ihr Gesicht, ihr äußeres Erscheinungsbild aufgefasst werden können. Gleichermaßen dienen diese Profile der Netzpersönlichkeit als Organe zur Kommunikation und als Repräsentationsfläche. Sie könnten gleichermaßen als ihre Gliedmaßen gesehen werden, welche die Netzpersönlichkeit innerhalb der Blogosphäre von sich streckt. 51 Hosea Jan Frank ist unter http://www.zefrank.com zu finden, Felix Schwenzel bloggt unter http://www. wirres.net. 52 Felix Schwenzel (Internet, 2006): ix höre auf zu bloggen. 53 Siehe Glossar der vorliegenden Arbeit. 23 KÖRPERLICHKEIT Ich bezeichne diese Datenstrukturen als manifest, da sie jederzeit abrufbar sind, auch, wenn sie gerade nicht benutzt werden. Sie können angeschaut, eingesehen und bewundert werden, sogar, wenn die mit ihr verbundene Netzpersönlichkeit gerade schläft oder aus irgendeinem anderen Grunde offline ist. Mit einem echten, biologischen Körper macht sie das insofern vergleichbar, als dass jener auch im schlafenden oder sogar toten Zustand, also ohne beseelt zu sein, als Körper einer bestimmten Person erkennbar ist. In den virtuellen Körper und dessen einzelne Organe schreiben sich Erlebnisse ein. Nicht nur durch den Nutzer selbst gewählte Informationen fließen in seine verschiedenen Profile ein – fast jeder Online-Dienst bietet die Funktion an, auf Profilen anderer Nutzer z.B. kurze Nachrichten zu hinterlassen, oder diese – im Falle von Social Networks wie FaceBook und StudiVZ – sogar zu poken bzw. zu gruscheln.54 Diese Handlungen zählen wohl zu den ersten ausschließlich im virtuellen Raum vorkommenden Gesten, welche ein virtueller Körper vollführt. Gruscheln und Poking erfreut sich unter vielen Social-Network-Benutzern höchster Beliebtheit. Um die Körpermetapher auszuweiten, möchte ich auf eine weitere wichtige Eigenschaft eines biologischen Körpers hinweisen: Er ist verletzlich. Eine Verletzung oder das Abtrennen einzelner Organe bzw. Gliedmaßen des in der Virtualität geborenen Körpers ist ohne weiteres vorstellbar: Das unerwartete Abtrennen eines Organes – das plötzliche Löschen eines MySpace-Profiles oder eines World-of-Warcraft-Accounts von der virtuellen Körpergesamtheit – kann zu Tränen oder Schmerzen bis hin zum Selbstmordversuch führen. Gerade das Nachspielen von gefährlichen Spielszenen scheint immer mehr in Mode zu kommen: Die Eltern eines 13-jährigen Chinesen machten Blizzard Entertainment, die Herstellerfirma des Online-Spiels World of Warcraft für den Tod ihres Sohnes verantwortlich. Dieser soll beim Nachstellen einer Spielszene im Jahr 2005 ums Leben gekommen sein.55 Der virtuelle Körper besteht also aus den Manifestationen verschiedenster Datenstrukturen im virtuellen Raum, aus einem Datenprofil. Er kann beispielsweise bei einer Google-Suche nach einer Person mehr oder weniger sichtbar werden, er kann transparent oder opak sein, mächtig und ausgebildet oder fragil und feingliedrig. Was die Konstitution meines virtuellen Körpers von der seines biologischen Pendants unterscheidet, ist offensichtlich: Beide Körper können von mir geformt, verändert, beschnitten, verletzt, vergrößert, verkleinert und in ihrem Aussehen modifiziert werden – mit einem virtuellen Körper werde ich aber nicht geboren, ich kann ihn erfinden und ich kann ihn töten, ohne, dass meine biologische Existenz ein Ende findet. Den Körper aus Muskeln, Fleisch und Knochen, mit dem ich geboren wurde, kann ich dahingegen nur bedingt modifizieren, um ihn meinen Bedürfnissen unterzuordnen. 54 Siehe Glossar der vorliegenden Arbeit. 55 Spiegel Online (2005, Internet): Tod durch Onlinespiel? 24 KÖRPERLICHKEIT 2.2.3. Repräsentationsflächen – Das Äußere der in der Virtualität geborenen Körper Wie findet diese Anpassung im Falle des virtuellen Körpers statt? In der virtuellen Welt Second Life führt jeder Spieler eine in der äußeren Erscheinung menschenähnliche Figur, deren Geschlecht, Größe und Körpermerkmale er festlegen kann, um diesen Avatar dann im Verlauf des Spieles – ganz wie im richtigen Leben – mit verschiedensten Accessoires zu auszustatten. Sei es Kleidung oder Schmuck – in Second Life haben sich ganze virtuelle Industriezweige entwickelt, die ausschließlich der Produktion von Accessoires dienen. Nur erstreckt sich diese Art der Verschönerung auf einen Stellvertreter, auf einen virtuell vermittelten Körper. Die Ausformungen der in der Virtualität geborenen Körper, die ich beschreibe, sind jedoch in ihrer Ästhetik genauso formbar, sogar um einiges variabler, da sie nicht, wie Second-LifeAvatare, an den begrenzten Formkanon eines menschlichen Körpers gebunden sind. Sie sind nur in wenigen Beziehungen determiniert: Ein StudiVZ-Profil ist in der Gestaltung immer gleich, denn es besteht kaum eine Möglichkeit, es den eigenen Vorstellungen anzupassen. Bei MySpace verhält sich dies völlig anders: Vergleichbar mit StudiVZ und Facebook erhält ein neues MySpace-Mitglied eine eigene Seite, die zunächst auch mit einem standardisierten Layout ausgestattet ist. Dieses Layout kann durch Einfügen von HTML-Code in bestimmte, ursprünglich für die nähere Beschreibung des Nutzers vorgesehene Felder, verändert und den eigenen Wünschen fast beliebig angepasst werden. Die von MySpace ursprünglich vorgesehenen Gestaltungsmöglichkeiten des Profils sind zwar begrenzter, erstrecken sich aber nicht nur auf die Optik der Seite: Viele User versehen ihre Profile mit MP3-Playern, so dass die Besucher beim Aufrufen des Profils mit einem Musikstück begrüßt werden. Der in der Virtualität geborene Körper verfügt zwar nicht über eine Stimme im eigentlichen Sinne, aber er hat einen eigenen Sound. 2.2.4. Zurück zur Körpersprache Auch, wenn der in der Virtualität geborene Körper nicht über Sprechorgane verfügt – existiert möglicherweise so etwas wie ein Äquivalent zur Körpersprache? Ist eine Form der nonverbalen Kommunikation unter diesen virtuellen Körpern zu beobachten, und – falls ja – wie gestaltet sie sich? Kommunikation zwischen unterschiedlichen Profilen einzelner oder mehrerer Nutzer sozialer Netzwerke läuft halbautomatisch und -synchron ab. Besuche ich mein eigenes MySpaceProfil, so werde ich zunächst prominent über die neuesten Statusnachrichten meiner Freunde informiert. Ich muss also nicht ihre Profile besuchen, um zu erfahren, wie es ihnen just in diesem Moment geht, die Informationen darüber laufen in meinem eigenen Profil zusammen. Ich muss sie nicht suchen, sie kommen zu mir. Halbautomatisch nenne ich diesen Prozess, weil im Gegensatz zur vollautomatischen informationellen Massenbestäubung56 ein direkter Eingriff des Benutzers vonnöten ist: Dieser muss schließlich in seinem eigenen Profil eine Information, seinen Gemütszustand betreffend, hinterlassen. Ich bezeichne diese Form 56 Siehe Kap 3.5.2. der vorliegenden Arbeit: Informationelle Massenbstäubung. 25 KÖRPERLICHKEIT der halbautomatischen virtuellen Körpersprache als halbsynchron, weil sich meine eigene Internet-Präsenz, mein eigener virtueller Körper, ohne mein Zutun ändert.57 Als Beispiel hierfür eignet sich eine ursprünglich vom Instant-Messenging stammende Kommunikationstechnik: Die der Statusmeldung. Will man innerhalb eines Messenging-Dienstes signalisieren, dass man zwar grundsätzlich erreichbar ist, aber dennoch nicht gestört werden möchte, so existiert die Möglichkeit des Setzens einer Statusmeldung. Ursprünglich auf das lakonische „online“, „offline“, oder „away“ beschränkt, bieten die meisten Dienste heutzutage die Möglichkeit an, kurze, persönliche Statusmitteilungen zu verfassen. Diese Verfahrensweise wurde von fast allen Social Networks übernommen, sowohl StudiVZ als auch MySpace bieten ihren Nutzern die Möglichkeit der Veröffentlichung einer frei wählbaren Statusmeldung. Die Information darüber, dass sich die Zustandsänderung eines Freundes etwa von „total happy“ zu „Liebeskummer“ geändert hat, wird in meinem eigenen Profil aktualisiert, ohne dass ich meinen Computer dafür berühren muss. Ich selbst werde zwar erst dann davon erfahren, wenn ich wieder online gehe. Dritte allerdings, die wiederum mein Profil besuchen, erfahren sofort und ohne mein Zutun vom beklagenswerten Zustand meines Freundes. Das Prinzip der Statusmeldung wurde durch den Online-Dienst Twitter58 zum Hauptgeschäftsfeld erhoben. Das so genannte Microblogging, also das Verfassen von SMS-ähnlichen, auf 160 Zeichen beschränkten Kurzmitteilungen, erfreut sich hoher Beliebtheit. Eine Mitteilung ist dabei im Gegensatz zum Instant-Messenging und zur SMS nicht an eine einzige Person gerichtet, sondern an alle, die es interessiert. Möchte ich mehr über den Tagesablauf eines Twitter-Users erfahren, so trage ich mich für eine automatische Benachrichtigung ein und werde zu seinem follower. Dass hier die Vokabel „to follow“ nicht nur im Sinne von „folgen“, sondern auch als „verfolgen“, als Stalking, verstanden werden kann, macht nur einige wenige Datenschützer stutzig. Bestimmte Informationen schreiben sich also halbautomatisch in meinen virtuellen Körper ein. Er verändert relativ unabhängig von meiner eigenen Aufmerksamkeit sein Aussehen, indem er Teile von anderen virtuellen Körpern übernimmt – diese Art der Veränderung findet ausschließlich auf einer Textebene statt und sie findet von der Netzpersönlichkeit unbemerkt, also unbewusst, statt. Dies ist die Körpersprache des in der Virtualität geborenen Körpers. 2.3. Voyeuristisch, gar masochistisch? Zur bewussten Aufgabe der Privatsphäre Was einen virtuellen Körper charakterisiert, wie seine Sinnesorgane beschaffen sind und wie er verletzt werden kann, wurde im Kapitel über Die Organe des in der Virtualität geborenen Körpers bereits erwähnt. 57 So bildet sich eine dritte Form der Internet-Kommunikation heraus, die sich zwischen synchronen (Chat, Instant Messenging, Internet-Telefonie bzw. VoIP) und asynchronen Kommunikationsformen (E-Mail, Publikation von Inhalten auf Internetseiten, Podcasting, etc.) positioniert. 58 Zu finden unter http://www.twitter.com. 26 KÖRPERLICHKEIT Das meiner Meinung nach herausragendste und gleichzeitig am wenigsten beachtete Körpermerkmal einer Netzpersönlichkeit ist seine Privatsphäre. Sie übernimmt analog zur Haut des biologischen Körpers eine Schutzfunktionen und ist – vergleichbar mit diesem – sehr empfindlich. Die Privatsphäre umgibt den virtuellen Körper gleich einer hauchfeinen Schicht – sie bewahrt ihn vor äußeren Einflüssen. Diese Schutzschicht ist allerdings sehr verletzlich, an vielen Stellen perforiert und droht an jeder Extremität zu reißen. Je weiter sich der in der Virtualität geborene Körper ausstreckt, desto dünner wird sie. Je mehr ein Anwender von sich im Netz preisgibt, desto verfolg- und manipulierbarer macht er sich. Wird ein gewisses Maß an Privatsphäre geschätzt und soll ein Bestand an persönlichen und privaten Daten Privatsache bleiben, so ist es ratsam, mit den eigenen Daten sehr sparsam umzugehen. Es ändert meist nicht viel am Erlebnis des virtuellen Raumes, wenn die korrekten persönlichen Daten im Netz preisgegeben werden. Stattdessen erfreut sich eine andere Vorgehensweise großer Beliebtheit: Das absichtliche Angeben falscher Daten.59 Je mehr erfundene Daten ein Nutzerprofil enthält, desto dicker und undurchdringlicher wird das Fell Privatsphäre an diesem Punkt. Verfügt ein User über mehrere Profile mit unterschiedlichsten Nicknames und verschiedenen Avatar-Bildern, ist es zur Zeit ohne staatliche Intervention unmöglich, seine Datenspur aufzunehmen – die Privatsphäre bleibt gewahrt. Leider ist das Bewusstsein für eine integere Privatsphäre, für Datenschutz und Persönlichkeitsrechte unter dem Großteil der Nutzerschaft populärer Online-Dienste schlicht und ergreifend nicht vorhanden. Es scheint der Mehrheit der deutschsprachigen Studierenden beispielsweise völlig egal zu sein, ob Fotos, welche sie in kompromittierenden Situationen zeigen – sei es beim Drogenkonsum, bei Alkoholexzessen oder einfach nur in ausgelassener Partystimmung – in die Chefetagen möglicher Arbeitgeber durchsickern. Fast jeder Bewerbungschef durchstöbert StudiVZ, Facebook und MySpace auf der Suche nach seinen Kandidaten. Gerade bei unter-18-jährigen Kindern und Jugendlichen, die die Zielgruppe des SchülerVZ darstellen, sind Datenschutz und Privatsphäre nur selten ein Thema. Das unbändige Verlangen nach Selbstdarstellung in virtuellen Räumen ist der Tod der Privatsphäre. Das ist nicht so negativ gemeint, wie es klingt. Eine selbstbewusste Positionierung in sozialen Netzwerken beginnt einen immer höheren Stellenwert einzunehmen. Dies gilt nicht nur für Musiker und Bands, die erste Marketingerfolge hauptsächlich über MySpace feierten,60 jeder Einzelne kann von einer erfolgreichen Selbstdarstellung profitieren. Dieser Profit muss nicht zwingend finanzieller Natur sein, auch ein Mehr an Aufmerksamkeit kann – wie einleitend schon erwähnt – als Profit aufgefasst werden.61 Doch an diesem Punkt hört die freiwillige Datensammlung und -preisgabe der Netzgemeinde noch nicht auf: Erst mittels einer Rasterfahndung quer durch die verschiedenen Social Networks lassen sich komplette Persönlichkeitsprofile erstellen, die über Freunde, Freizei59 Vgl. Kapitel 2.7. der vorliegenden Arbeit: Digitales Sterben und Not-So-Tiny-Sex. 60 Vgl. hierzu die Erfolgsgeschichte der Arctic Monkeys. S. Wikipedia (2008, Internet), Artikel Arctic Monkeys, s. Anhang. 61 Vgl. hierzu Kapitel 3.6. der vorliegenden Arbeit: Echt ist nur, was ich sehe – Justin.tv. 27 KÖRPERLICHKEIT taktivitäten, kulinarische Vorlieben, Mode- und Musikgeschmack usw. Aufschluss bieten. Nicht nur für die Werbeindustrie hochinteressante demographische Datenprofile einzelner Gesellschaftsschichten62 werden gesammelt und ausgewertet, die speziellen Interessen Einzelner sind in den Fokus der Aufmerksamkeit der Werbeindustrie gerückt. Personalisierte Werbung, mit den Worten Felix Schwenzels ausgedrückt, ein »feuchter Wunschtraum von Werbefuzzis«,63 wird die neuen virtuellen Räume finanzieren. 2.4. Handeln, Erinnern, Lernen, Spielen. Eine Frage, die sich bei einer Beobachtung der Körperlichkeit im virtuellen Raum aufdrängt, die aber bisher völlig unberücksichtigt geblieben ist, ist die nach Sinn und Zweck des in der Virtualität geborenen Körpers: Wenn ein solcher Körper existiert, wozu dient er und was tun wir eigentlich damit? Wie unterscheidet er sich in seiner Funktionalität von anderen Formen der Körperlichkeit? Es besteht kein Zweifel daran, dass zwischen virtuellen und biologischen Körperfunktionen immense Unterschiede auszumachen sind – schließlich kann der in der Virtualität geborene Körper weder essen noch verdauen, er besitzt keine offensichtlichen Sinnes- oder Geschlechtsorgane und verfügt deshalb auch nicht über die Möglichkeit, selbstständig zu empfinden oder Erfahrungen zu machen. Dahingegen kann er wachsen und schrumpfen, er hat neben seiner Ausdehnung eine äußere Form, eine Oberfläche und einen eigenen Sound. Ich kann mit seiner Hilfe handeln64, erinnern, lernen65 und – nicht zuletzt – auch spielen. Vor allem aber dient er mir als Oberfläche, als Werkzeug zur Selbst-Veranschaulichung. Ich werde durch ihn nach außen repräsentiert und er bietet mir durch seine zahlreichen Interfaces Mittel zur Kommunikation. Ein Beispiel für das geradezu virtuose Spiel mit der Selbstdarstellung, für einen virtuell geborenen Körper immenser Ausdehnung bietet zeFrank. ZeFranks Internetpräsenz bietet neben einem der bekanntesten Blogs der Welt ein Video-Blog und zahlreiche liebevoll gestaltete Programmier-Experimente, die zum spielerischen Umgang mit ihr einladen. Als Beispiele seien hier nur virtuelles Babyspielzeug und mehrere interaktive Ratgeber (»dance properly«, »communications course #1«) genannt. ZeFrank handelt ganz nach Sherry Turkles Auffas62 Beispielsweise sind mittels einer Auswertung des StudiVZ-Datensatzes Aussagen über den Filmgeschmack des durchschnittlichen 22-jährigen männlichen Wirtschaftsstudierenden möglich. Die Möglichkeiten des Profiling, also des gezielten Auswertens dieser Daten, auch über mehrere Internetseiten hinweg, wirken bedrohlich und scheinen unbegrenzt. 63 Felix Schwenzel (2008, Internet): 10 gegenthesen zu 10 thesen zur digtalen zukunft. 64 Ein Blog mit Namen Dataloo (www.dataloo.de) verbreitete beispielsweise eine Vorlage für eine Sprühschablone, die aus dem stilisierten Konterfei des Bundesinnenministers Wolfgang Schäuble, versehen mit der Bildunterschrift »Stasi 2.0«, bestand. Innerhalb weniger Stunden erreichte das bis dato unbekannte Blog knapp 10.000 Besucher und damit für eine kurze Zeitspanne ungefähr die gleiche Zugriffsrate wie die größten deutschen Internet-Nachrichtenportale tagesschau.de und Spiegel Online. Das Bild wurde in vielen Versionen angeboten, sogar zu einem Video weiterverarbeitet, tausendfach herunter geladen, benutzt und neu publiziert. Aus einer einzigen Handlung, einer kleinen Kreativleistung, kann so in kürzester Zeit ein Massenphänomen werden. 65 Ist eine Webseite mit automatisch aktualisierten RSS-Feeds versehen, so wird der User über Neuigkeiten in bestimmten Interessensgebieten automatisch informiert. 28 KÖRPERLICHKEIT Abbildung 4: John Marcotte: Free Speech Flag Abbildung 5: Ein Produkt des Scribblers, zefrank.com Abbildung 6: digg.com während des AACS-Falles Abbildung 7: The horseman meets the oarsman – Veröffentlicht unter Creative Commons 3.0 von Red Labor 29 KÖRPERLICHKEIT sung einer gleichzeitig multiplen und kohärenten Netz-Identität: »Man entwirft eine Homepage, indem man Wörter, Bilder und Klänge verknüpft (…). Wie bei den Agenten der emergenten KI ist die Identität des Users das Resultat der Verknüpfungen und Verbindungen, die er herstellt.«66 Von einem »digital home«, welches Turkle in diesem Zusammenhang anspricht, sind wir noch weit entfernt. Möglicherweise ist der in der Virtualität geborene Körper, dessen Hauptmerkmale sich zur Zeit auf Äußerlichkeiten beschränken und eine Oberfläche bilden, ein Schritt auf dem Weg zum virtuellen Zuhause. Wird diese Außenhülle um einen von der digitalen Außenwelt abgeschotteten, aber trotzdem für angemeldete Besucher leicht zugänglichen Bereich ergänzt, ist es aber durchaus möglich, von einem digitalen Zuhause zu sprechen. Die Google Labs, Googles Entwicklungsabteilung, haben in diesem Bereich vorgelegt und gezeigt, was mit dem momentan vorhandenen technischen Instrumentarium möglich ist: iGoogle bietet – nach dem obligatorischen Login-Vorgang – nicht nur Möglichkeiten, die Suchfunktionen Googles auf individuelle Erfordernisse zuzuschneiden, sondern stellt zahlreiche personalisierte Anwendungen zur Verfügung.67 Die Vehemenz, mit der andere Firmen in diesen Markt vordringen, zeigt, dass dem digitalen Zuhause zumindest heute noch eine große Zukunft vorausgesagt wird. 2.5. Der virtuell-soziale Körper – 24/7-Kommunikationsgemeinschaften Neben virtuell berührter, virtuell vermittelter und in der Virtualität geborener Körperlichkeit existiert eine vierte Form der virtuellen Körperlichkeit: Der virtuell-soziale Körper. Zu diesem Konstrukt existiert kein biologisches Pendant, der virtuell-soziale Körper ist als digitales Analogon zur Gemeinschaft oder Körperschaft im weitesten Sinne entworfen. Die Bezeichnung resultiert aus seinen zwei wichtigsten Eigenschaften: Virtuell ist er, weil er sich ausschließlich im virtuellen Raum konstituieren kann. Die Bezeichnung „sozial“ ist aus der Tatsache abgeleitet, dass diese Form der virtuellen Körperlichkeit nur unter der einen Bedingung existieren kann, dass sie sich aus zwei oder mehr Mitgliedern zusammensetzt. Ein Beispiel für einen virtuell-sozialen Körper bietet die Community des Online-Rollenspiels World of Warcraft, auch die Mitglieder der Plattform Second Life oder – um ein wenig im Anachronismenkoffer der Online-Kommunikation zu wühlen – viele MUDs und sehr bekannte IRC-Räume, welche rund um die Uhr besucht werden. Ein interessantes Beispiel für das Verhalten einer Community als ein zusammenhängender Körper, als Gemeinschaft und letztlich sogar als bestimmend über das Verhalten der eigentlichen Betreiber der Internetseite, die dieser Community ihre Plattform bietet, ist der Streit 66 Turkle (1998), S.420 67 Zum Beispiel einen Kalender, eine lokale Wettervorhersage, individuelle zusammenstellbare News-Feeds, ein Fernsehprogramm, kleine Spiele, ein E-Mail-Interface, die Möglichkeit, direkt Youtube-Videos abzuspielen; die Liste scheint endlos. 30 KÖRPERLICHKEIT um die HD-DVD-Verschlüsselungstechnologie AACS68. Einer der wichtigen geheimen Schlüssel, die benötigt werden, um die Inhalte bestimmte HD-DVDs zu replizieren, wurde mehr oder weniger durch Zufall entdeckt und auf einigen Internetseiten veröffentlicht.69 Diese Seiten erregten innerhalb kürzester Zeit hohe Aufmerksamkeit und erlangten bei der Social-Bookmarking-Plattform70 digg sofortige Berühmtheit. Dies zog die Aufmerksamkeit der Motion Pictures Association of America (MPAA), dem US-amerikanischen Pendant zum deutschen FSK-System71 auf sich. Die amerikanischen Wächter über die Altersfreigabe, deren Vereinigung alle wichtigen Hollywood-Filmstudios angehören, sendeten einen cease-and-desist-Brief72 an digg, in dem sie eine sofortige Löschung der Schlüssel forderten. Die Betreiber der Webseite reagierten umgehend und löschten die betreffenden Verweise auf den Schlüssel sowie alle Nutzer, die auf die Veröffentlichung hingewiesen hatten. Dieses Vorgehen löste eine Protestwelle aus, die es in dieser Form im Netz noch nie zuvor gegeben hatte: Hunderttausende Blogger veröffentlichten innerhalb weniger Stunden Beiträge, die ausschließlich den Schlüssel enthielten und katapultierten ihre Beiträge gegenseitig in der Aufmerksamkeitsmaschinerie digg nach ganz oben. Besonders kreative Blogger setzten die Bestandteile des Schlüssels in einen Farbcode um, der nun als Free-Speech-Flag vor einem gesetzlichen Eingriff in die Redefreiheit innerhalb virtueller Räume warnt. Die MPAA musste vor einem solchen Ansturm die Segel streichen, denn das Verklagen von 500.000 Einzelpersonen, die einen einzelnen Zeichencode publiziert haben, wäre weder wirtschaftlich kluges Verhalten noch eine besonders geschickte Öffentlichkeitsarbeit gewesen. Wie sehr die Meinung einer Community ihre eigene Plattform beeinflussen kann, zeigt die Reaktion des digg-Gründers Kevin Rose: »But now, after seeing hundreds of stories and reading thousands of comments, you’ve made it clear. You’d rather see Digg go down fighting than bow down to a bigger company. We hear you, and effective immediately we won’t delete stories or comments containing the code and will deal with whatever the consequences might be. If we lose, then what the hell, at least we died trying.«73 Digg ist eine 24/7-Kommunikationsgemeinschaft. Nachrichten, welche die Gruppe betreffen, verbreiten sich mit rasender Geschwindigkeit durch ein Netzwerk, das niemals schläft. 68 Advanced Access Content System, eine Vorrichtung, um das Kopieren von HD-DVDs (High-Definition Digital Versatile Discs) zu verhindern. 69 Die Veröffentlichung geschah in hexadezimaler Form, der Schlüssel lautet 09 F9 11 02 9D 74 E3 5B D8 41 56 C5 63 56 88 C0. Diese – eigentlich höchst geheime – Buchstaben-Zahlenkombination ist alles, was zum Kopieren der ersten Serie kommerzieller HD-DVDs notwendig ist. Sobald neue Schlüssel verwendet wurden, um HD-DVDs zu schützen, wurden diese schon fast selbstverständlich und ohne ein weiteres Eingreifen der MPAA veröffentlicht. 70 Siehe Glossar der vorliegenden Arbeit. 71 Die Freiwillige Selbstkontrolle der Filmwirtschaft bestimmt über die Altersfreigabe aller deutschen Kinoproduktionen. 72 In etwa vergleichbar mit einer einstweiligen Verfügung: Der Betroffene wird darum gebeten, die bemängelten Inhalte umgehend zu entfernen, um einem möglichen Verfahren zu entgehen oder Strafmilderung zu erhalten. 73 Kevin Rose (2007, Internet): Digg This: 09-f9-11-02-9d-74-e3-5b-d8-41-56-c5-63-56-88-c0. 31 KÖRPERLICHKEIT Die Community eines derartig populären Social Networks kann als virtuell-sozialer Körper oder gleichsam als virtuelle Körperschaft angesehen werden. 2.6. Interfaces – Verbindungsstellen zwischen Virtualität und biologischem Körper Der Zusammenhang zwischen Virtualität und Körperlichkeit kann sich jedoch völlig anders gestalten als bisher beschrieben. Virtuell vermittelte und geborene Körperlichkeit sowie der zuletzt beschriebene virtuell-soziale Körper existieren ausschließlich in virtuellen Umgebungen. Sie sind entweder eine Projektion biologischer Körpermerkmale in die digitale Welt hinein oder eine Datenansammlung, die die dazu gehörige Netzpersönlichkeit repräsentiert. Es drängt sich die Frage auf, ob Verbindungsstellen zwischen biologischen und virtuellen Körpern existieren, und – falls ja – wie diese beschaffen sind. Am einfachsten sind die Verbindungsstellen bei der virtuell berührten Körperlichkeit zu beschreiben – schließlich könnte diese ohne Interfaces, die zwischen Virtualität und Körper vermitteln, nicht existieren. Die Interfaces, von denen ich spreche, sind so banal, wie sie alltäglich sind: Bildschirm, Maus und Tastatur ermöglichen eine Berührung zwischen virtuellem Raum und phänomenalem Körper.74 Eigentlich sollte dies verwunderlich sein, träumte man doch in den 90er Jahren davon, dass derart fortschrittliche virtuelle Umgebungen wie Second Life oder World of Warcraft heutzutage standesgemäß mit VR-Brille und Ganzkörperanzug betreten werden. Ich denke nicht, dass es am mangelnden technischen Fortschritt in diese Richtung liegt, sondern ich vermute, dass das Interesse, welches einer derart einengenden Bedienung virtueller Welten entgegen gebracht wird, einfach nicht groß genug ist, um hier einen Massenmarkt entstehen zu lassen. Kaum jemand möchte einen Anzug tragen müssen, um eine virtuelle Welt zu betreten. Alle erzielten Immersionseffekte in virtuellen Welten und Online-Rollenspielen entstehen – wie beim Pen-and-Paper-Rollenspiel auch – in der Phantasie der Spieler. Zu den grundlegenden Benutzerschnittstellen Bildschirm, Maus und Tastatur gesellen sich der Joystick und das Gamepad, um unkomplizierter spielen zu können, das Grafiktablett, um den Vorgang des Zeichnens so einfach und gewohnt wie möglich zu gestalten und das Touchpad, um auch an Notebooks eine einfache und intuitive Bedienung des Computers zu gewährleisten. Die entscheidenden Stichworte in diesem Zusammenhang sind „Simplizität“ und „intuitive Bedienbarkeit“.75 Der enorme Erfolg der Spielekonsole Nintendo Wii ist allein durch den enormen Spielspaß, der durch ihre intuitive Bedienung entsteht, zu erklären. Es werden seltener Knöpfe gedrückt, denn die Controller sind mit 3-Achsen-Gravitationssensoren und einem Infrarotsender ausgestattet. Der Controller kann somit einfach im Raum hin- und herbewegt werden, um ein Spiel zu steuern. Um etwa Tennis zu spielen, ahmt man die Bewegungen eines Tennisspielers nach und die Flugbahn des Golfballes wird durch seinen korrekten Abschlag bestimmt. Der eigene Körper, seine Beweglichkeit und motorische 74 Die Vorzüge und Nachteile der Bedienung von Computern mit Bildschirm, Tastatur und Maus werden ausführlich im vierten Kapitel der vorliegenden Arbeit erläutert: Materialität. 75 Zur intuitiven Bedienbarkeit neuer Interfaces siehe auch Kapitel 4.7. der vorliegenden Arbeit: Von der Maus zu Minority Report - Die haptische Revolution im Umgang mit neuen Medien. 32 KÖRPERLICHKEIT Geschicklichkeit spielen bei einer neuen Generation von Computerspielen eine wesentliche Rolle. Die gleichen Interfaces, welche bei virtuell berührter Körperlichkeit für die Berührung sorgen, stellen generell den Kontakt zu virtuellen Welten her. Emoticons und Emote-Tags werden getippt, Smileys werden per Klick ausgewählt und Avatare am Bildschirm verschönert. Virtuelle Figuren werden nach der uralten Point-and-Click-Methode durch Second Life bewegt. Wie ein Interface gestaltet sein muss, um sich im virtuellen Raum adäquater bewegen zu können, kann niemand vorhersagen. Was ich jedoch mit Gewissheit behaupten kann, ist, dass es kein Interface sein wird, welches die Realität vor unseren Sinnesorganen und unserem Körper versteckt. Genau wie virtuelle Räume, die langsam um uns herum wachsen, die Wirklichkeit ergänzen und erweitern, werden auch ihre Interfaces transparent sein. Wenn es schon eine Brille sein muss, so wird diese unsere normale Sicht auf die Welt erweitern und nicht abschaffen und durch etwas Neues ersetzen. 2.7. Digitales Sterben und Not-So-Tiny-Sex Wenn es einen in der Virtualität geborenen Körper gibt, so stellt sich die Frage, ob dieser dann auch den Weg alles Körperlichen gehen kann – kann ein virtueller Körper sterben? Wie im Kapitel über die Privatsphäre beschrieben, ist diese Haut des in der Virtualität geborenen Körpers sehr verletzlich. Auch seine Organe und Gliedmaßen können abgetrennt, also gelöscht werden und verschwinden. Was passiert, wenn die Person, welche hinter einem virtuellen Körper steht, stirbt, ist sehr verschieden: Ihre Online-Profile bleiben – solange dies nicht durch Hinterbliebene unterbunden wird – auf unbestimmte Zeit in den Social Networks bestehen, vermutlich so lange, wie die Betreiber dieser Netzwerke im Geschäft sind. Auch der digitale Selbstmord findet immer mehr Anhänger: Damit ist nicht die Ankündigung eines Selbstmordes im digitalen Medium76 gemeint, sondern das Löschen aller Profile aus Social Networks, das vollkommene Auslöschen des in der Virtualität geborenen Körpers. Meist aus Angst vor schwindender Privatsphäre und Überwachung, manchmal auch durch drohende Online-Sucht77 motiviert. Vor allem aber aus Zeitgründen scheint das Verlangen zu wachsen, diesen vollkommenen Rückzug aus dem Netz anzutreten.78 Die etwas harmlosere Variante des digitalen Selbstmords ist das Anonymisieren der eigenen Profile in diesen Netzwerken: Bei StudiVZ ist es mittlerweile zur Normalität geworden, den eigenen Namen nicht mehr voll auszuschreiben, sondern ihn durch einen Phantasie- oder Spitznamen zu ersetzen.79 Den Abmeldungen und Unkenntlichmachungen steht zur Zeit allerdings eine Welle der 76 Siehe Prolog der vorliegenden Arbeit. 77 Vgl.: Hahn / Jerusalem: Internetsucht: Befunde aus vier Onlinestudien, in: Ott (2003) 78 Vgl.: Spiegel Online (2008, Internet): Abschied von StudiVZ und XING: Mein digitaler Selbstmord 79 Vgl.: Spiegel Online (2008, Internet): StudiVZ-Datenschutz: Studenten demonstrieren gegen das SchnüffelVZ 33 KÖRPERLICHKEIT Neuanmeldungen gegenüber. StudiVZ hat zur Zeit mehr als doppelt so viele Mitglieder, wie es Studenten gibt.80 Durch eigene Beobachtungen kann ich bestätigen, dass StudiVZ das dritte soziale Netzwerk ist, welches sich neben MySpace und Xing (ehem. OpenBC) etablieren konnte und auch im außeruniversitären Bereich starke Zuwächse verzeichnen kann. Neben der in der Einleitung dieser Arbeit beschrieben Behandlung der Ankündigung und detaillierten Planung eines Selbstmordes im virtuellen Raum existieren – besonders in der Blogosphäre – einige weitere Seiten, welche sich mit dem Sterben und Tod auseinandersetzen. Besonders das Bestatter-Weblog81 ist hier zu nennen. Der anonyme Autor berichtet in mittlerweile über 1500 Artikeln über die Skurrilitäten im Bestattungsgewerbe. Vor allem schreibt er aber sehr emotionale Erfahrungsberichte, die die verschiedenen Arten und Weisen, in denen sich Menschen mit dem Tod ihrer Angehörigen auseinandersetzen, widerspiegeln. Während dieses Weblog – wie viele berufsgruppenspezifische Blogs82 – sich auf eine sehr seriöse Art und Weise mit seiner schwierigen Thematik auseinandersetzt, kann die einleitend erwähnte Vorbereitung auf den eigenen Suizid als aufmerksamkeitsheischende Maßnahme aufgefasst werden. Der stetig enger werdende Markt der Aufmerksamkeit83 fordert vom Einzelnen immer extremere Aktionen, um wahrgenommen zu werden. Beispiele dafür sind im Zusammenhang mit dem Online-Rollenspiel World of Warcraft (WOW) zu finden. Ich möchte an dieser Stelle nur zwei nennen: Ein englischer Spieler ließ sich den Namen seiner Gilde unübersehbar groß auf sein Hinterteil tätowieren, um sich dafür im Spiel einen Epic Flying Mount, einen sehr begehrten Flugdrachen, kaufen zu können.84 Diese Art der Drachen scheint unter WOWSpielern äußerst beliebt zu sein, denn eine unbekannte Spielerin bot für eines dieser virtuellen Reittiere ihren eigenen Körper feil. Auf craigslist.com, einem Online-Kleinanzeigen-Markt veröffentlichte sie folgende Mitteilung inklusive Foto: »Hello I need 5000 world of warcraft gold for my Epic flying mount. In return, you can mount me.« Nur wenige Tage später schien jemand zu beiderseitiger Zufriedenheit auf das Angebot eingegangen zu sein.85 Beide Beispiele sind der virtuell berührten Körperlichkeit zuzuschreiben. Sie erregten größeres Interesse im Netz, viel wesentlicher für die beiden einzelnen Spieler ist jedoch, dass sie nun innerhalb des Spieles über einen Flugdrachen verfügen, der ihnen immer und überall einen großen Auftritt beschert. Durch den hohen Preis von mindestens 5000 80 Bei StudiVZ sind nach Angaben der Holtzbrinck-Gruppe über 4,9 Millionen Mitglieder registriert, was in etwa dem Zweifachen der Studierendenzahl in Deutschland, Österreich und der Schweiz entspricht (aktuell ca. 2,3 Millionen). s. StudiVZ (2008, Internet): Neues aus dem Maschinenraum 81 http://www.bestatterweblog.de/ 82 Zu nennen sind zum Beispiel der Shopblogger – ein Supermarktbetreiber, der Hostblogger – ein Internethoster, der Werbeblogger – betrieben von einem auf neue Medien spezialisierten Werber und das Lawblog, welches von einem Anwalt geschrieben wird. 83 Vgl.: Friebe / Lobo (2006), 80 Millionen Marken? S. 83 84 Heise Online (2008, Internet): Fliegender Untersatz für Hinterntattoo 85 Invisionpower-Forum (2008, Internet): An EPIC Mount... 34 KÖRPERLICHKEIT WOW-Gold, der zu diesem Zeitpunkt umgerechnet etwa 800 US-Dollar entsprach,86 ist ein solches Fluggerät im Spiel eine Seltenheit. Sie erregen – sowohl mit ihren Aktionen, als auch mit den Früchten, die diese tragen – Aufmerksamkeit. 2.8. Auf der Suche nach Aufmerksamkeit »Seit der Rotationspresse, dem Telefon und der Fotografie explodierten die Medien, gingen Öffentlichkeit und damit Aufmerksamkeit auf die technischen Medien über. Noch lange aber beherrschte die öffentliche Aufmerksamkeit die Massenmedien: Zeitungen, Kino, Rundfunk und Fernsehen. Erst mit dem Video und dann mit dem Computer (…) bricht die Herrschaft der Massenmedien zusammen und zerfleddert die öffentliche Aufmerksamkeit in eine Vielzahl zunehmend individueller Nischen.«87 Was mit dem Zapping begann, findet mit Podcatchern88 und Social-Bookmarking-Plattformen seine Fortsetzung: Der Zuschauer übernimmt nach einem Jahrzehnte währenden Diktat durch die Medienkonzerne wieder die Kontrolle über seinen Konsum. Florian Rötzer jedoch begreift diesen Vorgang als ein Untergraben der Restsouveränität89 des Zuschauers durch das Medium. Die Medienlandschaft scheint laut Rötzer dem Zuschauer nun – nachdem er bisher seinen Fernseh- und Radiokonsum noch mit dem Zepter Fernbedienung regieren konnte – dieses Zepter aus der Hand genommen zu haben, um ihm jegliche Restsouveränität gegenüber dem Medium zu nehmen. Völlig anders gestaltet sich die Sachlage jedoch, wird sie von einem weniger kulturpessimistischen Standpunkt aus gesehen: Der Konsument neuer Medien hat mit der Maus und neuen, interaktiven Bedientechnologien ein neues Instrument zur Ausübung seiner Macht in die Hand bekommen, welches wesentlich wirkungsvoller ist, als es die Fernbedienung jemals war. Zudem ist er – Drahtlos-Zugängen, portablen Computern und mobilem Internet sei dank! – nicht mehr an seinen unbeweglichen Thron, den heimischen Fernsehsessel, gebunden, sondern kann nun immer und überall mit dem Medium verbunden sein. Nahezu sämtliche Radio- und Fernsehstationen – egal, ob öffentlich oder privat – zeichnen sich zur Zeit durch eine Einheitskultur der Langeweile aus. Sie versuchen weniger, durch den besonderen und interessanten Charakter ihres Programmangebotes eine spezielle Hörergruppe zu binden, sondern bevorzugen eine Politik der Nivellierung. Frei nach der Philosophie, dass dort, wo keine Gipfel sind, auch keine tieferen Täler existieren können. Anders formuliert: Das Programm wird so flach gehalten, dass kaum ein Hörer mehr bemerkt, dass er gerade Radio hört oder Fernsehen schaut und daraufhin womöglich auf die Idee kommt, aufgrund der Qualität der Inhalte den Sender zu wechseln. Fernsehen und Radio haben sich 86 Der Umrechnungskurs zwischen WOW-Gold in US-Dollar ist starken Schwankungen unterworfen und unterscheidet sich je nach Server und Gruppenzugehörigkeit (Allianz oder Horde). Allein zwischen Januar und Juni 2008 bewegte sich der Kurs zwischen 188 und 68 Euro pro 5000 WOW-Dollar. Verschiedene Unternehmen haben sich auf das Tauschgeschäft mit Computerspiel-Währungen spezialisiert. Siehe htpp://www.gold-price-check.com/wow_gold_trend_average.html 87 Rötzer (1998), S. 93 88 Siehe Glossar der vorliegenden Arbeit. 89 Rötzer (1998), S. 95 35 KÖRPERLICHKEIT – im Gegensatz zu Buch und Zeitung – von bewusst konsumierten Medien zu NebenbeiTätigkeiten entwickelt. Welche der Tätigkeiten mehr Aufmerksamkeit erfordert bzw. erregt, Bügeln oder Fernsehen, Frühstücken oder Radiohören, kann ich nicht sagen. Aber man hört selten vom „nebenbei-im-Internet-surfen“. Gerade durch seine Anlage als grundsätzlich interaktives Medium kann das Internet beim einzelnen Benutzer niemals in die untere Schublade der Achtlosigkeit absteigen. Es wird immer Aufmerksamkeit erfordern, sich aktiv im Netz zu bewegen oder mithilfe des Netzes zu kommunizieren. Das nächste Kapitel wird zeigen, wie eng das stetige Bemühen um die Aufmerksamkeit der Nutzer mit der Authentizität der einzelnen Angebote zusammenhängt. Die Online-MusikPlattform Last.fm, das Social-Bookmarking-Tool digg, neue Urheberrechtsmodelle am Beispiel von creative commons und Justin Kan, ein Videoblogger, sollen Beispiele für diesen Zusammenhang liefern. 36 DRITTES KAPITEL Kann ein virtueller Raum authentisch sein? // Besteht ein Zusammenhang zwischen Digitalisierung und dem Verlust von Authentizität? // Welche Verhaltensweisen und Eigenschaften dienen der Inszenierung von Authentizität im virtuellen Raum? // Gibt es einen Zusammenhang zwischen der »Ware Aufmerksamkeit« und Authentizität in virtuellen Räumen? // Welche Strategien zur Aufmerksamkeitserzeugung sind in virtuellen Räumen zu beobachten? AUTHENTIZITÄT Die einleitenden Fragen zeigen, dass dieser Abschnitt nicht der Reflektion der vorliegenden Forschungsergebnisse zur Authentizität90 dienen wird. Es soll genügen, an dieser Stelle das grundlegend wichtigste Merkmal von Authentizität im Zusammenhang mit medialer Inszenierung, aber auch mit den performativen Künsten darzustellen: Eine „natürliche“ Authentizität existiert nicht: Authentizität ist immer inszeniert, sie setzt einen Macher voraus.91 Die Fragestellungen versuchen also nicht, eine generalisierende Erklärung des Phänomens am Beispiel virtueller Räume zu bieten. Es sollen vielmehr einzelne Strategien der Herstellung von Authentizität an ausgesuchten Beispielen betrachtet werden. Beginnen möchte ich mit zwei Adjektiven, die den deutlichsten Unterschied zwischen virtuellen Räumen und der phänomenalen Realität markieren: Dem Gegensatzpaar „analog“ und „digital“. Die fortschreitende Digitalisierung alter Analog-Medien und ihre Einflüsse auf den Eindruck von Authentizität, der diese Medien umhüllt, soll am Beispiel von Tonträgern und ihren digitalen Pendants beschrieben werden. »Die erste Platte, die ich mir von meinem eigenen Geld gekauft habt, war Electric Café von Kraftwerk. Ich war 15. Als ich aus dem Plattenladen nach Hause kam, machte ich es mir gemütlich, kochte mir einen Kaffee und ich kann mich noch genau an den Moment erinnern, in dem die Nadel auf die Platte herabsank. Auch mein zweiter und dritter Plattenkauf sind mir dauerhaft in Erinnerung geblieben. Isao Tomita mit den Planeten von Holst und The Art of Noise. Meinst Du, heutzutage kann sich noch ein Jugendlicher an seinen ersten MP3-Kauf erinnern? Die Wertschätzung für Musik ist vollkommen verloren gegangen. Aber woher sollen sie es auch wissen? Ob sie jetzt eine MP3-Datei kaufen oder illegal runterladen – im Endeffekt haben sie nichts in der Hand.« 90 Beispielsweise Erika Fischer-Lichte (2007): Inszenierung von Authentizität; Siemke Böhnisch: Was heißt wahr sein auf dem Theater? in Fischer-Lichte (1994), S. 125-134 oder Hans-Thies Lehmann (1999): Postdramatisches Theater, S. 170 ff. Einbruch des Realen. 91 Vgl.: Annemarie M. Matzke: Von echten Menschen und wahren Performern, in: Fischer-Lichte (2006), S.3947 37 AUTHENTIZITÄT Diese Worte stammen – zugegeben – vom Stammtisch, allerdings von einem mit den Mechanismen der Plattenindustrie vertrauten Produzenten zeitgenössischer Popmusik, der sich – beruflich bedingt – ausgiebig mit dieser Thematik beschäftigt hat. Etwas Ähnliches hat wohl jeder schon einmal gedacht, der über das Geschäftsmodell von Online-Musik-Portalen, wie beispielsweise dem des iTunes Music Store, nachgedacht hat. Was genau wird dort eigentlich verkauft? Musik? Die Gelegenheit, Musik zu hören, oder vielleicht das Recht dazu? Sollte dieses Recht nicht eigentlich ein Grundrecht sein? Man hat nach dem Online-Musikkauf de facto nichts mehr in der Hand. Die Plattenhülle ist genau wie das Jewel-Case der Compact Disc verschwunden. Alles, was vom Kauferlebnis übrig bleibt, ist der spärliche Inhalt des digitalen Pakets. Ein stellvertretendes Bild, ein Avatar des Album-Artworks, einige wenige Informationen über den Interpreten, den Komponisten, das Label und das Jahr der Aufnahme sowie die Musik in Form einer leider meist kopiergeschützten und auf Kosten ihrer Qualität komprimierten Audiodatei. All diese Informationen lassen sich ohne weiteres innerhalb weniger Minuten, ohne Kopierschutz und in gleicher Qualität aus den verschiedensten Internet-Tauschbörsen zusammenklauben. Bei deren Benutzung bestünde die Schwierigkeit eher darin, nur ein bestimmtes Album herunterzuladen und nicht gleich den Gesamtkatalog eines Künstlers. Außerdem entfällt die langwierige Anmeldeprozedur, eine Kreditkarte ist nicht nötig, genauso wenig wie das Preisgeben persönlicher Daten. Worin kann also die Motivation bestehen, statt des Herunterladens einer so genannten Raubkopie eine MP3-Datei zu kaufen? Zunächst fällt der Sicherheitsaspekt ins Auge: Beim Kauf einer Audio-Datei kauft sich der Hörer gleichzeitig den „Segen“ der Musikindustrie mit. Er wird als Käufer der MP3-Datei zum legitimen Besitzer der Musik erklärt und muss sich demzufolge keine Sorgen um eine mögliche Strafverfolgung machen. Es wird also ein reines Gewissen verkauft. Doch dieses kann auch mit dem Kauf eines Albums auf CD erworben werden. Was kann also einen Käufer motivieren, etwas Imaginäres zu erwerben, wenn er ebenfalls die Möglichkeit hat, etwas zu kaufen, was ihm auf den ersten Blick deutlich realer erscheint? Zunächst spielen Aspekte der Bequemlichkeit und der sofortigen Verfügbarkeit der Ware Musik eine große Rolle: Es ist einfacher, einen Online-Musikshop zu besuchen, als den Gang in den nächsten gut sortierten Plattenladen zu wagen (den es zunächst zu finden gilt). Die Alben sind im Online-Shop unbegrenzt vorrätig, meist günstiger, gut sortiert und wesentlich bequemer zu durchsuchen. Auch die Suche nach Querverweisen und Hintergrundinformationen, die normalerweise der gut informierte Plattenhändler für den Kunden vorgenommen hat (Wer spielte wann, wo und bei welcher Gruppe mit; auf welchem anderen Album ist er noch zu hören?), ist der zuverlässigeren, elektronischen Suchmethode gewichen. Das gemütliche Kauferlebnis weicht also einer effizienteren, weil zeitsparenderen und exakteren Methode, die richtige Musik zu finden. Der eigentliche Vorteil eines Online-Musikkaufs aber ist ein anderer: Die nahtlose Einbet38 AUTHENTIZITÄT tung digital verfügbarer Musik in den Alltag. Kauft ein Kunde ein CD-Album und will es mit der heimischen Stereo-Anlage hören, so stellt dies zunächst kein Problem dar. Möchte er jedoch eine Kopie der Disk fürs Auto haben, liegen ihm die ersten Steine im Weg: Oft ist es nötig, einen Kopierschutz zu umgehen, ein unerfahrener Nutzer ist schon mit dieser Aufgabe überfordert. Noch schwieriger ist die Umwandlung ins richtige Audioformat, um die Musik auf einem mobilen Abspielgerät wiederzugeben: Das MP3-Format existiert in unterschiedlichsten Qualitätsstufen, die meist nur in kryptisch erscheinenden Bitraten angegeben werden. Zwischen diesen kann ohne entsprechendes Hintergrundwissen nur per Trial-&-Error-Verfahren entschieden werden. Mono-, Stereo-, Surround-MP3-Dateien mit konstanter oder variabler Bitrate stehen zur Auswahl. Die Existenz von vielen anderen, meist proprietären und somit zu den Playern der meisten Hersteller inkompatiblen Formaten gestaltet den Enkodierungsprozess nicht leichter. Im Zuge der andauernden Reformen des Urheberrechts, die gern zum Anlass genommen werden, das Recht auf eine Privatkopie noch einmal zu überdenken, bewegt sich der Nutzer zudem zunehmend am Rande der Legalität, vor allem, wenn er beim Überspielen der CD auf ein anderes Medium einen Kopierschutz umgeht. Der Kauf in einem Online-Musik-Store gestaltet sich völlig anders: Die Dateien sind blitzschnell auf der Festplatte und erscheinen umgehend in der Musikbibliothek des Kunden. Es ist ohne weiteres möglich, eine standardkonforme Audio-CD davon zu brennen, auch das Kopieren auf den Musik-Player oder das Telefon der Wahl ist ein Kinderspiel. So wird also das haptische Erlebnis des Plattenkaufs schleichend durch den bequemeren Online-Einkauf ersetzt. Das Besitzgefühl, welches durch die Materialität eines Albums entsteht, scheint zwar völlig zu verschwinden, es weicht aber zugunsten der nahtlosen Integration von Musik in unseren Alltag. Ein Gefühl von Authentizität wird nicht mehr über das in-der-Hand-halten eines physischen Datenträgers vermittelt, sondern resultiert aus der ständigen Verfügbarkeit der Daten. Ein Zugriff auf sie ist überall möglich, sei es auf dem MP3-Player, im Auto, auf dem Notebook oder eben – ganz traditionell – zu Hause auf der Stereo-Anlage. Damit sind aber die Möglichkeiten des Umgangs mit digitaler Musik noch nicht vollständig beschrieben: Liegen Musikstücke in digitaler Form vor, ergeben sich neue Zugriffsmöglichkeiten: Es ist möglich, sie zu bearbeiten, zusammenzuschneiden, ihre Meta-Informationen semantisch miteinander zu verknüpfen, sie zu mischen, sie zu taggen und sie zu publizieren. 3.1. Urheberrecht und Creative Commons – Fesseln oder Flügel einer neuen Welle der Kreativität? Diese Möglichkeiten bestehen nicht nur bei Musikstücken, sondern bei jeder medial vermittelbaren Kreativleistung, die ihren Weg in die digitale Form gefunden hat – auch Texte, Bilder und Videos werden im Rahmen des durch neue technische Möglichkeiten eingeleiteten Wandels zugänglicher – und gewinnen damit an Präsenz. 39 AUTHENTIZITÄT Ob der Titel des bereits 1987 durch Vilém Flusser veröffentlichten Textes Hinweg vom Papier als Aufforderung oder nur als Prophezeiung oder Zustandsbeschreibung aufgefasst werden soll, bleibt unklar. Bemerkenswert ist jedoch, dass sich Flusser bereits zu diesem Zeitpunkt der Möglichkeiten des digitalen Zeitalters vollkommen bewusst zu sein schien: »Der ins elektromagnetische Feld hineingeschriebene Text ist jedoch «dialogisch» (…). Er ist nämlich nicht mehr an Empfänger gerichtet, die ihn in ihrem Gedächtnis speichern, ihn kritisieren (zersetzen) oder kommentieren (weiterführen). Vielmehr ist er an Empfänger gerichtet, die ihn prozessieren (manipulieren, umstülpen, verändern).«92 Kreative Empfänger, die Texte manipulieren, umstülpen und verändern – genau diese durch Flusser beschriebene Art des Umgangs mit neuen Medien, des Erstellens der Inhalte der virtuellen Räume, die das Web 2.0 als „Mitmachnetz“ konstituieren, ist mit dem heutigen Urheberrecht nicht vereinbar. Schon der traditionelle Remix einer Platte, das Verwenden eines einzigen Audiosamples, verlangt von einem Musiker einen bürokratischen und im Endeffekt auch finanziellen Hürdenlauf, der meist ohne Anwälte und Plattenfirma bzw. Produzent nicht zu bewältigen ist. Wenn nun aber private Nutzer des Internets Inhalte manipulieren, umstülpen und schneiden wollen, wären die rechtlichen Folgen unüberschaubar und das Unternehmen von vornherein zum Scheitern verurteilt. Diese Problematik im Visier, schuf Lawrence Lessing, Rechtsprofessor an der Stanford Law School, 2001 das Konzept von Creative Commons.93 Creative Commons stellt Medienschaffenden, Wissenschaftlern und anderen Kreativen verschiedene Möglichkeiten zur Verfügung, um ihre Werke anderen Nutzern zugänglich zu machen. Im Gegensatz zu herkömmlichen Lizenzmodellen besteht das vorrangige Ziel der Creative Commons nicht darin, Urheber- und Verwertungsrechte durchzusetzen oder diese kommerziell zu verwerten. Stattdessen sind die verschiedenen Lizenztypen94 mit Blick auf Werte wie Zugänglichkeit und Offenheit konzipiert. Weiterhin unterscheiden sie sich dahingehend von anderen offenen und geschlossenen Lizenztypen, dass sie sich nicht auf eine einzelne Art von Werken beziehen, wie z.B. die GNU General Public License, welche sich ausschließlich auf die Weiterverbreitung von Software bezieht, sondern auf jeden Medientyp angewendet werden können. Die Creative-Commons-Lizenzen werden ständig überarbeitet und verfeinert, mittlerweile existieren sogar schon einige lokal beschränkte Lizenztypen, die die Nutzung eines Werkes beispielsweise nur in Entwicklungsländern zulassen. Außerdem sind alle gängigen Lizenztypen an die Unterschiede im Urheberrecht einzelner Staaten angepasst, so dass viele verschiedene national bestimmte Urheberrechtsvarianten mit einer einheitlichen Lizenz abgedeckt 92 Flusser (1997), S. 64 93 Engl. für „schöpferisches Allgemeingut“, vgl. Wikipedia (2008, Internet), Artikel Creative Commons. 94 Es existieren Lizenzmodelle mit den Bezeichnungen »all rights reserved«, »some rights reserved« oder »no rights reserved«. Jedes dieser Modelle setzt sich aus verschiedenen Modulen zusammen, die auf folgenden Fragestellungen basieren: Muss der Name des Urhebers genannt werden? Darf das Werk bearbeitet werden? Darf es kommerziell genutzt werden? 40 AUTHENTIZITÄT werden können. Kreative, die diese Lizenztypen nutzen, verfügen über eine rechtliche Absicherung beim Bearbeiten und Weiterverbreiten der Werke anderer, was sich in einer großen Anzahl von Remixes und Mashups niederschlägt. Das Führen aller Lizenzen unter dem Namen Creative Commons birgt jedoch auch Nachteile: Gerade durch teilweise nur marginale Unterschiede zwischen einzelnen Lizenztypen ist vielen Nutzern nicht klar, dass es sich um unterschiedliche Lizenzmodelle handelt und dass es vor allem einen deutlichen Unterschied zu Open-Source-Software gibt: Es stehen bei weitem nicht alle Werke, die unter einer der verschiedenen Creative-Commons-Lizenzen veröffentlicht wurden, für jeden erdenklichen Verwendungszweck frei zur Verfügung. Nichtsdestotrotz wird durch die Entwicklung von Creative Commons die Remix- und Mashup-Kultur auf eine rechtssichere Basis gestellt und ist so weniger anfällig für die Wellen der Kritik der ängstlichen Rechteverwertungsindustrie. 3.2. Automatische Kreativität? Löst man den Begriff der Kreativität vom Geniegedanken und dem „Funken der Inspiration“, lässt er sich auf einen sehr einfachen Nenner bringen: Kreativität bezeichnet den Prozess des Schaffens einer Innovation. Gedanken, die bisher ungedacht waren, unerhörte Klänge, vormals ungesehene und unmöglich erscheinende Gebäude, neue Perspektiven – all diese Dinge verlangen zum Zeitpunkt ihrer Schöpfung und manchmal auch im Prozess ihrer Rezeption nach Kreativität. Ein Automat hingegen stellt das Gegenteil von allem dar, was als kreativ zu bezeichnen ist: Er ist eine Einrichtung, die – nachdem sie eine Programmierung erfahren hat, sei diese in ihre Hardware implementiert oder Software – bestimmte Handlungen vorbestimmt und selbsttätig ablaufen lässt.95 Mit äußerster Kreativität programmierte Software kann nichts an dieser Tatsache ändern: Ein Programm – und sei es noch so raffiniert geschrieben – kann nicht kreativ sein. Oder doch? Ist es möglich, beide Begriffe mit Blick auf die neuesten Entwicklungen des Web 2.0 zusammenzubringen? Während bisher die Entwicklung der neuen Medien im Sinne von Manovičh – also die Entwicklung von Apparaten, die gleichzeitig Informationen speichern und mit ihnen arbeiten können – menschliche Kreativität nur erleichtert und unterstützt hat, sind die Automaten jüngerer Zeit dazu in der Lage, gewisse Prozesse, für deren Umsetzung bislang Kreativität als Voraussetzung galt, selbsttätig zu unternehmen. Erste Versuche in diese Richtung sind bis in das 18. Jahrhundert zurückzuverfolgen: Wolfgang von Kempelens Schachtürke, Abbé Micals sprechende Köpfe, Joseph Fabers Euphonia sowie die Musikautomaten Friedrich Kaufmanns bieten frühe Beispiele für den Versuch, den Anschein einer automatisiert produzierten kreativen Leistung zu erwecken. Diese Illusion konnte jedoch nicht 95 Vgl. Wikipedia (2008, Internet), Artikel Automat. 41 AUTHENTIZITÄT lange aufrecht erhalten werden: Der Schachautomat wurde im 19. Jahrhundert durch Edgar Allan Poe enttarnt,96 und spätestens mit der Erfindung programmierbarer Universalmaschinen können Musikautomaten nicht mehr als kreative Automaten angesehen werden. Bei der automatisierten Kreativität, von der ich spreche, soll es nicht um Schöpfungs- und Schaffensprozesse gehen, die von einer Software übernommen werden. Es geht vielmehr um die selbsttätige und sinnvolle Verknüpfung bereits existenter Informationen, also um einen maschinellen Remix mit dem Ergebnis der Produktion neuer und nutzbarer Informationen. Die Vorteile virtueller Räume im Internet – speziell der Automatismen des Web 2.0 – liegen in der Vernetzung von Datenströmen aller Art, um einerseits vollautomatisch neue Informationen zu erschaffen und andererseits darin, neue soziale Verbindungen der Benutzer zu ermöglichen. 3.3. last.fm – Authentisch, weil omnipräsent? Die Plattform last.fm bietet hierfür das ideale Beispiel: Der Nutzer installiert ein kleines Programm auf seinen Computer, das dazu dient, die Titel der von ihm gehörten Musikstücke an ein Online-Portal zu versenden. Dieser Prozess wird immer dann in Gang gesetzt, sobald er ein Musikstück zur Hälfte gehört hat. Dabei spielt es keine Rolle, ob er diese Stücke unterwegs auf einem MP3-Player, einem Handy oder auf dem heimischen Computer gehört hat. Diese Informationen werden nach und nach zu einem Profil zusammengesetzt, welches Aufschluss über sein Hörverhalten gibt und in diesem Zuge seine Lieblingslieder und -bands ermittelt. Der Musikgeschmack eines Hörers wird zu einer für die anderen Nutzer transparenten und durchschaubaren Eigenschaft. Bis zu diesem Punkt könnte man vermuten, last.fm sei ein automatisiertes System zur freiwilligen Aufgabe der Privatsphäre, welches vermutlich von der Musikindustrie erfunden wurde, um den individuellen Musikgeschmack eines Hörers zu ermitteln und gleichzeitig herauszufinden, welche der gehörten Stücke möglicherweise auf illegitime Weise ihren Weg auf seinen Computer gefunden haben. Abgesehen davon, dass last.fm keine Unterschiede zwischen legal oder illegal erworbenen Musikdateien erkennen kann, besteht der grundlegende Nutzen der Anwendung im automatisierten Auswerten der Nutzerdaten: Ein Nutzer bekommt anhand der genauen Analyse seines Hörverhaltens Musik vorgeschlagen, die andere Nutzer mit ähnlichen Hörgewohnheiten bereits hören, er jedoch nicht. Darüber hinaus wird er mit Informationen darüber versorgt, welche seiner Lieblingskünstler demnächst in der Nähe seines Wohnortes auftreten werden, und welche andern last.fm-Teilnehmer dieses Konzert besuchen werden. Auch diese Informationen bekommt das System von anderen Nutzern bereitgestellt. Zugleich bietet last.fm die Möglichkeit, soziale Kontakte zu entwickeln. Denn die Plattform 96 Poe veröffentlichte 1834 den Text Maelzel‘s Chess Player, in welchem er die Funktionsweise der Kempelenschen Schachmaschine, die inzwischen durch Johann Jakob Maelzel zweitverwertet wurde, genau beschrieb; s. Poe (1834, Internet). 42 AUTHENTIZITÄT zeigt neben der in Web-2.0-Anwendungen bereits obligatorischen „Buddy-Liste“, die der Nutzer selbst gestalten kann, eine Liste der Anwender an, deren Hörverhalten – verglichen mit seinen eigenen Hörgewohnheiten – die höchste Übereinstimmung aufweist. Das System versorgt ihn und sein Umfeld, also andere Teile des Systems, mit Informationen, welche vorher nicht existent waren. Diese Informationen hätten ohne eine große Anzahl aufeinander abgestimmter automatisierter Prozesse überhaupt nicht zusammengetragen werden können – es ist also kreativ. Dies vielleicht nicht im herkömmlichen, gestaltenden Sinne – dennoch: Auch die Ausführung eines Remixes birgt Kreativitätspotential. Last.fm führt gleichsam einen Informations-Remix durch. Die digitale Kopie eines gekauften Albums kann wesentlich authentischer wirken, als es der physikalische Datenträger je war. Man kann diese Kopie zwar nicht mehr anfassen, jedoch ist die Zahl der Möglichkeiten ihrer Verwertung und des direkten Umgangs damit exorbitant gestiegen. Durch die ständige Verfügbarkeit97 der digitalen Daten und ihre Verknüpfung in sozialen Netzwerken sind sie mehr denn je in den Alltag einer noch kleinen, aber stetig wachsenden Gruppe von Menschen integriert. Sie sind omnipräsent. Vilém Flussers Text über den städtischen Raum und die neuen Technologien prophezeit ein Verschwinden des urbanen Raumes oder zumindest ein Schrumpfen dessen.98 Das Schrumpfen vollziehe sich, indem die Menschen ihre Häuser nicht mehr verlassen müssten, da die Informationen mit der Entwicklung neuer Technologien – gleich dem Berge des Propheten – durch kleine Röhren automatisch zu ihnen nach Hause kämen. Diese These erscheint überholt. Zwar kommen die Informationen zu den Menschen, aber sie werden – im Zuge des Ausbaus flächendeckender kabelloser Hochgeschwindigkeits-Datenverbindungen und der Nutzung neuester Gadgets99 – dort rezipiert, wo sich die Menschen gerade aufhalten, egal ob dies zu Hause, im Park oder im Schuhgeschäft ist. Ein System, welches eine derartige Omnipräsenz aufweist, gilt per se als authentisch. Das beste Beispiel hierfür bietet die Geldwirtschaft. Geldscheinen und Münzen wird nicht nur deswegen vertraut, weil man sich auf sie geeinigt hat und weil sie den Anschein von Fälschungssicherheit vermitteln – wir glauben vor allem an den Gegenwert des Geldes, weil das System nahezu omnipräsent ist und fast überall Gütigkeit zu haben scheint. Eine ähnliche Omnipräsenz können virtuelle Räume im Netz – zumindest innerhalb der gut versorgten Industriestaaten – in den nächsten Jahren erlangen. Warum sollten wir ihnen also nicht vertrauen? Als weiteres Beispiel möchte ich die GPS-Navigation anführen – Millionen von Kapitänen, Piloten und Autofahrern, sogar das Militär, vertrauen dem Satellitennavigationssystem 97 Die Daten sind in zeitlicher und gleichzeitig in räumlicher Hinsicht ständig verfügbar, sie werden einerseits jederzeit vorgehalten, andererseits können sie mittels mobiler Internet-Technologie von überall gesendet und abgefragt werden. 98 Flusser (1997), S. 172. 99 Siehe Kapitel 4.7. der vorliegenden Arbeit: Informationen zum Anfassen: Das Internet wird be-greif-bar. 43 AUTHENTIZITÄT ununterbrochen und teilweise blind – weil es omnipräsent ist. Die Möglichkeiten, welche die fortschreitende Digitalisierung von ursprünglich griffigen Tonträgern für den Umgang mit Musik bietet, eröffnen – wie beschrieben – grundlegend neuartige und bahnbrechende Perspektiven ihrer Nutzung. Doch das betrifft nur die Gruppe der Hörer der Musik – alle neuen Möglichkeiten scheinen sich ausschließlich auf Konsumentenseite auszuwirken. Der Umgang mit der voranschreitenden Digitalisierung auf Produzentenseite stellt sich ungleich schwieriger dar: Es herrscht vor allem Verunsicherung. Die Pressemitteilungen und die Handlungsweise der Musikindustrie verraten Unsicherheit darüber, wie unter diesen Umständen mit dem Urheberrecht umgegangen werden soll. Original und Kopie sind bei digital vertriebener Musik nicht mehr voneinander unterscheidbar. Wie also ist es zukünftig möglich, als Schöpfer am Erfolg seines Kunstwerks zu partizipieren? Zusammengefasst ist sich das Gros der Label, Manager und Vermarkter, der Sender und der Werber nicht sicher, an welcher Stelle innerhalb eines derartig neu gestalteten Marktes sich denn nun eigentlich das Geld verdienen lässt. Diese absolute Ratlosigkeit, welche die Musikindustrie beim Verlassen des gewohnten Verkaufsparketts in Richtung E-Business befällt, lässt sich gut am anfänglichen Zögern aller Labels, bei Apples iTunes Music Store einzusteigen, ablesen. Der iTunes-Store ist bereits fünf Jahre nach seinem Markteintritt zum größten Musikhändler der USA aufgestiegen, und zwar sowohl in Bezug auf Online- als auch auf traditionelle Ladenverkäufe.100 Die Vertreter der Musik- und der Filmindustrie nehmen aber trotz dieser enormen Erfolge weiterhin die Rolle ihrer ehemals ärgsten Gegner ein: Die der verzweifelten Kulturpessimisten. Labels und Studios initiieren automatisierte Klagewellen gegen zehntausende Nutzer von Filesharing-Diensten,101 beklagen sich über Umsatzeinbußen in Millionenhöhe und fordern Rechte für sich ein, von denen andere Konzerne nur träumen können – aktuell den direkten Auskunftsanspruch bei Urheberrechtsverletzungen, so dass die Rechteinhaber und deren Vertreter die Namen der Tauschbörsennutzer direkt von deren Internetprovider erfahren können, ohne den derzeitigen, für sie lästigen Weg über die Strafverfolgungsbehörden wählen zu müssen102. Ein weiteres Beispiel für den Versuch der Musikindustrie, absurd wirkende Gesetze zu erwirken, ist das Anliegen, das Wegwerfen von Audio-CDs unter Strafe zu stellen.103 Doch es existieren auch auf der Produzentenseite positive Effekte der Social Networks und der anderen, einfach gewordenen Musikdistributionsmöglichkeiten über das Internet: Zahlreiche Online-Labels erobern den Markt, Bands wie die Arctic Monkeys wären ohne MySpace, durch das sie ihre Fangemeinde aufbauen konnten, kaum denkbar. 100 Apple (2008, Internet): iTunes Store Tops Over Five Billion Songs Sold. 101 Golem.de (2006, Internet): Weltweite Klagewelle gegen Tauschbörsennutzer. 102 Darüber wurde im Bundestag am 11. April 2008 abgestimmt, der Gesetzesentwurf ist einsehbar unter http://dip21.bundestag.de/dip21/btd/16/050/1605048.pdf 103 Heise Online (2008, Internet): Musikindustrie will Wegwerfen von CDs verbieten. 44 AUTHENTIZITÄT Dennoch – oder gerade deshalb: Traditionelle Verkaufsmodelle, welche vorsehen, eine bestimmte, möglichst günstig hergestellte Ware, also einen Tonträger, gegen einen möglichst hohen Geldwert zu tauschen und so den Gewinn zu maximieren, greifen nicht mehr. Denn sie basieren auf der Annahme, dass ein „echtes“, einmaliges Original existiert, welches einen materiellen Wert aufweist. Dieses Original ist zwar im Falle des Tonträgers tausendfach vorhanden, dennoch hat ein Käufer die Gewissheit, etwas in der Hand zu halten, was er nicht mit einfachsten Mitteln in vergleichbarer Qualität selbst zu Hause herstellen kann. 3.4. Von der Echtheit der Kopie Diese Form der Originalität ist bei den über das Internet verbreiteten Kunstwerken nicht mehr gegeben. Es sind zwei Sichtweisen auf das Problem denkbar: Entweder existiert das einmalige Original nicht mehr oder jedes heruntergeladene Duplikat muss als Original betrachtet werden. Walter Benjamin umschreibt diesen Umstand in seinem Kunstwerk-Aufsatz im Hinblick auf die Authentizität der Replik eines Kunstwerks: »Der gesamte Bereich der Echtheit entzieht sich der technischen – und natürlich nicht nur der technischen – Reproduzierbarkeit.«104 Während das Echte aber – schuld an diesem Umstand sind vor allem Fehler, die einer von Hand produzierten Replik anhaften, einer technischen Reproduktion jedoch nicht – der manuellen Reproduktion gegenüber seine volle Autorität bewahre, sei dies bei der technischen Replik nicht der Fall. Einen Teil dieser Aussage möchte ich anzweifeln, dann selbst bei Medien, die ohne die Hilfsmittel der technischen Reproduktion nicht existieren könnten,105 gilt z.B. ein Glasmaster, also die „Mutter“ oder Urform einer Compact Disc, als besonders wertvoll, wesentlich wertvoller als ihre technischen Reproduktionen, die im Handel erhältlich sind. Sowohl der OriginalCharakter des Produkts als auch sein Faktor als Unikat sorgen für eine immense Wertsteigerung gegenüber seinen Reproduktionen. Noch deutlicher zeigt sich der Originalcharakter eines Kunstwerkes als wertsteigerndes Element bei Erstausgaben von Audio-CDs, die später aufgrund ihres Erfolges neu aufgelegt werden. Sammler bevorzugen Exemplare aus der ersten Charge – die Wertsteigerung eines Einzelexemplares erfolgt hier ausschließlich aus einem imaginativen Unterschied zwischen Original und Kopie. Die Frage danach, ob die Kopie eines Kunstwerks echt ist oder nicht, stellt sich offenbar nicht mehr, wenn dieses Kunstwerk jegliche physische Präsenz vermissen lässt und ausschließlich in einer virtuellen Umgebung existiert. So unterscheidet sich die Originalaufnahme eines Podcasts in keiner Weise von einer seiner digitalen Kopien auf den Festplatten der Hörer. Würde sich nur ein einziges falsches Bit einschleichen, so sorgten Prüfsummen für ein sofortiges Aussortieren dieser Datei. Entweder, sie existiert als Original oder sie existiert gar nicht. 104 Benjamin (1974), S. 476 105 Insbesondere die Audio-CD ist ohne technische Reproduktion nicht denkbar. 45 AUTHENTIZITÄT Beschädigungen oder Alterungsprozesse sind im digitalen Universum nicht vorgesehen.106 Der binäre Charakter digitaler Kunst setzt sich also auch im Makrokosmos fort, sie existiert ohne Patina, entweder sie ist vorhanden oder unbrauchbar – Alterung, Gebrauchsspuren oder andere Zwischenzustände berühren sie nicht. Weiterhin wird der Authentizitätsbegriff heute nicht mehr für einen Vergleich z.B. einzelner Abzüge einer photographischen Platte angewandt, denn die viel dringendere Frage ist, ob ein digitales Foto wirklich das widerspiegelt, was der Sensor der Kamera im Moment der Aufnahme aufgezeichnet hat oder ob eben dieses Foto digital nachbearbeitet wurde. Selbst eine direkte Einflussnahme auf das Material wie die nachträgliche Veränderung eines Fotos oder beispielsweise auch einer Sprachaufzeichnung hinterlässt keinerlei augen- oder ohrenscheinliche Spuren und ist somit viel schwerer zu beweisen als eine Fälschung zu Zeiten der manuellen (Re)-Produktion von Kunst. Den Stellenwert bzw. die Relevanz eines über ein digitales Medium vermittelten Kunstwerks über dessen Echtheitsbegriff zu definieren, scheint also ein zweckloses Unterfangen zu sein und es stellt sich die Frage, ob sich die daraus entstehenden Unwägbarkeiten in der Rezeption107 nicht unmittelbar auf das Kunsterlebnis auswirken. Benjamin führt weiterhin den durch die technische Reproduzierbarkeit des Kunstwerks ausgelösten Wandel in der Rezeptionsweise an: Erst durch den massiven Anstieg der Anzahl der Kopien eines Werkes sei der Massenkonsum eines Kunstwerks möglich. Ein gutes Beispiel hierfür bietet das Hollywood-Kino unserer Tage, welches eine millionenfache Rezeption eines einzelnen Werkes aus nur marginal voneinander abweichenden Beobachterperspektiven ermöglicht. Benjamin führt in diesem Zusammenhang den Begriff einer simultanen Kollektivrezeption ein; von einer solchen kann man bei der Rezeption von digitaler Kunst meines Erachtens nicht sprechen. Es ist zwar mit deutlich weniger Aufwand verbunden, Kunst simultan zu konsumieren; und die Anzahl der Rezipienten könnte theoretisch bis ins Unendliche skaliert werden. Alle Rezipienten könnten durch das Medium verbunden sein; ihnen steht zumindest ein Rückkanal zur Verfügung, der es erlaubt, im Kontext des Werkes miteinander zu kommunizieren – trotzdem ist die Rezeption von Medienkunst meist eine sehr einsame Angelegenheit.108 Auch ein gewisser Respekt vor der Handwerkskunst, die bisher nötig war, um ein Kunstwerk zu schaffen, scheint im Hinblick auf dessen Marktwert bedeutungslos geworden zu sein, im Falle von digital verbreiteter Musik versagen momentan – wie beschrieben – alle Mechanis- 106 Jede Kopie ist also das Original, jede Kopie ist authentisch und je mehr Hörer auf diesen Podcast aufmerksam werden, umso zahlreicher die Kopien eines Podcasts sind, desto bedeutender wird er. Dies ist eine essentielle Voraussetzung für die „Ökonomie der Aufmerksamkeit“. 107 Wird ein digitales Kunstwerk aus dem Internet bezogen, so sind viele Faktoren, welche das Kunsterlebnis maßgeblich prägen können, nicht mehr vom Künstler beeinflussbar und werden dadurch beliebig: Welcher Monitor wird benutzt; existieren Lautsprecher, und wenn ja: Welche Qualität bieten sie? Steht der Computer in einem Büro? etc. 108 Dies gilt nur solange für die Rezeption von Medienkunst, wie diese nicht in soziale Netzwerke verlagert wird. 46 AUTHENTIZITÄT men des Urheberrechtsschutzes,109 das Label EMI hat kürzlich als letzter der großen Musikdistributoren verkündet, keine kopiergeschützten Audio-CDs110 mehr vertreiben zu wollen und als erstes der Major-Labels diesen Schritt auch für den digitalen Musikvertrieb nachvollzogen. EMI verzichtet weiterhin bei digital verbreiteter Musik auf einen Kopierschutz und eine damit verbundene digitale Rechteverwaltung. Den Schutz vor einer technischen bzw. einer simplen digitalen Reproduktion aufgebend, scheint es einfacher und vor allem umsatzträchtiger zu sein, hochqualitative und nicht mit einem Kopierschutz versehene Musik zu verkaufen. Dieser Umstand sollte sich eigentlich von selbst verstehen, scheint sich aber über Jahre hinweg nicht in die Chefetagen der Musikanbieter herumgesprochen zu haben. Bis zum heutigen Tag haben sich dagegen fast alle großen Musikdistributoren – selbstverständlich ausschließlich aus wirtschaftlichen Gründen – dazu durchgerungen, ihre Musik ohne digitalen Kopierschutz anzubieten. Als Beispiel hierfür soll der vom Online-Kaufhaus Amazon angebotene Musikservice dienen, dessen hauptsächliches Unterscheidungsmerkmal zu Apples iTunes-Store darin besteht, dass ausschließlich kopierschutzfreie Musik in hoher Qualität vertrieben wird. Trotzdem bleibt die Frage offen, an welcher Stelle in diesem System das Geld verdient wird: Die Labels kämpfen nach wie vor mit starken Umsatzrückgängen. Dies ergibt sich aus der Tatsache, dass die Verkaufszahlen von Tonträgern über die Jahre hinweg deutlich stagnieren und die neu dazu gekommenen Download-Charts diese Stagnation im Gesamtergebnis zurzeit nur dämpfen, aber nicht vollständig kompensieren können. Auch das ist eine logische Folge aus den Möglichkeiten, die die Digitalisierung den Rezipienten in die Hand gibt. Je einfacher es ist, „Raubkopien“ zu erstellen und je mehr davon in Umlauf kommen, desto weniger Tonträger werden verkauft und desto kleiner ist der Anteil legal erworbener Musik am Gesamtvolumen. Eine Patentlösung für dieses Dilemma existiert – abgesehen von drakonischen Strafmaßnahmen in Form von Massenklagen über astronomisch hohe Streitwerte, also der Kriminalisierung der Mehrzahl der Kinder, Jugendlichen und jungen Erwachsenen – nicht. 3.5. Die Ökonomie der Aufmerksamkeit Auch, wenn es für digitale Musik – abgesehen vom eher am traditionellen Warenhausprinzip orientierten iTunes Music Store – noch keine Musterbeispiele für das große Geschäft gibt – die Strukturen, die sich im Web 2.0 herausbilden, ähneln immer mehr denen eines klassischen Marktes. Mit dem Unterschied, dass meist nicht mit Geld, sondern mit Aufmerksamkeit und Respekt gehandelt wird. Diese Ökonomie der Aufmerksamkeit beschreiben Holm Friebe und Sascha Lobo unter Be109 Sie leiden einerseits unter mangelnder Akzeptanz beim Kunden, andererseits sind die meisten Kopierschutzmechanismen leicht zu umgehen und deshalb nicht wirksam. 110 Mit einem Kopierschutz versehene Audio-CDs werden umgangssprachlich auch als Un-CDs bezeichnet, da sie meist dem RedBook-Standard für Audio-CDs nicht mehr entsprechen und demzufolge von einigen CD-Playern nicht abgespielt werden können. 47 AUTHENTIZITÄT zugnahme auf Georg Franck.111 Franck stellt die Frage, ob – angesichts des Universalcharakters der Aufmerksamkeit, man könne seine Aufmerksamkeit für alles Erdenkliche ausgeben – die Aufmerksamkeit nicht das Geld als Währung ersetzen sollte. Bei der Fortschreibung dieser Theorie durch Friebe und Lobo ist vor allem die auto-affirmative Steuerung der Aufmerksamkeit der Konsumenten neuer Medien von Belang, denn mittlerweile hat sich in Form von Social-Bookmarking-Plattformen und anderen virtuellen Räumen ein regelrechter Marktplatz der Aufmerksamkeit entwickelt. Bei diesen Tauschgeschäften nimmt mit erhöhter Aufmerksamkeit auch die Relevanz der einzelnen Angebote zu. Diese Relevanz ist für viele Blogger und Podcaster mit konkretem, wirtschaftlichen Erfolg gleichbedeutend. Aufmerksamkeit ist zur Währung geworden. Die Relevanz bzw. der Wert, der in Social-Bookmarking-Plattformen einem einzelnen Text oder einem einzelnen Autor zugeschrieben wird, generiert sich – im Gegensatz zu der Wichtigkeit, die einem einzelnen Text bei Google eingeräumt wird – nicht ausschließlich, aber zu einem großen Anteil aus der Anzahl der Verweise anderer Medienschaffender auf diesen Text. Der grundlegende Unterschied zur Suchmaschinen-Technologie besteht darin, dass ein Text von einem Leser (und nicht von einem Automaten oder einem Programm) als wichtig markiert werden kann. Dieser Leser muss selbst weder Autor sein, noch muss er sich in einer sonstigen Machtposition über die konsumierten Inhalte befinden. Was als relevant gilt, wird von denen entschieden, für die es relevant ist. Ist der Autor selbst Mitglied bei einer dieser Plattformen, so finden sich unter den Texten auf seiner eigenen Internetpräsenz oft Icons, die mit kurzen Erklärungen – zum Beispiel: »digg it!« – versehen sind. Klickt nun ein Leser dieses Icon an, so gibt er seine Stimme für die Relevanz des Textes ab. Diese Handlung wird im für den Autor günstigsten Falle tausendfach wiederholt. Je öfter etwas wiederholt wird, desto mehr prägt es sich ein und desto relevanter ist es. Das Phänomen der Wiederholung an sich – auch wenn von Kierkegaard als einzig mögliche Wiederholung die Unmöglichkeit derselben postuliert wurde112 – spielt eine bedeutende Rolle bei der halbautomatischen Generierung von Aufmerksamkeit im Web 2.0. In der genauen 111 Friebe / Lobo (2006), S. 218; Franck (1998), S. 72 ff. 112 Meines Erachtens ist es wichtig, zwischen einer wahrgenommenen Wiederholung und der fiktiven Möglichkeit einer Iteration zu unterscheiden. Kierkegaard bezieht sich selbst in seinen fiktiven Experimenten ausschließlich auf die konkrete Wahrnehmung einer Wiederholung. Voraussetzung dafür ist ein wahrnehmendes Bewusstsein, welches sich im Klaren darüber ist, dass es sich bei einem wahr-genommenen Ereignis einmal um ein „Original“ und ein weiteres Mal um dessen Wiederholung handelt. Ohne diese Veränderung im Bewusstsein wäre das Wahrnehmen einer Wiederholung unmöglich. Die bewusstlose Wiederholung dagegen ist ein rein theoretisches und in dessen Folge ein informationstechnisches Phänomen, welches auf die Übertragung von ursprünglich mechanischen Prinzipien – z.B. beim Arbeiten mit Programmschleifen – auf die Informationstechnologie gründet. Sie tritt ausschließlich in einem virtuellen und fiktiven Kontext auf, da natürliche wie auch künstlich erzeugte Wiederholungen in der phänomenalen Welt immer mit Problemen der Abnutzung oder des Energieverlustes behaftet sind. Die ideale mechanische Wiederholung ist nur in Form eines Perpetuum Mobile denkbar und dieses ist leider – fiktiv. Siehe auch Kierkegaard (2000). 48 AUTHENTIZITÄT Wiederholung bestätigt ein Ereignis gleichzeitig seine eigene Existenz und bekräftigt damit seine Relevanz. Dies gilt gleichermaßen für eine wahrgenommene als auch für eine fiktive Wiederholung. Eine wahrgenommene Wiederholung ist darüber hinaus transitorisch – was eigentlich ihrem Dasein als Wiederholung widerspricht – da der Wahrnehmungsprozess einer Wiederholung selbst nicht wiederholbar ist. Déjà-vu-, Déjà-entendu- oder Déjà-vécuErlebnisse sind vielen von uns schon begegnet: Diese Wiederholungserlebnisse, welche sich an den Grenzen zwischen Wahrnehmung und Unterbewusstsein bewegen, sind per definitionem transitorisch. Wird also eine Handlung wiederholt – egal, ob von einer oder von mehreren Personen, von Maschinen oder determinierten Programmstrukturen – so gewinnt sie an Relevanz. Ein Beispiel hierfür bilden große Volksabstimmungen, bei denen teilweise Millionen von Menschen bis ins Detail die gleiche Handlung vollziehen – nämlich ihr Kreuzchen heimlich auf der exakt gleichen Stelle eines Zettels zu platzieren – um dann im Kollektiv eine der relevantesten Entscheidungen überhaupt getroffen zu haben. So gründet sich das Prinzip der demokratischen Meinungsbildung unter anderem auf dem der Wiederholung. Genau dieses Prinzip liegt Social-Bookmarking-Diensten113 zugrunde: Social Bookmarking transportiert außerdem eine andere, relativ angestaubt wirkende Verhaltensweise – das Anlegen von Lesezeichen – in ein neues Jahrtausend. Erscheint dem Nutzer des Dienstes ein bestimmter Artikel im Netz als interessant und erinnerungswürdig, speichert er die Adresse dieses Artikels nicht nur auf dem eher traditionellen Wege in seinem Browser ab, sondern übermittelt einen Link zu diesem Artikel zum Social-Bookmarking-Dienst, der eine Art zentralisierte Lesezeichenverwaltung für Millionen von Nutzern darstellt. Entscheiden sich nun tausende von Benutzern gleichzeitig dafür, dass ein Artikel, ein Video oder ein Podcast sehens-, lesens- oder hörenswert ist, steigt dieser in der Rangliste der Relevanz nach oben, bis hin zur höchsten Stufe: Der Startseite von digg.com. Ist ein Link dort verzeichnet, greift das Prinzip der Autoaffirmativität – der Link wird nun von hunderttausenden Benutzern der Plattform gesehen und angeklickt und steigt so immer weiter im Ranking, bis letztendlich die Aufmerksamkeit nachlässt und der Verweis nach einiger Zeit im Hintergrundrauschen der Irrelevanz verschwindet. An diesem Punkt – gerade, wenn es um Aufmerksamkeitsströme, die vom Rezipienten ausgesandt und von einer Plattform ausgewertet werden, geht – liegt ein Abstecher zur Radiotheorie Bertolt Brechts nahe. 3.5.1. Vom Radio zum Web 2.0 – Brechts Radiotheorie und das neue Netz »Der Rundfunk [hat] eine Seite, wo er zwei haben müsste. Er ist ein reiner Distributionsapparat, er teilt lediglich zu. (…) Ein Vorschlag zur Umfunktionierung des Rundfunks: Der Rundfunk ist aus einem Distributionsapparat in einen Kommunikationsapparat zu verwandeln. Der Rundfunk wäre der denkbar großartigste Kommunikationsapparat des öffentlichen Lebens, ein ungeheures Kanalsystem, das heißt, er wäre es, wenn er es verstünde, nicht nur auszusenden, sondern auch zu empfangen, also den Zuhörer nicht nur hören, sondern auch sprechen 113 Siehe Glossar der vorliegenden Arbeit. 49 AUTHENTIZITÄT zu machen und ihn nicht zu isolieren, sondern in Beziehung zu setzen.«114 Bertolt Brecht entwirft in einem Teil seiner Radiotheorie in den 1920er und 1930er Jahren ganz nebenbei die Utopie einer Kommunikationsform, die offenbar erst mit der Erfindung des Internets Wirklichkeit werden konnte. Alle dem Internet vorausgehenden und für die breite Öffentlichkeit zugänglichen Produktionsmöglichkeiten sendetauglicher Programminhalte – z.B. die der relativ unpopulären offenen Kanäle der Radio- und Fernsehanstalten – waren zwar in der Theorie wie auch praktisch vorhanden, sie wurden trotzdem nur von einer sehr begrenzten Personengruppe auf Senderseite und von einer statistisch noch irrelevanteren Menge von Rezipienten genutzt. Die in den offenen Kanälen erzielten Ergebnisse sind selbst nach großen Lernfortschritten der Privatpersonen, die in die Rolle der Medienmacher schlüpfen, weit davon entfernt, professionell zu wirken und damit eine größere Zuschauergruppe ansprechen zu können. Mit der Einführung von Computerprogrammen wie Microsofts FrontPage, welche es technisch unerfahrenen Menschen erlaubten, eigene Internetseiten mit wenigen Klicks zu erstellen und zu veröffentlichen, war zumindest die technologische Hürde, die vom Produzieren und vor allem vom Publizieren abhielt, überwunden. Leider waren die erzielten Ergebnisse ebenso amateurhaft und unansehnlich wie die privat produzierten Radio- und Fernsehsendungen. Von gut strukturierten, zugänglichen und gleichzeitig geschmackvoll gestalteten Internetauftritten, welche sinnvollen Inhalt präsentieren, waren diese Seiten meilenweit entfernt. Dies bemerkten anscheinend auch deren Macher – was in einer schier endlosen Zahl von Baustellengrafiken auf privaten Homepages resultierte. Der „Coming-Soon-Boom“ brach über das Internet herein. Der Schriftzug „Coming Soon“ entwickelte sich im Verständnis technisch versierter Besucher schnell zum Synonym einer Todesanzeige für die entsprechende Domain. Von einem Kommunikationsapparat des öffentlichen Lebens, wie ihn sich Brecht wünschte, war diese Form des Internets also noch sehr weit entfernt. Brecht entwirft in der Radiotheorie ein Modell des Mediums Radio, welches in der Lage ist, durch seinen Charakter als Distributionsmedium das politische Bewusstsein der Zuhörer zu schärfen. Gleichermaßen sei es in der Lage, Massen für politische Zwecke zu mobilisieren. Die enge Verknüpfung und Beschäftigung aller Medien des Web 2.0 mit Fragen aktueller Tagespolitik lässt sich an vielen Beispielen deutlich machen. Die Einlösung von Brechts Utopie scheint durch die neuen Web-2.0-Kommunikationsröhren näher gekommen zu sein, als sie es durch den Einsatz des Mediums Radio jemals war. Was die Beschäftigung mit Brechts Rundfunktheorie aber noch viel interessanter macht – daher im ersten Satz dieses Kapitels die Formulierung »ganz nebenbei« – ist der historische Kontext, in dem er sie entwickelt. Das Radio steckt in den 20er Jahren in seinen Kinderschuhen. Alle technischen Voraussetzungen für seine Entwicklung zum vollwertigen und anerkannten Medium sind gegeben, dennoch wird es nur in sehr begrenztem Umfang – vor allem in einer Stellvertreterfunktion für andere Medien, vorrangig für Theater und Literatur 114 Brecht (1967), S. 129 50 AUTHENTIZITÄT – eingesetzt. Alle anderen Möglichkeiten, wie z.B. die der Verwendung als Distributionsmedium von Nachrichten oder als Diskussions- und Informationsforum und nicht zuletzt die Verwendung des Radios als Werkzeug zur politischen Mobilisierung der Massen, entwickeln sich erst zu einem späteren Zeitpunkt. In dieser Zeit überwindet Brecht mit seinen Aufrufen an die Radiomacher zwei Grenzen gleichzeitig: Er denkt über neue Verwendungsmöglichkeiten eines technisch begrenzten Mediums, also über einen Umbruch auf inhaltlicher Ebene nach. Gleichermaßen fordert er die Erweiterung der technisch bedingten Grenzen durch das Umwandeln des Radios in einen multidirektionalen Kommunikationsapparat. So ist Brecht gemeinsam mit Kurt Weill einer der ersten Medientheoretiker, der es wagt, über neue, kreative Wege des Umgangs mit einem gerade eingeführten Medium zu sinnieren – und das sogar abseits der vorhandenen technischen Möglichkeiten des Rundfunks. Zugleich fordern beide, von einer Verwendung des Radios als reinem Stellvertretermedium Abstand zu nehmen. Setzt man diese frühe Entwicklungsphase des Rundfunks mit der des Internets in Beziehung, so offenbaren sich verblüffende Parallelen: Die technischen Möglichkeiten des Netzes waren Tim Berners-Lee durchaus bewusst, als er 1989 das World Wide Web erfand. Der Weg des Mediums weg von den Stellvertreterfunktionen kostete allerdings über 15 Jahre und ist bis heute noch nicht ganz abgeschlossen: E-Mails imitieren weiterhin die klassischen Briefe und die Voice-over-IP-Technologie versucht gerade, die herkömmliche Telefonie zu ersetzen. Verlage entwickelten digitale Ausgaben ihrer Zeitungen, Rundfunk- und Sendeanstalten stellen den Großteil ihres Programms als Videostreams zur Verfügung. Als einzige Lichtblicke im Sinne von Alleinstellungsmerkmalen waren bis zum Ende der neunziger Jahre die Entwicklung des Usenet und die der daraus resultierenden Forenkultur zu nennen. Diese bildeten neben Werbe-E-Mails den Löwenanteil der Kommunikation im heute schon fast traditionell-anachronistisch anmutenden, etablierten Teil des Internets. Erst die Entwicklung von neuen Geschäfts- und Nutzungsmodellen wie denen von Google, Wikipedia, eBay und auch Amazon, bereiteten den Weg weg vom Stellvertreternetz und hin zum autonomen und kreativ genutzten Medium. Im Zuge dessen änderte sich auch die Ausrichtung der Kommunikationswege: War es im Stellvertreternetz normal, dass Kommunikation mono- oder maximal bidirektional erfolgt, profitiert das Web 2.0 von angewandter multidirektionaler Kommunikation in Form von Kommentaren, Tagging und Social Bookmarking. Diese für die Entwicklung kommunikativer Web-2.0-Technologien notwendige Zeitspanne, welche mit fast 15 Jahren für Internet-Verhältnisse extrem lang andauerte, ist der Grund dafür, dass sich meine Beschreibung dieser Sachlage – entgegen meiner Gewohnheit und im Einklang mit Brechts Radiotheorie – etwas abseitig von einer formalästhetischen Medienanalyse positioniert: Die Entwicklung der technischen Möglichkeiten des Internets ist zwar eine grundlegende Voraussetzung für dessen vielfältige Nutzungsformen, ausschlaggebend für die Etablierung von Netzkunst und womöglich sogar von einigen voneinander abgrenzbaren Genres sind jedoch die Ideen der Netzpersönlichkeiten, die mit diesem Medium umgehen 51 AUTHENTIZITÄT bzw. die jener Personen, die es theoretisch reflektieren. Nicht nur die Anzahl und der Verlauf der Kommunikationswege wurde optimiert, auch ihre Geschwindigkeit und Effizienz konnte durch neue Technologien wie Trackbacks, Pingbacks und Feedreader verbessert werden. 3.5.2. Informationelle Massenbestäubung Die Entwicklung und vor allem die stetig wachsende Verbreitung von Blogs trugen innerhalb der vergangenen vier Jahre zur Etablierung neuer Kommunikationsstrukturen im Netz bei. Doch was sind eigentlich Blogs? Die schlichte Übersetzung „Internet-Tagebuch“ kann schon lange nicht mehr dem gerecht werden, was sich hinter dem Wort „Blog“ verbirgt. Vor einigen Jahren wurde häufig eine Form des Voyeurismus durch Internetseiten in Tagebuchform bedient – heutige, zeitgemäße Blogs bilden aber ein wesentlich breiter gefächertes Themenspektrum: Sie befassen sich – nach dem „Long Tail-Prinzip“115 – mit fast allem, was für Irgendjemanden von Interesse ist. Der Begriff Blog beschreibt also nicht die spezielle inhaltliche Ausrichtung einer Webseite, sondern zunächst nur deren Aufbau: »Weblogs sind oft aktualisierte Websites mit eher kurzen Artikeln, bei denen der neueste Beitrag, bestehend aus Text, Bild, Ton oder Film, in der Regel oben steht. Dazu kommt eine Reihe von Funktionen, die sich aufteilen in Vernetzung, Kommunikation und Bündelung.«116 Vernetzt sind Blogs zunächst einmal durch die „Urform“ der Vernetzung im Internet: durch Hyperlinks. Doch nicht nur die bewusst gesetzten Verweise zu anderen Internetseiten – vornehmlich zu anderen Blogs – sorgen für Vernetzung, Kommunikation und Publicity. Sogar die Blog-Software selbst, das Content-Management-System,117 welches zum Veröffentlichen der Texte benutzt wird, sorgt für Vernetzung auf vielen weiteren Ebenen. Diese Software bietet an, auf anderen Internetseiten, die ebenfalls mit einer Blogsoftware betrieben werden und die sich thematisch in eine ähnliche Richtung orientieren, mittels Track- und Pingbacks automatisch Kommentare zu hinterlassen. Diese Trackbacks beinhalten einen Auszug des eigenen Artikels zum Thema, der die Leser der anderen Blogs auf den eigenen Text aufmerksam machen soll. Es findet also eine ständige, automatische und wechselseitige informationelle Massenbestäubung in der Blogosphäre statt. Die Brechtschen Grundbedingungen für einen fortschrittlichen Kommunikationsapparat werden durch die Blogosphäre ausnahmslos erfüllt. Es existiert nun ein Medium, welches es erlaubt, ohne besondere technische Vorkenntnisse Texte, Bilder, Filme und Töne zu veröffentlichen und zu diskutieren. Blogger, Zuhörer, Zuschauer und Leser können barrierefrei miteinander in Beziehung gesetzt werden. Die steigende Popularität von Blogs und Blogsoftware ist mit ihrer sehr einfachen Handhabbarkeit zu begründen. Denn es ist genau so 115 Siehe Glossar der vorliegenden Arbeit. 116 Friebe / Lobo (2006), S. 190 117 Siehe Glossar der vorliegenden Arbeit. 52 AUTHENTIZITÄT einfach, ein Blog einzurichten, wie eines zu lesen oder einen Kommentar darauf zu veröffentlichen. Es sind keinerlei komplexere Programmierkenntnisse nötig, auch das Einrichten einer eigenen Internetpräsenz und die recht mühselige Beantragung eines Domainnamens fällt weg. Außerdem ist das Betreiben eines Blogs kostenfrei, sieht man von der benötigten und meist ohnehin vorhandenen Infrastruktur (Computer und Internetanbindung) ab. Durch diese Demokratisierung der Produktionsmittel ist der von Brecht angedachte Kommunikationsapparat nun Wirklichkeit geworden. Jeder darf Sender sein. Das Problem ist nur – wenn jeder sendet, und das nahezu ununterbrochen – wer hört dann eigentlich noch zu? Dass das stetige Stimmengewirr mittels RSS-Feeds, Trackbacks und anderen aufmerksamkeitssteuernden Strukturen kanalisiert und kategorisiert werden kann, habe ich in diesem Kapitel beschrieben, doch: Wie können einzelne Blogger auf sich aufmerksam machen, wie findet ein Blogger im immer länger werdenden Long Tail seine Nische und wie besetzt er diese? 3.5.3. Zur medialen Inszenierung von Authentizität Zunächst die Beschreibung einer Situation, wie sie wohl jeder kennt: Die Auswahl eines Portraitfotos beim Fotografen. Auf welchem Exemplar wurde ich am besten getroffen, wo wirke ich am freundlichsten, schönsten, aufgewecktesten, welches Foto rückt mich ins rechte Licht, welches kaschiert am Besten meine Schwachstellen? Mediale Selbstinszenierung fängt schon bei der Auswahl des passenden Passbildes an. Wie kann ich mich selbst so darstellen, dass andere mich zum Vorstellungsgespräch einladen, mich mögen, interessant finden oder mir Respekt zollen? Inszenierungsstrategien dieser Art, also solche, die auf eine möglichst überzeugende Darstellung eines idealisierten Selbstbildes zielen, sind ein Muss für jeden, der sich in einem Medium sicher bewegen will. So genannte Medienkompetenz – also das Beherrschen dieser Strategien – gehört zum Handwerkszeug eines jeden Prominenten, egal, ob es sich um einen Politiker, einen Radrennfahrer oder einen Moderator handelt.118 Dabei sind die Eigenschaften, die eine gute Inszenierung garantieren, vom Medium abhängig: In Printmedien sind Fotogenität und Einfallsreichtum bei der Formulierung von Sachverhalten gefragt, im Radio kommt der Klang der Stimme und Spontaneität hinzu, während im Fernsehen neben all diesen Dingen die Mimik und die Gestik eine wichtige Rolle spielen. Wie man sich im Internet präsentiert, hängt im Gegensatz dazu nicht direkt vom Medium ab, man hat eine Wahl. Schreibt man für ein Blog, sind nur sprachliche Fähigkeiten relevant, wird ein regelmäßiger Videocast produziert, gelten ähnliche Rahmenbedingungen wie im Fernsehen. Der Unterschied zwischen herkömmlichen Medien und dem Internet liegt aber im „Gedächtnis“ des Netzes. 118 Vgl. Kugler / Kurt, Inszenierungsformen von Glaubwürdigkeit im Medium Fernsehen in Fischer-Lichte (2007), S. 149 ff. 53 AUTHENTIZITÄT 3.5.3.1. Das Netz vergisst (fast) nichts. Dies wirft die Frage auf, was für diesen grundlegenden Unterschied zwischen Onlinemedien und ihren Vorgängern verantwortlich ist; warum sollte ausgerechnet das Netz nichts vergessen, das Fernsehen aber schon? Printmedien werden durch Bibliotheken und Verlagsarchive gespeichert, katalogisiert und zugänglich gemacht. Fernseh- und Radiosendungen werden aufgezeichnet und sind in den meisten Fällen in gut sortierten Sendearchiven zu finden. Sie sind zwar zu finden – nur sind sie eben nicht zugänglich, denn die Archive sind schwer zu erreichen und ihre Nutzung ist meist kostenpflichtig. Dies verhält sich beim Netz grundlegend anders und resultiert aus einer ebenso augenscheinlichen wie interessanten Tatsache: Alle Informationen, die auf netz-übliche119 Art und Weise über das Internet zugänglich gemacht werden sollen, müssen schon zum Zeitpunkt ihrer Publikation so angelegt sein, dass sie zu verschiedenen Zeiten rezipiert werden können. Das Internet ist bis auf wenige Ausnahmen kein Sendemedium, es ist nicht live.120 Es muss keine Verabredung getroffen werden, um Informationen auszutauschen. Vergleichbar mit der E-Mail-Kommunikation handelt es sich bei der Browser-Kommunikation über das HTTPProtokoll um eine asynchrone Kommunikationsform. Dies mag Nachteile beinhalten – zum Beispiel gibt es keine Möglichkeit, ein synchrones Ritual zu etablieren, welches dem wöchentlichen Einschalten des Fernsehers zur „Tatort“-Zeit entspricht – die zahlreichen Vorteile überwiegen jedoch: Informationen im Netz sind zuvorderst so angelegt, dass sie zeitlich unbegrenzt verfügbar sind. Die schon angesprochene Omnipräsenz des Internets gründet sich auf diese zwei Säulen: Informationen, welche übers Netz verbreitet werden, sind nicht nur jederzeit, sondern auch allerorts zu empfangen, und dies sogar in doppeltem Sinne. Einerseits ist das Medium Internet so intendiert, dass es weltweit gleichermaßen zu empfangen ist, andererseits ist man in Zeiten der mobilen Kommunikation bei der Nutzung nicht an ein einzelnes, immobiles Gerät gebunden, wie das bei den herkömmlichen Sendemedien der Fall ist, sondern hat – entsprechende Infrastruktur vorausgesetzt – zumindest in städtischen Umgebungen von überall Zugriff auf das Netz. Dadurch, dass Informationen bei der Veröffentlichung so verfügbar gemacht werden müssen, dass sie jederzeit rezipiert werden können, erübrigt sich bis auf wenige Ausnahmen auch die Nachfrage nach einem Archiv – Das Medium selbst ist sein Gedächtnis. Wie jedes Gedächtnis ist allerdings auch dieses in der Lage, Sachverhalte zu überinterpretieren (beispielsweise, um die Vergangenheit zu schönen), beeinflusst zu werden und letztend119 Dies trifft nicht auf Livestreams zu, die vor allem gern von Fernsehsendern und Radiostationen angeboten werden. Jegliche Form der Live-Übertragung ist eigentlich nicht netztypisch, da hier ein schon existentes Medium durch ein neues Medium imitiert wird. Es handelt sich hierbei um eine der Anfangsschwierigkeiten eines jeden neuen Mediums – sobald es sich etabliert hat, d.h., sobald die neuen Distributionsformen genügend weit ausgebaut und von einer breiten Masse akzeptiert sind, werden diese Imitationen seltener und verlieren sich schließlich in der Irrelevanz. Siehe zum Begriff des Stellvertretermediums auch Kapitel 3.5.1. der vorliegenden Arbeit: Vom Radio zum Web 2.0 – Brechts Radiotheorie und das Internet. 120 Eine dieser Ausnahmen wird im Kapitel 3.6. der vorliegenden Arbeit beschrieben: Echt ist, was ich sehen kann. 54 AUTHENTIZITÄT lich auch zu vergessen. Dieses Vergessen ist allerdings kein natürlicher Prozess, auf im Netz vorgehaltene Informationen wird ständig Einfluss genommen, sie sind variabel, demzufolge können sie auch gelöscht werden. Da das „Gedächtnis Internet“ als kollektiver Mechanismus funktioniert, welcher auf die zufällige Kollaboration von Millionen von Menschen angewiesen ist, ist es schon aus statistischen Gründen sehr fehleranfällig. Die Wikipedia-Gründer waren sich sicherlich dieser Problematik bewusst, als sie veranlassten, dass wenigstens die Wikipedia nie etwas vergessen wird. Jede Änderung jedes einzelnen Artikels wird minutiös inkrementell gesichert, nichts geht verloren. Andere Mechanismen wie das Internet-Archiv121 haben sich der gleichen Zielrichtung verschrieben. Eine wichtige Voraussetzung für den Erhalt des Gedächtnisses des Netzes ist, dass es so kostengünstig bleibt wie bisher. Die Preise für Speicherplatz sind kontinuierlich im Fallen begriffen und neue Technologien drängen auf den Markt, die ein Vielfaches des heute individuell benötigten Speicherplatzes auf einem einzigen Datenträger versprechen. Diese Entwicklung schlägt sich auch auf dem Servermarkt nieder, gut ans Internet angebundener und entsprechend abgesicherter Speicherplatz kostet heute weniger denn je. Gleichermaßen haben die Publizierenden ein Interesse daran, dass das Gedächtnis erhalten bleibt: Je umfassender auf die Vergangenheit einer einzelnen Internetseite zugegriffen werden kann, desto authentischer wirkt sie. Es fällt für gewöhnlich deutlich leichter, einer Quelle zu vertrauen, die in die Vergangenheit hinein transparent ist, als einer, die sich weiteren Nachforschungen verschließt. Man vertraut niemandem, der keine Vergangenheit besitzt oder sich nicht an seine eigene Vergangenheit erinnern kann bzw. will. Dadurch, dass die Informationen im Netz ihre Patina und zugleich ihre Meta-Informationen verloren haben,122 fällt es leicht, diese zugänglich zu machen und zu vernetzen. Google, Yahoo und Altavista teilen sich den Markt der Urbarmachung mit semantischen Suchmaschinen und Linksammlungen wie semager und digg. Durch diese quasi im Medium Internet eingebaute Volltextsuche, die sich immer mehr an Relevanzkriterien zu orientieren hat,123 fällt es leicht, auf Informationen jeglicher Art zuzugreifen. Durch das Internet sind Informationen greifbar geworden, das Netz vergisst nichts – meistens. Doch zurück zur medialen Selbstinszenierung im Internet. Einige authentizitätsstiftende Mechanismen sind schon genannt worden: Reliabilität und Omnipräsenz sind unabdingbare Voraussetzungen dafür, dass eine Internet-Präsenz für voll genommen wird. Gleichermaßen ist – neben diesen räumlichen und zeitlichen Aspekten – die Positionierung innerhalb bestimmter sozialer und ästhetischer Rahmenstrukturen für die authentische Wirkung eines Internetauftrittes unabdingbar. 121 Zu finden unter http://www.archive.org. 122 Siehe auch Kapitel 3.4. und 4.3. der vorliegenden Arbeit. 123 Suchmaschinen können auf Dauer nur erfolgreich sein, wenn sie es schaffen, wirklich Relevantes von vermeintlich Relevantem, also „Suchmaschinenoptimiertem“, zu unterscheiden. 55 AUTHENTIZITÄT 3.5.3.2. Eine Ästhetik der Aufmerksamkeit Ästhetische Gesichtspunkte werden häufig zu Grunde gelegt, wenn etwas möglichst viel Aufmerksamkeit erregen soll. Ein Stopschild ist nicht von ungefähr eckig, rot und in Versalien beschriftet. Konzerne sind darauf angewiesen, mittels Werbekampagnen und Corporate Designs Aufmerksamkeit für ihre Marken zu erregen, da diese sonst in dem Wust der weltweit über 25 Millionen angemeldeten Gebrauchsmuster und Marken untergehen würden. Bei der Kreierung einer solchen Marke sind die wichtigsten Rahmenbedingungen Einmaligkeit und Identifizierbarkeit. Eine Marke im klassischen Sinne muss sich möglichst gut von der Konkurrenz absetzen und sollte gleichzeitig mit dem Produkt identifizierbar sein. Die Marke muss eindeutig auf das Produkt verweisen. Im Web 2.0 scheint das zumindest zur Zeit ganz anders auszusehen: Die bedeutenden Marken, hinter denen große Konzerne stehen (Amazon, Google, Microsoft) bleiben bei ihrem Corporate Design und bieten ihre Online-Dienste weiterhin unter dem etablierten Markennamen an. In die Gestaltung der Logos kleinerer Start-Ups und Dienste, die zwar für das neue Web unabdingbar geworden sind, auf der Bühne der klassischen Wirtschaftsunternehmen jedoch hauptsächlich umsatzschwache Nebenrollen spielen, ist eine eigenartig anmutende Uniformität zu bemerken. Die Start-Ups versuchen offensichtlich eher, sich mit dem Medium, in dem sie agieren, zu identifizieren, als Alleinstellungsmerkmale zu schaffen, die sie von der Konkurrenz absetzen. Dies ist schon bei den Namen, die sie tragen, zu beobachten – Die Foto-Community Flickr hat mit Frazr, Socializr und Approvr Nachahmer beim Weglassen des Buchstaben „e“ gefunden, das von der Social-Bookmarking-Plattform del.icio.us verwendete und sonst bei Domains gebräuchliche Länderkürzel hat in die Markennamen von identify.us, adverlicio.us und wis.dm Einzug gehalten. Noch augenscheinlicher wird dieses Verhalten, welches zur Identifikation mit dem Medium dient, beim optischen Erscheinungsbild der Firmenlogos und bei den Zusätzen, mit denen sie versehen sind (Vgl. Abbildung 8). Es gibt kaum eine Web-2.0-Seite, auf der nicht der Namenszusatz „Beta“ prangt. Diese Bezeichnung macht darauf aufmerksam, dass es sich bei der angebotenen Dienstleistung keinesfalls um ein fertig entwickeltes Produkt handelt, weil sie sich in einem ständigen Zustand der Überarbeitung befindet.124 Denn, solange sich alles im Umschwung und Aufbruch befindet, möchte keine Firma diejenige sein, welche einen rückständigen Eindruck macht. Die Web-2.0-Logos haben sich zu einem derart hohen Grad an Uniformität entwickelt, dass es erste – zugegeben parodistische – Ansätze gibt, die Gestaltung eines Web-2.0-Logos zu automatisieren.125 Denn nicht nur die Nutzung serifenloser Schriftarten führt zur Uniformität – am Bildschirm schlecht lesbare Serifenschriftarten sind im Web 2.0 ein „No-Go“ – auch Farbverläufe (möglichst Pastellfarben), Glanz-Effekte und Spiegelungen gehören zum unverzichtbaren Standardrepertoire eines sofort mit dem Mitmach-Internet identifizierbaren Logos. Was jedoch 124 Siehe Kapitel 5.1. der vorliegenden Arbeit: Die kollektive Geburt sozialer Software. 125 Einen derartigen Web-2.0-Logo-Generator gibt es unter http://h-master.net/web2.0/index.php zu bewundern. Nach der Eingabe eines Textes, der im Stile des Web 2.0 ausgestaltet werden soll, gibt das Tool eine Grafik aus, die aus blauen Buchstaben und violetten Zahlen inklusive typischer Farbverläufe und Reflexionen besteht. Auf Wunsch lässt sich das Ganze mit einem „beta“-Label versehen. 56 AUTHENTIZITÄT Abbildung 8: Web 2.0-Logos – Uniform? Abbildung 9: justin.tv, Screenshot Abbildung 10: Steve Mann, wearable computer und reality mediator (v.l.n.r.: 1980, Mitte der Achtziger, Anfang der Neunziger, Mitte der Neunziger, Ende der Neunziger Jahre) 57 AUTHENTIZITÄT führt zu einer derartigen Uniformität in der grafischen Ausgestaltung der verschiedenen Markennamen, die nach klassischen Kriterien eigentlich einmalig sein sollten? Einfallslosigkeit oder Faulheit kommen als Grund dafür wohl nicht in Frage – die für die Programmierleistung eines solchen Online-Dienstes benötigte Zeit übertrifft den Aufwand der Gestaltung eines Logos bei weitem. Dieses Phänomen kann als Ästhetik der integrativen Aufmerksamkeit bezeichnet werden: Es geht nicht mehr darum, die Aufmerksamkeit des Nutzers auf ein einzelnes Produkt zu fokussieren und ihn damit von den anderen Services abzulenken. Es soll ihm vielmehr klargemacht werden, dass sich dieses neue Produkt nahtlos in das Repertoire der bereits genutzten Web-2.0-Software einfügt. Es soll suggeriert werden, dass es die optimale Ergänzung zu Flickr, YouTube, Twitter und Co. bietet und mit diesen zusammenarbeitet. Der Benutzer soll von einem Produkt überzeugt werden, welches er aus genau diesen Gründen unbedingt benötigt – nicht weil es einzigartig ist, sondern weil es eingebettet und kollegial ist. 3.5.3.3. Nicht, wer am lautesten schreit… Denn in der im Web 2.0 – zuvorderst in der Blogosphäre – gelten neue Regeln: Schreihälse, die versuchen, Aufmerksamkeit durch möglichst provokante und reißerische Thesen zu erringen, existieren hier zwar en masse, nur wird ihnen wesentlich weniger Gehör geschenkt. Dies resultiert vor allem daraus, dass der Weg vom mehr oder weniger talentierten Schreiberling ohne eigene Lobby und Fans bis zur etablierten Netzpersönlichkeit mit mehr als 1000 Besuchern pro Tag, meist lang und steinig ist. In der deutschen Blogosphäre kennt man sich, man ist vernetzt. Links und Trackbacks werden nicht einfach nach Gutdünken gesetzt, denn es gilt, einen Ruf zu verlieren, falls beispielsweise mehrfach auf minderwertig erscheinende oder uninteressante Inhalte verlinkt wird. So genannte A-Blogger, also Autoren, die die höchsten Besucherzahlen der Blogosphäre auf ihren Seiten vorweisen können, entscheiden durch Verweise auf weniger bekannte Seiten über deren Popularität innerhalb einer mehr oder weniger hermetisch nach außen abgeriegelten Szene. Nur wenige Autoren schaffen es durch die Publikation außergewöhnlich guter Inhalte, als A-Blogger anerkannt zu werden. Durch Beiträge im Bildzeitungs-Stil hat dies wohl noch niemand geschafft. In den Lichtkreis der Aufmerksamkeit schaffen es also nicht die, die am lautesten schreien, sondern Autoren, die am nachhaltigsten und am authentischsten schreiben. Gerade durch die oben schon erwähnten enormen Gedächtnisleistungen, zu denen das Medium Internet in der Lage ist, enttarnen sich um Aufmerksamkeit heischende Hochstapler meist von selbst. 3.6. Echt ist, was ich sehen kann. „It‘s the content, baby!“ – Wie dieses geflügelte Wort vermittelt, sind es die Inhalte, die zählen. Um im Web 2.0 authentisch zu wirken und demzufolge hohe Besucherzahlen zu verzeichnen, die sich im Nachhinein in bare Münze umwandeln lassen, ist es nötig, neue und ungewöhnliche Wege zu beschreiten. Ein perfektes Beispiel für neuartigen, aber dennoch 58 AUTHENTIZITÄT interessanten Inhalt, dessen Publikation ohne technologische Neuerungen und intermediale Verflechtungen im Kontext des Web 2.0 überhaupt nicht möglich gewesen wäre, bietet die Internetpräsenz des 23-jährigen Yale-Absolventen Justin Kan. Mittlerweile zu einem großen öffentlichen Netzwerk verschiedenster Videocaster angewachsen, war Justin.tv zunächst ein innovativer Alleingang: Nach dem Motto: „Ich glaube das erst, wenn ich es sehe!“ verbindet Kan das Prinzip Webcam, welches an sich beim Betrachter schon Anlass zu voyeuristischen Gefühlen bietet, mit der Internet-Flatrate übers Mobiltelefon und neuen Video-Kompressionsalgorithmen – kurz gesagt: er übertrug sein komplettes Leben aus der Ich-Perspektive durch eine an seiner Baseball-Kappe befestigte Webcam ins Internet – und das 24 Stunden am Tag, sieben Tage die Woche (Abbildung 9). Diese Art der Performance trägt den ebenso einfachen wie zutreffenden Namen Lifecasting und findet ihre Vorläufer in Form von Performances von Künstlern wie Chris Burden126. Ihre filmischen Vorbilder findet sie in Titeln wie Being John Malcovic oder der Truman-Show. Das Prinzip jedoch ist eigentlich umgekehrt: Justin Kan wird nicht überwacht, er überwacht sich selbst – ein Phänomen wie dieses wird als Sousveillance bezeichnet, was so viel bedeutet wie „Unterwachung“. Eine 24/7-Selbstüberwachung kann als Kritik am Drang zum alles überblickenden Überwachungsstaat gesehen werden, vor allem aber ging es Kan um eines: Um Aufmerksamkeit. »I am broadcasting live video of my life 24/7 to the internet. I started Justin.tv because I thought it would be awesome for people to see what it was like to be Justin. I convinced three of my friends (Emmett, Michael, and Kyle) to join me out in San Francisco. Now, we’re starting a company to make broadcasting live video on the web easy. Thanks for watching Justin.tv. Let me know what you like and don‘t like about the show; I hope to hear from you soon!«127 Justin.tv ist pure Authentizität – und das aus drei Gründen: Erstens ist es live, zweitens dilettantisch und drittens fälschungssicher. Dass eine Live-Übertragung einen authentischeren Eindruck vermittelt als eine Aufzeichnung, liegt vermutlich an den technischen Problemen, ohne die in der analogen Prä-Computer-Ära kaum eine Live-Übertragung von statten ging. Es war nicht möglich, irgendetwas nachträglich zu schönen, Fehler und Pannen wurden genau wie die Information selbst übertragen. Heutzutage untergräbt die Computertechnik diesen Eindruck von Authentizität mit hochmodernen und leistungsstarken DSP-Systemen.128 Es ist zum Beispiel ohne weiteres möglich, das Mikrofonsignal einer schlecht intonierenden Sängerin unabhängig vom akusti- 126 Im Falle von Chris Burden denke ich dabei an avantgardistische Performances wie Bed Piece. Burden spielt neben bewusstem oder unbewusstem Voyeurismus oder der Angst der Zuschauer, den Künstler von Selbstverletzungen abzuhalten, mit Formen medialer Vermittlung von Performances, z.B. im Falle von TV Hijack oder ganz allgemein in seiner Video-Performancesammlung Documentation of Selected Works 197174. 127 Statement wurde der Webseite Justin.tv entnommen, leider nicht mehr zu finden unter http://www. Justin.tv/cast#justin, dafür aber in einem anderen Gedächtnis des Internets: http://web.archive.org/ web/20070322163653/www.Justin.tv/cast 128 Digital Signal Processing, Digitale Signalbearbeitung 59 AUTHENTIZITÄT schen Restgeschehen automatisch und in Echtzeit zu korrigieren. Sie singt zwar live ein und wird auch live übertragen, zwischen Sender und Empfänger befindet sich aber ein kleines Programm, welches ihre Tonspur automatisch in der Art verändert, dass der Eindruck einer perfekten Intonation entsteht. Diese neuen Technologien ändern dennoch nichts am Grundsatz live = authentisch, der nach wie vor die individuelle Wahrnehmung des einzelnen Zuschauers beherrscht. Interessanter ist, wie sich der Zusammenhang zwischen Dilettantismus und Authentizität herstellen lässt: Hier lohnt sich ein kleiner Abstecher, ein Blick über den Tellerrand in Richtung der HipHop-Kultur. Unter Sprayern und Rappern besteht eines der höchsten Ziele darin, Street Credibility zu erreichen. Diese Form der Anerkennung ist nur unter besonderen Umständen erreichbar, nämlich nur dann, wenn das Produkt – egal ob Musik oder Gespraytes – gleichzeitig rough und true ist. Texte, Bilder und Musik werden glaubwürdiger, wenn es so scheint, als ob sie unter schlechten Bedingungen produziert wurden. Einige Bands verbringen Tage oder sogar Wochen damit, ihre Aufnahmen so lange zu bearbeiten, bis es so klingt, als ob sie nie ein Studio von innen gesehen hätten und die Musik in einer Garage aufgezeichnet wurde. Street Credibility, Authentizität und die schon angesprochene Ökonomie der Aufmerksamkeit liegen sehr dicht beieinander. Auf einen interessanten Zusammenhang zwischen der Aufmerksamkeitsökonomie in der Blogosphäre, der HipHop-Kultur und den Theorien von Pierre Bourdieu weisen Holm Friebe und Sascha Lobo in ihrer Publikation Wir nennen es Arbeit hin: »‚Credits‘ und die verwandte ‚Credibility‘ stammen vom lateinischen ‚credere‘ (glauben) ab und zielen damit eigentlich auf Glaubwürdigkeit, Anerkennung oder Achtung. (…) Bourdieu macht uns in seinen Büchern, etwa in Die verborgenen Mechanismen der Macht von 1992, darauf aufmerksam, dass es neben dem ökonomischen Kapital (…) andere, immaterielle Formen von Kapital gibt, die genauso ausschlaggebend für den Stand und das Vorankommen eines Individuums in der Gesellschaft sind. (…) Hier ist Bourdieu, bis hinein in die Terminologie des Kredits, ganz nahe beim Hip-Hop, wenn er schreibt: „Das Sozialkapital ist die Gesamtheit eines dauerhaften Netzes, von mehr oder weniger institutionalisierten Beziehungen gegenseitigen Kennens und Anerkennens verbunden sind; oder, anders ausgedrückt, es handelt sich um Ressourcen, die auf der Zugehörigkeit zu einer Gruppe beruhen. Das Gesamt-Kapital, das die einzelnen Gruppenmitglieder besitzen, dient ihnen allen gemeinsam als Sicherheit und verleiht ihnen – im weitesten Sinne des Wortes – Kreditwürdigkeit.“«129 Street Credibility oder die in der HipHop-Kultur synonyme Realness, also Wahrhaftigkeit, Glaubwürdigkeit und Authentizität, sind immer Ergebnis einer Inszenierungsstrategie und werden somit zu einem Forschungsgegenstand der Theaterwissenschaft. »Realness im HipHop ist eine Inszenierungsstrategie. Sie ist eine Herstellungspraxis, die den Nomenkodex des HipHop performativ bestätigt. Die Antwort auf die Frage ‚Is this real?‘ lautet in diesem Buch: Real ist das, was glaubhaft in Szene gesetzt wird.«130 129 Friebe / Lobo (2006), S. 78, zur semiotischen Betrachtung von Graffitis im urbanen Raum siehe auch Baudrillard in Barck / Gente (1990), S. 222. 130 Klein / Friedrich (2003), S.9. 60 AUTHENTIZITÄT Genau wie im HipHop sind auch im virtuellen Raum Inszenierungsstrategien zu beobachten. Diese Inszenierungsstrategien sind am Beispiel von Justin.tv nachzuvollziehen. Durch die produktionsbedingt dilettantische Kameraführung – schließlich ist sie am Kopf angebracht – und die daraus resultierende Ich-Perspektive, den kaum verständlichen Ton, die Nebengeräusche und das nicht farbkorrigierte Bild entsteht ein authentischer Eindruck. Noch ausschlaggebender für den hohen Grad an Glaubwürdigkeit von Justin.tv ist das Gefühl der Fälschungssicherheit, welches eine 24/7-Video-Übertragung vermittelt. Zwar ist diese unter anderem dem schon genannten Vertrauen in die Live-Übertragung geschuldet, welches aus der analogen Vergangenheit und der mit ihr verbundenen Schwierigkeit, Übertragungen in Echtzeit zu bearbeiten, stammt. Noch wichtiger allerdings ist der Fakt, dass es sich um eine über Monate andauernde 24/7-Übertragung handelt: Sie befreit fast gänzlich von dem natürlichen Misstrauen und den Vorbehalten, welche einer solchen Aktion gegenüber bestehen: Natürlich könnte Justin.tv in monatelanger Arbeit zusammengestückelt und zu vielen verschiedenen Zeiten aufgenommen sein. Immer dann, wenn Justin Kan sich nach ein wenig Freizeit und Intimsphäre sehnt, könnte er eine solche – vorbereitete – Aufnahme eingespielt haben. Nur ist der Arbeitsaufwand, um einen nahtlosen Übergang zwischen Live- und vorbereiteten Sequenzen zu erreichen, unverhältnismäßig hoch. Dagegen spricht außerdem, dass Kan sich mit vielen Kommilitonen, Freunden und seiner Familie getroffen und unterhalten hat und dass von diesen Unterhaltungen Bilder und Erfahrungsberichte im Netz veröffentlicht wurden. Justin.tv wirkt also authentisch, weil es live, dilettantisch produziert und fälschungssicher ist. Aufgrund dieser inszenierten Authentizität konnte Justin Kan Besucherzahlen auf seiner Homepage verzeichnen, von denen andere Blogger, Pod- und Videocaster nur träumen können. Und – vergleichbar mit dem Aufstieg von Google, nur in wesentlich kleineren Dimensionen131 – schafft auch Kan es, diese Aufmerksamkeit in bare Münze zu verwandeln: Mittlerweile findet sich unter Justin.tv eine große, professionelle, werbefinanzierte Plattform, auf der ausgewählte User Lifecasting betreiben. Der große Erfolg von Justin Kan ist eigentlich nur dadurch erklärbar, dass Kan eine 24-Stunden-Übertragung anbot, denn Justin.tv ist bei weitem nicht der erste Versuch des Lifecasting: Als erster Lifecaster gilt der Erfinder und mittlerweile auch Universitätsprofessor Steve Mann, der schon 1980 mit tragbaren Computern und Live-Streams experimentierte und sich heute vor allem auf dem Feld der computer-vermittelten Realität betätigt. Abgesehen vom Altersunterschied und der mit Justin Kans Jugend höheren Credibility für eine internet-affine Zielgruppe besteht der einzige – gleichzeitig aber ausschlaggebende – Unterschied in der Arbeitsweise beider darin, dass Kan eine 24-Stunden-Übertragung anbot. 131 Die Google-Suche funktioniert nach dem Prinzip der automatisierten Auswertung von Aufmerksamkeit: Je mehr fremde Webseiten auf die eigene verlinken, desto höher steigt diese im Google-Ranking. Nachdem diese Art der Klassifizierung von Inhalten sich zu der gefragtesten Form der Internetsuche entwickelt hatte, und Google damit selbst die höchstmögliche Aufmerksamkeit im Netz erreicht hatte, begann der Konzern damit, durch den Verkauf von Anzeigenraum diese Aufmerksamkeit zu versilbern. Zwischenzeitlich war diese Aufmerksamkeit an der Börse 190 Milliarden Dollar wert. 61 AUTHENTIZITÄT Justin Kan ist rund um die Uhr zu sehen – und deswegen ist er authentisch. 3.7. Echt ist, was ich anfassen kann. Das vorangegangene Kapitel handelte von verschiedenen Merkmalen der Authentizität im Umgang mit digitalen Daten und virtuellen Räumen am Beispiel von Justin.tv und last.fm. Das wesentliche Merkmal der Authentizität im virtuellen Raum ist Omnipräsenz – in doppeltem Sinn: Einerseits steht der Begriff der Omnipräsenz für die ständige Verfügbarkeit des Mediums Internet und der virtuellen Räume, sei es durch Computer, Mobiltelefone oder völlig andere Geräte vermittelt. Gleichermaßen ist eine Online-Präsenz nur dann authentisch, wenn sie ständig erreichbar ist, je omnipräsenter sie sich im virtuellen Raum zeigt, desto mehr gilt sie als Instanz, desto mehr Vertrauen wird ihr entgegen gebracht.132 Ein weiterer, essentieller Bestandteil des Eindruckes von Authentizität, den virtuelle Welten vermitteln können, ist das Gedächtnis des Netzes. Zuletzt sind – am Beispiel von Justin Kan aufgezeigt – der Live-Charakter, eine gewisse Street Credibility und Fälschungssicherheit Merkmale, die kennzeichnend für ein authentisches Erleben der Virtualität sind. Für einen besonders starken Eindruck von Authentizität ist aber nicht nur der optische Eindruck – auf welchem diese Merkmale größtenteils beruhen – prägend. Vielmehr geht es um ein vollständiges Zusammenspiel aller Sinne. Virtuelle Räume können bisher keinen Eindruck von Geschmack oder Geruch133 vermitteln, optische und akustische Eindrücke lassen sich aber sehr wohl übertragen. Doch dies ist nur der Anfang: Im nächsten Kapitel soll es darum gehen, dass die Macher der virtuellen Räume sich immer weniger auf eine rein optische Ebene verlassen: In naher Zukunft wird es zur Selbstverständlichkeit geworden sein, Informationen anzufassen, sie mit den Händen zu bewegen und – viel spannender, leider aber noch weiter in der Zukunft – von diesen Informationen berührt zu werden. Die Fragen, welche das nächste Kapitel stellt, sollen in diese Richtung zielen: Wie ist der Stand der Dinge und wohin kann sich die in Ansätzen vorhandene Materialität virtueller Räume entwickeln? Werden wir Informationen anfassen können, wie wir es gewohnt sind, einen Füllhalter anzufassen? Wird das Netz uns berühren können? 132 Das Paradebeispiel für diese Form von Omnipräsenz und dem daraus resultierendem Vertrauen bietet die Suchmaschine Google. Es gibt kaum eine Instanz im Internet, der mehr Vertrauen entgegen gebracht wird, als der Google-Suche. Wir glauben – unter anderem ist dies dem klaren Erscheinungsbild der Seite zu verdanken – an die Qualität, die Integrität und die ständige Verfügbarkeit der Suchmaschine. 133 Obwohl es erste Versuche mit geruchserzeugenden Modulen für Fernseher und andere Unterhaltungselektronik gab, scheint es mir in näherer Zukunft nicht möglich oder sinnvoll, Gerüche oder Geschmacksrichtungen in Verbindung mit virtuellen Räumen zu erzeugen. 62 VIERTES KAPITEL Sind virtuelle Räume zwingend durch Immaterialität gekennzeichnet? // Welche Unterschiede bestehen zwischen digitaler und analoger Schreiberfahrung in Bezug auf ihre Materialität? // Wie äußert sich die Materialität im Umgang mit Gadgets und anderen Interfaces, die zwischen Virtualität und Realität vermitteln? // Verhilft die Technologie in Form von berührungsempfindlichen Displays dem virtuellen Raum zu mehr Materialität? Materialität »Mit dem Wort «immateriell» wird schon längst Unfug getrieben. Aber seit man von einer «immateriellen Kultur» spricht, kann ein derartiger Unfug nicht länger hingenommen werden.«134 Der Begriff »immaterielle Kultur« bezeichnet meist jene Kulturelemente, welche geistiger Natur sind, also Ideen, Werte oder Wissensbestände. In letzter Zeit dient der Begriff jedoch auch zur Umschreibung der digitalen Medienkultur, beispielsweise bei Katrin Wenz: »Der Begriff hybrid verweist auf einen Zwischenbereich zwischen Sprache und Kultur, in dem das digitale Medium angesiedelt werden muß. Hybridkultur kann dann als Überschreitung von einer materiellen zu einer immateriellen Ästhetik, von analogen zu digitalen Medien verstanden werden und damit als eine Kultur, die traditionelle Kunstformen und Medienkunst vereint.«135 Hier wird – stellvertretend für andere aktuelle Publikationen – der Übergang zwischen analogen und digitalen Medien mit der Überschreitung von einer materiellen hin zu einer immateriellen Ästhetik gleichgesetzt. Mit Hinblick auf die im Kapitel zur Authentizität erwähnte nicht vorhandene Patina digitaler Medien und unter Berücksichtigung des verlustfreien Duplizierens, der vom Original ununterscheidbaren Kopie, ist diese These nachvollziehbar. Alles, was sich ohne eine Abnutzung des Trägermaterials kopieren lässt, müsste folglich immateriellen Charakters sein. Form und Inhalt, das Material und die Idee eines jeden Gegenstandes lassen sich voneinander trennen. Dennoch käme kaum jemand darauf, das stählerne Duplikat eines goldenen Schlüssels als weniger materiell als sein Original zu bezeichnen, nur weil sich die Trägermaterialien der „Information Schlüssel“ unterscheiden. »Die Frage ist also nicht, ob Bilder Oberflächen von Stoffen oder Inhalte von elektromagnetischen Feldern sind, sondern inwieweit sie dem stofflichen und dem formalen Denken entspringen.«136 Digitales scheint häufig per definitionem als immateriell verstanden zu werden, Analoges als 134 Flusser (1997), S. 216 135 Wenz (1999, Internet), Narrativität in Computerspielen 136 Flusser (1997), S. 222 63 MATERIALITÄT materiell. Diese Gleichsetzung hinkt jedoch: Man möge mir den Unterschied in der Materialität, welcher zwischen einem analog aufgenommenen und abgespielten Videoband und seiner digitalen Kopie bestehen soll, erklären – ich kann keinen erkennen. Dass das Trägermaterial eine gewisse Materialität aufweist bzw. vermissen lässt, spielt hierbei keine entscheidende Rolle, denn bei ästhetischen Erfahrungen steht für gewöhnlich nicht die Betrachtung der Videokassette oder der Festplatte, sondern die ihrer Inhalte und Formen im Vordergrund. Digitales Material ist genau so viel oder wenig materiell wie Analoges, beide Begriffe haben meiner Ansicht nach nichts miteinander zu tun. Doch wie steht es mit den materiellen Qualitäten eines virtuellen Raumes? Obwohl vielfach – teils mit absurd wirkenden Argumentationen137 – negiert, ist die Darstellung von Netzkunst oder die eines virtuellen Raumes an die spezifische Materialität des Internets und seiner Darstellungsmöglichkeiten gebunden. 4.1. Von der Materialität des Netzes Das Internet ist ein Gebilde, wie man es sich immaterieller und theoretischer kaum vorstellen kann. Es ist nicht greifbar, es ist nahezu unverwundbar, unabhängig, fast weltumspannend und dadurch nicht zu überschauen. Es ist durch Gesetze, Regeln und Normen kaum eingrenzbar und verbindet große Teile der Menschheit miteinander. Völlig anders hingegen gestaltet sich die konkrete Erfahrung, die ein einzelner Mensch mit dem Netz macht: Die Verbindung des Einzelnen mit dem Netz ist abhängig von hunderten von Computern, Elektrizitätswerken und Datenleitungen. Darüber hinaus kann ohne ein finanzielles Abhängigkeitsverhältnis zu einem Internet-Provider und einem Stromversorger keine Verbindung entstehen. Wie gesendete und empfangene Daten im Endeffekt dargestellt, erfahren und manipuliert werden, ist abhängig von Bildschirm, Tastatur, Trackpad, Maus, Lautsprechern, Druckern, der Geschwindigkeit der Internetverbindung, Betriebssystem, Browser und vielem mehr. Die Rezeption eines virtuellen Raumes – sei es ein Social Network, ein Online-Rollenspiel oder die Wikipedia – ist also ein vollkommen individualisierter Prozess und hochgradig abhängig von der Materialität der einzelnen Komponenten, die zur Vermittlung der Daten herangezogen werden. In diesem Kapitel wird beschrieben, wie eine technisch bedingte Materialität die Erfahrungen im Umgang mit virtuellen Räumen beeinflusst. Bevor ich jedoch auf die Bezüge zwischen Materialität und virtuellen Räumen zu sprechen komme, möchte ich die Unterschiede zwischen mechanischer und elektronischer Schrift untersuchen. Ich nehme Bezug auf den Zustand, der oft von Schreibenden beklagt wird, auf den Mangel an Haptik und damit auch an Authentizität im Umgang mit Computern und technischen Geräten. Was unterscheidet 137 So begründet Youn-Ju Ko Hoang unter Bezugnahme auf Hans-Joachim Drott den immateriellen Charakter der Computeranimation mit folgender Aussage: Luminenzpixel, die die Basis der Darstellung einer Computeranimation bilden, seien lichtdurchlässig und daher im Prinzip farblos, während Farbpigmente, die beispielsweise auf eine Leinwand aufgetragen werden, das Licht reflektierten. S. Ko Hoang (2000), S. 84 64 MATERIALITÄT einen traditionellen Schreibvorgang von dem am Computer, was genau – abgesehen von der Patina, also von Staub, Tintenklecksen und Kratzern – wird im Gegensatz zum Schreiben auf Papier vermisst? 4.2. Ritzen, Kratzen, Stechen – Haptik und Prozessualität des Schreibens Vilém Flusser beschreibt im Gesten-Band138 den mit dem Prozess des Schreibens verbundenen Vorgang der Einschreibung. Je stärker man etwa mit einem Kugelschreiber, einem Griffel oder einem Stück Kreide den Untergrund bearbeitet, desto intensiver schreiben, ritzen oder drücken sich die zu vermittelnden Inhalte in ihr jeweiliges Medium ein. Der Vorgang des Einschreibens enthält auf diesem Weg eine Dimension von Dynamik, die beispielsweise mit den Lautstärkenunterschieden auditiver Erfahrungen vergleichbar ist. Je lauter ein Klangereignis – ganz egal, ob es eher Geräusch- oder tonalen Charakter innehat – ist, desto wichtiger erscheint es im Gesamtzusammenhang, je leiser es ist, desto eher verschwindet es im Kontext oder im Grundrauschen der Irrelevanz. Die Spanne zwischen diesen beiden Extremen, zwischen Relevanz in Form von Lautstärke und dem Verschwinden eines Tons an der Rauschgrenze, wird in der Akustik als Dynamik bezeichnet. Überträgt man diese Bezeichnung auf den Vorgang des Schreibens, lässt sich eine Dynamik verschiedener Druckintensitäten, unterschiedlicher Einschreibtiefen ausmachen, die es einem Leser erlauben, Inhalte innerhalb ihres Mediums in Relevanzkategorien einzuordnen. So überträgt sich also ein Eindruck von Haptik – ausgehend vom Autor – durch das Medium bis hin zum Leser. Beim Schreibvorgang entstehen in der Hand des Schreibenden verschiedenste haptische Sinneseindrücke: Eine leichte Berührung des Griffels, gleichsam ein federleichtes Auftragen der Inhalte auf das Papier, ist genauso möglich wie eine Zerstörung des Schreibwerkzeugs oder des Mediums durch den gewaltsam eindringenden und verletzenden Schreibakt. Die Körpererfahrung des manuellen Schreibvorgangs beruht aber nicht nur auf dem EinDruck, den das Schreibwerkzeug auf dem Papier hinterlässt, denn gleichermaßen muss die akustische Komponente des Schreibvorganges in diesen Erfahrungsraum einbezogen werden: Es ließe sich sogar von einer Rauheit des Schreibens sprechen, wenn der Füller in einer konzentrierten Stille lautstark über das Papier kratzt und so einen ephemeren Eindruck der Verletzung, des Einschmirgelns in ein Medium hinterlässt. 4.3. Tippen, Kopieren, Einfügen und Löschen – die schleichende Abkehr von der emotionalen Schreiberfahrung Vilém Flusser zieht im Kapitel Die Geste des Schreibens weiterhin Parallelen zur Schreibmaschine, die trotz ihres artifiziellen, ihres konstruierten Maschinencharakters das Haptische und Eindrückliche am Schreibvorgang beibehält. Denn auch hier sei es möglich, bestimmten Buchstaben und Worten mehr Nachdruck zu verleihen, indem man die Tasten mit mehr 138 Flusser (1991), S. 39 65 MATERIALITÄT Macht betätige. Flusser vergleicht letztendlich den Schreibvorgang mit dem Musizieren auf einem Klavier. Auch bei der Benutzung einer Schreibmaschine ist es möglich, den Vorgang des Schreibens bis zur physischen Zerstörung des Mediums und sogar der Maschine selbst auszureizen, sei es ein Zerreißen des Papiers durch wiederholtes Bedrucken oder das Verhaken der Typenhebel bis zur Funktionsunfähigkeit der Maschine. Es gilt hierbei jedoch zu bedenken, dass mit dem Fortschritt der Entwicklung der Schreibmaschine diese einen immer größeren Teil ihres materiell-mechanischen, rohen Charakters zugunsten einer schon im Jahr 1903 beginnenden Elektrifizierung eingebüßt hat. Damit einher ging die Perfektionierung und – mit der Einführung der elektronischen Schreibmaschine – sogar die Automation des maschinellen Schreibvorganges. Dieser wurde durch die Erfindung der elektrischen Schreibmaschine von einem dynamischen, drucksensitiven Vorgang zu einem repetitiven, sich selbst ausführenden, digitalen, und scheinbar entkörperlichten Prozess. Ich bezeichne den moderneren maschinellen Schreibvorgang als einen digitalen Prozess, da er nur noch zwei Zustände kennt: Entweder wird ein Zeichen aufs Papier gebracht oder nicht.139 Es gibt keine Zwischenschritte und keine Extreme mehr, Zeichen, die nur sehr blass, fast unlesbar, buchstäblich aufs Papier gehaucht zu sein scheinen oder solche, die tiefschwarz in die Materie eingepresst sind, wurden zugunsten eines gleichmäßigen Schriftbildes und einer wesentlich höheren Verarbeitungsgeschwindigkeit geopfert und zu Einheitszeichen transformiert. Zeitlich parallel zum Höhepunkt der Entwicklung der elektronischen Schreibmaschine in der Mitte der 1980er Jahre werden in den USA die Wurzeln für den Siegeszug des modernen Personal Computers über die Schreibmaschine gelegt. Computerbauteile wurden schon in den 1970er Jahren so preisgünstig, dass die Firmen Xerox, Apple und IBM damit begannen, Computer für den Hausgebrauch herzustellen. Waren diese ersten, frühen PCs weder sonderlich weit verbreitet noch von großem Nutzen für ihre Besitzer, sorgten sie und ihre ersten Nachfolgemodelle trotzdem nachhaltig für die Konstruktion gewisser Ressentiments, die sich unter anderem auch auf die vermeintliche Körperlosigkeit und die scheinbar nicht vorhandene Materialität im Umgang mit diesen Computersystemen bezogen. Diese Vorurteile kommen nicht von ungefähr: Zwar wird der Schreibvorgang an sich nicht entkörperlicht, denn nach wie vor übertragen wir unsere Gedanken nicht direkt an den Computer, sondern berühren beim Tippen die Tasten, drücken sie nach unten, spüren, wie sie sich über den Druckpunkt bewegen und unseren Fingerspitzen so die Bestätigung des Tastendrucks vermitteln, bis wir schließlich als optische Rückkopplung an unser Verhalten Bestätigung in der Tatsache finden, dass das Zeichen sofort auf dem Bildschirm erscheint. Digitales und analoges Schreiben scheint sich also vom Vorgang her gar nicht so sehr zu 139 Digitales Schreiben existiert also schon geraume Zeit vor der Entwicklung der modernen, elektronischen Datenverarbeitung und deren Einfluss auf das Schreiben. 66 MATERIALITÄT unterscheiden, zumindest sind beide Prozesse mit einer konkreten Form der Körperlichkeit verbunden. Was beide Schreibvorgänge aber voneinander unterscheidet, ist die Form des Ergebnisses. Beim analogen Schreibprozess bleiben die Spuren der Körperlichkeit ins Medium eingeschrieben, untrennbar mit der Information verbunden, beim digitalen Schreibvorgang wird die Information dieser Spuren entledigt. Alles, was sich in ein beschriebenes Blatt Papier eingeritzt hat, bleibt dort als Prägung über Monate, Jahre und teilweise sogar Jahrhunderte erhalten, emotionale Aufruhr kann ebenso am Schriftbild abgelesen werden wie Krankheiten oder Verletzungen des Autoren. Die elektronische Datenverarbeitung lässt diese Spuren verschwinden. Alle Informationen werden auf ihre Essenz reduziert. Wie am Beispiel von digitaler Musik schon beschrieben, fehlt den Informationsträgern die Möglichkeit des Alterns, denn sie sind irrelevant und austauschbar. Digitalen Informationen haftet nichts an, eine Patina existiert nicht. Sie verraten nichts über die Verfassung des Autoren im Moment des Schreibvorganges und verlieren somit einen großen Teil ihrer Individualität und damit ihrer Authentizität, ihrer Glaubwürdigkeit. Dieses Nicht-Vorhandensein der Meta-Informationen, die einem Leser zusätzliches Wissen zum Gelesenen verschaffen oder einfach nur zur Bildung einer bestimmten Lese-Atmosphäre dienen können, geht Hand in Hand mit der Mechanisierung und Elektrifizierung des Schreibvorganges und findet seinen vorläufigen Höhepunkt in neuen Techniken des Umgangs mit digitalen Texten. Copy+Paste ist zum polarisierenden Schlagwort geworden. Einerseits erleichtert dieser völlig neuartige Umgang mit Informationen das Erstellen von originären Texten auf vielfältige Art und Weise und ersetzt alte Korrekturtechniken, denn das mühelose Umherrücken von Textbausteinen war nie derartig einfach möglich wie im digitalen Zeitalter: Weder Tipp-Ex noch die Schere oder ein Fotokopierer sind nötig, um Texte aus einzelnen Textmodulen zusammenzusetzen und diese so lange immer wieder zu verschieben, bis sie in eine sinnvolle Beziehung zueinander gebracht werden können. Ich möchte sogar so weit gehen, zu behaupten, dass ohne Copy+Paste die Akzeptanz der Überlegenheit der digitalen Textverarbeitung gegenüber analogeren Schreibtechniken unter den Autoren nicht in dem Maße vorhanden wäre, wie sie es heute ist. Gerade durch das oben erwähnte Fehlen der Meta-Informationen ist Copy+Paste erst sinnvoll geworden, da es nun möglich wird, mit Informationsbausteinen, denen keine direkten Verweise auf einen anderen Zusammenhang anhaften, modular zu arbeiten.140 Diese grundlegend neue Art und Weise, mit Text umzugehen, schafft natürlich neben vielen Möglichkeiten auch eklatante Probleme: Ein populäres Beispiel dafür brachte der Salzburger Kommunikationswissenschaftler Stefan Weber ans Licht, der mit seiner Dissertation das Op140 Ich halte darüber hinaus auch eine objektorientierte Arbeitsweise in den Geistes- und Kulturwissenschaften für einen interessanten Ansatz. Objektorientiertes Programmieren ist die gängigste Technik, um den Quelltext von Programmen übersichtlich und gleichzeitig effizient zu halten. Dabei werden bestimmte, häufig benutzte Programmteile (so genannte Objekte) ausgelagert und bei Bedarf aufgerufen. Dieses Auslagern und Verweisen wird zwar in den Geisteswissenschaften in Form von Fußnoten und Zitaten längst praktiziert, eine grundlegende hypertextuelle Vernetzung und damit die unmittelbare Zugänglichkeit aller wissenschaftlicher Veröffentlichungen würde es dem Autoren ermöglichen, diese Zitate direkt zu verlinken und dem Leser das Prüfen und Weiterlesen immens erleichtern. 67 MATERIALITÄT fer eines Plagiators geworden ist. Der ehemalige Kollege Webers – denn mittlerweile wurde ihm der akademische Grad wieder aberkannt – hat Webers Dissertation seitenweise aus dem Internet kopiert und die Textstellen ohne Verweise auf dessen Arbeit in seine eigene Dissertation übernommen. Weber, der sich seitdem hauptsächlich mit dem Plagiat in den Geisteswissenschaften auseinandersetzt, stellte daraufhin eine Untersuchung an, deren Ergebnis ernüchternd ausfiel: »Der weit überwiegende Teil der von mir studierten Arbeiten besteht im Wesentlichen aus einer perlenartigen Aneinanderreihung von Web-Texten. (…) Und viele weitere Arbeiten sind ein einziges Web-Sampling.«141 Dies ist die Kehrseite der Copy+Paste-Kultur. Plagiatsfälle existieren schon, seit es kreative Geistesleistungen gibt, das Novum an den genannten Fällen ist allerdings deren erschreckend hohe Häufigkeit. Es scheint fast, als würde eine neue Generation von Geisteswissenschaftlern heranwachsen, die nicht mehr in der Lage ist, eigene Texte zu verfassen und stattdessen auf das Internet als nie versiegende Quelle von Informationen zurückgreift. Weber sieht die Schuld offensichtlich eher beim Werkzeug als beim Täter: »Es ist primär die Verführung durch das Internet. Es ist einfach in den letzten Jahren wahnsinnig verführerisch, ganze Textstellen wortgleich aus dem Internet zu übernehmen. Vor und Mitte der 90er Jahre war es zumindest notwendig, sich ein Buch auszuleihen und abzuschreiben, oder sich bei einem Kollegen eine Arbeit aus diesem Bereich zu holen und diese vielleicht umzuformulieren. Jetzt ist es einfach so, man geht auf „hausarbeiten.de“ oder tippt bei Google einfach ein Stichwort ein, landet bei einem Wikipediaartikel und findet dort eine Vielzahl an Links, die zu diesem Thema verweisen. Es ist einfach wahnsinnig verführerisch geworden, quasi zum Volkssport avanciert, diese Textsegmente 1:1 zu übernehmen, oder – ein wenig trickreicher – diese Texte einfach umzuformulieren.«142 Dadurch, dass Texte mittels digitaler Technik von ihren Meta-Informationen befreit werden können, zu denen anscheinend auch die Verweise auf einen Autor und das Erscheinungsjahr gehören, fällt es wesentlich leichter, ein Plagiat herzustellen als zu früheren Zeiten. Dies gilt allerdings nur so lange, bis Dozenten und Prüfungskommissionen Werkzeuge zur Verfügung stehen, die es ihnen ermöglichen, ein Plagiat schnell zu identifizieren. Diese Werkzeuge existieren in Form von spezieller Software oder Suchmaschinen143 schon seit längerer Zeit, nur werden sie offensichtlich nicht hinreichend häufig angewendet. Um einen Überblick darüber zu erhalten, wie häufig das Phänomen Plagiat in vergangenen, nur in gedruckter Form zur Verfügung stehenden Texten, um sich gegriffen hat, wäre es wünschenswert, diese komplett zu digitalisieren, um sie durchsuch- und vergleichbar zu machen. Der geschriebene Text hat seine zweite Revolution durchlebt: War die erste Revolution seine Geburt als Text, also als strukturiertes und indizierbares Wortgebilde, die ihn von seinen Vorgängern, von mittelalterlichen Manuskripten unterscheidet, so ist die zweite Revolution 141 Weber (2006, Internet) - Plagiatsfahndung an der Uni Salzburg: Elf von 13 Diplomarbeiten unsauber 142 Reisinger (2006, Internet) – Interview: Stefan Weber über Plagiate, Internet, und Nestbeschmutzer 143 Meist würde schon eine kurze Google-Suche nach einem verdächtigen Textbaustein ausreichen, um ein Plagiat zweifelsfrei zu identifizieren. 68 MATERIALITÄT nun seine Verfügbarkeit, seine schnelle Durchsuchbarkeit und seine Vergleichbarkeit.144 Die erste Revolution betraf die Form des Textes, die zweite betrifft seine möglichen Rezeptionsweisen. Eines der meiner Meinung nach wichtigsten Merkmale eines natürlich wirkenden Schreibvorgangs ist eine konsequente und nachvollziehbare Linearität. Ein Musikstück beispielsweise wird erst dann für voll genommen, für echt gehalten, wenn keine hörbaren Schnitte auf eine Manipulation der Zeitlichkeit des Stückes schließen lassen. Und nicht umsonst wird im Kinofilm Matrix der Fehler in der Matrix, das Umprogrammieren der „echten“ virtuellen Welt in eine Welt ohne Ausgänge, an einem Déjà-vu-Erlebnis des Protagonisten Neo bemerkt. Wenn ein eigentlich linearer Vorgang unterbrochen wird, wird dieser nicht mehr als authentisch empfunden. Das Copy+Paste-Verfahren wiederum bricht den grundsätzlich linearen Schreibvorgang auf und nimmt ihm damit einen Teil seiner natürlichen Wirkung. Ein weiterer Faktor, welcher zum schleichenden Niedergang einer haptisch-materiell-emotionalen Schreiberfahrung führt, ist das sich unter Autoren wachsender Beliebtheit erfreuende Schreiben in Auszeichnungssprachen. Im naturwissenschaftlichen Bereich längst zum Alltagsgeschäft gehörend, spielen deren beliebteste Vertreter, TeX und LaTeX, eine immer bedeutendere Rolle in den Geisteswissenschaften. In diesen Sprachen wird der Textfluss beim Schreibvorgang immer wieder durch Auszeichnungen, also digitale Meta-Informationen über Absatzstrukturen, Formatierungen, Laufweite, Zitate etc. unterbrochen. Doch das sind nur die oberflächlichen Auswirkungen der Trennung zwischen Mensch und Schreibwerkzeug. Das größte Problem stellt meiner Ansicht die mangelnde Nachvollziehbarkeit des elektronischen Schreibvorganges dar. Während es zum Allgemeinwissen gehört, wie ein Kugelschreiber funktioniert und nahezu jedem Schreibenden die generellen Unterschiede in der Funktionsweise zwischen Bleistift und Füller klar sind, verhält es sich beim Computer anders. Friedrich Kittler postuliert schon im Jahr 1993: »Der Schreibakt ist verschwunden.«145 Die Anzahl der Abstraktionslayer, die mittlerweile zwischen der graphischen Benutzeroberfläche und den konkret im Prozessor stattfindenden Rechenoperationen liegen, ist so hoch, dass zur Zeit niemand alle der in einem handelsüblichen PC stattfindenden 3 Billionen Rechenoperationen146 pro Sekunde bis zum erwartungsfroh blinkenden Eingabecursor beschreiben und schon gar nicht nachvollziehen kann. Die Digitalisierung führte zusammengefasst also zu einer Abkehr von der materiellen Schreiberfahrung, der Griffel ist – um auf Flusser zurückzukommen – auf eine interessante Art und Weise verschwunden und wurde durch etwas Neuartiges ersetzt. Bis hierher liest sich dieser Text so, als ob ich eine Lanze für die Immaterialität der elektronischen Datenverarbeitung und damit im Umgang mit virtuellen Räumen brechen wollte. 144 Vgl. Illich (1990), S. 7 ff. 145 Kittler (1993), S. 226 146 Drei TeraFLOP (Floating Point Operations per Second) sind ein Spitzenwert, der aber durchaus beim alltäglichen Arbeiten erreicht werden kann. 69 MATERIALITÄT Was genau ist das Neuartige, das die materielle Schreiberfahrung ersetzt, ist dem digitalen Schreibvorgang möglicherweise eine ganz eigene Materialität zuzuschreiben? Flusser beschreibt mit Blick auf die Industrialisierung einen Bruch im Verhältnis zwischen Mensch und Maschine, zunächst leitet er mit Blick auf das prä-industrielle Verhältnis des Menschen zum Apparat ein: »Im vorindustriellen Verhältnis steht die Maschine noch zwischen dem Menschen und der vom Menschen bearbeiteten Welt. Sie ist ein »Attribut« des Menschen im juristischen, aber auch im logischen Sinn.«147 Dieses Attribut-Verhältnis habe sich mit der Industrialisierung grundlegend geändert: »Im industriellen Verhältnis befindet sich der Mensch während seiner Arbeit in der Maschine, und die bearbeitete Welt hat ihren Ort jenseits des Horizonts (in der »Metaphysik«). Im logischen Sinn ist der Mensch ein Attribut des Apparats, denn er kann während der Arbeit durch einen anderen Menschen ersetzt werden, obwohl es im juristischen Sinne immer noch menschliche Eigentümer der Maschine gibt.«148 Ersetzt man in Flussers Ausführungen die Worte „Industrialisierung“ und „industriell“ durch „Digitalisierung“ und „digital“, bekommen sie eine beklemmende Realitätsnähe: Der Mensch als austauschbares Attribut eines scheinbar willkürlich handelnden und schier übermächtigen Apparates; ein solches Gefühl ist wohl niemandem fremd, der schon einmal versucht hat, mit einem herkömmlichen Textverarbeitungsprogramm einen Text von über 100 Seiten Länge zu formatieren. Sieht man das Internet oder den virtuellen Raum generell als zusammenhängenden Maschinenkomplex an, lassen sich Flussers Worte auf andere Art und Weise interpretieren: Die Funktion des Menschen hat sich – gerade, wenn Entwicklungen des Web 2.0 berücksichtigt werden – in einen Zuarbeiter der Maschinerie verwandelt, er versorgt – Stichwort: user generated content – die Maschine mit Inhalten. Von außen betrachtet, kann der Mensch sogar als Teil dieses Komplexes, als innerhalb der Maschine positioniert gesehen werden. Hier und nur hier ist das Innere des Computers nicht mehr als Black Box zu sehen. Wir können nicht nur Input und Output beobachten, wir sehen auch, was innerhalb der Maschine vor sich geht. Sie ist transparent geworden und wir als ihre Bestandteile sind es auch. Beim Benutzen eines Computers spielt noch ein weiterer Faktor in das allgemeine Gefühl der Machtlosigkeit, der mangelnden Einflussnahme auf die Vorgänge hinter der grafischen Benutzeroberfläche, auf die Operationen innerhalb des Gerätes, hinein: Alle traditionellen Eingabegeräte, seien es Tastaturen oder Mäuse, Touchpads, Trackballs oder Joysticks, dienen als Vermittler zwischen der Realität der Eingabe und der digitalen Virtualität der Daten, in die diese Eingaben übersetzt werden. Bis zu diesem Punkt ist das keine große Erkenntnis, interessant jedoch gestaltet sich die Bedienung dieser schon alltäglichen Eingabegeräte und damit die Bedienung des Computers 147 Flusser (1991), S. 32 148 Flusser (1991), S. 32 70 MATERIALITÄT selbst: Zuvorderst muss der Umgang mit einer Tastatur erlernt werden; für viele stellt sogar das Tippen mit mehr als zwei Fingern eine unüberwindliche Herausforderung dar. Ähnlich absurd erscheint die Maus-Technologie – dass eine auf der horizontalen Ebene Tisch ausgeführte Bewegung auf die vertikale Ebene Monitor umgesetzt wird, ist zur Normalität geworden und wird bestenfalls von ungeübten Benutzern hinterfragt. Vor uns steht ein Monitor, damit wir mit eigenen Augen die Ergebnisse dessen sehen können, was wir im Computer bewirken, es stehen möglicherweise Lautsprecher zur Verfügung, damit wir die Möglichkeit einer akustischen Rückmeldung über unser Tun bekommen. Maus, Tastatur, Trackpad, Grafiktablett und Joystick sind dafür zuständig, die Eingaben unserer Hände aufzunehmen. Abgesehen davon, dass beim Umgang mit einem Computer der Geruchs- und der Geschmackssinn bisher völlig unberücksichtigt bleiben, sorgt diese künstliche Trennung der Schnittstellen zwischen Körper und Maschine für eine wachsende Entfremdung zwischen Benutzer und Werkzeug bzw. den durch das Werkzeug vermittelten virtuellen Räumen. Gekoppelt mit dem wachsenden Gefühl der Machtlosigkeit gegenüber einem übermächtigen Apparat tut diese Trennung ihr übriges, um Veröffentlichungen voranzutreiben, die den virtuellen Raum als blutarm und als unfähig des Transports „echter“ Gefühle bezeichnen. Ich räume ein, dass gewisse Techniken des digitalen Umgangs mit der Virtualität in Form von Texten, Musik, Bildern und Videos dazu führen mussten, doch meine ich, in jüngerer Zeit eine deutliche Tendenz in die entgegengesetzte Richtung beobachtet zu haben. Als Beispiele sollen hier technische Geräte dienen, welche es der Virtualität erlauben, weiter in viele gewohnte Lebensbereiche hervorzudringen, als es ihr bisher unter Zuhilfenahme von Computern, Fernsehern und Walkmans möglich war. 4.4. Die Rückkehr des Drückens: Vom Anschmiegen der Gadgets Anschmiegsame Gadgets muten in einer Zeit, in der es nur sehr begrenzt möglich erscheint, eine emotionale Bindung oder gar eine Beziehung zu einem technischen Gerät aufzubauen, als an Wahnsinn grenzende Utopie an. Dennoch gehen ernstzunehmende Wissenschaftler – allen voran der britische Informatiker David Levy – davon aus, dass es in nur 50 Jahren zum Alltagsgeschäft gehört, dass einige Menschen mit Robotern Beziehungen eingehen werden, die weit über bloßen Sex hinausgehen. Im weiteren Verlauf dieses Kapitels möchte ich einige Gadgets149 vorstellen, die so konzipiert sind, dass ihre Besitzer eine emotionale Bindung zu ihnen aufbauen können. Die neueste Generation dieser Gadgets, deren Vorgänger Apples meist eng am Körper getragener iPod oder auch schmale Mobiltelefone sind, die sich an den Körper ihres Trägers anschmiegen, ist unter besonderer Berücksichtigung von Emotionalität und Glaubwürdigkeit entwickelt worden. In welcher Art und Weise Inszenierungsstrategien – vor allem innerhalb der Software-Programmierung – für Glaubwürdigkeit verantwortlich sind, soll im nun folgenden Exkurs beschrieben werden. Um für ein glaubwürdiges Gegenüber gehalten zu werden, muss eine Software vor allem Respekt einflößen können, sie muss 149 Siehe Glossar der vorliegenden Arbeit. 71 MATERIALITÄT darauf programmiert werden, eigenständiges Handeln zu simulieren. Dies ist das Ziel der Forschung zur künstlichen Intelligenz (KI). Diese hat ihre Vorläufer schon im ausgehenden 18. Jahrhundert: Der Hofrat und Erfinder Wolfgang von Kempelen entwickelte verschiedene Automaten, unter anderem den „Schachtürken“, einen Automaten, der angeblich das Schachspiel vollkommen unabhängig von einem menschlichen Gehirn beherrschte (S. Abbildung 11). Dass der Schachautomat dabei von einem in seinem Inneren befindlichen Schachmeister bedient wurde, spielt für die Inszenierungsstrategien, die für seine Popularität verantwortlich sind, keine Rolle. Die Entwicklung der Androiden, also der Maschinen, die dem Menschen nachempfunden sind und dessen Verhaltensweisen simulieren sollten, setzte sich durch das 19. Jahrhundert fort: Johann Nepomuk Maelzel, übrigens der Erbe des Kempelenschen Schachautomaten, erfand einen Trompeter, der im Jahre 1910 von Friedrich Kaufmann weiterentwickelt wurde. Musikautomaten dieser Art sind bis heute erhalten und werfen die wichtigsten Fragen in Bezug auf künstliche Intelligenz und maschinell erzeugte Menschlichkeit auf: Ist Intelligenz eine Eigenschaft, die von einer Maschine erlangt werden kann, und – falls ja: Ab wann ist eine Maschine intelligent? Welche Kriterien können für die Beurteilung von Intelligenz herangezogen werden, ist vielleicht gar die Beherrschung der Künste, also beispielsweise kreatives Handeln, ein Kriterium für das Vorhandensein von Intelligenz? 72 EXKURS Turings Träume 4.5. Von ELIZA zu Rolly Ähnliche Gedanken zur menschlichen und zur künstlichen Intelligenz bzw. zur Simulation und Inszenierung dieser beherrschten den britischen Mathematiker Alan Turing schon kurz nach dem Zweiten Weltkrieg. Er beschloss – als bis dahin relativ unbekannter Kryptograph, der allerdings mit der Entschlüsselung der deutschen Chiffriermaschine Enigma kriegsentscheidende Leistungen auf Seiten der alliierten Kryptographie erbracht hatte – im Jahre 1946, ein elektronisches Gehirn zu bauen. Turing hatte kurz zuvor in Bletchley Park einen der ersten Großrechner, Colossus, entwickelt und war von diesem Zeitpunkt an der festen Überzeugung, dass bestimmte Eigenschaften, die elektrische Leiterbahnen und Röhren aufwiesen, auf die Nervenbahnen im menschlichen Hirn übertragbar seien. Beide seien zur Informationsübermittlung gut, die Nervenbahnen hätten allerdings gegenüber ihren elektronischen Verwandten den Vorteil, relativ wartungsfrei, kompakt und energiesparend zu sein, während die anfälligeren metallischen Leiter die elektrischen Informationen schneller verarbeiten würden. Turing war weiterhin der Meinung, dass dieser Vorteil des schnelleren Informationsflusses eines Tages den schier uneinholbar anmutenden Vorsprung der menschlichen Nervenzellen aufwiegen könnte: Ein Elektronenhirn könnte somit in ferner Zukunft dem menschlichen Denkapparat überlegen sein. 4.5.1. Der Stellenwert des Schachspiels Dass diese Überlegenheit der Maschinen eines Tages möglich werden würde, war Turing klar, er wusste nur nicht genau, wie man sie beweisen solle. Er suchte nach einer zuverlässigen und vergleichbaren Messmethode für die Leistungsfähigkeit eines Gehirns, sei es biologischer oder elektronischer Natur: »Wir stehen dann dem Problem gegenüber, angemessene Denkarbeiten für die Maschine zu finden, in denen sie ihre Fähigkeiten ausüben kann.«150 Bei dieser Suche stößt Turing schnell auf das Schachspiel, denn es nimmt für ihn einen hohen Stellenwert beim Versuch des Nachweises der maschinellen Intelligenz ein. Dies hat vor allem den Grund, dass Schach eines der wenigen Spiele ist, die sich durch eine einfache Symbolsprache umschreiben lassen. Im Gegensatz zu anderen denkbaren „Intelligenztests“, wie beispielsweise dem Erfassen und Einordnen von optischen Figuren oder dem Rotieren 150 Turing (1987), S. 97 73 TURINGS TRÄUME dreidimensionaler Objekte,151 benötigt eine Maschine im Vorfeld keine aufwändige Sensorik, um ihre schachspielerischen Fähigkeiten unter Beweis zu stellen, sondern kann sich voll und ganz der ihr gestellten Aufgabe, der logischen Analyse der Züge des Gegners und der daraus folgenden Strategieentwicklung, widmen. »Wenn man eine erfolgreiche Schachmaschine entwickeln könnte, wäre man imstande, zum Inneren des menschlichen intellektuellen Könnens vorzudringen.«152 Da Alan Turing für die englische Regierung einerseits mehrere Berichte über seine neue Tätigkeit, nämlich über die Entwicklung einer Denkmaschine, abliefern musste, und andererseits bis dato kein Computer komplex genug war, um das Schachspiel zu beherrschen, war der Wissenschaftler gezwungen, eine Art Maß für Geistesleistungen zu entwickeln. Um alle metaphysischen Diskussionen über Seele und Geist zu vermeiden, entwickelte er den Turing-Test, bei dem eine Maschine und ein Mensch darin konkurrieren, einen dritten, unabhängigen Menschen von der jeweils eigenen Menschlichkeit zu überzeugen. Maschine und Mensch kämpfen also darum, wer der bessere Schauspieler ist. Sobald der „Tester“ Mensch und Maschine nicht mehr voneinander unterscheiden könne, oder die Maschine diesen sogar davon überzeugen kann, dass es sich bei ihrem Widersacher um eine Maschine handelt, sei der Beweis für die Existenz einer dem Menschen zumindest in einer Disziplin ebenbürtigen Maschine erbracht. Denn »eine Maschine, (...) die so gut beziehungsweise intelligent wie ein Mensch zu arbeiten scheint, ist für Turing so gut und intelligent wie ein Mensch.«153 4.5.2. Schauspielqualitäten als Maß der Intelligenz? Dies ist für mich einer der interessantesten Gedanken Turings. Eine Maschine, welche die Kunst des Schauspiels beherrscht, ist für ihn so gut und intelligent wie ein Mensch. Und tatsächlich ist es für Maschinen – zumindest deutet sich dies in den jüngsten Ergebnissen der Forschung auf dem Gebiet der künstlichen Intelligenz an – wahrscheinlich nur auf eine einzige Art und Weise möglich, einen intelligenten Eindruck zu hinterlassen: Durch Täuschung und Schauspielerei. Die Forschungsergebnisse auf dem Gebiet der „hohen“ künstlichen Intelligenz, also dem Wissenschaftszweig, welcher versucht, Intelligenz z.B. mittels neuronaler Netze und einer Anhäufung von verschiedensten elektronischen Möglichkeiten geradezu aus dem Nichts heraus zu schaffen, sind niederschmetternd. Zwar kursieren einige ins Esoterische abdriftende Vermutungen, dass das Internet allein aufgrund seiner ungeheuren Größe und der kumulierten Rechenleistung aller darin vernetzten Computer innerhalb der nächsten Jahre ein Be151 Ein Zeitgenosse Turings, der Philosoph und Elektrotechniker Louis Leon Thurstone, entwickelte für den Entwurf eines Modells zur Erfassung der menschlichen Intelligenz sieben Primärfaktoren. Für mehrere dieser Faktoren sind die genannten Fähigkeiten maßgeblich. Thurstones Arbeiten, allen voran The Nature of Intelligence (1924) und Factorial Studies of Intelligence (1941), hatten prägenden Einfluss auf die Konzeption moderner Intelligenztests, beispielsweise auf den Stanford-Binet-Test. 152 Turing in Euwe (1970). 153 Strouhal in: Felderer (1996): Uhrwerk und Schachspiel: Zur Motivgeschichte des Bildes der intelligenten Maschine, S. 446. 74 TURINGS TRÄUME wusstsein entwickeln würde, diese halte ich persönlich jedoch für eine untragbare Wunschvorstellung bzw. für eine Horrorvision. 4.5.3. ELIZA – Das berühmteste „intelligente“ Programm der Welt Wendet man sich von diesen Utopien ab, so bleibt die Forschungsarbeit zur „niederen“ Form der künstlichen Intelligenz. Dies ist der Forschungszweig, welcher sich mit der Simulation und dem Vorspiegeln von Intelligenz beschäftigt. Hier zeigen sich enorme Fortschritte. Auf rein textueller Ebene – innerhalb von Chatprogrammen, welche auf ausschließlich textbasierter Kommunikation beschränkt sind – wurde es einigen Programmen, wie z.B. ELIZA154 schon ab 1966 möglich, ihre Gesprächspartner zu täuschen. Diese waren durch das Programm davon zu überzeugen, in der Maschine oder – bei internet-basierter Kommunikation – auf der anderen Seite der Welt, müsse sich ein menschliches Bewusstsein befinden. Weizenbaum tells us that he was shocked by the experience of releasing ELIZA (also known as „Doctor“) to the nontechnical staff at the MIT AI Lab. Secretaries and nontechnical administrative staff thought the machine was a „real“ therapist, and spent hours revealing their personal problems to the program. When Weizenbaum informed his secretary that he, of course, had access to the logs of all the conversations, she reacted with outrage at this invasion of her privacy. Weizenbaum was shocked by this and similar incidents to find that such a simple program could so easily deceive a naive user into revealing personal information.155 Das Psychiaterprogramm ELIZA funktioniert nach dem einfachen Prinzip, dass es alle Aussagen seines Gesprächspartners analysiert und umformt, eine typische Reaktion ELIZAs auf eine Eingabe des Benutzers sieht in etwa so aus: Patient: »Ich habe ein Problem mit meinem Auto.« – Eliza: »Warum, sagen Sie, haben Sie ein Problem mit Ihrem Auto?«156 oder: Patient: »Gestern habe ich meinen Vater getroffen.« – Eliza: »Erzählen Sie mir etwas mehr über Ihre Familie.« Die Reaktion ELIZAs im zweiten Beispiel lässt sich natürlich nicht nur über eine einfache Umformung des Ausgangssatzes erklären. ELIZA verfügt außer der Fähigkeit zum Umformen noch über eine sehr rudimentäre Datenbank von zusammengehörigen Schlagwörtern und ist so in der Lage, das Wort Vater mit dem Wort Familie zu assoziieren. Der Erfinder dieses Programms, Joseph Weizenbaum, begründete seine Entscheidung, vorzugeben, dass es sich bei ELIZA um eine Psychiaterin handele, damit, dass man von einer Psychiaterin keinerlei Wissen über die Welt erwarte. Wenn man einer Psychiaterin erzähle, man sei mit einem Boot gefahren und diese würde einen daraufhin bitten, mehr über Boote zu erzählen, 154 ELIZA ist übrigens nach Eliza Doolittle in George Bernard Shaws Pygmalion benannt, die – als einfache Blumenverkäuferin – nur durch das Erlernen eines neuen Akzents glaubhaft eine Herzogin vorspielen sollte. 155 Wallace (2001, Internet): From Eliza to A.L.I.C.E. 156 S. http://de.wikipedia.org/wiki/ELIZA vom 3. März 2008 75 TURINGS TRÄUME so nehme man dennoch nicht an, dass man es mit einem Menschen zu tun habe, der nichts über Boote wisse, sondern erzähle ihr bereitwillig etwas darüber. Weizenbaum beschreibt die Funktionsweise des Programms in einem Interview157 wie folgt: »Das wahrhaftigste Bild von ELIZA ist, ELIZA ist ein Schauspieler, der verschiedene Regeln gelernt hat, aber der die ganze Zeit, als er auf der Bühne ist und seine Rolle spielt, improvisiert. Aber nach den Regeln, die ihm gegeben wurden. Aber man weiß nicht, was er als nächstes sagt.« Auf die Frage, warum ELIZA so erfolgreich ein menschliches Gegenüber vortäuschen könne, antwortet Weizenbaum: »Eliza hat vielleicht eine Grundmethode, man könnte auch sagen, einen Trick. ELIZA stützt sich auf die Tatsache, dass der Mensch die Signale, die ihm entgegenkommen, im Licht seiner Bedürfnisse und Interessen interpretiert, und er projiziert seine eigene Vorstellung des Partners in ihn hinein. (…) Besonders sympathiebedürftige Menschen projizieren mehr in das Programm hinein als andere.« In der ersten Aussage bestätigt Weizenbaum meine These, dass eine gelungene Inszenierung der wichtigste Bestandteil der Glaubwürdigkeit einer künstlichen Intelligenz ist, er bezeichnet ELIZA, ein Programm, welches nur wenige Zeilen Quellcode umfasst, als improvisierenden Schauspieler. Ein weiterer, noch interessanterer Aspekt liegt im Begriff der Projektion. Der Patient, bzw. der Chatpartner projiziert in das Programm seine eigenen Vorstellungen, welche dominant genug zu sein scheinen, um die objektive Sichtweise auf das einfache Funktionsprinzip des Programms und auf alle Ungereimtheiten, die in einer Konversation mit ihm auftreten, zu überdecken. Der Wunsch der Probenden, auf der anderen Seite einen menschlichen Gesprächspartner zu haben, der zuhört und versteht, macht das Programm für sie erst glaubwürdig. ELIZA ist nur die Vorgängerversion von hunderten von Programmen dieser Art. Modifizierte Versionen von ELIZA finden sich heutzutage z.B. eingebaut in Internetseiten und Computerprogramme, als Berater und Assistenten, die deren Besucher immer wieder durch ihre scheinbare Intelligenz verblüffen. 4.5.4. Love the machines! – Von der Projektion zur emotionalen Bindung zwischen Mensch und Maschine Die Projektion menschlicher Eigenschaften in Maschinen-Bewegungen oder in die Reaktionen eines technischen Gerätes, wie es im Falle von ELIZA auftritt, wurde schon im Jahr 1944 beobachtet. Die amerikanischen Psychologen Fritz Heider und Mary-Ann Simmel zeigten einigen Probanden einen Film, der – ähnlich wie frühe Hans-Richter-Filme – aus bewegten abstrakten Formen bestand. Anschließend führten sie eine Befragung durch. Auf die Frage, was denn nun genau zu sehen gewesen wäre, antworteten einige der Probanden, dass sich die Formen gegenseitig gejagt hätten. Die Weiterentwicklung der interaktiven Computertechnik 157 http://www.swr.de/swr2/audiohyperspace/engl_version/interview/weizenbaum.html 76 TURINGS TRÄUME kann eine wesentlich festere emotionale Bindung zu einem Gerät ermöglichen, als sie noch vor wenigen Jahrzehnten vorstellbar gewesen wäre. Um eine wirkliche Bindung zwischen Mensch und Maschine herzustellen, muss ein Gerät oder ein Programm in der Lage sein, auf eine Eingabe zu antworten. Die Grundlage für eine emotionale Bindung zu einer Maschine ist allerdings eine andere: Der Nutzer muss konsequent und wiederholt überrascht werden. Generell existieren zwei Formen von Überraschungen: Positive und Negative. Denn die neutrale Überraschung ist ein Ding der Unmöglichkeit. Von einer Maschine aber negativ überrascht zu werden und diese in der Folge dann geradezu zu hassen, ist schon längst zu einer Alltagserfahrung geworden – Mir sind nur sehr wenige Menschen bekannt, die ihren Computer nicht mindestens einmal wöchentlich verfluchen. Dies tun sie meist aus dem Grund, dass die Maschine sie mit einem Fehler überrascht, der ihnen schadet. Würde hingegen eine Maschine oder ein Programm existieren, die mit guten, sinnvollen und nützlichen Taten überraschen würde, wäre diese vermutlich sofort ein Verkaufsschlager. Man stelle sich folgendes Szenario vor: Ein Programm untersucht den momentanen Arbeitsablauf eines Benutzers und entscheidet daraufhin selbsttätig, dass dieser ineffizient ist. Mit einem freundlichen Gesichtsausdruck macht es den Benutzer darauf aufmerksam und bietet ihm an, die Arbeit, die er gerade verrichtet, für ihn zu übernehmen, weil diese mit einfachen Mitteln automatisierbar ist. Ich wäre sofort begeistert von solch einer Maschine. Ein derartiges Verhalten seitens eines Computers klingt zunächst unrealistisch, ist aber technisch durchaus umsetzbar. Erste wenig versprechende Ansätze eines Versuches, in diese Richtung tätig zu werden, zeigte der Microsoft-Konzern mit der Entwicklung einer äußerst hilfreich erscheinenden, im Comic-Stil animierten Büroklammer, die zu allen möglichen und vor allem unpassenden Zeitpunkten von „innen“ an den Bildschirm tippt und den Office-Benutzer eher zurechtweist oder ihn für dumm zu verkaufen scheint, anstatt ihm bei seiner täglichen Arbeit behilflich zu sein.158 Dies sind Beispiele für zwei weitere zentrale Eigenschaften, die für eine emotionale Bindung zu technischen Geräten unabdingbar sind: Authentizität und Respekt. Ein Nutzer muss die Maschine ernst nehmen können und – noch wichtiger – er muss das Gefühl haben, selbst von der Maschine ernst genommen zu werden. Diese Eigenschaften hängen sehr eng mit dem bereits erwähnten Überraschungseffekt zusammen. Wir können ein Gegenüber – egal ob Mensch oder Maschine – nur ernst nehmen, wenn wir davon ausgehen, dass es eigene Entscheidungen treffen kann. Einen vorgegebenen, fest programmierten Ablauf Respekt entgegen zu bringen, ist absurd. Eigene und vor allem vernünftige Entscheidungen werden Maschinen in den nächsten Jahren 158 Beispielsweise wurde ich von dieser Büroklammer innerhalb meines Studiums beim Verfassen von Essays darauf hingewiesen, dass ich anscheinend einen Brief schreiben wolle. Ich kann beim besten Willen nicht sagen, wie das Programm auf diese Idee gekommen ist. 77 TURINGS TRÄUME aus den oben angesprochenen Gründen nicht treffen können. Um das Ziel der emotionalen Bindung zwischen Mensch und Maschine zu erreichen, müssen positive Überraschungseffekte auf eine undurchschaubare Art und Weise Teil der Software werden. Genau dieses Verfahrens versucht sich der japanische Konzern Sony zur Zeit bei der Entwicklung eines äußerst interessanten Produktes zu bedienen: Das eiförmige Musikabspielgerät Rolly erfüllt – abgesehen von dem vergleichsweise eher geringen Nutzen für einen potentiellen Käufer – alle genannten Voraussetzungen, um nicht nur das Objekt der Begierde für viele Menschen zu werden, sondern obendrein noch das Ziel einer starken emotionalen Bindung zum Besitzer zu bieten (S. Abbildung 12). »Aus unseren Erfahrungen mit Aibo159 wussten wir, dass die Tatsache, dass die Maschine sich selbsttätig bewegt, die Gefühle von Menschen beeinflusst. (…) Wir hatten nicht vor, die Bewegungen eines bestimmten Tieres zu kopieren. Stattdessen haben wir versucht, Bewegungen einzubauen, die für die Form – ein einfaches Oval, das auf den Benutzer freundlich wirken soll – möglichst überraschend sind.«160 Nur, weil wir es gewohnt sind, auf mehreren, voneinander getrennten Kanälen mit dem Computer zu kommunizieren, ist das kein Grund dafür, diese künstliche Beschränkung weiter aufrecht zu erhalten. Ein überraschendes, kleines, eiförmiges Gadget, welches sich anfassen lässt und auf Berührungen reagiert, etwas derartiges scheint ein erster Schritt in die richtige Richtung zu sein. Die Idealvorstellung wäre natürlich die Erweiterung eines Gedankenexperimentes, des »umfassenden Computers«, welchen Martin Seel entwirft: »Es ist dies ein Computer, der auch die Funktionen eines komfortablen Radio-, Fernseh- und Videogeräts erfüllt, mehrere CD-Laufwerke hat, an das Internet angeschlossen ist, mit dem man auch E-Mail versenden, faxen und telefonieren kann, wenn man will, so, daß man den oder die Partner am Bildschirm sehen kann.«161 Es wäre ein Gerät, welches neben der umfassenden Funktionalität, die Seel beschreibt, alle Sinne gleichzeitig anspricht, das man also gleichzeitig anfassen kann, um es zu bedienen, welches einen Geruch und einen Geschmack aufweist, nebenbei noch verschiedene Temperaturen annehmen und Geräusche von sich geben kann und welches in der Lage ist, den Nutzer im doppelten Wortsinne zu berühren – also im Prinzip die technokratische Version der eierlegenden Wollmilchsau mit eingebautem Emotionserzeuger. 159 Aibo (japanisch für Freund) ist ein von der Firma Sony hergestellter Roboter. Er ist mit einer simplen künstlichen Intelligenz ausgestattet und soll das Verhalten eines Hundes imitieren. Ursprünglich als Haustierersatz für Allergiker gedacht, werden die verschiedenen Aibo-Modelle als relativ kostengünstige und gleichzeitig vielseitige Roboter in unterschiedlichsten Bereichen der KI-Forschung eingesetzt, zum Beispiel beim Roboterfußball (S. Abbildung 13). 160 Nobuhiko Oguchi, Senior Manager New Business Field and Product Department des Audio-Bereichs bei Sony in Technik zum Verlieben, Technology Review (03/2008), S. 31 161 Seel in: Krämer (1998), S. 256 78 TURINGS TRÄUME Abbildung 11: Kempelens Schachautomat Abbildung 12: Sony Rolly Abbildung 13: Sony Aibo Abbildung 14: Virtual Screen in Minority Report Abbildung 15: Jeff Han / Multitouch Display 79 VIERTES KAPITEL MATERIALITÄT 4.6. Von der Maus zu Minority Report - Die haptische Revolution im Umgang mit neuen Medien Die wichtigste Eigenschaft dieses Gerätes wäre die intuitive Vermittlung aller Arten von Informationen und das Beherrschen jeder denkbaren Form der Online-Kommunikation, es müsste also einen freien Umgang mit Texten, Bildern, Videos, Musik, dem Internet, Videound Audio-Telefonie, GPS, Fax, E-Mail usw. ermöglichen. Gleichermaßen müsste dieses Gadget transportabel, also möglichst im Hosentaschenformat sein und somit jederzeit zur Verfügung stehen. Ein solches Gerät existiert zwar nicht, doch – frei nach Ludger Schwarte, der in einem Vortrag Uchronie und Prognose: Allüren der Technik das Prinzip der Technik als ein Prinzip der Vorläufigkeit auffasste; denn technische Geräte selbst definierten sich unter anderem durch eine bestimmte Art der Vorläufigkeit, sie selbst seien immer das Versprechen eines leistungsfähigen Nachfolgers – hat es unter anderem in Apples iPhone bzw. iPod touch einen Vorgänger gefunden. Zwei bisher voneinander getrennte Schnittstellen zwischen Körper und technischem Gerät werden in diesem Gerät nicht zum ersten Mal, allerdings erstmalig auf eine nachvollziehbare, einfach handhabbare Art und Weise auf eine Ebene gebracht: Der verbaute Touchscreen führt den Gesichts- und den Tastsinn zusammen. In Steven Spielbergs Minority Report arbeitet der Hauptdarsteller Tom Cruise an einer futuristisch anmutenden Computeroberfläche, welche in den Raum projiziert wird und es erlaubt, Computergrafiken und Videos mit der Hand zu bewegen, zu skalieren, zu greifen und abzulegen (Vgl. Abbildung 14). Drag & drop in Reinkultur. Spielberg imaginierte im Jahre 2002 eine Form von Technologie, die nur vier Jahre später zur Realität geworden ist: Der New Yorker Computerwissenschaftler Jeff Han verblüffte mit einem Video und einer beeindruckenden Präsentation die Welt der Technikbegeisterten. Er entwickelte an der New York University die so genannte Multi-Touch-Technologie, bei der es – im Gegensatz zu allen bisherigen Ansätzen der Entwicklung von berührungsempfindlichen Bildschirmen – möglich wird, mit beliebig vielen Fingern gleichzeitig die dargestellten Informationen zu bearbeiten, seien sie nun in Form von Bildern, Videos oder Texten162. 162 Jeff Hans Fortschritte auf diesem Gebiet sind im Internet unter http://cs.nyu.edu/~jhan/ftirtouch/ dokumentiert. Siehe auch Abbildung 15. 80 MATERIALITÄT Unter dem Titel Minority Report becomes reality wurde Hans verblüffende Präsentation des Systems schnell zu einem der meistgesehenen Videos auf YouTube.163 Diese Technologie bildet außerdem den Grundstein zur intuitiven Bedienoberfläche von Apples iPhone.164 Texte, Bilder, Videos und Töne werden in naher Zukunft mit den Händen angefasst, zurechtgerückt, gestreckt, gestaucht, verzerrt und neu kombiniert werden. Die Trennung der Benutzerschnittstellen wird obsolet. Um zu verstehen, wie revolutionär der sich momentan vollziehende Wandel im Umgang mit neuen Medien ist, ist es zunächst nötig, zu klären, wann die Medien eigentlich neu geworden sind. Wo liegen die grundlegenden Unterschiede, welche diese Klassifizierung ermöglichen, zwischen einem Gemälde und einem Digitalfoto, zwischen der Aufführung eines Sinfoniekonzerts und dem Hören einer CD? Was im dritten Kapitel am Beispiel von digitaler Musik schon leise angeklungen ist, soll nun an dieser Stelle ausgearbeitet werden. Lev Manovičh führt die Entwicklung der Neuen Medien auf zwei historische Schlüsselereignisse zurück, die merkwürdig früh in der Vergangenheit zu liegen scheinen: Da wäre zunächst die Entwicklung der Kamera am Beispiel der Daguerrotypie (1839) und weiterhin die Erfindung der Rechenmaschine durch Charles Babbage (1833). Von diesen Punkten ausgehend, entwickelten sich zwei Arten der Technologie: Einerseits Apparate, die selbsttätig rechnen können, andererseits immer neuere und ausgefeiltere Arten, Bilder, Videos, Töne und Texte zu speichern. Sobald beide Technologieformen miteinander kombiniert werden, wie etwa mit der Erfindung des Personal Computers und der darauf folgenden Digitalisierung aller bisher bekannten Analogmedien, sobald also eine Maschine gleichzeitig als Speicherort und Manipulator dient, als Synthesizer und als Processor arbeiten kann, spricht Manovičh von New Media.165 Neue Medien sind also schon relativ alt. Spätestens seit der Existenz von digitalen Bild- und Videobearbeitungsprogrammen bzw. mit der breiten Akzeptanz des Personal Computers als Arbeitsmittel sprechen wir von neuen Medien. Doch nun können diese Medien nicht nur angesehen und angehört werden, die neuartige Hardware erlaubt es, sie zu biegen, sie zu brechen und sie – endlich! – authentischer als je zuvor in den Papierkorb zu befördern. Apple betritt mit der Entwicklung des iPhones und seiner Benutzerschnittstellen absolutes Neuland. Die entscheidenden Schlüsselsätze, welche Apple-CEO Steve Jobs bei der ersten – wie immer bis ins kleinste Detail inszenierten – Präsentation des iPhones verwendete, sind: »Who wants a stylus? (…) Nobody wants a stylus! So let‘s not use a stylus. We‘re gonna use the 163 Minority report becomes reality (2006), http://www.youtube.com/watch?v=PLhMVNdplJc 164 Ich wähle das iPhone nicht ohne Grund als Beispiel für eine ganze Serie ähnlich funktionierender Geräte, so genannter Gadgets: Apples iPod touch arbeitet zwar nach dem gleichen Prinzip, des weiteren ungefähr fünf weitere Smartphones verschiedener Hersteller. Das iPhone war aber mit das erste und ist in diesem Zuge auch das bekannteste Gerät auf dem Markt, weiterhin ist die dort verbaute Technologie am fortschrittlichsten implementiert. 165 vgl. How Media became New, Manovičh (2001), S. 21 ff. 81 MATERIALITÄT best pointing device in the world. (…) We‘re gonna touch it with our fingers.«166 Smartphones mit Touch-Screen werden üblicherweise mittels eines Stylus, eines Eingabestiftes bedient. Dieser erlaubt einerseits eine hohe Punktgenauigkeit und vermeidet so Fehlbedienungen, die durch einen kleinen Bildschirm mit relativ hoher Informationsdichte und die Breite unserer Finger vorprogrammiert sind. Auf der anderen Seite ist der Weg von der nicht intuitiven Mausbedienung zu der mit dem Stylus nicht weit. Zwar werden die Bewegungen nicht mehr in eine andere Raumrichtung transformiert, trotzdem gibt es jeweils nur einen einzigen Punkt, an dem sich ein Stift befinden kann, um eine Nutzereingabe vorzunehmen. Wird die Multi-Touch-Technologie verwendet, gestaltet sich dies völlig anders. Fehlbedienungen werden durch eine Software vermieden, die aus der Menge an Punkten, an denen der Finger auf den Bildschirm trifft, den Punkt errechnet, den der Nutzer vermutlich treffen wollte. Der Bildschirm lässt sich an mehreren Stellen gleichzeitig anfassen, Fotos können mit zwei Fingern skaliert werden, Listen lassen sich sehr schnell durchsuchen und Videos können mit einem Wischen über den Bildschirm vor- und zurückgespult werden. Sehen, Hören und Anfassen wurden also auf eine Ebene gebracht und ermöglichen einen äußerst direkten und damit wesentlich natürlicher wirkenden Umgang mit Medien und Daten, also mit vermeintlich sehr immateriellen Dingen. Nicht zuletzt ist es die dem Gadget eingebaute Sensorik, welche einen authentisch wirkenden Umgang mit dem Gerät erlaubt. Das iPhone ist sowohl mit einem 3-Achsen-Beschleunigungssensor, der die Position des Gerätes im Raum feststellen kann, als auch mit einem Umgebungslicht- sowie einem Annäherungssensor ausgestattet. Dreht man es in die Horizontale, schaltet es automatisch seinen Bildschirm in einen Widescreen-Modus, es reagiert also auf seine Position im Raum. Bewegt man es zum Telefonieren ans Ohr, schaltet es den Bildschirm ab, es scheint, als würde das Gerät selbsttätig auf seine Position im Raum und seinen momentanen Verwendungszweck reagieren. Diese Reaktion erfolgt nicht mehr auf eine direkte und bewusste Nutzereingabe – der Benutzer könnte ja auch einen Knopf drücken, um auf Breitbild-Modus zu schalten – sie erfolgt automatisch. Das Gerät scheint gegenüber den Bewegungen des Nutzers aufmerksam zu sein und ihn bei seinen Vorhaben zu unterstützen. Nicht nur auf Seiten der Hardware ist die haptische Revolution nachzuvollziehen, auch die Entwicklung neuer Software ist nötig, damit Medien endlich greifbar werden. Beim iPhone sind die ersten Schritte auf diesem Weg bereits vollzogen, auch andere Hersteller von Mobilgeräten ziehen auf dem Sektor der berührungs-gesteuertern Software nach. Bisher erstreckt sich diese Entwicklung jedoch nur auf die in den betreffenden Geräten direkt implementierte Software, internetspezifische Programmiersprachen unterstützen nur bedingt Steuerungsmöglichkeiten dieser Art. Spezielle Internetseiten für Mobilgeräte existieren schon seit Jahrzehnten. Sie basieren auf Protokollen wie WAP167 und iMode und stellen den zweifelhaften Versuch dar, Inhalte des 166 Steve Jobs bei der Eröffnungsrede der Macworld San Francisco, 2007 167 Wireless Application Protocol 82 MATERIALITÄT Internets trotz einer aufs Minimum beschränkten Datenrate auf Mobiltelefonen und PDAs darzustellen. Kein zeitgemäßes Gerät setzt mehr auf diese eingeschränkte Form des Internetsurfens, Apples iPhone und iPod touch bieten vollständige Browser, aktuelle WindowsMobile-Geräte können auf eine mobile Version des Browers Opera zurückgreifen. So hat das Netz es zumindest in seiner gewöhnlichen Form als HTML, gekleidet in CSS, auf die mobilen Geräte geschafft. Nur – anfassen und bewegen kann man es davon noch lange nicht. Abgesehen von einigen unter immensem Programmieraufwand erstellte Drag-and-Drop-Experimenten wie dem virtuellen Präsentationsprogramm 280Slides,168 sind HTML- und CSS-Oberflächen nicht flexibel. Für bestimmte Anwendungen, die Social Networks, Instant-Messenging, Location-BasedServices169 und Online-Spiele zugänglich machen, existieren allerdings vielversprechende Mobil-Versionen, die gewährleisten, dass virtuelle Räume an jedem Ort zugänglich werden. 168 280Slides (http://www.280slides.org) könnte durch seine intiutive Bedienung eine ernstzunehmende Konkurrenz für Microsofts PowerPoint werden, welches zur Zeit den Standard unter Präsentationsprogrammen markiert. 169 Siehe Kapitel 5.2. der vorliegenden Arbeit: Interaktive Omnipräsenz: Location-Based Services. 83 5. Kapitel Welche Formen der Interaktivität sind in virtuellen Räumen zu beobachten? // In welchem Zusammenhang stehen die bisher besprochenen Begriffe Körperlichkeit, Authentizität und Materialität mit der Interaktivität? // Wo liegen die Vorzüge und Nachteile kollaborativer und interaktiver Arbeitsformen? Interaktivität »Meine Studien (…) haben mich davon überzeugt, daß die Informationstechnologie mehr tut, als nur ein evokatives Objekt für unsere Selbstreflexion bereitzustellen (…). Sie bildet heute darüber hinaus das Fundament für eine neue Kultur der Simulation und für eine grundlegende Neubestimmung der menschlichen Identität, was ich in ‚Leben im Netz‘ darlegen wollte.«170 Die vorangegangenen drei Kapitel beschreiben und erörtern virtuelle Räume und einige ihrer Schnittstellen zum Alltagsgeschehen. Innerhalb virtueller Räume und im Umgang mit ihnen ist ein hohes Maß an Körperlichkeit, Authentizität und Materialität zu beobachten. Vor einem Fazit möchte ich nun diese drei Merkmale zusammenfassen und fragen, welche Rolle sie bei konkreten, interaktiven Erfahrungen mit virtuellen Räumen spielen. Sherry Turkle stellt die These auf, dass Informationstechnologie die Grundlage für ein Leben im Netz bietet. Ich zweifele diese These an und verändere sie dahingehend, dass die Informationstechnologie die Grundlage für ein Leben mit dem Netz darstellt. Das für diesen Unterschied entscheidende Moment ist die Interaktivität. Gerade, weil das neue Netz unser aktives Eingreifen erfordert, um es zu erfahren und zu gestalten, versinken wir nicht darin oder lassen uns von ihm einsaugen. Wir benutzen virtuelle Räume als Medien, um gleichzeitig mit anderen Menschen und unserer Umgebung zu interagieren. Interaktivität kann in virtuellen Räumen, wie schon in der Einleitung beschrieben, in verschiedensten Ausformungen auftreten: Es soll in diesem Kapitel nicht um die reine Interaktion zwischen Mensch und Maschine gehen,171 ich möchte die durch das Medium Internet vermittelte Interaktivität zwischen zwei oder mehreren Individuen beschreiben. Die für die Interaktivität grundlegende Kommunikation kann synchron oder asynchron erfolgen. Asynchrone Kommunikationswege wie E-Mail-Verkehr und das Schreiben in Internetforen sind zwar bestimmt von Aktion und Reaktion, bieten aber – im Gegensatz zu synchronen Kommunikationsformen keinerlei Möglichkeit der unmittelbaren Rückkopplung, des direkten Feedback auf eine Handlung. Dahingegen bieten sie ein Mehr an Flexibilität: Es müssen 170 Turkle (1998), S. 519 171 Siehe auch Kapitel 4: Materialität und Exkurs: Turings Träume. 84 INTERAKTIVITÄT nicht alle User gleichzeitig anwesend sein,172 um ein Ziel zu erreichen,173 es kann genügen, wenn die Interaktionen auch in größeren zeitlichen Abständen aufeinander folgen. Um ein vereinfachtes Bild zu benutzen: Die Kommunikation innerhalb virtueller Räume ist nicht mit einem vis-á-vis-Gespräch vergleichbar, sondern mit einer 1:n-Kommunikationssituation, mit einer Konferenzschaltung. E-Mail, Internet-Foren und Usenet sind die Vorläufer dieser neuen Kommunikationsform; Wikis, der Internet-Relay-Chat und Mehrspieler-OnlineRollenspiele ihre Kinderstube. Die Entwicklung interaktiver Kommunikation, interaktiven Spielens, Handelns, Lernens und sogar Denkens ist bei weitem nicht abgeschlossen, doch denke ich, dass die Erfahrungen, die wir schon heute mit bestehenden Technologien machen können, einen guten Ausblick darauf liefern können, was in naher Zukunft möglich sein wird. 5.1. Die kollektive Geburt sozialer Software Ebenso, wie die Grenzen zwischen Medienwissenschaft und Medienkunst fließend werden,174 verhält es sich mit Medienkunst und dem alltäglichen Umgang mit Medien. Innovative Umgangsformen mit neuen Materialien werden häufig zunächst in einem musealen Refugium erprobt, bevor sie zum Allgemeingut werden. Extreme Videoeffekte tauchten vor ihrer Nutzung in der Werbung oder in Musikvideos zunächst im Experimentalfilm auf und Audio-Effekte wie die der Musique concrète finden im zeitgenössischen Hip-Hop Verwendung. Anders im Internet: Bis neue Anwendungsformen elektronischer Medien alltagstauglich werden, haben sie meist eine recht kurze Phase des Experimentierens hinter sich. Den kurzen Testzeitraum, den beispielsweise moderne Software zur Marktreife benötigt, verdankt sie ihrer extremen Wandelbarkeit. Im Gegensatz zu einem Video, welches – einmal gedreht, geschnitten und post-produziert – als Werk feststeht und nur unter unverhältnismäßigem Aufwand verändert oder verbessert werden kann, im Gegensatz zu einem Haus, welches – einmal gebaut – nur mit erheblichem Kostenaufwand aufgestockt werden kann, ist Software durch die Veränderung weniger Programmbefehle und durch einen einzigen Mausklick, der den Rekompilierungsprozess auslöst, wandelbar. Alle Probleme, die im Rahmen ihrer Nutzung auftauchen, können schnellstens beseitigt werden. Dieser Vorteil entpuppt sich jedoch oft als Nachteil: Man könnte vermuten, dass die Software-Hersteller heutzutage den Endnutzer als Beta-Tester verstehen. Unfertige Software wird zunächst ausgeliefert, um sich eine teure Testphase ersparen zu können. Auf Beschwerden der auf diese Software angewiesenen Benutzer wird daraufhin mit einer teilweise endlos anmutenden Serie von Updates reagiert. 172 Wie zum Beispiel bei so genannten Clan-Wars im Zusammenhang mit Ego-Shootern. Als Ego-Shooter werden Echtzeit-Online-Spiele bezeichnet, die aus der Ich-Perspektive in einer dreidimensionalen Umgebung gespielt werden. Clan-Wars erforden die Anwesenheit aller bzw. der besten Spieler eines Clans. 173 Das Ziel einer asynchronen, aber interaktiven Massenkommunikation kann zum Beispiel die Programmierung einer Software oder die Erstellung einer Online-Enzyklopädie sein. 174 Vgl. Norbert M. Schmitz: Medialität als ästhetische Strategie der Moderne. Zur Diskursgeschichte der Medienkunst. in: Gendolla / Schmitz / Schneider / Spangenberg (2001), S.95 ff. 85 INTERAKTIVITÄT Im Internet führten die Möglichkeiten, die eine so genannte Beta-Testphase bietet, jedoch zu einer völlig neuartigen und positiv aufgenommenen Entwicklung: Zur Public Beta. Die bisher übliche Closed-Beta-Phase, zu der nur einige ausgewählte Nutzer eingeladen werden, wird in das üblicherweise vorangehende Alpha-Stadium der Software verlegt. An diesen Zeitraum schließt die Public Beta an. Für einen begrenzten Zeitraum hat nun jeder Nutzer die Möglichkeit, die Software kostenlos zu testen und Verbesserungsvorschläge einzubringen.175 Web-2.0-Software – egal, ob es sich um ein Social Network oder eine der zahlreichen Google-Applikationen handelt, ist dem stetigen Wandel unterworfen. Dies führt unter anderem dazu, dass manche Produkte sich scheinbar nie aus dem Beta-Stadium hinaus bewegen: Das beliebte Foto-Portal Flickr befand sich für zwei Jahre in einer Beta-Phase, nur, um daran anschließend überraschend eine „Gamma-Phase“ einzuläuten.176 Flickr ist also weiterhin kostenlos und befindet sich in einem Überarbeitungsprozess. Die Software, die die Grundlage der neuen Medien und Kommunikationsformen bildet, wird enger am Nutzer entwickelt als jedes andere Produkt. Die geschlossenen Tore der entwickelnden Unternehmen, die Refugien, in denen Software bisher unter strengster Geheimhaltung entwickelt wurde, sind im Web 2.0 weit geöffnet und laden die Öffentlichkeit zur stetigen Weiterentwicklung der Produkte ein.177 Schon dem Geburtsvorgang der Software, die uns den Zugang zu virtuellen Räumen verschafft und diese gleichermaßen konstituiert, liegt also ein interaktives Moment zugrunde. Die – traditionell gesprochen – Kunden,178 die eigentlichen Nutzer der Software, werden durch ihre Anregungen und durch die breite Akzeptanz dieser Arbeitsweise zu ihren Schöpfern. Auf Produzentenseite lässt sich gerade in der Software-Entwicklung für das Web 2.0 die Weiterentwicklung eines Phänomens beobachten, welches Sherry Turkle im Band Leben im Netz den »Triumph des Bastelns« nennt: Social Software wird nicht nach einem feststehenden Plan programmiert, sie entsteht in einem Prozess, der eher chaotisch organisiert ist. »Für Planer sind Fehler Schritte in die falsche Richtung; Bastler dagegen navigieren durch Korrekturen auf halber Strecke. Bastler lösen Probleme dadurch, daß sie in eine Art dialogische 175 Diese Entwicklung ist so signifikant, dass das Blog Museum of Modern Betas (MoMB, http://momb.sociokybernetics.net/) zum aktuellen Zeitpunkt über 5000 Beta-Versionen von Web-2.0-Anwendungen verzeichnen kann. 176 Dies wurde von den Machern der Seite einerseits als ironischer Seitenhieb auf die Beta-Kultur im Web 2.0 gesehen, diente aber andererseits als Hinweis darauf, dass sich das Fotoportal für immer in einer Phase befinden wird, in der den Verbesserungswünschen und Fehlermeldungen seiner Nutzer Gehör geschenkt wird. Vgl. auch Flickr (2008, Internet): Help: General Flickr Questions. 177 Ein berechtigter Einwand an dieser Stelle wäre der Hinweis darauf, dass dieses System nichts Neues ist – schließlich findet die Entwicklung von Open-Source-Software (OSS) schon seit Jahrzehnten öffentlich statt. Der Unterschied, der zum beschriebenen Phänomen besteht, liegt in den Kenntnissen, die vom mitarbeitenden Benutzer verlangt werden. Während bei der Softwareprogrammierung unbedingt Programmierkenntnisse vonnöten sind, um die Qualität der Software zu verbessern, ermöglicht die Public-BetaPhase auch programmier-unerfahrenen Benutzern die Verbesserung der Programme. 178 Auch in einer Umgebung, in der mit Aufmerksamkeit bezahlt wird und in der es Tradition ist, dass Erfolgsmodelle, abgesehen von der Anschaffung der Hardware und Verbindungsentgelten, nichts kosten, scheint es mir angebracht, von Kunden zu sprechen. 86 INTERAKTIVITÄT Beziehung zu ihren Arbeitsmaterialien eintreten.«179 Social Software ist Software von Bastlern im positivsten Sinne. In dem offenen Prozess der Softwareentwicklung, beim Arbeiten in der Public-Beta-Phase, geht es meist nicht mehr um das Ausmerzen von gewöhnlichen Programmfehlern, die zu Abstürzen des Browsers oder kryptischen Fehlermeldungen führen, es geht vielmehr um die Ausformulierung neuer Features der Programme, um einen Ausbau der Funktionalität und Vernetzung. Die Entwicklungsphase sozialer Software ist sowohl auf Produzenten- als auch auf Konsumentenseite ein interaktiver Vorgang. 5.2. Interaktive Massenphänomene Soziale Netzwerke können ohne das aktive Eingreifen ihrer Nutzer nicht existieren. Nicht nur ihr Entstehungsprozess und ihre Weiterentwicklung sind davon motiviert, auch ihre Funktionsweise ist vom ständigen und konstanten Input der User abhängig. Sogar in sich geschlossene, kostenpflichtige und auf traditionelle Weise entwickelte virtuelle Welten wie World of Warcraft oder Second Life sind einzig und allein wegen des stetigen Inputs durch ihre User interessant. Im Gegensatz zu den meisten interaktiven Computerspielen, Kunstprojekten oder Installationen findet ein gegenseitiger Austausch nicht ausschließlich zwischen Mensch und Maschine statt – Menschen tauschen sich mit anderen Menschen aus, die Maschinerie wird zum omnipräsenten, aber durchsichtigen Mittler. Die neue Interaktivität unterscheidet das Netz nicht nur von den etablierten Sendemedien,180 sie bringt das Medium Internet auch wieder an seinen eigentlichen Wortsinn heran und zeigt, wie sehr es als Medium zu verstehen ist: Das Internet ist ein „Zwischen“-Netz, ein Medium ist »in der Mitte befindlich, dazwischen«.181 Wird das Netz hingegen als Stellvertretermedium für Sendemedien benutzt, ist es in seiner Mittler-Funktion eingeschränkt. Das wahrscheinlich wichtigste Ergebnis der kollaborativen und interaktiven Zusammenarbeit innerhalb eines virtuellen Raumes wurde in dieser Arbeit bisher nicht angesprochen, obwohl es einen großen Teil zu ihr beigetragen hat: Es handelt sich um die Wikipedia. Die mittlerweile umfangreichste Enzyklopädie der Welt wurde im Jahr 2001 durch Jimmy Wales gegründet und umfasst heute ca. 2,4 Millionen englischsprachige Artikel, die deutsche Version umfasst ca. 760.000 Beiträge. Zum Vergleich: Die Encyclopædia Britannica umfasst in der aktuellen Ausgabe 75.000 Artikel, das Brockhaus-Lexikon in der 21. Auflage 300.000.182 Über 250.000 angemeldete und eine unbekannte Anzahl nicht-angemeldeter, anonymer Autoren schreiben und überarbeiten minütlich die Lexikonartikel, die sie verändern möchten.183 Der immense Umfang der Wikipedia allein sagt nichts über die Qualität ihrer einzelnen 179 Turkle (1998), S. 79 180 Vgl.: Bieber / Leggewie (2004). 181 S. Wikipedia (2008), Artikel Medium 182 S. Wikipedia (2008), Artikel Encyclopædia Britannica und Artikel Wikipedia:Größenvergleich 183 S. Wikipedia (2008), Artikel Wikipedia 87 INTERAKTIVITÄT Beiträge aus. Verschiedene stichprobenartig vorgenommene Studien jedoch belegen, dass die Wikipedia den Vergleich mit anderen Nachschlagewerken und deren Online-Pendants nicht scheuen muss.184 Sicherlich ist die Online-Enzyklopädie, so wie jede andere Enzyklopädie auch, im Hinblick auf ihre wissenschaftliche Zitierfähigkeit als problematisch einzustufen – fast alle Beiträge sind beliebig manipulierbar und gerade besonders strittige Themen lassen, wenn sie nicht gerade in einem so genannten Flame-War185 untergehen, oft einen dialektischen und problemorientierten Überblick vermissen und beschränken sich ausschließlich auf die Wiedergabe einer Einzelmeinung. Die Wikipedia ist – obschon zahlreiche Gegenmaßnahmen getroffen wurden – nach wie vor manipulierbar. Zusammen mit ihrer ständig wachsenden Popularität186 wäre ein bedrohliches Szenario vorstellbar: Auf geschickte Art und Weise manipuliert, könnte die Online-Enzyklopädie zu einem neuen Werkzeug der gezielten Fehlinformation und Beeinflussung ganzer Bevölkerungsgruppen werden. Doch in dieser vermeintlichen Schwäche der Wikipedia – dass sie jeder Nutzer editieren darf – liegt gleichzeitig ihr größter Vorzug. Die Enzyklopädie ist unabhängig und gewährt allen, die über einen Internet-Zugang verfügen, Zugriff auf ihre Inhalte. Gleichzeitig ermöglicht sie jedem Interessierten, die Rolle eines Autors oder auch die eines Lektors einzunehmen. Sie ist sowohl unabhängig von Werbekunden als auch in jeder sonstigen Hinsicht frei: Es gibt keinen Herausgeber, der Autoren nach bestimmten Gesichtspunkten auswählt, es existiert keinerlei Zensur, etwa durch einen Verlag, und die Autoren rekrutieren sich aus den verschiedensten soziokulturellen Bereichen. Zwar editieren augenblicklich nur 2,5 Prozent der Wikipedia-Nutzer die Artikel, und der durchschnittliche Wikipedia-Autor ist Student, technik-begeistert, männlich und Single, er entspricht also dem klassischen Klischee des Computer-Nerds. Diese Strukturen scheinen sich jedoch allmählich zu ändern.187 Je intensiver Menschen aller Altersgruppen und Herkunft das Internet nutzen, desto mehr Diversifizität wird Wikipedia aufweisen können. Eine derartige Masse von zugänglichen Informationen ist in vielerlei Hinsicht einzigartig: Im Gegensatz zu einer Publikation auf Papier kann das angesammelte Wissen urbar gemacht werden. Alle Artikel enthalten direkte Links zu anderen Artikeln und den Quellen, durch die sie belegt sind, sie sind elektronisch durchsuchbar, und – nicht zuletzt durch ihre leicht nachvollziehbare Versionsgeschichte – auch referenzierbar. Denn jede Änderung eines jeden Artikels wird protokolliert und festgehalten. Es ist also einerseits unmöglich, bereits bestehende 184 In einem 2005 von der in Großbritannien herausgegebenen Zeitschrift Nature vorgenommenen Vergleich schnitt die englischsprachige Wikipedia nur unwesentlich schlechter ab als die erstplatzierte Encyclopædia Britannica. S. Giles in: Nature (2005). Die Zeitschrift Der Stern veröffentlichte im Dezember 2007 eine Studie, laut der die Wikipedia sogar deutlich besser als der deutsche Brockhaus abschnitt. S. Stern (2007, Internet). 185 Ein Flame-War (von engl. to flame, eine Bezeichnung, die der Comic-Serie Fantastic Four entlehnt ist) ist eine kontroverse Diskussion im Internet, deren Teilnehmer unsachlich und schließlich beleidigend werden. 186 Wikipedia ist zur Zeit die siebthäufigst aufgerufene Internetseite der Welt, in Deutschland belegt sie Platz sechs. Als einzige Seite unter den beliebtesten zehn ist sie nicht kommerziell ausgerichtet. S. ComStore (2008, Internet) 187 Schroer / Hertel (2007, Internet) 88 INTERAKTIVITÄT Inhalte unwiederbringlich zu verändern oder zu löschen, andererseits bietet die Wikipedia die Möglichkeit, auf einen einmal abgerufenen Artikel und den genauen Zeitpunkt des Abrufs zu verweisen, so dass dieser auch nach Jahren in exakt der Version wieder aufgerufen werden kann, in der er gelesen wurde. Die Wikipedia vereint gewissermaßen alle bisher besprochenen Merkmale virtueller Räume in sich: Sie besteht zum einen aus manifestierten Datenspuren einzelner Benutzer, die sich auf gesonderten personalisierten Seiten als Autoren vorstellen können, sie beinhaltet also Merkmale des in der Virtualität geborenen Körpers. Zweitens vereint die Enzyklopädie die im Kapitel zur Materialität angesprochenen Meta-Eigenschaften der virtuellen Écriture in sich. Sie ist durch Links ins übrige Netz eingebettet, indexierbar, und durch ihre einheitliche Form auch mittels kleiner Skripte, so genannter Bots, korrigierbar.188 Die für die Wikipedia verwendeten Skripte sind aufgrund ihrer Größe und Popularität sehr ausgefeilt und könnten für wissenschaftliches Arbeiten am Text eine enorme Hilfe darstellen, da sie viele Aufgaben schneller und effizienter erledigen, als ein Mensch es vermag. Diese Aufgaben liegen zur Zeit entweder beim Autor oder bei wissenschaftlich geschultem Personal. Fragen nach Authentizität und Glaubwürdigkeit sind in Bezug auf die Wikipedia äußerst relevant und haben deshalb besonders die Aufmerksamkeit einer wissenschaftlichen Öffentlichkeit erregt. Insbesondere die Frage nach der Zitierfähigkeit der Online-Enzyklopädie als wissenschaftliche Quelle bietet Anlass zu einem angeregten Diskurs. Die Anforderungen an ein zitierfähiges Medium nach „schwachen“ Kriterien189 sind in Bezug auf die Wikipedia deutlich besser erfüllt als bei einem Großteil der anderen Internet-Publikationen: Durch die Verteilung auf viele Server und einen sorgfältigen Umgang mit Datensicherheit190 sowie die bereits angesprochene Versionsgeschichte ist die Möglichkeit des Abrufs jeglichen Inhaltes des Nachschlagewerkes zu jeder Zeit gegeben. Die Wikipedia ist zwar nur mit technischen Hilfsmitteln zu erreichen, doch ist das schnelle Nachschlagen einer Information deutlich einfacher zu bewerkstelligen als beispielsweise in einer unpopulären Zeitschrift oder auch in einem herkömmlichen Lexikon. Sobald „starke“ Kriterien der Zitierfähigkeit zugrunde gelegt werden, also zusätzlich zur Nachprüfbarkeit danach verlangt wird, dass es sich bei der zitierten Quelle um eine in einem Wissenschaftsverlag erschienene Publikation handelt, ist keine Enzyklopädie – egal, ob online oder offline – zitierfähig. Ein genaues wissenschaftliches Zitat verlangt außerdem nach einem Autor, dem dieses zuzurechnen ist. Da Wikipedia – wie keine andere Publikation vor ihr – in einem kollaborativen, interaktiven Prozess entsteht, ist die Referenz auf einen einzelnen Autor bei dem Großteil aller Artikel unmöglich.191 Als He188 Diese Programme überarbeiten ständig alle Artikel der Enzyklopädie, um korrekte Datumsformate zu gewährleisten, Zitate zu überprüfen, bestehende Verweise zu korrigieren und neue zu schaffen. Außerdem kontrollieren sie ständig alle Artikel auf unnötige Verwendung von Umgangssprache, Urheberrechtsverletzungen und Vandalismus. 189 Die zitierte Quelle muss dauerhaft nachprüfbar sein. 190 Wikimedia Foundation (2008, Internet): Wikimedia servers 191 Zum Beispiel hat der deutsche Wikipedia-Artikel über den Jazz-Pianisten Michel Camilo, den ich am 9. Oktober 2004 erstellt habe, seitdem 37 Änderungen erfahren, die nicht von mir selbst vorgenommen wurden. Auf inhaltlicher Ebene wurde – abgesehen von einigen unglücklichen Formulierungen – nichts 89 INTERAKTIVITÄT Abbildung 16: Yugo Nakamura – Standbild aus Industrious Clock (2001) Abbildung 17: Yugo Nakamura – Standbild aus Fingertracks: Studiy-E1 (2001) Abbildung 18: Yugo Nakamura – Standbild aus Rigid_Body 02 (2001) 90 INTERAKTIVITÄT rausgeber fungiert die Wikipedia selbst, als verantwortlich für die Inhalte wird bei allen Artikeln auf die »Wikipedia-Autoren« verwiesen. Ob oder wann kollaborativ erstellte Quellen in der Nachfolge kollaborativer Open-Source-Software salon- und damit zitierfähig werden, ist schwierig vorherzusehen. Die Vorteile dieser Projekte liegen allerdings auf der Hand: Mit erheblich reduziertem zeitlichen und finanziellen Aufwand lassen sich Großprojekte wie das Programmieren eines zuverlässigen Betriebssystems oder das Erstellen einer Enzyklopädie, deren Reliabilität immerhin diskutiert wird,192 verwirklichen. Wikipedia generiert nicht nur wegen ihrer Eigenschaften als Enzyklopädie, durch ihre stetige Verfügbarkeit und ihre mediale Präsenz193 geradezu Glaubwürdigkeit. Auch die Darstellung verschiedenster Blickwinkel bei strittigen Themen und eine grundsätzlich selbstkritische Haltung befördern dieses Image. Das grundlegende Misstrauen beispielsweise, welches einer reinen Online-Publikation entgegen gebracht wird, findet sich sogar im Wikipedia-Artikel über die Wikipedia selbst wieder: »Neben dem Problem bewusster Fehleintragungen besteht das weit schwerer einzugrenzende Problem, dass sich in den Inhalten mittelfristig Halbwissen durchsetzt. In einer durch Arbeitsteilung ausgezeichneten Gesellschaft verfügt immer nur eine Minderheit über Fachwissen. Die jeweilige Minderheit läuft stetig Gefahr, von der Mehrheit ‚korrigiert‘ zu werden. Die Inhalte laufen somit Gefahr, nicht den Wissensstand der Gesellschaft, sondern die vorherrschenden Vorurteile abzubilden, zu bekräftigen und zu tradieren. Dem ist selbst durch ‚korrektives‘ Eingreifen von Autorenseite und administrative Vorgänge nicht vollständig beizukommen.«194 Die Furcht vor der Bedrohung durch mittelfristiges Halbwissen erscheint berechtigt, ich gehe jedoch davon aus, dass sich langfristig die Expertenmeinungen – gerade in Bereichen, in denen Faktenwissen zählt – durchsetzen werden. Auch wenn Körperlichkeit, Authentizität und Materialität im Umgang mit virtuellen Räumen nicht als konstitutive Merkmale der Interaktivität angesehen werden können, befördern sie diese doch ungemein. Sie führen zu einem intuitiveren und damit zu einem häufigeren Umgang mit der Virtualität. 5.3. Interaktivität, Intuition und Zugänglichkeit Eine der wichtigsten Voraussetzungen für interaktives und kollaboratives Zusammenarbeiten ist die Zugänglichkeit des virtuellen Raumes, in dem sie geschieht. Die Wikipedia präsentiert sich als offenes Raumkonzept, sie ist so konzipiert, dass sie mit den unterschiedlichsten Wesentliches ergänzt oder gestrichen, der Artikel wurde hauptsächlich von Bots den formalen Standards der Enzyklopädie angepasst. 192 Microsofts elektronisches Lexikon Encarta beispielsweise hat diesen Status trotz eines vergleichsweise hohen Investitionsvolumens niemals erreicht. 193 Fast jede beliebige Google-Suche führt Wikipedia-Seiten auf den vorderen Rängen. Auch Zeitungsredakteure und Mitarbeiter der Sendemedien verlassen sich immer häufiger auf die Enzyklopädie. 194 Dies ist sowohl das einzige Wikipedia-Zitat als auch das einzige Zitat eines Nachschlagewerkes in dieser Arbeit. Es soll verdeutlichen, dass sich zumindest einige Autoren der Problematik des Gesamtvorhabens bewusst sind. Entnommen aus: Wikipedia (2008, Internet): Wikipedia, Kapitel: Problemfelder. 91 INTERAKTIVITÄT Browsern betrachtet und gleichzeitig mit der verschiedensten Hardware, beispielsweise mit Mobiltelefonen, bedient werden kann. Wie bereits beschrieben, ist es eine der Qualitäten sozialer Software, dass sie einem stetigen Entwicklungsprozess unterworfen ist, der nicht an ein notwendiges technisches Fachwissen ihrer eigentlichen Macher, also ihrer Nutzer, gebunden ist. Ich habe grundsätzlich drei Formen dieser offenen Arbeitsweise innerhalb virtueller Räume beobachten können: Die erste Form erfordert kein technisches Fachwissen und ist gleichzeitig nicht moderiert.195 Das Produkt ist für jedermann leicht zugänglich und eine Änderung daran wird unmittelbar wirksam. Die zweite Form der kollektiven Arbeit erfordert ein hohes technisches Fachwissen und muss gerade deswegen moderiert werden. Als Beispiel dient das Programmieren von Open-Source-Software, etwa das Entwickeln der 3D-Animationssoftware Blender.196 Durch den Moderationsprozess, also durch das Kontrollieren der vorgeschlagenen Änderungen durch die für das Projekt verantwortlich zeichnenden Experten, werden Änderungen nicht unmittelbar übernommen, sondern fließen erst nach einer Testphase in das Produkt ein. Die dritte Form kollektiver Arbeit erfordert kein technisches Fachwissen von den Nutzern, sehr wohl aber von den Programmierern der Software.197 Aus diesem Grund muss auch dieser Entwicklungsprozess moderiert werden, obwohl die Software an sich ähnlich einfach zu benutzen ist wie die Wikipedia. 5.4. Interaktive Omnipräsenz – Location-Based-Services Virtuelle Räume überlagern den phänomenalen Raum, wie in dieser Arbeit mehrfach postuliert wurde. Eine der interessantesten Entwicklungen in dieser Hinsicht sind Location-BasedServices (LBS), also standortbezogene Dienstleistungen. LBS erfordern ein Mobilgerät, welches in der Lage ist, seinen eigenen Standort zu ermitteln. Das kann beispielsweise via GPS, also durch Satellitenortung, geschehen.198 Ist der Aufenthaltsort des Nutzers bekannt, gibt es verschiedene Anwendungs-Szenarien für klassische LBS: Vom Finden der nächsten Pizzeria über die Suche nach Sehenswürdigkeiten und Museen in der Nähe bis hin zur Routenplanung sind vielfältige Nutzungsmöglichkeiten denkbar und bereits etabliert. Werden jedoch virtuelle Räume – vor allem Social Networks – mit einbezogen, so bekommen die möglichen Szenarien eine neue Qualität: Es wäre beispielsweise umsetzbar – befindet sich ein Nutzer auf Partnersuche – dass er durch sein Mobiltelefon darauf aufmerksam gemacht würde, dass sich im gleichen Park, in dem er sich gerade befindet, potentiell passende Partner für ihn aufhalten, die ebenfalls auf der Suche sind. Durch einen kurzen Blick in deren Online-Profile 195 Als Beispiel kann die Wikipedia dienen. Auch andere Projekte wie das Open-Streetmap-Projekt, welches sich der Erstellung frei zugänglichen Kartenmaterials verschrieben hat, funktionieren nach diesem Prinzip. 196 http://www.blender.org/ 197 Als Beispiel dient der Entwicklungsprozess sozialer Software, siehe Kapitel 5.1. der vorliegenden Arbeit: Die kollektive Geburt sozialer Software. 198 Andere Ortungsmechanismen werten die Feldstärken verschiedener Mobilfunk-Masten oder W-Lan-Access-Points aus, deren Standorte in einer weltweiten Datenbank verzeichnet sind. 92 INTERAKTIVITÄT vergewissert sich der Nutzer, ob diese Menschen wirklich interessant für ihn sein könnten, und spricht sie an. Ein anderes Anwendungs-Szenario sind Bewertungsportale wie Qype.199 Die Suche nach Gastronomieeinrichtungen oder Sehenswürdigkeiten wird durch die Bewertungen und Erfahrungsberichte, die andere Nutzer gemacht haben, deutlich aufgewertet und gewinnt so an Relevanz. Apples zweite Version des iPhones beispielsweise verfügt über GPS und eine Funktion, die anzeigt, ob sich Personen, die in der persönlichen Kontaktliste des Instant-Messenging-Dienstes iChat verzeichnet sind, in einem Umkreis von 10 Meilen befinden. In Kombination mit dem bereits vorgestellten last.fm-Dienst ist ein Szenario vorstellbar, in dem ein Benutzer zeitnah über Konzerte seiner Lieblingsbands oder Bands, die last.fm ihm empfiehlt und die in seiner unmittelbaren Nähe stattfinden, informiert wird. Auch die Aufwertung virtueller Spielszenarien, wie zum Beispiel der Street Wars,200 ist denkbar. Dies sind nur einige Beispiele dafür, wie Location-Based-Services dazu beitragen können, dass virtuelle Räume an Funktionalität und Nutzen gewinnen und zunehmend mit dem phänomenalen Raum verschmelzen. 5.5. Ästhetik und Interaktivität – Yugo Nakamura Yugo Nakamura setzt sich seit 2001 kreativ mit dem Medium Internet und vor allem mit den Möglichkeiten von Adobes Entwicklungsumgebung Flash auseinander. Seine Arbeiten erlangten kurz nach dem Start seines virtuellen Portfolios MONO*crafts201 im Januar 2001 eine weltweite Berühmtheit in der Netzgemeinde. Nakamura ist Webdesigner und sieht sich selbst nicht vorrangig als Künstler. Er befindet sich stetig auf der Suche nach neuen Bedienkonzepten, nach einem innovativen Umgang mit der Virtualität, die gewöhnlichen Vorstellungen von Usability widerspricht: »The current monocrafts site is, well, let’s be honest, it’s a million miles from the ideas of someone like jakob nielsen say, about usability.[202] I can tell you, at least once every couple of days, I get mail saying ‚this site is so user unfriendly!‘ or ‚I’ve never seen such an unnavigable site‘ and sure, I completely agree! the techniques we’re trying out at the moment, they’re just not mature yet. There’s usability… but there’s also joy… there’s that simple fun of being able to touch and feel, that can draw you deeper into a web experience. the things I see are determined by the relationship, interaction, between me and the enviroment that I’m part of. … I believe that the perception, that any given person has of the web enviroment is dictated by what they have already encountered there. … I think that one of the key features of the web enviroment is that it in a constant state of flux; it evolves from moment to moment, according to the user’s intentional browsing activities, and the accidental discoveries she makes on the way. … I am not particularly interested in using flash to create cool motion graphics. What I do want 199 http://www.qype.co.uk 200 Vgl. Kapitel 2.1. der vorliegenden Arbeit: Drei Formen virtueller Körperlichkeit. 201 http://yugop.com/ 202 http://www.useit.com 93 INTERAKTIVITÄT to create is a unique communication experience, or interface enviroment, a reactive field. MONO*crafts was my attempt to fuse diverse elements organically into a single interface world.«203 Minimalistische Flash- und Shockwave-Animationen, welche mit liebevoller Genauigkeit programmiert wurden, kennzeichnen den Stil Nakamuras. Zusätzlich bietet die Verwendung von meist monochromen, schlichten Fotografien ein angenehmes Gegengewicht zur gewohnten Animationslandschaft der Online-Werbung. Nakamuras Arbeiten erlangten auch über das Internet hinaus in der zeitgenössischen KunstSzene Ansehen, unter anderem werden sie im Chiasma (Helsinki) und im Museum of Contemporary Art (Tokio) ausgestellt. Eine seiner ersten Arbeiten, die größere Aufmerksamkeit erregte, trägt den Titel Industrious Clock. Es handelt sich um eine Digitaluhr, deren einzelne Ziffern als sekündlich aktualisierte Bleistiftzeichnungen ausgeführt sind. Sie erwecken also innerhalb einer virtuellen Umgebung den Anschein, auf eine eigentümlich analoge Art und Weise erschaffen zu werden. Die Installation bietet zwar keinerlei Interaktivität, erregte aber durch ihre minimalistische Ästhetik und die gleichzeitige Auseinandersetzung mit den Themenfeldern der Vergänglichkeit und der Beständigkeit sowie des Spannungsfeldes, welches eine Ästhetik der Manufaktur im virtuellen Raum erzeugt, weltweites Aufsehen. Yugo Nakamuras Arbeiten profitieren zwar größtenteils nicht von den neuen Massenkommunikations- und Produktionsweisen der virtuellen Räume des Web 2.0, dennoch spannen sie eigene Räume, gleichsam kleine Ateliers, im Netz auf. Nakamuras Installationen beschäftigten sich auf experimentelle Art und Weise mit der Möglichkeit, den Prozess der Kunstrezeption international und kommunikativ zu gestalten. Die treffendste Umschreibung der Arbeiten Nakamuras bietet meiner Meinung nach der Begriff der Netz-Installation. Viele dieser Installationen bieten dem Rezipienten die Möglichkeit, nach oder während des Betrachtens einer bereits früher durch einen anderen Betrachter aufgezeichneten Aktion diese auf spielerische Art am heimischen Computer nachzuahmen bzw. selbst zu vollführen und sie währenddessen aufzuzeichnen. Die Aufzeichnungen werden an einen zentralen Server übermittelt, der sie zusammen mit den Aktionen, die schon früher aufgezeichnet wurden, verarbeitet und weiter verwendet, um die Online-Installation und damit auch zukünftige Aktionen neuer Nutzer zu beeinflussen. Beim Besuch der Webseiten Nakamuras werden die gleichen Gefühle und Gedanken evoziert wie beim Erleben einer musealen Installation: Das Kunstwerk fordert die Neugier und damit auch den Willen heraus, zu ergründen, nach welchen Prinzipien es funktioniert. Es belohnt die spielerische Herangehensweise an eine ästhetisch ansprechend aufbereitete Aufgabe meist mit einem Erfolgserlebnis. Interessant ist die Transformation dieses Umgangs weg vom musealen – also öffentlichen – Kontext hinein in die zumindest im Jahr 2001 noch äußerst verschlossene Privatsphäre des 203 Designboom (2001, Internet) 94 INTERAKTIVITÄT heimischen Computers. Insofern waren Nakamuras Arbeiten visionär: Der Umgang mit dem heimischen PC wird von einer völlig privaten Mensch-Maschine-Kommunikationssituation zu einer durch das Medium eines virtuellen Raumes vermittelten 1:n-Kommunikationssituation transformiert. In diese Kommunikationssituation fließt zusätzlich eine zeitliche Komponente ein – Der Besucher der Installation interagiert mit Nutzern, die diese vor ihm besucht haben und hinterlässt gleichzeitig eine Botschaft für alle späteren Gäste. Noch wird während der Betrachtung von Netzkunst ein wichtiger Aspekt, der z.B. beim öffentlichen Museumsbesuch eine wichtige Rolle spielt, außen vor gelassen: Das Spiel mit den Reaktionen des Museumsbesuchers. Die Nervosität oder gar das Schamgefühl, welches entsteht, wird man beim Umgang mit ungewohnten und neuartigen Situationen beobachtet, bleiben nach wie vor Privatsache. Betrachtet man jedoch den stark ansteigenden Anteil der mit einer Kamera und einem Mikrofon ausgerüsteten Computer, wird die Entwicklung eines optisch-akustischen Rückkanals nicht mehr lange auf sich warten lassen, über den es für einen Künstler möglich sein wird, auch mit diesen Emotionen zu spielen. 95 6. Kapitel Fazit Der Umgang mit virtuellen Räumen ist zu einer Selbstverständlichkeit geworden. Es ist nicht die Art der Virtualität, die – ausgehend von den medienwissenschaftlichen Untersuchungen der neunziger Jahre – zu erwarten war: Statt einer immersiven Virtual Reality hat sich eine wesentlich pragmatischere Art der Nutzung virtueller Räume etabliert: Die Virtualität überlagert unauffällig das Alltagsgeschehen und fügt sich nahtlos in das tägliche Leben von Millionen von Nutzern ein. Die Interfaces, die zur Kommunikation mit ihr und durch sie nötig sind, zeichnen sich durch Intuitivität, Simplizität und Unauffälligkeit aus und haben mit sperrigen Headmount-Displays und Ganzkörperanzügen nichts gemeinsam. Social Networks wie Facebook oder sein deutsches Pendant StudiVZ werden regelmäßig von der großen Mehrzahl aller Studierenden genutzt. MySpace, die Wikipedia und die Blogosphäre sind zu Massenphänomenen avanciert und Location-Based-Services werden von einzelnen, gerade zur Marktreife gelangten Interfaces unterstützt. Die vorliegende Untersuchung hat gezeigt, dass virtuelle Räume – gerade durch ihre oszillierenden, die Realität überlagernden Eigenschaften – verschiedene Formen der Körperlichkeit aufweisen und authentische Erfahrungen vermitteln können. Der Umgang mit ihnen weist ein hohes Moment der Haptik und Materialität auf. Durch neue Entwicklungen in der Übermittlung und Bearbeitung von Daten sowie der stetigen Evolution der Interfaces werden sie und ihre Inhalte omnipräsent, sowohl in zeitlicher als auch in räumlicher Hinsicht. Körperlichkeit, Materialität und Authentizität bieten einen starken Anreiz für den interaktiven Umgang mit virtuellen Räumen und mit neuen Medien. Erst, wenn eine virtuelle Umgebung – wie beispielsweise die Wikipedia – einen Eindruck von Glaubwürdigkeit vermittelt, erscheint es für viele potentielle Nutzer sinnvoll, eigene Arbeitszeit in ein solches Projekt zu investieren. Und nicht zuletzt ist es – wie am Beispiel von last.fm und Yugo Nakamuras interaktiven Installationen deutlich wird – der spielerische Umgang mit einer ästhetisch reizvollen interaktiven Umgebung, der für die Etablierung und feste Verankerung virtueller Räume im Alltag sorgt. Ich bezeichne virtuelle Räume in dieser Arbeit als Medien, die bestimmte Inhalte, zum Beispiel Merkmale des in der Virtualität geborenen Körpers, vermitteln. Ein Überdenken des Medienbegriffes erscheint nicht nur in diesem Zusammenhang dringend erforderlich: Die Verschachtelungen und Übergänge zwischen dem Medium Computer204, dem Medium In204 Ich selbst sehe den Computer nicht als Medium, sondern als Werkzeug, ähnlich dem Fernsehapparat. Trotzdem scheint es medienwissenschaftlicher Konsens zu sein, vom „Medium Computer“ zu sprechen. 96 FAZIT ternet, virtuellen Räumen und den Medien, die wiederum die Inhalte dieser Räume darstellen können (Videos, Bilder, Audio-Dateien, aber auch andere virtuelle Räume), sind fließend und lassen sich nur unzureichend mit einem Medienbegriff, der Medien als Vermittler einordnet, vereinbaren. Bezeichnen wir den Computer, das Netz, virtuelle Räume, digitale Text-, Bild-, Video- und Audio-Formate sowie ihre analogen Pendants als Medien, erscheint mir dies als eine unnötige Verkomplizierung der Gegebenheiten. 6.1. Zur Körperlichkeit Das Kapitel zur Körperlichkeit zeigt, dass der virtuelle Raum keineswegs „blutarm“ ist. Von einer ausgedehnten Körpermetaphorik (Emoticons, Smileys, Avatare) über konkrete Einflüsse der Virtualität auf den phänomenalen Leib (Nachstellen von Spielszenen, Tätowierungen, Veräußerung des eigenen Körpers für einen virtuellen Gegenstand) bis hin zu manifesten Datenstrukturen, die ich als virtuell geborenen Körper bezeichne, sind verschiedenste Formen der virtuellen Körperlichkeit zu beobachten. Ich stelle die virtuell berührte sowie die virtuell vermittelte Körperlichkeit vor und führe den Begriff des virtuell geborenen Körpers ein. Jede dieser Formen spielt im Hinblick auf die Erfahrung virtueller Räume eine große Rolle. Während die virtuell berührte Körperlichkeit ein unmittelbares Einschreiben der Virtualität in den phänomenalen Leib bezeichnet, beschreibt die virtuell vermittelte Körperlichkeit die Verwendung von Körpermetaphorik und -symbolik, um die Erfahrungen und Körperbezüge innerhalb virtueller Räume besser ausdrücken zu können. Der virtuell geborene Körper bietet gleichzeitig eine Repräsentationsfläche und einen Handlungsspielraum, er ist das Ergebnis der in der Virtualität manifesten Datenstrukturen. Durch ihn und mit anderen virtuell geborenen Körpern kann ich kommunizieren, handeln, spielen und lernen. Der virtuell geborene Körper kann verletzt werden oder auch sterben – das Kapitel zum virtuellen Selbstmord beschreibt sowohl konkrete Einflüsse virtueller Räume auf den phänomenalen Leib als auch einen digitalen Selbstmordversuch. Weiterhin wird der virtuell-soziale Körper thematisiert. Als Analogon zur Körperschaft, die selbst ein virtuelles Konstrukt innerhalb der Realität ist, bilden sich innerhalb virtueller Räume 24/7-Kommunikationsgemeinschaften, die – wie am Beispiel des digg-Aufstands beschrieben – als eine Einheit agieren und für ein gemeinsames Ziel eintreten. Die Nutzer eines speziellen virtuellen Raumes, beispielsweise von MySpace oder Twitter, ordnen ihre Nutzerprofile, die eine der seltenen Repräsentationsflächen ihrer eigenen Identität in virtuellen Räumen bieten, der Corporate Identity der jeweiligen Gemeinschaft unter. Auch diese Form des geschlossenen Auftretens kann als virtuell-soziale Körperlichkeit angesehen werden. 6.2. Zur Authentizität Erfahrungen in virtuellen Räumen sind – wie im Prolog der vorliegenden Arbeit ersichtlich wird – oft geprägt vom Spiel mit Authentizität und Glaubwürdigkeit. Neben der konkreten körperlichen Erfahrung beim Lesen der Ankündigung eines Selbstmordes war es die Frage nach der Authentizität, die Frage danach, ob es sich nicht um eine ausgeklügelte Werbekam97 FAZIT pagne handelt, die mich zum Zeitpunkt des Lesens beschäftigt hat. Einige Tage später stellte sich glücklicherweise heraus, dass es sich bei 90DayJane um ein Kunstprojekt handelte: Das letzte Posting erschien einige Stunden, bevor das Blog aufgrund des großen Aufsehens und der Entrüstung, das es erregt hatte, komplett aus dem Netz gelöscht wurde:205 »I feel a massive sense of responsibility to my art, but more importantly the readers of this blog. My closeness to this project must have made art seem like reality to many people. That is not a reaction that I expected nor can I morally justify. This is why my project, 90DayJane, will be taken down in the next few hours. 90DayJane was meant to mirror the tragic figure, Christine Chubbuck. Newscaster Christine Chubbuck committed suicide in 1974 by shooting herself in the head live on air.« Im Kapitel über Authentizität zeige ich zunächst, dass digitalen Medien – obwohl ihnen ein großer Teil ihres Charmes und ihrer Patina durch den Prozess der Digitalisierung verloren geht – eine neue Form der Authentizität innewohnt: Es sind nicht mehr die Gebrauchsspuren, die beispielsweise auf einer Schallplatte hinterlassen werden, es ist gerade die Abwesenheit der Meta-Informationen, die die digitalen Daten authentisch machen. Sie sind durch ihre einfache Zugänglichkeit, durch ihre Vielseitigkeit, durch ihre Indexierbarkeit und – nicht zuletzt – durch die Möglichkeit, durch Prüfsummen als „Original“ zu gelten, glaubwürdiger und überprüfbarer als ihre analogen Vorgänger – digitale Daten können meiner Ansicht nach authentischer wirken als ihre analogen Pendants. Der Eindruck von Authentizität wird im virtuellen wie im phänomenalen Raum durch Inszenierungen erreicht. Künstler wie Justin Kan oder Steve Mann, aber auch Netzpersönlichkeiten wie zeFrank zeigen, dass sich Strategien der medialen Inszenierung im Netz – vor allem im virtuellen Raum „Blogosphäre“ – wie in allen anderen Medien auch etabliert haben. Ein glaubwürdiger Eindruck wird vor allem durch authentizitätsstiftende Maßnahmen erreicht, die an die „Street Credibility“ aus der HipHop-Kultur erinnern. Fragen der Authentizität und Glaubwürdigkeit stellen sich nicht nur bei Erlebnissen im virtuellen Raum und beim Auftreten von Netzpersönlichkeiten, sondern auch in Bezug auf die Inhalte kollaborativ und interaktiv erstellter Werke, etwa der Wikipedia. Ob und wann sie die gleiche Anerkennung wie auf Papier publizierte Werke erfährt, ist schwer abzuschätzen, dennoch befindet sie sich durch ihr enormes Wachstum, ihre Diversifizität, ihre Datensicherheit, ihre Nachprüfbarkeit und ihren Aufbau auf einem guten Weg dorthin. 6.3. Zur Materialität Die Interfaces sind die Fenster zu virtuellen Räumen. Der Umgang mit ihnen wird – solange sich die reine Gedankensteuerung noch nicht durchgesetzt hat – immer auf einer materiellen Ebene stattfinden.206 Knöpfe werden gedrückt, Zeilen getippt, Bildschirme angefasst, Mäuse 205 Ich konnte das Blog leider nicht vollständig konservieren, da die Löschung kurzfristig erfolgte und selbst der Google-Cache keinerlei Spuren der Aktion aufweist. 206 Der Gedanke an eine Gedankensteuerung ist nicht so abwegig, wie er klingt: Erste Interfaces, welche die Gehirnströme ihrer Nutzer verarbeiten und zur Steuerung von Computerspielen nutzen, sind bereits zur Marktreife gelangt. Vgl. Heise Online (2008, Internet): Gedankensteuerung für Computerspiele. 98 FAZIT geschubst. Dadurch werden Informationen erzeugt, verarbeitet, bewegt und abgelegt. Das Kapitel zur Materialität zeigt, dass Text und Schrift zwar einen Teil ihrer materiellen Qualität und damit viele ihrer eigentlichen Meta-Informationen eingebüßt haben, es aber gerade dieser Verlust ist, der die Chance birgt, dass Texte indexiert, durchsucht und zu neuen Zusammenhängen verknüpft werden. Der Umgang mit den Interfaces wird in dieser Arbeit als das »Anschmiegen der Gadgets« bezeichnet. Durch Touch-Screens, neue Programmiertechniken und hohe Portabilität bedingt, scheinen sich technische Geräte immer mehr zu emotional konnotierten Gegenständen zu entwickeln. Der Exkurs Turings Träume zeigt auf, inwieweit künstliche Intelligenz eine Frage der Definition und – nicht zuletzt – der Inszenierung ist. Den neuesten Gadgets wird ein „Verhalten“ einprogrammiert, welches ihren Besitzer überrascht – und es damit als glaubwürdiges Gegenüber etabliert. Zum Ende des Kapitels zur Materialität zeige ich auf, wie neue Technologien – auf Hard- und Software-Ebene dazu führen, dass Informationen griffig und dadurch begreifbar werden. 6.4. Zur Interaktivität Körperlichkeit, Authentizität und Materialität werden im letzten Kapitel der Arbeit als Anreiz zum interaktiven Handeln in virtuellen Räumen beschrieben. Ich habe mehrere Formen der interaktiven und kollaborativen Zusammenarbeit an Großprojekten vorgestellt. Am Beispiel der Public-Beta-Version, am Entwicklungsprozess sozialer Software zeigt sich, dass sich im Web 2.0 neue Formen der Software-Entwicklung durchgesetzt haben. Soziale Software befindet sich in einem kontinuierlichen Entwicklungsprozess. Zu welch beachtenswerten Ergebnissen die kollaborative Zusammenarbeit – wird sie zum Massenphänomen – innerhalb eines virtuellen Raumes in kürzester Zeit führen kann, zeige ich am Beispiel der Wikipedia. Auf die Frage, ob die Inhalte des virtuellen Nachschlagewerks vertrauenswürdig bzw. authentisch und damit zitierfähig sind, konnte keine abschließende oder zumindest zufrieden stellende Antwort gefunden werden. Die zunehmende mediale Präsenz und die Relevanz in schulischer und universitärer Lehre und Forschung der OnlineEnzyklopädie lässt sich jedoch nicht von der Hand weisen. Die Wikipedia bietet – gerade unter naturwissenschaftlichen und historischen Gesichtspunkten – extrem schnell und überall verfügbares Faktenwissen, das zudem noch hervorragend indexiert und vernetzt ist. Sie ist bisher das bedeutendste interaktive Projekt der Menschheitsgeschichte. Dass Interaktivität in virtuellen Räumen nicht zwangsläufig mit Arbeit verknüpft sein muss, zeigen die Beispiele der Arbeiten Yugo Nakamuras. Der japanische Medienkünstler programmiert ästhetisch ansprechende interaktive Installationen, welche ohne ein aktives Eingreifen mehrerer über das Netz verbundener Personen nicht existent wären. Nakamuras Museum ist der virtuelle Raum und seine Installationen werden von den Besuchern dieses Raumes vor ihren eigenen Augen und durch ihre Hände verändert. Ob Nakamuras Kunstwerk das natürlich unveränderliche Programm selbst ist oder erst dann entsteht, wenn die Besucher seiner Internetpräsenz damit arbeiten, bleibt offen. Trotzdem – lässt man folgerichtig den Produk99 FAZIT tionsvorgang außen vor – wird beim Besuch seiner Schöpfungen mindestens der Rezeptionsprozess des Kunstwerkes mit einem Veränderungsprozess verschmolzen, dem es zwingend unterworfen ist. Im Gegensatz zu den meisten anderen, in der Virtualität zu beobachtenden interaktiven Phänomenen, gewinnen Nakamuras Arbeiten nicht umso mehr an Qualität, je mehr Besucher sie aufweisen können, je zahlreicher die Veränderungen sind, die sie erfahren. Nakamuras Kunst ist – trotz der Möglichkeit der gleichzeitigen Rezeption durch Millionen von Besuchern – nicht als Massenphänomen anzusehen. 6.5. Schlussbemerkungen Dies ist nur zum Teil eine theaterwissenschaftliche Arbeit; sie bewegt sich im Feld zwischen Theater- und Medienwissenschaft. Ihr erster Anspruch war es, im Entstehen begriffene Medien (virtuelle Räume) einzuordnen und zu beschreiben sowie die Grenzen dieser Räume und ihre Schnittstellen, ihre Einbettung ins Alltagsgeschehen, zu untersuchen. Diese Einordnung erfolgte unter Zuhilfenahme theaterwissenschaftlicher Begriffe: Aspekte der Körperlichkeit, der Materialität und der Authentizität wurden im Hinblick auf die Rolle, die sie innerhalb virtueller Räume und im Umgang mit ihnen spielen, untersucht. Im zweiten Schritt führte ich den Begriff der Interaktivität als weiteres konstitutives Merkmal virtueller Räume ein und zeigte, welche Rolle die bisher untersuchten Merkmale für diese Interaktivität spielen. An dieser Stelle sollte ursprünglich ein Ausblick erfolgen, ich habe mich jedoch dagegen entschieden. Rodney Brooks hat die Gründe dafür sehr prägnant zusammengefasst: »My thesis is that in just twenty years the boundary between fantasy and reality will be rent asunder. Just five years from now that boundary will be reached in ways that are as unimaginable to most people today as daily use of the World Wide Web was ten years ago.«207 Einen Ausblick zu wagen, inwiefern die Virtualität zukünftig das Alltagsgeschehen überlagern und sogar mit ihm verschmelzen wird, wäre pure Spekulation ohne Grundlage. Dass diese Überlagerung weiterhin stattfinden wird – schlicht und ergreifend, weil es möglich ist – halte ich jedoch für eine Tatsache. Wir müssen lernen, damit klarzukommen. 207 Brooks (2002), S. 5 100 Glossar Avatar – Ein Avatar (abgeleitet aus dem Sanskrit: Avatāra umschreibt den Abstieg einer Gottheit auf die Erde) ist ein Stellvertreter einer Person im Internet. Dieser kann ein Foto, eine Grafik oder eine 3D-Figur sein. Avatare sind in Internetforen, in Online-Rollenspielen oder Virtual-Reality-Szenarien gebräuchlich. Blog – Ein Blog (Kofferwort, bestehend aus „Web“ und „Log“, also „Netz“ und „Tagebuch“ oder „Protokoll“) ist eine öffentlich einsehbare und relativ häufig aktualisierte Internetseite, bei der der neueste Artikel oben steht. Es dient – im Gegensatz zu „herkömmlichen“ Internetseiten – dem Austausch von Informationen. Dies wird meist eine eingebaute Kommentarfunktion gewährleistet, welche auch den Lesern die Möglichkeit gibt, ihre Meinung zu einem veröffentlichten Artikel zu äußern. Die Gesamtheit aller Blogs und die Strukturen, die zu ihrer Vernetzung dienen (Trackbacks, RSS-Feeds und Blog-Verzeichnisse), nennt sich Blogosphäre. Blogosphäre – Die Blogosphäre (ebenfalls ein Kofferwort, bestehend aus „Blog“ und „Atmosphäre“; weiterhin ist die Bezeichnung abgeleitet vom Begriff der „Logosphäre“, also der „Welt der Worte“) ist ein soziokulturelles Konstrukt im Internet und bildet ein gutes Beispiel für einen virtuellen Raum. Sie setzt sich aus der Gesamtheit aller Blogs und der Strukturen und Technologien, die zu deren Vernetzung dienen, zusammen. In der Blogosphäre treten – wie in jeder Gemeinschaft – verschiedene, teilweise hierarische Strukturen auf. So existieren beispielsweise so genannte A-, B- und C-Blogger. Der vorangestellte Buchstabe weist hierbei auf die Popularität einzelner Autoren hin. Ein A-Blogger hat Einfluss, er gilt als prägend für das in der Blogosphäre vorherrschende Meinungsbild, während B- und C-Blogger – analog zur B- und C-Prominenz – eine eher untergeordnete Rolle spielen. Content-Management-System (CMS) – Ein CMS (englisch etwa Inhalte-Verwaltungs-System) ist eine Software in Form eines Autorensystems, welche neben einer gleichzeitigen gemeinschaftlichen Arbeit an verschiedenen Dokumenten deren Publikation ermöglicht. Meist werden CM-Systeme eingesetzt, um es Autoren zu ermöglichen, Inhalte im WWW zur Verfügung zu stellen, ohne dafür zwingend Programmierkenntnisse oder eine spezielle Software besitzen zu müssen. CM-Systeme existieren für viele unterschiedliche Spezialanwendungen, zum Beispiel zum Publizieren von Blogs, aber auch, um beispielsweise die Internetpräsenz einer Universität zu verwalten. Emoticon / Emote-Tag – Ein Emoticon (Wortkreuzung aus „Emotion“ und „Icon“) ist entweder eine Zeichenfolge, die menschliche Gesichtszüge nachahmen soll (so steht z.B. „ :-) “ für Fröhlichkeit, „ ;-) “ für ein Augenzwinkern und „ :-P “ für eine herausgestreckte Zunge. Auch eine kleine Computergrafik, die ein gezeichnetes Smiley darstellt, wird als Emoticon bezeichnet. Ein Emote-Tag („Tag“ bedeutet „Aufkleber“ oder „Etikett“) ist ein spezieller Befehl, der in MUDs verwendet wird, um Emotionen oder Handlungen, die sich direkt auf den Avatar beziehen, auszudrücken. Gibt etwa der Spieler Chris „emote: weint bitterlich“ ein, so erscheint auf den Displays aller anderen Spieler: »Chris weint bitterlich«. Flashmob – Ein Flashmob ist ein spontan wirkender Menschenauflauf an einem öffentlichen Ort, bei dem sich die Teilnehmer meist persönlich nicht kennen. Die Verabredung zu diesen Treffen findet üblicherweise per Mobiltelefon oder per Internet statt. Flashmobs sind oft politisch motiviert. Forum (Internet-Forum) – Ein Forum ist eine Plattform, die dem Austausch von Gedanken, Meinungen und Wissen dient. Um aktiv an einem Forum teilzunehmen, ist meist ein Anmeldevorgang Voraussetzung, weswegen es als abgeschlossener virtueller Raum zu betrachten ist. Die Kommunikation innerhalb eines Forums findet asynchron statt. Die Ausrichtung eines Internet-Forums ist meist thematisch eingeschränkt, die Kommunikation findet in inhaltlich geordneten „Threads“, also Diskussionssträngen, statt. Gadget – Ein Gadget (engl. für Technikspielzeug) ist ein portables elektronisches Gerät, welches einerseits funktional, aber gleichermaßen von schönem Design geprägt ist. Eine der wichtigsten Eigenschaften eines Gadgets ist der Grenzgang zwischen Funktionalität und gleichzeitig hohem Spaßfaktor. Apples iPod ist das Musterbeispiel eines Gadgets. 101 GLOSSAR Gender swapping – Der Begriff Gender Swapping beschreibt das Wechseln des eigenen Geschlechts. In virtuellen Räumen kann sich so beispielsweise ein Mann als Frau ausgeben oder umgekehrt, vgl. Bruckman (2003). Geocaching – Geocaching (oder GPS-Schnitzeljagd) ist eine elektronische Form der Schnitzeljagd. Im Gelände werden bestimmte Objekte (so genannte Caches) versteckt. Die genaue Position dieser Objekte wird in Form von GPS-Koordinaten im Internet veröffentlicht. Jedes Objekt (meistens eine kleine, wasserdichte Kiste) ist in der Regel mit einem Logbuch versehen, in das sich ein Finder eintragen kann. Es ist üblich, in den Kisten kleine Tauschobjekte zu hinterlassen, die der nächste Finder durch ein eigenes Objekt ersetzen kann. Gruscheln – (Kofferwort: Grüßen + Kuscheln) Abgeschaut vom sog. poking, der Facebook-Variante des gruschelns, stellt die virtuelle Variante einer Mischung aus Kitzeln und Kuscheln dar, und ist eine Form der virtuell vermittelten Körperlichkeit. Internet – Das Internet ist ein weltweites Netzwerk, durch welches einzelne Computer und kleinere Netzwerke miteinander verbunden sind. In den 90er Jahren diente das Internet vorwiegend zum Austausch von Informationen. Gegründet als rein militärische Einrichtung Arpanet, welches eine ausfallsichere und deswegen dezentrale Kommunikation zwischen den militärischen Einrichtungen der USA gewährleisten sollte, entwickelte es sich vor allem dank der Arbeit von Tim Berners-Lee208 am CERN relativ zügig weiter: Nur wenige Jahre später bot es – vor allem durch den rasanten Preisverfall bei internetfähigen Personal Computern – eine erschwingliche und relativ verlässliche Kommunikationsplattform. Internet-Relay-Chat (IRC) – Der IRC ist ein 1988 entwickeltes, textbasiertes Chat-System. Um teilzunehmen, muss ein kleines Programm benutzt werden, welches sich als Client zu einem IRC-Server verbindet. Die Gespräche werden durch miteinander verbundene Servernetzwerke übermittelt. Einzelne Netzwerke können bis zu 100.000 Benutzer gleichzeitig verbinden. Long-Tail-Prinzip – Das Long-Tail-Prinzip (engl. für „langer Schwanz“) ist ein Wirtschaftsmodell, welches der US-amerikanische Journalist und Chefredakteur des Wired Magazine Chris Anderson 2004 entwickelte. Es zeigt auf, wie es möglich ist, mit dem Anbieten einer großen Anzahl von Nischenprodukten Gewinn zu machen. In Begriffen traditioneller Warenwirtschaftshaltung gedacht, ist es nicht besonders vorteilhaft, selten nachgefragte Produkte vorrätig zu haben, da diese ständig Lager- und Transport kosten verursachen. In einem Online-Kaufhaus jedoch ist es von Vorteil, Nischenprodukte anzubieten, da einerseits eine viel höhere Zahl an Kunden erreicht werden kann und andererseits selten Lagerkosten entstehen. So ist es für einen OnlineMusikhändler kein Problem, mehrere Terabyte an selten nachgefragten Musikstücken vorrätig zu haben: Selbst, wenn nur wenige davon gekauft werden, lohnt sich das Geschäft. Multi-User-Dungeon (MUD) – Ein Multi-User-Dungeon ist ein – meist textbasiertes – Rollenspiel, welches von einem Internetserver bereitgestellt wird. Die Spieler können sich, indem sie kleine Programme, so genannte MUD-Clients, benutzen, mit dem Server verbinden und dort eine Figur, ihren Avatar, steuern. Die Spielszenarien, in denen sich die Avatare bewegen und verschiedene Aufgaben, so genannte Quests, lösen, sind meist aus dem Fantasy- oder Science-Fiction-Genre entlehnt. Massively Multiplayer Online Role-Playing Game (MMORPG) – Mehrspieler-Online-Rollenspiele sind Rollenspiele, die ebenfalls auf Internetservern bereitgestellt werden können. Sie unterscheiden sich von den MUDs dadurch, dass das Spielszenario meist in Echtzeit-Grafik dargestellt wird. MySpace – MySpace ist ein äußerst bekanntes und als Internetseite realisiertes Soziales Netzwerk. Während FaceBook und OpenBC eher als beruflich orientierte soziale Netzwerke gelten, wird MySpace als Netzwerk für Freizeitgestaltung und Privates genutzt. Podcast – Kofferwort, bestehend aus iPod und Broadcasting. Podcasting beschreibt das Aussenden von Informationen an mobile Musikabspielgeräte. Podcasts sind Audio-Dateien und gleichen kurzen Radiosendungen, die sich meist mit einem spezifischen Thema auseinandersetzen. Sie werden meist im MP3-Format veröffentlicht und können von jeder gängigen Audio-Software abgespielt werden. Der Unterschied zwischen Podcasts und dem Radioprogramm besteht darin, dass der Hörer in der Wahl des Programms frei ist. Gleichermaßen ist er nicht an eine bestimmte Sendezeit gebunden, da er die Audio-Datei herunterladen kann, wann er möchte. 208 Berners-Lee entwickelte ab 1989 am European Center for Nuclear Research, früher Conseil Européen pour la Recherche Nucléaire, das World Wide Web, um einen reibungsloseren Informationsaustausch zwischen den verschiedenen Forschungsabteilungen zu erreichen. 102 GLOSSAR Podcatcher – Ein Podcast-Client, auch Podcatcher genannt, ist ein kleines Computerprogramm. Es nimmt dem Hörer viele Tätigkeiten ab, die mit der traditionellen Rezeption von Medien verbunden waren: Einmal programmiert, informiert sich der Client automatisch über neue Folgen eines Pod- oder Videocasts, lädt diese herunter und bereitet sie für den MP3-Player seines Besitzers auf. Wird der Player dann an den Computer angeschlossen, befüllt der Podcast-Client diesen mit den neu herunter geladenen Folgen, während er überprüft, welche alten – bzw. schon gehörten – Folgen vom Abspielgerät gelöscht werden können. Der Client übernimmt also nicht nur einige der traditionellen Aufgaben eines Redakteurs, sondern übermittelt auch das Kunstwerk selbst zum Rezipienten. RSS-Feed – RSS steht in der Version 2.0 für Really Simple Syndication (wirklich einfache Verbreitung) und ist ein Programmierstandard, der die Inhalte von allen Internetseiten, welche den RSS-Service anbieten, in ein streng reglementiertes Schema presst und es dadurch Benutzern ermöglicht, die Inhalte vieler Internetseiten gleichzeitig abzufragen und datenbankartig zu organisieren. Social Network – Der Begriff „Soziales Netzwerk“ beschreibt grundsätzlich eine vernetzte Gesellschaftsstruktur. In dieser Arbeit wird der Begriff synonym mit dem englischen „Social Network Service“ verwendet, der die virtuellen Repräsentationen sozialer Netzwerke umschreibt bzw. die virtuellen Werkzeuge, die der Etablierung sozialer Netzwerke dienen. Social Bookmarking – Die Marke digg hat unter den Social-Bookmarking-Diensten eine ähnliche Berühmtheit erlangt wie Procter & Gamble mit der Marke Tempo unter den Taschentuchherstellern. Wird ein Link bei digg gemeldet, erhält er einen Punkt auf einer nach oben offenen Skala. Dieser Punkt wird auch als digg bezeichnet. Kann ein bestimmter Link eine sehr hohe Anzahl von diggs aufweisen, ist er also für eine größere Menschengruppe relevant, erscheint er auf der Startseite des Dienstes, digg.com. Dadurch werden Hunderttausende von Nutzern auf ihn aufmerksam und er gewinnt schlagartig sehr viel mehr an Popularität. Dieses System funktioniert so gut, dass Internetseiten, die kurzfristige Popularität bei digg erreichen, oft innerhalb von kürzester Zeit nicht mehr erreichbar sind, da die Server, auf denen sie liegen, aufgrund des großen Besucheransturmes zusammenbrechen. Street Wars – Street Wars ist ein Spiel, welches die Spieler über den Zeitraum von drei Wochen in die Rolle eines Attentäters bzw. dessen Opfers versetzt. Ziel des Spieles ist es, das Opfer mittels eines Treffers aus einer Wasserpistole zu eliminieren. Dem Attentäter werden über das Internet persönliche Daten über das Opfer mitgeteilt, anhand derer er das Opfer identifizieren und aufsuchen kann. Üblicherweise beobachtet der Täter dann die Lebensgewohnheiten des Opfers, um einen günstigen Zeitpunkt für das Attentat zu finden. Das Besondere an Street Wars ist, dass es im alltäglichen Leben der Spieler stattfindet und sie ständig auf der Hut sein müssen. Ein Attentat kann quasi jederzeit erfolgen. Trackback – Track- bzw. Pingback nennt sich das automatische Benachrichtigen einer fremden Internetseite durch das eigene Content-Management-System, sofern man einen Artikel der anderen Seite verlinkt hat. Je nach Konfiguration des fremden Blogs erscheint nun unter dem fremden Artikel der mit einem Link zur eigenen Seite versehene Hinweis auf den eigenen Artikel – vollautomatisch. Video-Podcast – Videopodcasting beschreibt das Aussenden von Video-Dateien an mobile Videoabspielgeräte und Mobiltelefone. Genau wie Audio-Podcasts erscheinen Videocasts zu spezifischen Themengebieten oder Ereignissen und können abonniert werden. Videocasts werden meist im MPEG-4-Format zum Download angeboten. Videostream – Im Unterschied zum Video-Podcast werden beim Streaming Video-Inhalte in Echtzeit übermittelt, d.h. sie werden zur gleichen Zeit empfangen und abgespielt, zu der sie auch gesendet werden. VideoStreams stehen meist nach einem Ereignis nicht mehr zur Verfügung und sind so konzipiert, dass ein Abspeichern auf Benutzer-Seite unmöglich gemacht werden soll. World of Warcraft – über 10 Millionen Spieler tauchen regelmäßig in die Online-Welt Azeroth ein, die den Schauplatz des 2004 veröffentlichten Fantasy-Online-Mehrspieler-Rollenspieles World of Warcraft stellt. Damit ist World of Warcraft das größte MMORPG bei einem Marktanteil von über 60%. Wie auch in anderen Rollenspielen üblich, steuert ein Spieler eine durch ihn erstellte Spielfigur, um die Landschaft Azeroths zu erkunden, gegen Monster zu kämpfen, Aufgaben zu erledigen und mit anderen Spielern und so genannten NPCs, also Nicht-Spieler-Kreaturen, zu interagieren. Die Spieler sammeln Spielgeld und Erfahrungspunkte, mit denen sie die Fähigkeiten ihrer Charaktere steigern können. Web 2.0 – Web 2.0, das „Mitmachnetz“, ist ein vom O’Reilly-Verlag eingeführter Begriff, der vor allem neueste 103 GLOSSAR Entwicklungen im Internet beschreibt. Alle Internetseiten, deren Ziel es ist, die Kreativität, den Informationsaustausch, und – vor allem – die Interaktivität und Kollaboration zwischen verschiedenen Nutzern zu steigern, sind als Teil des Web 2.0 zu sehen. Dies trifft vor allem auf die Blogosphäre, auf Social Networks, auf SocialBookmarking-Dienste und auf Wikis zu. 104 Literaturverzeichnis Barck, Karlheinz / Gente, Peter (Hrsg.): Aisthesis. Wahrnehmung heute oder Perspektiven einer anderen Ästhetik, Reclam, Leipzig, 1990. Baudrillard, Jean: Kool Killer oder der Aufstand der Zeichen, Merve Verlag, Berlin, 1978. Benjamin, Walter: Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit, zweite Fassung, in: Ders., Gesammelte Schriften, Suhrkamp Verlag, Frankfurt (a.M.), 1974. Bieber, Christoph / Leggewie, Claus (Hrsg.): Interaktivität. Ein transdisziplinärer Schlüsselbegriff. Campus Verlag, Frankfurt/Main, 2004. Bolz, Norbert / Kittler, Friedrich A. / Tholen, Christoph (Hrsg.): Computer als Medium, Wilhelm Fink Verlag, München, 1994. Bourdieu, Pierre: Die feinen Unterschiede. Kritik der gesellschaftlichen Urteilskraft, Suhrkamp Verlag, Frankfurt (a.M.), 1993. Brecht, Bertolt: Radiotheorie (1927-1932) best. aus: Radio – eine vorsintflutliche Erfindung?; Vorschläge für den Intendanten des Rundfunks; Erläuterungen zum Ozeanflug; Der Rundfunk als Kommunikationsapparat; in: Ders., Gesammelte Werke 18 – Schriften zur Literatur und Kunst, Werkausgabe Edition Suhrkamp, Frankfurt (a.M.), 1967. Brooks, Rodney: Robot. The future of Flesh and Machines, Penguin Verlag, London, 2002. Euwe, Max: Schach mit dem Computer, in: Ders., Feldherrnkunst im Schach, S. 9-108, de Gruyter, Berlin, 1970. Faßler, Manfred / Halbach, Wulf R. (Hrsg.): Geschichte der Medien, W. Fink Verlag, Utb, Stuttgart, 1998. Faulstich, Werner: Einführung in die Medienwissenschaft, W. Fink Verlag, Utb, Stuttgart, 2003. Felderer, Brigitte (Hrsg.): Wunschmaschine Welterfindung. Eine Geschichte der Technikvisionen seit dem 18. Jahrhundert. SpringerWienNewYork, New York, Wien 1996. Fischer-Lichte, Erika / Gronau, Barbara / Schouten, Sabine / Weiler, Christel (Hrsg.): Wege der Wahrnehmung. Authentizität, Reflexivität und Aufmerksamkeit im zeitgenössischen Theater, Theater der Zeit (Recherchen 33), Berlin, 2006. Fischer-Lichte, Erika / Horn, Christian / Warstat, Matthias (Hrsg.): Theatralität, Band. 1: Inszenierung von Authentizität, 2. Auflage, A.Francke Verlag, Tübingen, 2007. Franck, Georg: Ökonomie der Aufmerksamkeit, Carl Hanser Verlag, München, Wien, 1998. Friebe, Holm / Lobo, Sascha: Wir nennen es Arbeit. Die digitale Bohème oder: Intelligentes Leben jenseits der Festanstellung, Heyne, München, 2006. Flusser, Vilém: Gesten – Versuch einer Phänomenologie, Bollmann Bibliothek, Düsseldorf und Bensheim, 1991. Flusser, Vilém: Medienkultur, 4. Auflage 2005, Fischer Taschenbuch Verlag, Frankfurt (a.M.), 1997. Gendolla, Peter / Schmitz, Norbert M. / Schneider, Irmela / Spangenberg, Peter M. (Hrsg.): Formen interaktiver Medienkunst. Geschichte, Tendenzen, Utopien, Suhrkamp Verlag, Frankfurt (a.M.), 2001. Glesner, Julia: Theater und Internet. Zum Verhältnis von Kultur und Technologie im Übergang zum 21. Jahrhundert, transcript Verlag, Bielefeld, 2005. Grau, Oliver: Virtuelle Kunst in Geschichte und Gegenwart. Visuelle Strategien, Reimer Verlag, Berlin, 2002. Illich, Ivan: Im Weinberg des Textes, Luchterhand Literaturverlag GmbH, Frankfurt (a.M.), 1991. Kerckhove, Derrick de: Schriftgeburten, Fink Verlag, München, 1995. Kierkegaard, Søren: Die Wiederholung, Hrsg.: Hans Rochol, Meiner Verlag, Hamburg, 2000. Kittler, Friedrich: Draculas Vermächtnis, Reclam Verlag, Leipzig, 1993. Klein, Gabriele / Friedrich, Malte: Is this real? Die Kultur des HipHop, Suhrkamp Verlag, Frankfurt (a.M.), 105 LITERATURVERZEICHNIS 2003. Ko Hoang, Youn-Ju: Vermittlung von „Visual Literacy“ durch Computeranimation im Kunstunterricht, Dissertation an der Freien Universität Berlin im Fachbereich Erziehungswissenschaften, Berlin, 2000. Krämer, Sybille (Hrsg.): Medien Computer Realität, Suhrkamp Verlag, Frankfurt (a.M.), 1998. Lehmann, Hans-Thies: Postdramatisches Theater, Verlag der Autoren, Frankfurt (a.M.), 1999. Levy, David: Love and Sex with Robots: The Evolution of Human-Robot Relationships, Harper, 2007. Liebrand, Claudia / Schneider, Irmela / Bohnenkamp, Björn / Frahm, Laura (Hrsg.): Einführung in die Medienkulturwissenschaft, Münster, LIT, 2005. Manovičh, Lev: The Language of New Media, Cambridge/MA: MIT Press, 2001. Manovičh, Lev: Black Box – White Cube, Merve Verlag, Berlin, 2005. Maresch, Rudolf / Werber, Niels (Hrsg.): Raum – Wissen – Macht, Suhrkamp Verlag, Frankfurt (a.M.), 2002. Müller, Jürgen E. (Hrsg.): Intermedialität: Formen moderner kultureller Kommunikation, Nodus Publikationen, Münster, 1996. Ott, Ralf: Klinische Psychologie und Internet. Potenziale für klinische Praxis, Intervention, Psychotherapie und Forschung, Hogrefe Verlag, Göttingen, 2003. Pratchett, Terry: Der Ganze Wahnsinn (Storys), S. 327, Piper, München, 2007. Ries, Marc / Fraueneder, Hildegard / Mairitsch, Karin (Hrsg.): dating.21 – Liebesorganisation und Verabredungskulturen, transcript Verlag, Bielefeld, 2007 Rötzer, Florian: Digitale Weltentwürfe. Streifzüge durch die Netzkultur, Carl Hanser Verlag, München / Wien, 1998. Rusch, Gebhard / Schanze, Helmut / Schwering, Gregor (Hrsg.): Theorien der Neuen Medien. Kino – Radio – Fernsehen – Computer, Wilhelm Fink Verlag, Paderborn, 2007 Stone, Alluquere Rosanne: The Ware of Desire and Technology at the Close of the Mechanical Age, Cambridge/MA: MIT Press, 1995. Turing, Alan: Intelligence Service. Schriften, hg. von Bernhard Dotzler und Friedrich Kittler, Brinkmann & Bose, Berlin, 1987. Turkle, Sherry, Leben im Netz. Identität in Zeiten des Internet (Orig. Life on the Screen. Identity in the Age of the Internet), Rowohlt Verlag GmbH, Reinbek bei Hamburg, 1998. Wardrip-Fruin, Noah / Montfort, Nick (Hrsg.): The New Media Reader, Cambridge, MA./London, 2003 Zeitschriften: Technology Review 03/2008, Heise Zeitschriften Verlag, Stuttgart. Nature, Ausgabe 438, Jim Giles: Special Report: Internet encyclopaedias go head to head, S. 900 f. Online einsehbar unter http://www.nature.com/nature/journal/v438/n7070/full/438900a.html Internet: Bruckman, Amy S.: Gender Swapping on the Internet, http://www.mith2.umd.edu/WomensStudies/Computing/Articles+ResearchPapers/gender-swapping, Maryland Institute of Technology in the Humanities, 2003 (Abgerufen: 3. März 2008) Apple: iTunes Store Tops Over Five Billion Songs Sold. Apple Renting & Selling Over 50,000 Movies Per Day, 19. Juni 2008, http://www.apple.com/pr/library/2008/06/19itunes.html (Abgerufen: 19. Juni 2008) Bundesamt für Statistik der Schweiz: Schülerinnen, Schüler und Studierende 2005/06, http://www.bfs.admin.ch/ bfs/portal/de/index/themen/15/22/publ.Document.89187.pdf (Abgerufen: 12. Mai 2008) ComStore Data Center: Sample Listing of Top Properties by Country, http://www.comscore.com/press/data.asp 106 LITERATURVERZEICHNIS (Abgerufen: 5. Juni 2008) Designboom: Yugo Nakamura, http://www.designboom.com/portrait/flash.html (Abgerufen: 11. Juni 2008) Deutscher Akademischer Austausch Dienst: Studieren und Forschen in Deutschland. Tabelle 1: Hochschulen und Studierende in Deutschland 2005/2006, http://www.daad.de/deutschland/hochschulen/ hochschultypen/05949.de.html (Abgerufen: 12. Mai 2008) Deutscher Bundestag, 16. Wahlperiode, Gesetzentwurf der Bundesregierung: Entwurf eines Gesetzes zur Verbesserung der Durchsetzung von Rechten des geistigen Eigentums, Drucksache 16/5048, 20. 04. 2007, http:// dip21.bundestag.de/dip21/btd/16/050/1605048.pdf (Abgerufen: 30. April 2008) Flickr: Help: General Flickr Questions, http://flickr.com/help/general/#167 (Abgerufen: 26. Mai 2008) Jobs, Steve: Eröffnungsrede der Macworld San Francisco 2007, http://phobos.apple.com/WebObjects/MZStore. woa/wa/viewPodcast?i=13433123&id=212293773 (iTunes erforderlich, Abgerufen: 26. Mai 2008) Golem.de: (Klaß & Ihlenfeld Verlag GmbH): Weltweite Klagewelle gegen Tauschbörsennutzer, 4. April 2006, http://www.golem.de/0604/44452.html (Abgerufen: 12. Juni 2008) Heise Online: (Hrsg: Christian Heise, Ansgar Heise, Christian Persson), Fliegender Untersatz für Hinterntattoo, 12. Januar 2008, http://www.heise.de/newsticker/Fliegender-Untersatz-fuer-Hinterntattoo--/ meldung/101695 (Abgerufen: 14. Mai 2008) Heise Online: (Hrsg: Christian Heise, Ansgar Heise, Christian Persson), Gedankensteuerung für Computerspiele, 6. März 2008, http://www.heise.de/newsticker/Gedankensteuerung-fuer-Computerspiele--/ meldung/104618 (Abgerufen: 10. Juni 2008) Heise Online: (Hrsg: Christian Heise, Ansgar Heise, Christian Persson), Harvard-Studie erkennt klar positive Eigenschaften bei Videospielen, 4. Mai 2008, http://www.heise.de/newsticker/Harvard-Studie-erkennt-klarpositive-Eigenschaften-bei-Videospielen--/meldung/107360 (Abgerufen: 15. Mai 2008) Heise Online: (Hrsg: Christian Heise, Ansgar Heise, Christian Persson), Musikindustrie will Wegwerfen von CDs verbieten, 14. April 2008, http://www.heise.de/newsticker/Musikindustrie-will-Wegwerfen-von-CDs-verbieten--/meldung/106423 (Abgerufen: 30. April 2008) Invisionpower Forum: An EPIC Mount..., 13. April 2007, http://forums.invisionpower.com/index. php?showtopic=234053 (Abgerufen: 14. Mai 2008) Müller, Jörg: Virtuelle Körper. Aspekte sozialer Körperlichkeit im Cyberspace, WZB Discussion Paper FS II 96-105, Wissenschaftszentrum Berlin, 1996, http://duplox.wzb.eu/texte/koerper/ (Abgerufen: 30. April 2008) Museum of Modern Betas: Museum of Modern Betas (MoMB), http://momb.socio-kybernetics.net/ (Abgerufen: 26. Mai 2008) Naone, Erika: Ein Avatar für viele 3D-Welten, 1. Mai 2008, http://www.heise.de/tr/Ein-Avatar-fuer-viele-3DWelten--/artikel/106739 (Abgerufen: 1. Mai 2008) Poe, Edgar Allan: Maelzel‘s Chess-Player, ersch. in: Southern Literary Messenger, April 1836, einzusehen unter: http://www.eapoe.org/works/ESSAYS/MAELZEL.HTM (Abgerufen: 29. Mai 2008) Projektgruppe „Kulturraum Internet“ am Wissenschaftszentrum Berlin für Sozialforschung: Internet... the Final Frontier: eine Ethnographie, http://duplox.wzb.eu/endbericht/index.html (Abgerufen: 20. Mai 2008) Reisinger, Christian: Interview: Stefan Weber über Plagiate, Internet, und Nestbeschmutzer, 11. Juni 2006, http:// www.die-eule.at/article.php?story=20060611135748757 (Abgerufen: 30. April 2008) Rose, Kevin: Digg This: 09-f9-11-02-9d-74-e3-5b-d8-41-56-c5-63-56-88-c0, 1. Mai 2007, http://blog.digg. com/?p=74 (Abgerufen: 3. Juni 2008) Sandbothe, Mike: Pragmatische Medienphilosophie und das Internet, 11. November 1998, http://userpage.fuberlin.de/~sybkram/medium/sandbothe.html#sternh (Abgerufen: 30. Mai 2008) Schroer, Joachim / Hertel, Guido (Universität Würzburg): Voluntary Engagement in an Open Web-based Encyclopedia: Wikipedians, and Why They Do It, 3. Dezember 2007, http://www.abo.psychologie.uni-wuerzburg. de/virtualcollaboration/publications.php?action=view&id=44 (Abgerufen: 6. Juni 2008) Schwenzel, Felix: ix höre auf zu bloggen, 29. Juni 2006, http://wirres.net/article/articleview/3759/1/6 (Abgerufen: 18. Juni 2008) Schwenzel, Felix: 10 gegenthesen zu 10 thesen zur digtalen zukunft, 1. Juni 2008, http://wirres.net/article/ articleview/4889/1/6 (Abgerufen: 3. Juni 2008) 107 LITERATURVERZEICHNIS Spiegel Online: Tod durch Onlinespiel?, 21. November 2005, http://www.spiegel.de/netzwelt/ web/0,1518,386118,00.html (Abgerufen: 6. Mai 2008) Spiegel Online: Abschied von StudiVZ und XING: Mein digitaler Selbstmord, 3. Februar 2008, http://www.spiegel.de/unispiegel/wunderbar/0,1518,532070,00.html (Abgerufen: 10. Mai 2008) Spiegel Online: StudiVZ-Datenschutz: Studenten demonstrieren gegen das SchnüffelVZ, 18. Dezember 2007, http://www.spiegel.de/netzwelt/web/0,1518,523906,00.html (Abgerufen: 10. Mai 2008) Spreeblick: When Jane became insane, 12. Februar 2008, lttp://www.spreeblick.com/2008/02/12/when-janebecame-insane/ (Abgerufen: 13. Juni 2008) Statistik Austria: Hochschulstatistik: Studierende in Österreich 2004/05 - 2006/07, 27.8.2007, http://www.statistik.at/web_de/static/ergebnisse_im_ueberblick_021630.pdf (Abgerufen: 12. Mai 2008) Stern: Wikipedia schlägt Brockhaus, 5. Dezember 2007, http://www.stern.de/computer-technik/internet/604423. html?nv=sml (Abgerufen: 5. Juni 2008) StudiVZ: Neues aus dem Maschinenraum, 30. Januar 2008, http://www.studivz.net/Newsroom/ Detail/18551b101d553f7c/backPg/2 (Abgerufen: 30. April 2008) Wallace, Richard S.: From Eliza to A.L.I.C.E., http://www.alicebot.org/articles/wallace/eliza.html (Abgerufen: 19. Juni 2008) Weber, Stefan: Plagiatsfahndung an der Uni Salzburg: Elf von 13 Diplomarbeiten unsauber, APA-OTS Originaltext-Service GmbH, 2. Juni 2006, http://www.ots.at/presseaussendung.php?schluessel=OTS_20060602_ OTS0226&ch=technologie (Abgerufen: 30. April 2008) Wenz, Katrin: Computerspiele: Hybride Formen zwischen Spiel und Erzählung, 2001, http://www.netzliteratur. net/wenz/wenz_computerspiele.htm (Abgerufen: 30. April 2008) Wikimedia Foundation: Wikimedia servers, 20. Februar 2008, http://meta.wikimedia.org/wiki/Wikimedia_servers (Abgerufen: 7. Juni 2008) Wikipedia: Artikel AACS encryption key controversy. In: Wikipedia, The Free Encyclopedia. Bearbeitungsstand: 17. Mai 2008, 00:37 UTC. URL: http://de.wikipedia.org/w/index.php?title=Aibo&oldid=42800963 (Abgerufen: 3. Juni 2008, 00:57 UTC) Artikel Alan Turing. In: Wikipedia, The Free Encyclopedia. Bearbeitungsstand: 18. Juni 2008, 11:11 UTC. URL: http://en.wikipedia.org/w/index.php?title=Alan_Turing&oldid=220120346 (Abgerufen: 19. Juni 2008, 12:36 UTC) Artikel Aibo. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 21. Februar 2008, 11:10 UTC. URL: http://de.wikipedia.org/w/index.php?title=Aibo&oldid=42800963 (Abgerufen: 3. März 2008, 23:36 UTC) Artikel Arctic Monkeys. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 2. Juni 2008, 10:19 UTC. URL: http://de.wikipedia.org/w/index.php?title=Arctic_Monkeys&oldid=46787588 (Abgerufen: 2. Juni 2008, 13:49 UTC) Artikel Assassin (Game). In: Wikipedia, The Free Encyclopedia. Bearbeitungsstand: 2. Mai 2008, 19:47 UTC. URL: http://en.wikipedia.org/w/index.php?title=Assassin_%28game%29&oldid=209761778 (Abgerufen: 4. Mai 2008, 12:52 UTC) Artikel Automat. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 27. März 2008, 09:24 UTC. URL: http://de.wikipedia.org/w/index.php?title=Automat&oldid=44200603 (Abgerufen: 9. April 2008, 12:44 UTC) Artikel Avatar (Internet). In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 29. April 2008, 19:14 UTC. URL: http://de.wikipedia.org/w/index.php?title=Avatar_%28Internet%29&oldid=45459552 (Abgerufen: 30. April 2008, 15:13 UTC) Artikel Blogosphäre. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 23. Februar 2008, 19:55 UTC. URL: http://de.wikipedia.org/w/index.php?title=Blogosph%C3%A4re&oldid=42902416 (Abgerufen: 25. April 2008, 12:32 UTC) Artikel Creative Commons. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 7. April 2008, 09:08 108 LITERATURVERZEICHNIS UTC. URL: http://de.wikipedia.org/w/index.php?title=Creative_Commons&oldid=44617187 (Abgerufen: 9. April 2008, 15:52 UTC) Artikel Content-Management-System. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 7. April 2008, 14:47 UTC. URL: http://de.wikipedia.org/w/index.php?title=Content-ManagementSystem&oldid=44630322 (Abgerufen: 25. April 2008, 12:33 UTC) Artikel Eliza. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 29. August 2007, 21:22 UTC. URL: http://de.wikipedia.org/w/index.php?title=Eliza&oldid=36113891 (Abgerufen: 3. März 2008, 23:36 UTC) Artikel Encyclopædia Britannica. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 19. Mai 2008, 19:33 UTC. URL: http://de.wikipedia.org/w/index.php?title=Encyclop%C3%A6dia_ Britannica&oldid=46249799 (Abgerufen: 5. Juni 2008, 13:49 UTC) Artikel Flashmob. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 28. April 2008, 13:49 UTC. URL: http://de.wikipedia.org/w/index.php?title=Flashmob&oldid=45405755 (Abgerufen: 2. Mai 2008, 08:08 UTC) Artikel Gadget. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 30. März 2008, 08:03 UTC. URL: http://de.wikipedia.org/w/index.php?title=Gadget&oldid=44315036 (Abgerufen: 25. April 2008, 12:22 UTC) Artikel GNU General Public License. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 28. März 2008, 02:06 UTC. URL: http://de.wikipedia.org/w/index.php?title=GNU_General_Public_ License&oldid=44235438 (Abgerufen: 10. April 2008, 11:45 UTC) Artikel Internet. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 10. Juni 2008, 11:22 UTC. URL: http://de.wikipedia.org/w/index.php?title=Internet&oldid=47088118 (Abgerufen: 11. Juni 2008, 16:16 UTC) Artikel Internetforum. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 19. Mai 2008, 00:32 UTC. URL: http://de.wikipedia.org/w/index.php?title=Internetforum&oldid=46216592 (Abgerufen: 11. Juni 2008, 15:02 UTC) Artikel Lifecasting. In: Wikipedia, The Free Encyclopedia. Bearbeitungsstand: 20. Januar 2008, 16:57 UTC. URL: http://en.wikipedia.org/w/index.php?title=Lifecasting&oldid=185667325 (Abgerufen: 17. April 2008, 09:41 UTC) Artikel Long Tail. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 19. März 2008, 17:59 UTC. URL: http://de.wikipedia.org/w/index.php?title=Long_Tail&oldid=43899387 (Abgerufen: 25. April 2008, 12:45 UTC) Artikel Massively Multiplayer Online Role-Playing Game. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 25. April 2008, 21:48 UTC. URL: http://de.wikipedia.org/w/index.php?title=Massively_Multiplayer_Online_Role-Playing_Game&oldid=45316479 (Abgerufen: 30. April 2008, 15:12 UTC) Artikel Medium. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 29. Mai 2008, 05:24 UTC. URL: http://de.wikipedia.org/w/index.php?title=Medium&oldid=46626622 (Abgerufen: 5. Juni 2008, 15:32 UTC) Artikel Medientheorie. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 16. März 2008, 17:17 UTC. URL: http://de.wikipedia.org/w/index.php?title=Medientheorie&oldid=43776440 (Abgerufen: 18. Mai 2008, 16:55 UTC) Artikel Multi User Dungeon. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 3. April 2008, 15:49 UTC. URL: http://de.wikipedia.org/w/index.php?title=Multi_User_Dungeon&oldid=44482951 (Abgerufen: 30. April 2008, 15:11 UTC) Artikel MySpace. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 11. Juni 2008, 12:46 UTC. URL: http://de.wikipedia.org/w/index.php?title=MySpace&oldid=47127459 (Abgerufen: 11. Juni 2008, 16:27 UTC) Artikel Podcasting. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 23. April 2008, 18:58 UTC. URL: http://de.wikipedia.org/w/index.php?title=Podcasting&oldid=45231950 (Abgerufen: 25. April 2008, 12:49 UTC) Artikel RSS. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 23. April 2008, 11:36 UTC. URL: http://de.wikipedia.org/w/index.php?title=RSS&oldid=45213735 (Abgerufen: 25. April 2008, 12:50 109 LITERATURVERZEICHNIS UTC) Artikel Social Bookmarks. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 9. April 2008, 20:36 UTC. URL: http://de.wikipedia.org/w/index.php?title=Social_Bookmarks&oldid=44719631 (Abgerufen: 25. April 2008, 12:47 UTC) Artikel Soziales Netzwerk. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 25. April 2008, 11:56 UTC. URL: http://de.wikipedia.org/w/index.php?title=Soziales_Netzwerk&oldid=45293999 (Abgerufen: 25. April 2008, 12:46 UTC) Artikel Social Network Service. In: Wikipedia, The Free Encyclopedia. Bearbeitungsstand: 11. Juni 2008, 12:09 UTC. URL: http://en.wikipedia.org/w/index.php?title=Social_network_service&oldid=218611029 (Abgerufen: 11. Juni 2008, 16:31 UTC) Artikel Steve Mann. In: Wikipedia, The Free Encyclopedia. Bearbeitungsstand: 31. Januar 2008, 23:02 UTC. URL: http://en.wikipedia.org/w/index.php?title=Steve_Mann&oldid=188257040 (Abgerufen: 17. April 2008, 09:44 UTC) Artikel StudiVZ. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 1. April 2008, 23:41 UTC. URL: http://de.wikipedia.org/w/index.php?title=StudiVZ&oldid=44421046 (Abgerufen: 8. April 2008, 15:27 UTC) Artikel Streaming Media. In: Wikipedia, The Free Encyclopedia. Bearbeitungsstand: 15. Juni 2008, 06:18 UTC. URL: http://en.wikipedia.org/w/index.php?title=Streaming_media&oldid=219439077 (Abgerufen: 16. Juni 2008, 21:07 UTC) Artikel Trackback. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 7. April 2008, 10:13 UTC. URL: http://de.wikipedia.org/w/index.php?title=Trackback&oldid=44619876 (Abgerufen: 25. April 2008, 12:48 UTC) Artikel Virtuelle Realität. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 13. Dezember 2007, 10:41 UTC. URL: http://de.wikipedia.org/w/index.php?title=Virtuelle_Realit%C3%A4t&oldid=40012613 (Abgerufen: 4. Februar 2008, 16:07 UTC) Artikel Web 2.0. In: Wikipedia, The Free Encyclopedia. Bearbeitungsstand: 16. Juni 2008, 06:49 UTC. URL: http://en.wikipedia.org/w/index.php?title=Web_2.0&oldid=219649806 (Abgerufen: 16. Juni 2008, 21:29 UTC) Artikel Wikipedia. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 3. Juni 2008, 20:58 UTC. URL: http://de.wikipedia.org/w/index.php?title=Wikipedia&oldid=46851980 (Abgerufen: 5. Juni 2008, 13:48 UTC) Artikel Wikipedia:Größenvergleich. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 6. Juni 2008, 20:58 UTC. URL: http://de.wikipedia.org/w/index.php?title=Wikipedia:Größenvergleich&oldid=4695 6283 (Abgerufen: 10. Juni 2008, 10:57 UTC) Artikel World of Warcraft. In: Wikipedia, The Free Encyclopedia. Bearbeitungsstand: 15. Juni 2008, 13:48 UTC. URL: http://en.wikipedia.org/w/index.php?title=World_of_Warcraft&oldid=219488498 (Abgerufen: 16. Juni 2008, 21:16 UTC) 110 Abbildungsverzeichnis Titelseite: Haus Rucker und Co.: Rahmenbau, anlässlich der Documenta 6, fotografiert von Wolfgang Staudt am 25. September 2007, veröffentlicht unter einer Creative-Commons-Lizenz (Namensnennung 2.0 USamerikanisch). Abbildung 1: Tron / Disney 1982 (Standbild). Abbildung 2: Alive (Artificial Life Interactive Video Environment), Patti Mae Installation. Abbildung 3: Szenen aus World of Warcraft (links) und Second Life (rechts). Abbildung 4: Free speech flag, John Marcotte, veröffentlicht als Public Domain, Quelle: http://www.badmouth. net/content/uploads/2007/05/free-speech-flag.png. Abbildung 5: Ein Produkt des Scribblers, Screenshot von zefrank.com. Abbildung 6: digg.com während des AACS-Vorfalles, Screenshot. Abbildung 7: The horseman meets the oarsman, Red Labor, 2008, http://www.redlabor.com/index.php. Abbildung 8: Web 2.0-Logos: Uniform?, Bearbeitung einer Grafik Ludwig Glatzkes – http://flickr.com/stabiloboss/ , veröffentlicht unter Creative Commons Share-Alike 2.0. Abbildung 9: Justin.tv, Screenshot. Abbildung 10: Steve Mann, wearable computer und reality mediator (vlnr: 1980, Mitte der Achtziger, Anfang der Neunziger, Mitte der Neunziger, Ende der Neunziger Jahre). Abbildung 12: Kempelens Schachautomat, Wikimedia Commons, URL: http://upload.wikimedia.org/wikipedia/commons/8/8b/Tuerkischer_schachspieler_windisch4.jpg. Abbildung 11: Sony Rolly, gizmodo.com, URL: http://gizmodo.com/gadgets/sony/sony-rolly-on-sale-in-japansept-29th-comes-with-annoying-video-297996.php. Abbildung 13: Sony Aibo, Screenshot sony.com. Abbildung 14: Virtual Screen in Minority Report, Still Image. Abbildung 15: Jeff Han / Multitouch Display, Screenshot. Abbildung 16: Yugo Nakamura – Standbild aus Industrious Clock (2001), Screenshot. Abbildung 17: Yugo Nakamura – Standbild aus Fingertracks: Studiy-E1 (2001), Screenshot. Abbildung 18: Yugo Nakamura – Standbild aus Rigid_Body 02 (2001), Screenshot. Rückumschlag: Der Fließtext dieser Arbeit, analysiert und bearbeitet durch die Internet-Seite Wordle, http:// www.wordle.net. 111 ERKLÄRUNG Ich erkläre, dass ich die Arbeit selbständig verfasst habe und keine anderen als die angegebenen Quellen und Hilfsmittel verwendet habe. Ich bin damit einverstanden, dass die Magisterarbeit in der Bibliothek eingesehen werden kann. Datum Unterschrift 112