virtuelle räume haben fenster - Have you tried turning it off and on

Transcrição

virtuelle räume haben fenster - Have you tried turning it off and on
Freie Universität Berlin
FB Philosophie und Geisteswissenschaften
Institut für Theaterwissenschaft
VIRTUELLE RÄUME HABEN FENSTER
Untersuchungen an den Schnittstellen zwischen Virtualität und Alltagserfahrungen
Magisterarbeit
zur Erlangung des akademischen Grades
Magister Artium (M.A.)
im Fach Theaterwissenschaft
eingereicht von
Armin Hempel
geb. am 12.06.1980 in Kassel
Erstgutachterin: Prof. Dr. Doris Kolesch
Zweitgutachter: PD Dr. Matthias Warstat
Berlin, den 27. Juni 2008
Im Grunde genommen sind wir elektronische Affen. Wir erwachen in dieser elektronischen Morgendämmerung, und dort, vor dem heller werdenden Himmel, ragt dieses große schwarze Rechteck auf. Und wir strecken
die Hand aus und berühren es und fragen: »Ist es WAP-fähig? Können wir Sex damit haben? Kann man es in
einer anderen Farbe bekommen? Wird es billig angeboten, weil nächsten Monat der Monolith 2 mit eingebautem PDA für den gleichen Preis herauskommt? Können wir Sex damit haben? Sieh nur, hier steht ›Viel Geld im
Monat verdienen, ohne etwas dafür zu tun‹! Meine Güte, können wir es benutzen, um Schweinen damit eins
auf die Rübe zu geben? He, können wir Sex damit haben?«
Und wie Affen, die zum ersten Mal Stöcke, Steine und Feuer ausprobieren, hauen wir uns auf die Füße, lassen
versehentlich Steine auf die Kinder fallen, bekommen akute Probleme damit, Sex mit dem Feuer zu haben, und
so weiter. Wir müssen lernen, damit klarzukommen.
Terry Pratchett
Inhalt
Prolog
5
1.
Einleitung – Der blutarme digitale Raum
7
1.1.
Was sind virtuelle Räume?
10
1.2.
Zum Aufbau der Arbeit
11
1.3.
Zum aktuellen Forschungsstand
15
2.
Körperlichkeit
18
2.1. Drei Formen virtueller Körperlichkeit
18
2.2. Merkmale der Körpersprache und Körperlichkeit im virtuellen Raum
20
2.2.1. Abschaffung / Ausgrenzung des Leibes?
22
2.2.2. Die Organe des in der Virtualität geborenen Körpers
23
2.2.3.
Repräsentationsflächen - Das Äußere der in der Virtualität geborenen Körper
25
2.2.4. Zurück zur Körpersprache
25
2.3. Voyeuristisch, gar masochistisch? Zur bewussten Aufgabe der Privatsphäre
26
2.4. Handeln, Erinnern, Lernen, Spielen
28
2.5. Der virtuell-soziale Körper – 24/7-Kommunikationsgemeinschaften
30
2.6. Interfaces – Verbindungsstellen zwischen Virtualität und biologischem Körper
32
2.7. Digitales Sterben und Not-So-Tiny-Sex
33
2.8. Auf der Suche nach Aufmerksamkeit
35
3.
Authentizität
37
3.1. Urheberrecht und Creative Commons – Fesseln oder Flügel einer neuen Welle der Kreativität?
39
3.2.
Automatische Kreativität?
41
3.3.
last.fm – Authentisch, weil omnipräsent?
42
3.4.
Von der Echtheit der Kopie
45
3.5.
Die Ökonomie der Aufmerksamkeit
47
3.5.1. Vom Radio zum Web 2.0 – Brechts Radiotheorie und das Internet
49
3.5.2.
Informationelle Massenbestäubung
52
3.5.3.
Zur medialen Inszenierung von Authentizität
53
3.5.3.1.
Das Netz vergisst (fast) nichts
54
3.5.3.2.
Eine Ästhetik der Aufmerksamkeit
56
3.5.3.3.
Nicht, wer am lautesten schreit…
58
3.6.
Echt ist, was ich sehen kann.
58
3.7.
Echt ist, was ich anfassen kann.
62
4.
Materialität
63
4.1.
Von der Materialität des Netzes
64
4.2.
Ritzen, Kratzen, Stechen – Haptik und Prozessualität des Schreibens
65
4.3.
Tippen, Kopieren, Einfügen und Löschen – die schleichende Abkehr von der emotionalen Schreiberfahrung
65
4.4.
Die Rückkehr des Drückens: Vom Anschmiegen der Gadgets 71
4.5.
Exkurs – Turings Träume: Von ELIZA zu Rolly
73
4.5.1.
Der Stellenwert des Schachspiels
73
4.5.2.
Schauspielqualitäten als Maß der Intelligenz? 74
4.5.3.
ELIZA – Das berühmteste „intelligente“ Programm der Welt 75
4.5.4.
Love the machines! – Von der Projektion zur emotionalen Bindung zwischen Mensch und Maschine
76
4.6.
Von der Maus zu Minority Report – Die haptische Revolution im Umgang mit visuellen Medien
80
5.
Interaktivität
84
5.1.
Die kollektive Geburt sozialer Software
85
5.2. Interaktive Massenphänomene
87
5.3. Interaktivität, Intuition und Zugänglichkeit
91
5.4.
Interaktive Omnipräsenz – Location-Based-Services
92
5.5. Ästhetik und Interaktivität – Yugo Nakamura 93
6.
Fazit
96
6.1.
Zur Körperlichkeit
97
6.2. Zur Authentizität
98
6.3. Zur Materialität
98
6.4.
Zur Interaktivität
99
6.5. Schlussbemerkungen
100
I
Glossar
101
II
Literaturverzeichnis
105
III
Abbildungsverzeichnis
111
IV
Erklärung
112
Prolog
Es ist ein ganz normaler Morgen im Februar. Ich trinke einen Milchkaffee und überfliege
mit erlahmendem Interesse die über Nacht herein gekommenen Mails, ich sortiere Spam
aus und wühle mich durch RSS-Feeds und die aktuellen Nachrichten. Danach besuche ich
Spreeblick und stolpere schnell über die Überschrift When Jane became insane1 und halte kurz
inne. Spreeblick-Autor René fragt sich in diesem lakonischen Posting, ob es ethisch vertretbar sei, die Planung des eigenen Selbstmordes in einem anonymen Blog zu veröffentlichen.
Das zieht meine Aufmerksamkeit auf sich und ich folge dem Link zur Webseite 90dayjane.
blogspot.com.
Auf den ersten Blick ein ganz normales Blog, schwarzer Hintergrund, weiße und violette
Schrift. Die einzelnen Postings sind mit einer Art Countdown versehen, vor jeder Überschrift
ist eine bestimmte Anzahl von Tagen vermerkt: Day 86: Dress – Day 85: Stop This? – Day 84:
A Date. Für ein relativ junges Blog mit nur einigen wenigen Beiträgen von einer völlig anonymen Autorin sind erstaunlich viele Leserkommentare vorhanden, den Beitrag Day 84 – A
Date haben beispielsweise 684 Leser kommentiert. Rechts neben den Postings, in der Sidebar, befindet sich ein kleines Foto der Autorin, gefolgt von einem kurzen Text, der mit About
Me überschrieben ist. Was ich nun lese, lässt mir einen Schauer über den Rücken laufen:
»I am going to kill myself in 90 days. What else should i say? This blog is not a cry for help or
even to get attention. It’s simply a public record of my last 90 days in existence. I’m not depressed and nothing extremely horrible has lead me to this decision. But, does it really have to?
I mean, as an atheist I feel life has no greater purpose. My generation has had no great depression, no great war and our biggest obstacle is beating Halo 3. So, if I feel like saying ‚game over‘,
why can’t I? Anyway, I hope you enjoy my thoughts as the clock runs out. Also, if blogspot
takes this down before i‘m gone just go to www.90dayjane.com. Please don’t attempt to ‚help‘
me. If you want to truly help, please send me ideas on how to do the deed. thx-Jane«
Kann das wahr sein? Kündigt dort wirklich die bis auf ihren Vornamen selbstverständlich
anonyme Jane ihren eigenen Selbstmord an und bittet ihre Leserschaft um Hinweise, was
geeignete Methoden, den perfekten Zeitpunkt, die passende Kleidung und den richtigen Ort
für dieses Vorhaben angeht? Oder handelt es sich nur um eine ausgeklügelte Werbestrategie,
so genanntes Grassroot- oder Guerilla-Marketing, welches die Aufmerksamkeit der Internetgemeinde auf ein spezielles Produkt lenken soll? Die zweite Erklärung erscheint mir plausibler, denn normalerweise sind es immer die Werber oder die Sex-Industrie, welche ein neues
Medium sehr früh zu ihren Gunsten zu nutzen wissen. Nur, um welches Produkt sollte es
sich dabei handeln? Vielleicht eine Kampagne für die Sterbehilfe? Das Bestatterblog, in welchem ein Angestellter eines Bestattungsunternehmens über die Skurrilitäten seines Alltages
berichtet, ist in der deutschsprachigen Blogosphäre mittlerweile äußerst bekannt, handelt es
sich bei 90DayJane möglicherweise um etwas Vergleichbares?
1
Spreeblick (2008, Internet): When Jane became insane.
5
PROLOG
Ich lese weiter. Die spärliche Ausstattung mit dafür um so aussagekräftigeren Bildern2 lässt
die skurrile Ankündigung nur noch authentischer wirken. Handelte es sich um ein Fake, so
denke ich mir, inszeniert durch eine Agentur mit kommerziellen Hintergedanken, wäre das
Blog mit Sicherheit reichhaltig bebildert. Oder gehört auch das zur Strategie? Immer verunsicherter tauche ich weiter ein und klicke mich durch das Blog; ich lese es – der aktuelle
Beitrag ist Tag 83, also Nummer acht – komplett durch. Zwischendurch frage ich mich, ob
ich herausfinden könnte, wer die Autorin wirklich ist, welche Gründe sie hat, aus dem Leben
treten zu wollen – denn darüber lässt sie mich völlig im Unklaren. Ob ich ihr irgendwie helfen kann, ob ich sie durch geschicktes Kommentieren von ihrem Vorhaben abbringen könnte, das sind die Fragen, die mich umtreiben. Ich empfinde Mitleid und bin um ihr Leben
besorgt. Je weiter ich lese, desto mehr schaudert es mich; nach einer ergebnislosen Recherche
nach ihrem Namen und der Lektüre einiger haltloser Spekulationen über ihre wahre Identität
gebe ich auf und wende mich tief bewegt dem Alltagsgeschäft zu.
Dieses Alltagsgeschäft besteht momentan darin, eine Arbeit über verschiedene Merkmale
eines noch nicht näher definierten virtuellen Raumes zu schreiben. Nach einigen Minuten
der Auseinandersetzung mit der Definition dieser Virtualität überkommt mich der Gedanke,
dass ich gerade ein perfektes Beispiel für eine intensive mentale und körperliche Erfahrung,
in genau diesem virtuellen Raum, mit dem ich mich auseinandersetzen möchte, erlebt habe.
Zudem bewegte mich das geradezu virtuose Spiel der Autorin mit einem Eindruck von Authentizität. Ich habe dieser Frau abgenommen, dass sie sich wirklich umbringen will und ich
habe ihr Gefühle entgegen gebracht, die in einer virtuellen Umgebung nicht selbstverständlich sind: Mitleid, Angst und Traurigkeit haben mich genauso beschäftigt wie Hilfsbereitschaft und Sorge.
2
Beispielsweise zeigte ein Foto zwei deutlich weibliche und zum Betrachter gekehrte Hände, deren Handgelenke mit einer Tätowierung versehen sind: Vergleichbar mit dem Schnittmuster einer Kostümbildnerin
wird hier symbolhaft die Anweisung vermittelt, an welcher Stelle die Pulsadern zu durchtrennen sind.
6
ERSTES Kapitel / Einleitung
Der blutarme digitale Raum
»Die technische Neu- und Rekonstruktion der Welt schafft eine zweite Natur, in der wir uns
bewegen, eine zweite Natur, die sich ständig ändert und dabei mehr und mehr artifiziell wird.
(…) Der Streit um das Begriffspaar Natürlich/Künstlich ist damit immer schon ein Streit um
die aktuellen und künftigen technischen Vermittlungen der Wahrnehmung – also um die historische Form von Produktion und Medien.«3
Das Begriffspaar Natürlich/Künstlich kann analog zum Paar Real/Virtuell aufgefasst werden.
Wenn die Worte Realität und Virtualität in einem Satz zusammengebracht werden, wenn
es um Schnittstellen zwischen Realität und Virtualität geht, so drängt sich sofort der Begriff
der virtuellen Realität auf. Was ist eigentlich diese virtuelle Realität, und – sofern sie existiert
– gibt es ein entsprechendes Pendant in Form einer realen Virtualität? Ist Virtual Reality4
nur ein überstrapaziertes Schlagwort der 90er-Jahre, welches mittlerweile in den allgemeinen
Sprachgebrauch übergegangen ist?
Per definitionem handelt es sich bei VR-Szenarien um die Darstellung und gleichzeitige
Wahrnehmung der Wirklichkeit und ihrer physikalischen Eigenschaften in einer in Echtzeit computergenerierten, interaktiven virtuellen Umgebung.5 Ihre Vorläufer findet VR im
Panorama des 18. Jahrhunderts: Robert Barker patentierte im Juni 1787 ein Verfahren, das
es ermöglichte, eine im Vollrund angebrachte Leinwand perspektivisch korrekt zu bemalen.
Steht man auf einer Plattform in einem derart ausstaffierten Raum, ermöglicht diese Technik
einen natürlich wirkenden Eindruck des Gemäldes. Der Unterschied zur virtuellen Realität
besteht darin, dass es bei Barkers Verfahren unmöglich ist, sich innerhalb der Szenerie zu
bewegen.6 In VR-Szenarien wird die Perspektive der bildlichen Ebene immer aufs Neue dem
Standpunkt des Betrachters angeglichen und berechnet, so dass ein realitätsnäheres Eintauchen in die Virtualität möglich wird. VR-Szenarien sind ein Phantasma der neunziger Jahre,
welches bis heute nur im fiktionalen Rahmen erreicht wird, etwa in der Matrix-Trilogie oder
in der Star-Trek-Saga.
In diesen High-Tech-Epen vermitteln hochentwickelte Computersysteme eine perfekte Sinnestäuschung, sei es unter Zuhilfenahme eines direkten Zuganges zum Zentralnervensystem
in Matrix oder auf der Basis von Holographien (wie es beim Holo-Deck in Star Trek geschieht). Mit heutigen technischen Mitteln kann diese perfekte Sinnestäuschung nicht er-
3
Bolz (1994), S. 29
4
Im Folgenden als VR-Szenario oder Virtuelle Realität bezeichnet, um sie vom Begriff des virtuellen Raumes
abzugrenzen.
5
Vgl. Wikipedia (2008, Internet), Artikel Virtuelle Realität.
6
Vgl. Grau (2002), S. 52
7
DER BLUTARME DIGITALE RAUM
Abbildung 1: Tron / Disney 1982
Abbildung 2: Patti Maes Installation Alive (Artificial Life Interactive Video Environment)
Abbildung 3: Szenen aus World of Warcraft (links) und Second Life (rechts)
8
DER BLUTARME DIGITALE RAUM
reicht werden, weswegen eine heutzutage künstlich erzeugte Realität keinesfalls als realistisch
wahrgenommen werden kann. Könnte diese aber erreicht werden, so handelte es sich ohne
Zweifel um Virtuelle Realität. Wenn wir dieses Wort benutzen, sprechen wir also von einem
Phänomen, welches nicht existiert. Vor dem Tag allerdings, an dem die sie zu existieren beginnt, warnt der Medienwissenschaftler Lev Manovičh:
»From that moment on, we will carry our prisons with us – not in order to blissfully confuse
representations and perceptions (as in cinema), but rather always to ‚be in touch‘, always connected, always ‚plugged in‘. The retina and the screen will merge.«7
Manovičh spricht von Gefängnissen, wenn er von Werkzeugen zur Medienrezeption spricht.
Er meint damit die Beobachterperspektive, in die man ganz automatisch gezwungen wird,
sobald man vor einem wie auch immer gearteten Kunstwerk steht, sei es ein Bild, eine Skulptur, ein Theaterstück oder ein Video. Und er prophezeit, dass wir diese Gefängnisse mit uns
tragen werden, sobald die technischen Möglichkeiten dazu gegeben sind: »Wir werden unsere
Gefängnisse mit uns führen, (…) um miteinander in Verbindung zu bleiben.«
Manovičhs The Language of New Media steht mit dieser Gefängnismetapher und seiner allgemein eher kulturpessimistisch anmutenden Sichtweise auf neue Medien und deren Einfluss
auf unser Leben bei weitem nicht allein – Medienwissenschaftler glaubten und glauben an
VR, fürchten aber deren Auswirkungen auf unser Leben, während andere Philosophen und
Soziologen am Ende des zwanzigsten Jahrhunderts kaum einen Zweifel an der Vermutung zu
hegen scheinen, dass die virtuelle Realität eine Totgeburt ist.8
An sich stellt eine solche Meinung natürlich kein Problem dar, denn die wie auch immer
gestaltete virtuelle Realität existiert bisher nur in der Phantasie, meist in dunklen Varianten
dieser. Die VR wurde erstmalig im 1982 erschienenen Disney-Film Tron (Abbildung 1) thematisiert, in dem die Hauptfigur Fevin Flynn (Jeff Bridges) durch ein bösartiges Computerprogramm (MCP, Master Control Program) mittels eines Laserstrahls digitalisiert und in den
„Computer“ versetzt wird. Dieser Computer ist ein VR-Szenario, in welchem Programme –
verkörpert durch Schauspieler – unter der Herrschaft dieses Master Control Programs leben
und in verschiedenen Spielsituationen gegeneinander antreten. Allen fiktiven VR-Szenarien
gemeinsam ist das Eintauchen des Betrachters in eine computergenerierte Wirklichkeitssimulation, welche durch eine ausgefeilte Sensorik Eingaben erhält und durch andere Schnittstellen Informationen an die Sinnesorgane des Benutzers zurückgibt. Die Sensorik misst
dabei die Körperbewegungen, die anderen Schnittstellen sind direkt an den Sinnesorganen
angebracht: 3D-Brillen, VR-Anzüge und Datenhandschuhe sind das für das Betreten eines
virtuellen Raumes zwingend erforderliche Instrumentarium. Ein VR-Szenario ist der Idealtypus des immersiven Mediums.9
7
Manovičh (2001), S. 114
8
Beispielsweise sei hier nur Jean Baudrillard genannt, der gleich ein Requiem für die Medien komponiert hat.
Ersch. in Baudrillard (1978), S. 83-118
9
Ich beschränke mich in dieser Arbeit auf nicht-immersive virtuelle Räume. Beeindruckende Körpererfahrungen in immersiven virtuellen Räumen (z.B. Höhenangst) werden beispielsweise im Text Verschwindet
9
DER BLUTARME DIGITALE RAUM
Leider wird die oben angedeutete skeptische Sichtweise verschiedener Medien- und Kulturwissenschaftler auf solche VR-Szenarien, auf die Betrachtung der gesamten Virtualität bzw.
auf die aller möglichen Formen virtueller Räume ausgeweitet, obwohl die Virtuelle Realität
nur einen winzigen Teilbereich der denkbaren virtuellen Räume darstellt. Wenn ich in diesem
Text die Bezeichnung „virtueller Raum“ verwende, sind damit aber ausdrücklich nicht diese fiktiven VR-Szenarien gemeint, die sowohl mit dem heutzutage verfügbaren technischen
Instrumentarium nicht umsetzbar sind als auch für die meisten Menschen wahrscheinlich so
uninteressant und umständlich zu bedienen wären, dass sie es niemals zur Marktreife bringen
würden. Auch ist das künstliche Versetzen z.B. eines Museumsbesuchers in eine virtuelle
Umgebung, in der dieser mit computergenerierten Figuren interagieren kann, wie es in Patti
Maes Installation Alive (Abbildung 2) praktiziert wurde, kein Beispiel für einen virtuellen
Raum, wie ich ihn untersuchen möchte.
Die virtuellen Räume, welche ich untersuchen möchte, haben – gewissermaßen durch die
Hintertür und fast unmerklich – Einfluss auf unser aller Leben bekommen: Soziale Netzwerke, Online-Communities, das Web 2.010 und Online-Computerspiele berühren Millionen von Menschen, sie bieten ihnen Kommunikationsmittel und Präsentationsflächen. Alle
untersuchten Phänomene verbindet der Gebrauch von aus dem phänomenalen Raum übernommenen Metaphern, um sie abzugrenzen und zu definieren. Das Augenmerk dieser Arbeit
soll auf den Fenstern dieser virtuellen Räume liegen, sie untersucht die Berührungsstellen,
welche eine Verbindung zwischen Realität und Virtualität schaffen. Es geht also nicht um
eine Flucht aus der Realität in den virtuellen Raum hinein, sondern um das Zusammenspiel
zwischen virtuellen und phänomenalen Räumen, um die brandneuen Bindeglieder zwischen
Online- und Offline-Welt.
1.1. Was sind virtuelle Räume?
Virtuelle Räume sind Räume, die sich einerseits nicht verorten lassen, trotzdem aber zahlreiche Interaktionsmöglichkeiten bieten. Die in dieser Arbeit behandelten virtuellen Räume
sind zum Beispiel nicht-immersive soziale Netzwerke wie MySpace, Facebook oder StudiVZ.
Genau wie die Möglichkeiten des virtuellen Raumes unbegrenzt sind, scheinen auch diese
Räume selbst nicht eingrenzbar zu sein, zumindest nicht im geographischen Sinne. Es gibt
keinen Fußboden, keine Decken oder Wände. Wo aber können solche Räume innerhalb
einer aus Bits, Bytes und Pixeln zusammengesetzten, rein virtuellen Umgebung – scheinbar
ohne jegliche räumliche Dimensionen – konstituiert werden?
In den behandelten virtuellen Räumen sind Verweise auf geometrische Räumlichkeit dennoch sehr gebräuchlich, um sie zu definieren und von anderen Phänomenen abzugrenzen: Es
gibt ein „Drinnen“ und ein „Draußen“, man kann im Zusammenhang mit Erfahrungen in
der Körper? von Sybille Krämer beschrieben. Vgl.: Krämer in Maresch / Werber (2002), S. 49-68
10 Der Oberbegriff Web 2.0 steht in diesem Zusammenhang für das „moderne Internet“, für die Blogosphäre, für Social Networks und für Location-Based-Services. Eine nähere Erklärung ist im Glossar dieser
Arbeit zu finden.
10
DER BLUTARME DIGITALE RAUM
virtuellen Räumen sowohl von einem Gefühl bedrückender Enge befallen werden als auch
befreiende Weite empfinden. Um die Grenzen zwischen diesen Räumen zu überwinden oder
sie überhaupt zu betreten, ist es nötig, sich auszuweisen um dann nach einem Login-Vorgang
hineingelassen zu werden – genau, wie es an jeder geographischen Ländergrenze oder beim
Einlass in eine geschlossene Gesellschaft verlangt wird.
Es ist zwingend notwendig, bestimmte Parameter für eine genauere Untersuchung des virtuellen Raumes auszuwählen. Welche Parameter könnten dies sein? Ich möchte versuchen,
bei der Auswahl dieser Parameter nicht dem allgegenwärtigen Kulturpessimismus verfallen;
Ich stellte mir die Frage, welche Merkmale den virtuellen Räumen von vielen Medientheoretikern der neunziger Jahre bis zur Jahrtausendwende in besonderer Weise abgesprochen
werden, welche Eigenschaften einer virtuellen Realität negiert werden, um einen Gegenpol
zur „echten“, anfassbaren Realität zu schaffen. Es sind hauptsächlich diese vier Kennzeichen,
die angeblich die Wirklichkeit von Erfahrungen innerhalb virtueller Räume unterscheiden:
Körperlichkeit, Authentizität, Materialität und Interaktivität als konstitutive Merkmale eines
virtuellen Raumes.
1.2. Zum Aufbau der Arbeit
Es stellt sich als verbreiteter Standpunkt heraus, dass Erfahrungen innerhalb virtueller Räume diese Eigenschaften vermissen lassen: Ein virtueller Raum ließe sich schließlich nicht
befühlen, er sei blutleer und immateriell. Das Internet habe keine Wände und keine Türen,
es bestehe höchstens aus meistenteils unvollkommenen und bei weitem nicht authentischen
Repräsentationen.11 Sogar diese böten nur den Ansatz eines phänomenalen, eines greifbaren Eindrucks. Denn alles, was im Normalfall unter Körperlichkeit verstanden wird, fußt
zu weiten Teilen auf dem Moment der Berührung: Was man nicht anfassen kann, ist nicht
vorhanden, was sich nicht berühren lässt, ist materiell nicht erfahrbar. Demzufolge entziehen
sich virtuelle Räume einem Eindruck von phänomenaler Körperlichkeit.
Es existieren jedoch einzelne, sehr deutlich auszumachende Momente von virtueller Körperlichkeit in diesen Räumen: Einerseits sind verschiedene Formen der Körperlichkeit in einem
immensen Ausmaß zu beobachten – imaginierte Körper werden konstruiert, beispielsweise,
indem in Social Networks der Gestaltung der konkreten Körpermerkmale eines Avatars ein
hoher Stellenwert beigemessen wird. Auf der anderen Seite wirken virtuelle Räume an ihren
Schnittstellen direkt auf den Körper eines Nutzers, sei es beim Umgang mit einem Steueroder Ausgabegerät, oder seien es die ungewöhnlich anmutenden, fast kultischen Rituale,
welche verschiedenste Mitglieder von Social Networks in ihrem Offline-Leben ausüben.12
Drittens ist eine Form der virtuellen Körperlichkeit zu beobachten, die ich im Folgenden den
11 Selbst den virtuellen Räumen gegenüber grundsätzlich positiv eingestellte Autoren sprechen der Virtualität
diese Eigenschaften ab. Derreck de Kerckhove listet beispielsweise als erstes, grundlegendes und konstitutives Merkmal der Virtualität die Immaterialität auf. Vgl. de Kerckhove (1995), S. 172 ff.
12 Siehe Kapitel 2.8. der vorliegenden Arbeit: Digitales Sterben und ein bisschen Sex.
11
DER BLUTARME DIGITALE RAUM
in der Virtualität geborenen Körper13 nennen werde.
Die Auswahl der dabei betrachteten Untersuchungsgegenstände ist bewusst sehr breit angelegt, um verschiedene virtuelle Räume und ihre Eigenschaften untersuchen zu können:
Im Kapitel zur Körperlichkeit soll das Hauptaugenmerk meiner Untersuchung auf sozialen
Netzwerken wie Facebook, StudiVZ und MySpace liegen. Daran anschließend soll das Anfang
2005 von Blizzard Entertainment veröffentlichte World of Warcraft (Abbildung 3) als Beispiel
für das Genre der Mehrspieler-Online-Rollenspiele14 dienen. Ein ähnlich aufgebauter, wenn
auch nicht so erfolgreicher Vertreter dieser Gattung ist beispielsweise das in medientheoretischen Schriften oft behandelte Final Fantasy XI. Neben den Online-Rollenspielen, bei denen
vom Spieler mittels der Steuerung eines Avatars durch einen virtuellen Raum verschiedenste Aufgaben bewältigt werden müssen, zähle ich auch das komplette Genre der virtuellen
Online-3D-Welten, deren bekanntester Vertreter in Linden Labs Second Life (Abbildung 3)
besteht, zu dieser Kategorie. An diesen Beispielen möchte ich mich nach einer kurzen Einführung in den aktuellen Forschungsstand zum Thema dem Phänomen der Körperlichkeit
im virtuellen Raum nähern.
Im Prolog dieser Arbeit wird deutlich, dass ein Erlebnis im virtuellen Raum durchaus authentisch sein kann. Fragen zur Glaubwürdigkeit der Inhalte virtueller Räume bilden den
Gegenstand eines angeregten Diskurses.15 Ich werde mich mit dem Begriff der Authentizität
und – damit untrennbar verbunden – der Aufmerksamkeit im virtuellen Raum, vor allem
bezogen auf die so genannte Blogosphäre16, befassen. Der Großteil der aktuellen Publikationen, die sich mit diesem Thema befassen, bedient sich ökonomischer Termini, man schreibt
beispielsweise vielfach von der »Ware Aufmerksamkeit«.17 Ohne einen damit zusammenhängenden florierenden Werbemarkt wäre der virtuelle Raum Blogosphäre nicht vorstellbar. Der
Begriff der Authentizität hängt eng mit Fragen von Originalität und Kopie zusammen, die
im digitalen Zeitalter eine sehr bedeutende Rolle spielen. Ein Exkurs zu Walter Benjamins
Kunstwerkaufsatz18 – angewandt auf das Phänomen digitalisierter Musik und die Plattform
last.fm, die den virtuellen Raum der Musikhörer darstellt – scheint hier also angebracht und
wird das dritte Kapitel einleiten.
13 Siehe Kapitel 2.1. der vorliegenden Arbeit: Drei Formen virtueller Körperlichkeit.
14 Engl. MMORPGs, also Massively-Multiplayer-Online-Role-Playing-Games, siehe Glossar der vorliegenden Arbeit.
15 Als Beispiel sei hier die oft gestellte Frage nach der Zitierfähigkeit der Online-Enzyklopädie Wikipedia
oder generell von Internetquellen genannt. Siehe Kapitel 5.2. der vorliegenden Arbeit: Interaktive Massenphänomene.
16 Der Begriff Blogosphäre beschreibt gleichzeitig das Netzwerk aus allen bekannten Blogs und den Kommunikationsapparat, der diese verbindet. (Die Definition des Begriffes Blog ist umstritten. Die meines Erachtens neutralste Art und Weise, Blogs zu beschreiben, lautet wie folgt: Blogs sind Internet-Publikationen
in chronologischer Reihenfolge, bei denen der neueste Beitrag an oberster Stelle steht). Ich begreife die
Blogosphäre als virtuellen Raum.
17 Vgl. Friebe / Lobo (2006), S. 218
18 Benjamin (1974)
12
DER BLUTARME DIGITALE RAUM
Im Anschluss daran befasse ich mich mit dem Begriff der Materialität. Ich werde mich mit der
Materialität einerseits im konkreten Umgang mit Werkzeugen, mit Interfaces, die zum Eintritt in diesen Raum notwendig sind, andererseits mit der Materialität der Hardware, die den
Virtuellen Raum bedingt, befassen. Beginnen möchte ich mit einem Exkurs zu Vilém Flusser,
der in seinem Gesten-Band eine Phänomenologie des Schreibvorganges entwickelt. Flussers
Essay beschreibt die Geste des Schreibens, die sich vom Kratzen und Ritzen eines Griffels beim
Einschreiben ausgehend bis zur Erfindung der hämmernd-prägenden Schreibmaschine einschneidend verändert hat. Auf Basis dieses Textes beschreibe ich den gewohnten Umgang mit
digitaler Datenverarbeitung, welcher meines Erachtens hauptsächlich dafür verantwortlich
ist, dass ein digitaler virtueller Raum als blutleer, als nicht materiell, nicht körperlich wahrgenommen wird. Davon ausgehend werde ich neuartige Technologien beschreiben, die im
Begriff sind, diesen Umgang zu verändern. Dabei berücksichtige ich neueste Entwicklungen
sowohl auf Hardware- als auch auf Software-Ebene.
Während die Auswahl in Bezug auf mangelnde Körperlichkeit und Blutarmut sowie auf fehlende Materialität und Authentizität leicht nachvollziehbar ist, stellt der Interaktivitätsbegriff den komplexesten Untersuchungsgegenstand dar: Wie komme ich darauf, dass dem
virtuellen Raum seine Interaktivität abgesprochen wird, gerade weil es doch fast schon zum
Allgemeinwissen zählt, dass der Umgang mit einem Computer oder mit dem Internet als
Grundvoraussetzung die Interaktivität beinhaltet.
Lev Manovičh beginnt das Kapitel What New Media is Not im inzwischen zum Standardwerk
avancierten The Language of New Media mit sechs Feststellungen, die populäre Irrtümer in
Bezug auf Neue Medien aufdecken sollen.
Der sechste Punkt dieser Aufzählung lautet wie folgt:
»6. New Media is interactive. In contrast to old media where the order of presentation is fixed,
the user can choose which elements to display or which paths to follow, thus generating a
unique work. In this way the user becomes the co-author of the work.«19
Manovičh versucht im nun folgenden Kapitel The myth of interactivity deutlich zu machen,
dass jegliche Art von Kunstrezeption Interaktivität voraussetzt.
»Therefore, to call computer media „interactive“ is meaningless – it simply means stating the
most basic fact about computers. (…) All classical, and even moreso modern, art is „interactive“ in a number of ways.«
Genau hier liegt das Problem. Interaktivität ist zum Allgemeinplatz geworden. Sie war angeblich schon immer da, gerade im Diskurs über bildende Kunst und Musik ist sie zum Schlagwort herabgesunken. Das Sprechen über die Rezeption eines Kunstwerks, gleich, ob es sich
um medial konnotierte Kunstwerke wie Videos oder Musik oder Museumskunst handelt, ist
ohne einen Rückbezug auf die sprichwörtliche Interaktivität scheinbar unmöglich geworden.
Interaktivität ist offensichtlich zu einem fast beliebigen Charakteristikum jeglicher Art von
Rezeption geworden. Dies wird dadurch legitimiert, dass jede Art der Rezeption einen indi19 Manovičh (2001), S. 49
13
DER BLUTARME DIGITALE RAUM
viduellen Rezipienten voraussetzt, der sich von allen anderen Zuschauern unterscheidet und
demzufolge auch anders, eigenständig wahrnimmt. Da nicht alle Arten der Wahrnehmung
gleich oder wenigstens miteinander vergleichbar sind, wirkt die jeweilige Verfassung des Rezipienten rekursiv ko-konstituierend auf das Kunsterlebnis.
Nur – ganz banal gesprochen – ändert die Art der Rezeption etwas am Kunstwerk selbst?
Geschieht dabei wirklich etwas Nachvollziehbares, etwas Beschreibbares? Manovičh warnt
davor, beide Arten der Interaktivität in einen Topf zu werfen: Die Ebene der physischen
Interaktion mit einem Kunstwerk, also etwa dem Klicken von Links und dem Ein-Greifen
in eine Handlung muss von der eher psychologischen Ebene des Einsetzens von fehlenden
Informationen, des unbewussten Setzens von „missing links“, unterschieden werden.
Genau darum geht es mir, wenn ich in dieser Arbeit von Interaktivität spreche: Es geht um
ein ständiges Oszillieren zwischen Virtualität und Realität, um Kunstwerke, die ohne ein
bewusstes und konkretes physisches Eingreifen des Rezipienten de facto nicht funktionieren,
bei denen es unmöglich ist, sie aus einer rein passiven Beobachterperspektive heraus zu konsumieren und damit die Interaktivität auf eine psychologische Ebene auszulagern.
Diese Art des konkreten, physischen Interagierens sollte der Virtualität nicht abgesprochen
werden, sie ist im Gegenteil eines der konstitutiven Merkmale des virtuellen Raumes. Die
Existenz eines nicht-interaktiven virtuellen Raumes ist – gerade im Hinblick auf virtuelle
Räume als im Alltag verankerte Massenphänomene – undenkbar. Einleitend werde ich auf
die Paradebeispiele interaktiven Handelns innerhalb eines virtuellen Raums, nämlich auf
World of Warcraft und Second Life zurückgreifen, und Synchronizität als meist unterschätztes,
aber wesentliches Merkmal der Interaktivität herausstellen. Im Kapitel, welches sich mit der
Ästhetik der Interaktivität auseinandersetzt, werde ich verschiedene Projekte Yugo Nakamuras vorstellen, der schon Mitte der 90er Jahre interaktive Online-Installationen kreierte, die
ohne das Eingreifen mehrerer über das Internet miteinander verbundener Teilnehmer nicht
ausführbar sind. Nakamura stellt in diesen Kunstwerken eine Form von künstlicher Synchronizität her, deren Untersuchung ich mich abschließend widmen möchte.
Virtuelle Räume sind – wie das Medium Internet, durch das sie fast immer vermittelt werden
und in das sie sich einbetten – selbst Medien. Denn sie vermitteln gleichermaßen zwischen
Mensch und Maschine wie zwischen Menschen. Die Begriffe „Neue Medien“ und „virtuelle
Räume“ sind schwer voneinander abzugrenzen: Ohne die Verwendung von neuen Medien
zur Generierung und Aussendung ihrer Inhalte würden virtuelle Räume leer bleiben bzw.
nicht existieren. Dahingegen sind aber virtuelle Räume – gleich einer Matrjoschka-Puppe –
selbst „Neue Medien“, innerhalb derer wiederum Inhalte erzeugt und distribuiert werden.
Dieser Text versucht nicht, eine umfassende Phänomenologie dieser Medien darzustellen,
denn das würde neben seiner augenscheinlichen Unmöglichkeit20 sicherlich den Rahmen der
Arbeit sprengen. Ich möchte versuchen, einen Einblick in den neuartigen Umgang mit ver-
20 Neue Medien entwickeln sich im Augenblick so schnell, dass ein Text mit umfassenden Anspruch schneller
veraltet wäre, als er fertiggestellt werden kann.
14
DER BLUTARME DIGITALE RAUM
schiedenen Medien zu geben, die gerade im Entstehen begriffen sind. Ich möchte zeigen, was
diese Medienformen den etablierten Print- und Sendemedien voraus haben und was dafür
verantwortlich ist, dass sie von exotischen Randphänomenen einiger Technikbegeisterter zu
Massenphänomenen avancieren.
1.3. Zum aktuellen Forschungsstand
Betrachtet man die Forschungsliteratur in Bezug auf Körperlichkeit, Authentizität, Materialität und Interaktivität, so zeigt sich, dass der Großteil aller Publikationen, die diese Phänomene in Zusammenhang mit Virtualität und virtuellen Räumen behandeln, in den Jahren zwischen 1985 und 1998 veröffentlicht wurde. Aufbauend auf Platon, Walter Benjamin, Max
Horkheimer und Theodor W. Adorno, veröffentlichten Marshall McLuhan, Friedrich Kittler,
Lev Manovič und Vilém Flusser Medienontologien, die über die herkömmlichen Theorien
zu neuen Medien hinausgehen und die erst in dieser neuen Form Aspekte der Intermedialität untersuchen und formulieren konnten.21 Es entstand neben den bisher vorherrschenden
Einzelmedienontologien eine neue Systematik22, deren erklärtes Ziel es war, sich von einer
Vorstellung der Einzelmedien zu distanzieren und eine verallgemeinernde Medienontologie
zu begründen.
Dagegen versucht eine Forschergruppe um Claudia Liebrand und Irmela Schneider, diesen
generalisierenden Tendenzen etwas entgegenzuhalten. Sie sprechen sich für eine Systematik
der verschiedenen Medientheorien aus, welche diese in vier Gruppen einteilt: Zeichentheoretische, technikzentrierte, gesellschaftsorientierte und systemtheoretische Medientheorien.23
Legt man diese Betrachtungsweise zugrunde, untersuchen zumindest in den neunziger Jahren die meisten und einflussreichsten Publikationen den virtuellen Raum aus einer technikzentrierten Perspektive. Unter den Schlagworten Virtual Reality, Cyberspace und Immersion
erschienen Schriften, welche die neuen Medien hauptsächlich aus einer fast formalästhetischen Perspektive beschreiben. Die Entwicklung der Medien vom singulären Analogmedium
bis hin zu digitalen Netzwerken wurde aus einer technozentristischen und vermehrt individualistischen Sichtweise heraus beschrieben, die relativ wenig Raum für systemtheoretische,
ästhetische und soziale Betrachtungsweisen lässt. Medienkunst und das Erleben im virtuellen
Raum wird größtenteils – ganz im Sinne des Personal Computers – auf die Interaktion des
Einzelnen mit der Maschine reduziert.
Es fällt nicht leicht, sich von einer hauptsächlich technischen Perspektive zu lösen, denn
gerade digitale Medien sind ohne einen Blick auf die technischen Errungenschaften, die sie
erschaffen, die sie speichern und verbreiten, nicht zu erklären. Mike Sandbothe fordert für
21 Schlüsselwerke sind: Platon - Höhlengleichnis, Benjamin – Das Kunstwerk im Zeitalter seiner technischen
Reproduzierbarkeit, Hawkheimer / Adorno – Dialektik der Aufklärung, McLuhan – Understanding Media,
Kittler – Grammophon Film Typewriter, Manovič – The Language of New Media, Flusser – Medienkultur.
22 Dies geschieht unter besonderer Berücksichtigung des Begriffes der Interferenz zwischen Einzelmedien.
Vgl. Müller (1996).
23 Vgl. Claudia Liebrand, Irmela Schneider, Björn Bohnenkamp, Laura Frahm (2005).
15
DER BLUTARME DIGITALE RAUM
die wissenschaftliche Betrachtung neuer Medien einen neuen, neopragmatischen Zugang: Er
begreift die Art und Weise der Nutzung neuer Medien nicht als Folge technischer Entwicklungen. Sandbothe sieht es als eine der wichtigsten Aufgaben der Medienwissenschaft an,
verschiedene beschreibbare Nutzungsmöglichkeiten von Medien mit konkreten Mitgestaltungsvorschlägen zu verknüpfen und so eine demokratische Medienpraxis zu etablieren.24
Dennoch werden die Betrachtung ihrer gesellschaftlichen Funktion und ästhetische Aspekte
den Hauptteil dieser Arbeit bilden. Es geht also weniger darum, wie neuere Medien funktionieren, als vielmehr um die Frage, wie sie wirken und welche Vorgänge beim Umgang mit
ihnen zu beobachten sind. Dies können ganz private, aber auch vollkommen öffentliche
Vorgänge sein.
Nach der durch Manfred Faßler erweiterten Medientheorie Werner Faulstichs,25 die Medien
je nach Technikeinsatz in Primär-, Sekundär-, Tertiär- und Quartärmedien unterscheidet,
behandele ich in dieser Arbeit ausschließlich Quartärmedien – das sind Medien, bei denen
Technik gleichermaßen bei ihrer Produktion, ihrer Rezeption sowie ihrer digitalen Distribution eine zentrale Rolle spielt.
Die Projektgruppe Kulturraum Internet, eine Kooperation zwischen der Volkswagen-Stiftung,
dem Wissenschaftszentrum Berlin für Sozialforschung und der Technischen Universität Berlin, begann zwischen 1994 und 1998 mit einer Untersuchung des Internets und betrachtete
dabei die »konstitutiven Merkmale der Netzkultur und Netzwerkorganisation«26. Innovative
Ansätze, die das Internet als Aktionsraum und nicht mehr etwa als Datenautobahn begreifen,
die Anzeichen der Individualisierung und Globalisierung sowie das durch die zunehmende
Vernetzung bedingte Näherrücken der Objekte beschreiben, mischen sich hier mit ersten
Untersuchungen zu virtuellen Räumen. Auch Körperphänomene werden in diesem Zusammenhang – vornehmlich durch Jörg Müller – angesprochen.27 Virtuelle Räume werden aber
auch bei Müller grundsätzlich als entkörperlicht begriffen. Wann immer im virtuellen Raum
ein Eindruck von Körperlichkeit entsteht, dann ist dies allenfalls aus der immateriellen Repräsentation eines Körpers zu erklären – und selbst diese immaterielle Form der Körperlichkeit wird ausschließlich im Zusammenhang mit Virtual Reality oder interaktiven Installationen beschrieben.
Zu eventuell vorhandenen, nicht-repräsentierten Körpermerkmalen, zu einem individuellen,
direkt in virtuellen Räumen beliebiger Ausformung entstehenden, in der Virtualität geborenen Körper existiert keinerlei Literatur. Auch eine Klassifizierung verschiedener Formen der
virtuellen Körperlichkeit scheint ein Forschungsdesiderat darzustellen.
24 Vgl. Sandbothe (1998, Internet).
25 Vgl. Faulstich (2003) und Faßler / Halbach (1998).
26 Vgl. Projektgruppe „Kulturraum Internet“ am Wissenschaftszentrum Berlin für Sozialforschung: Internet... the Final Frontier: eine Ethnographie (1998, Internet).
27 Vgl. Jörg Müller: Virtuelle Körper (1996, Internet).
16
DER BLUTARME DIGITALE RAUM
Mehrere Gründe sind zu nennen, warum es nur wenige Publikationen gibt, die sich mit den
behandelten virtuellen Räumen und ihren Eigenschaften und Einflüssen auf ihre Nutzer als
Massenphänomen auseinandersetzen:28 Es ist sowohl die genannte individualistische Herangehensweise, die sich – gerade im Hinblick auf einen generalisierenden Medienbegriff – zur
Blüte der Medientheorien entwickelte, es ist die rasante Entwicklung der Verbindungs- und
Vernetzungstechnologien, die es erst möglich machte, dass sich eine große Anzahl von Menschen gleichzeitig in virtuellen Räumen aufhalten kann. Es ist der stetige Anstieg der Prozessorleistung, die Privatpersonen zur Verfügung steht und damit die grafische Repräsentation
virtueller Räume von Text-Adventures und 16-farbigen Pixelhaufen zu beinahe fotorealistischen Darstellungen vorangetrieben hat. Und nicht zuletzt ist es der Generationenwechsel,
der zu breiterer Akzeptanz und selbstverständlichem Umgang mit neuen Medien führt.
Eigentlich muss man ganz von vorn anfangen. Denn virtuelle Räume sind ganz selbstverständlich und von den Sozial- und Medienwissenschaften nahezu unbemerkt in den Alltag von Millionen von Menschen eingezogen, und das in einer vollkommen unerwarteten
Form: Während in den neunziger Jahren der Siegeszug der umjubelten Virtual Reality als
beinahe unbestreitbare Tatsache hingenommen wurde, haben Social Networks und grafisch
anspruchsvolle Online-Rollenspiele29 die Verfechter der individuellen Mensch-MaschineInteraktion Lügen gestraft und für eine andere Verbindung zwischen virtuellen Räumen und
dem Alltag einer modernen Gesellschaft gesorgt.
Der Umgang mit diesen neuen Formen der Kommunikation, mit dem Internet, mit Social
Networks ist für unsere Generation nicht nur eine Möglichkeit, er ist zu einer Verpflichtung
geworden. Wer heutzutage als 18-Jähriger ohne Computerspiele und Internet, ohne InstantMessenger und Voice-Over-IP-Telefonie aufgewachsen ist, gilt als sozial (und nicht etwa als
technisch!) inkompetent.30
28 Die einzige mir bekannte Ausnahme bildet der Ansatz, welcher im Buch Wir nennen es Arbeit von Holm
Friebe und Sascha Lobo verfolgt wird. Siehe Friebe / Lobo (2006).
29 Und eben nicht die MMORPG‘s, ihre textbasierten Vorgänger!
30 Vgl. Heise Online (2008, Internet): Harvard-Studie erkennt klar positive Eigenschaften bei Videospielen.
17
ZWEITES KAPITEL
Was ist ein virtueller Körper? // Wie manifestiert er sich? // Kann Körperlichkeit als Phänomen innerhalb eines virtuellen Raumes beobachtet werden? // Gibt es verschiedene Typen virtueller Körperlichkeit? // Was kann im virtuellen Raum als ein Körpermerkmal gelten? // Ist der virtuelle Körper sterblich? // Gibt es Verbindungsstellen zwischen virtueller Körperlichkeit und dem biologischen Körper?
Körperlichkeit
2.1. Drei Formen virtueller Körperlichkeit
Um sich diesen Fragestellungen nähern zu können, muss zunächst geklärt werden, wie Virtualität und Körperlichkeit zusammen gebracht werden können. Der Untertitel dieser Arbeit
weist darauf hin – es soll um Körperphänomene an der Schnittstelle zwischen Virtualität
und Realität gehen. Darunter fallen zunächst sämtliche körperlichen Handlungen, die durch
Ereignisse im virtuellen Raum motiviert sind oder verursacht werden. Diese können beispielsweise als Aufgaben, die im Gelände oder im urbanen Raum durchzuführen sind,31 in
die Handlung eines Online-Rollenspiels eingebettet sein – auch Geocaching, eine moderne
High-Tech-Form der Schnitzeljagd, ist ohne Verabredungen, die in virtuellen Räumen getroffen werden, undenkbar. Die mit Abstand am häufigsten vorkommenden, aber aus verständlichen Gründen seltener zu beobachtenden Phänomene sind – meist durch Internet-Pornographie motivierte – sexuelle Handlungen. Nicht ohne Grund heißt es im Broadway-Musical
Avenue Q: »The Internet is for Porn.«32
Es ist nicht der vielzierte Cybersex mit Anzug, VR-Brille, Headmount-Displays und InternetVerbindung zwischen den Partnern, auf den ich hinaus will – dieser gehört eher ins Reich der
Mythen und Legenden. Neben herkömmlichen, bereits etablierten Internet-PornographiePortalen, auf welchen Videos und Bilder als Masturbationsvorlage konsumiert werden, etablierten sich in letzter Zeit vor allem Mitmach-Porno-Portale wie youporn oder RedTube.33 Das
Besondere an diesen Portalen ist, dass sie – nach dem Vorbild von YouTube – ihren Mitgliedern die Möglichkeit bieten, selbst gedrehte Videos pornographischen Inhalts hochzuladen
und sie so einer breiten Öffentlichkeit zu präsentieren. Exhibitionismus und Voyeurismus
31 Das bekannteste Spiel dieses Genres trägt den Namen Street Wars und ist dem Rollenspiel Assassin nachempfunden, welches vor allem auf den Campus amerikanischer Universitäten gespielt wird.
32 Avenue Q, ein Musical von Jeff Whitty, Robert Lopez und Jeff Marx, feierte 2003 seine Broadway-Premiere. Der Titel eines Song im ersten Akt, The internet is for porn, erfreute sich schnell großer Bekanntheit
und wurde zur Vorlage für hunderte von Parodien und Zitaten.
33 Zu finden unter http://www.youporn.com und http://www.redtube.com.
18
KÖRPERLICHKEIT
entwickeln sich so – befördert durch die Technologien des Web 2.0 – erstmals zu einem Massenphänomen. Andere Beispiele für durch ein Ereignis im virtuellen Raum motivierte Handlungen sind beispielsweise Flashmobs34 oder auch das Online-Dating, welches seit neuestem
auch in einer Hochgeschwindigkeitsversion mit Kamera- und Mikrofon-Unterstützung Verbreitung findet.35
Dies sind körperbetonte Handlungen meist sportlicher oder sexueller Natur, die ihren Anstoß in virtuellen Räumen bekommen haben. Eigentlich alltägliche Aktionen, die durch eine
sehr enge Beziehung zwischen Körperlichkeit und Virtualität in einen neuen Rahmen versetzt werden. Diese Phänomene möchte ich als virtuell berührte Körperlichkeit bezeichnen.
Die zweite Form virtueller Körperlichkeit erfordert eine differenziertere Beschreibung: Sobald nicht nur die biologische Leiblichkeit in die Überlegungen zur virtuellen Körperlichkeit
mit einbezogen wird, sondern sich der Fokus hin zum Körper als Gegenstand eines Diskurses
bewegt, tritt auch der virtuelle Körper in ein neues Licht: Wenn die äußere Form sowie die
Oberfläche des biologischen Körper schon in der Realität ständig neu verhandelt werden
kann und zum Gegenstand der verschiedensten Transformationen36 wird, so stellt dies in der
Virtualität überhaupt kein Problem mehr dar: Gender swapping, Avatare und tausende Chatter – angeblich mit den Idealmaßen eines Topmodels ausgestattet – die gegen Mitternacht in
zwielichtigen Chatrooms anzutreffen sind, sind nur einige Beispiele dafür.
So kann jedes Phänomen, von der Preisgabe und Vermittlung körperbezogener Informationen auf virtueller Ebene bis zu jeglicher Verwendung körperbezogenen Vokabulars, als ein
Hinweis auf virtuelle Körperlichkeit betrachtet werden. Ich nenne diese Form der Körperlichkeit die virtuell vermittelte Körperlichkeit.
Die dritte Erscheinungsform virtueller Körperlichkeit erscheint mir am Interessantesten:
Wurde vor allem der virtuell vermittelte Körper schon zum Gegenstand eines regen wissenschaftlichen Diskurses,37 existieren zu dieser dritten Art der virtuellen Körperlichkeit noch
keine Publikationen, obwohl mir diese zumindest zur Zeit am bedeutensten erscheint: Es
geht um den Körper, welcher bereits in der Virtualität erschaffen wurde, es geht um den in
der Virtualität geborenen Körper.
Der momentane Forschungsstand zur virtuellen Körperlichkeit bezieht sich ausschließlich
auf den virtuell berührten und den virtuell vermittelten Körper. Das Hauptaugenmerk richtet sich im Bereich der virtuell berührten Körperlichkeit auf immersive Effekte und die Interfaces, durch die diese vermittelt werden. Diese Immersionseffekte sind in allen Formen
34 Ein aktuelles Beispiel für einen sehr körperbezogenen Flashmob bietet das finnische Kulturfestival HelsinkissBerlin, das am 25. April 2008 eine „Große Küsserei“ im Flashmob-Format auf dem Berliner Alexanderplatz veranstaltete.
35 Das Dating in virtuellen Umgebungen wird im von Marc Ries, Hildegard Fraueneder und Karin Mairitsch
herausgegebenen Band dating.21 – Liebesorganisation und Verabredungskulturen beschrieben. Vgl.: Ries /
Fraueneder / Mairitsch, 2007.
36 Beispielsweise durch Make-Up, Schmuck und kosmetische Chirurgie.
37 Vgl. Turkle (1998) und Donna Harraway: A Manifesto for Cyborgs, in: Wardrip-Fruin / Montfort (2003),
S. 516-541, siehe außerdem Kapitel 1.3. der vorliegenden Arbeit: Zum aktuellen Forschungsstand.
19
KÖRPERLICHKEIT
der Virtual Reality zu beobachten. Der Forschungsstand zur virtuell vermittelten Körperlichkeit ist wesentlich ausdifferenzierter: Vor allem Sherry Turkle untersucht das Rollenspiel
in MUDs38 und anderen virtuellen Welten. Ihr Blick auf virtuelle Räume zeugt von einem
hohen Grad an praktischer Erfahrung:
»Als ich viel später einmal eine männliche Rolle spielte, erlebte ich tatsächlich jene Bewegungsfreiheit, von der ich schon immer angenommen hatte, sie sei ein Geburtsrecht des Mannes.
Nicht nur, daß ich weniger Annäherungsversuche über mich ergehen lassen mußte, ich fand
es auch leichter, einen unerwünschten Antrag abzuschmettern, indem ich beispielsweise sagte:
‚Sehr schmeichelhaft, Ribald_Temptress, aber ich bin schon vergeben.‘ Dabei betraf das neue
Gefühl der Freiheit nicht nur eine veränderte Einstellung zu sexuellen Angeboten, die mir
unter diesen Vorzeichen weniger bedrohlich erschienen. Als Frau habe ich auch immer Schwierigkeiten gehabt, ein Gespräch abzublocken und einfach das zu tun, was ich vorgehabt hatte.
Wenn ich dies (auf freundliche Weise) als MUD-Mann tat, wirkte es viel natürlicher.«39
Während virtuell berührte und virtuell vermittelte Körperlichkeit sich immer auf den biologischen, außerhalb der Virtualität verorteten Körper beziehen lassen, existiert der in der
Virtualität geborene Körper schon immer und ausschließlich im virtuellen Raum. Er ist das,
was wir an Datenspuren im Netz zurücklassen. Spuren, anhand derer wir identifizierbar und
letztlich auch verfolgbar sind, Daten, die uns charakterisieren. Diese Datenansammlungen
sind Merkmale, die uns immer begleiten und mittels derer wir mit unserer Umwelt kommunizieren, es sind die Merkmale, Proportionen und Organe des in der Virtualität geborenen
Körpers.
2.2. Merkmale der Körpersprache und Körperlichkeit im virtuellen Raum
Körpersprache – oder besser: nonverbale Kommunikation – bildet einen beträchtlichen Anteil der alltäglichen vis-à-vis-Kommunikation. Mimik und Gestik, aber auch der Tonfall –
also jene Anteile einer Unterhaltung, welche neben den eigentlichen Nachrichten und ihrem
Informationsgehalt übermittelt werden – helfen uns bei der Deutung der übertragenen Informationen. Ironie wäre beispielsweise ohne eine bestimmte Änderung im Tonfall unmöglich
zu verstehen und die Verständlichmachung von emotional aufgeladenen Informationen ist
ohne aussagekräftige Körpersprache geradezu undenkbar.
Alle diese, durch den Körper übermittelten Informationen, könnten als Meta-Informationen
betrachtet werden.40
38 Multi-User-Dungeon, siehe Glossar der vorliegenden Arbeit.
39 Turkle (1998), S. 341 f.
40 Dies könnte analog zum Begriff der Meta-Information im Zusammenhang mit dem Schreibprozess geschehen, welchen ich in Kapitel 4.3. der vorliegenden Arbeit einführe. Beide Prozesse unterscheidet aber
etwas Grundlegendes: Die Meta-Information, welche der Schrift anhaftet, ist von der eigentlichen Information abtrennbar, beide Informationen existieren unabhängig voneinander und sind deut-lich, sie lassen
sich also deuten, sie verweisen auf etwas. Meta-Informationen in Bezug auf gesprochene Sprache, also
Tonfall, Lautstärke, Mimik, Gestik und Heiserkeitsgrad oder etwa näselnde, lispelnde und schmatzende
Sprechweise, haben meist keine eigenständige Bedeutung, sondern können erst in Verbindung mit der
eigentlichen Information sinnbildend ergänzt werden.
20
KÖRPERLICHKEIT
Bei der Online-Kommunikation gehen diese Meta-Informationen oft verloren – häufig sind
sie gar nicht vorhanden. Die Verantwortung dafür wird zumeist dem narrow-bandwidthProblem41 zugeschrieben. Durch das Nadelöhr der Internet-Kommunikation, durch die schmale Bandbreite42, die im Falle der textbasierten Online-Kommunikation den Informationsfluss einschränkt, fehle einerseits die bereits erwähnte Möglichkeit, emotionale Inhalte
unabhängig von der Textebene zu übertragen. Wesentlich einschränkender für eine deutliche
Kommunikation jedoch ist das Fehlen einer Korrektivinstanz. Das Korrektiv der Mimik, der
Gestik, des Tonfalles, des Flüsterns und des Schreiens hilft uns normalerweise, vergleichbar
mit einer allgegenwärtigen Prüfsumme, empfangene Informationen richtig zu deuten und
damit Missverständnisse zu vermeiden.
Wird das Internet in einer Stellvertreterfunktion, also als Ersatz für vis-à-vis-Kommunikation,
als Ersatz für das Gespräch oder für eine Video-Aufzeichnung gesehen, so scheint eine derartige Auffassung völlig plausibel zu sein: Kommunikation über das Netz wirkt unvollkommen, sie scheint etablierten Kommunikationsformen unterlegen. Denn ihr fehlen essentielle
Bestandteile dieser gewohnten, der „normalen“ Kommunikation, ohne die sämtliche Inhalte
wesentlich schwieriger zu deuten sind. Online-Kommunikation wird als unkörperlich und
damit als unverständlich empfunden: Fehlende Mimik, kein Tonfall, keine Ironie – und
deshalb keine Kommunikation. Wer in dieses Horn stößt, wird Erfindungen wie InternetTelefonie oder Online-Videokonferenzen sicherlich begrüßen, denn diese scheinen bessere
und gemeinhin akzeptierte Stellvertreter für das Telefon und die direkte Gesprächssituation
zu sein.43
In diese Argumentation fügt sich der Diskurs über die Verwendung von so genannten Emoticons oder emote-Tags44 als Online-Écriture-Surrogat für echte Mimik und Gestik hervorragend ein. Kein Zweifel – Emoticons und emote-Tags sind der Mimik und Gestik unserer
biologischen Körper nachempfunden. Smileys lächeln, sie weinen, und sie runzeln die Stirn.
Mittels der ausführlicheren, text-basierten Emote-Tags lassen sich sogar komplexere körpervermittelte Gefühlsäußerungen bezeichnen.45
Diese virtuell vermittelte Körperlichkeit weiter zu betrachten, erscheint als wenig sinnvoll, da
41 Sandy Stone führt den Begriff der Narrow-Bandwidth-Kommunikation für die auf den ASCII-Zeichensatz und die Übertragung durch ein Modem beschränkte Buchstabenkommunikation ein. Narrow-Bandwidth-Kommunikation werde etwa in Online-Foren, Chatrooms oder in MUDs genutzt. Vgl. Sandy
Stone (1995), S. 92 ff.
42 Auch, wenn sich die Worte „narrow-bandwidth“ als „schmale Bandbreite“ übersetzen lassen und hier der
Ursprung der Bezeichnung liegt, geht es nicht um geringe Datenraten oder die Geschwindigkeit, mit der
die Bits und Bytes unterwegs sind, das Narrow-Bandwidth-Problem bezeichnet das grundlegende Fehlen
von Mimik und Gestik bei textbasierter Kommunikation. Nicht nur das Internet, auch Briefwechsel sind
vom Narrow-Bandwidth-Problem betroffen.
43 Der Begriff des Stellvertretermediums wird ausführlicher in Kapitel 3.5.1. der vorliegenden Arbeit abgehandelt: Vom Radio zum Web 2.0 – Brechts Radiotheorie und das Internet.
44 Siehe Glossar der vorliegenden Arbeit.
45 Vgl. die ausführliche Beschreibung von Emote-Befehlen in: Müller (1996), S. 10.
21
KÖRPERLICHKEIT
hierzu einschlägige Publikationen existieren46. Die Untersuchung der computervermittelten
Kommunikation beschränkte sich über einen längeren Zeitraum auf Zeichen, die ausschließlich einer sehr unvollständig anmutenden Betrachtung als Stellvertretermedium entspringen.
Smileys, Emoticons und Floskeln, wie das in Chatrooms und Foren allgegenwärtige »rotfl«47,
sind zwar Zeichen von Körperlichkeit innerhalb eines virtuellen Raumes, aber es sind bestenfalls Zeichen, die darauf hindeuten, dass die Bewohner des virtuellen Raumes außerhalb
dieses Raumes der Biologie unterworfen sind und dort über einen realen Körper verfügen. Es
sind Zeichen, die auf die virtuell vermittelte Körperlichkeit zurückgehen.
Die genuin virtuelle Körpersprache, also die Kommunikation zwischen in der Virtualität
geborenen Körpern, muss man sich völlig anders vorstellen. Da diese virtuellen Körper völlig
anders beschaffen sind als ihre biologischen Pendants, da sie sich vielgliedriger und differenzierter darstellen,48 muss auch die Kommunikation unter ihnen anderer Art sein. Doch wie
sind diese in der Virtualität geborenen Körper beschaffen? Bevor ich ihre Sprache beschreiben
kann, möchte ich sie selbst und ihren Aufbau beschreiben.
2.2.1. Abschaffung / Ausgrenzung des Leibes?
Künstlich erschaffene Körperlichkeit in Virtual-Reality-Umgebungen zeichnet sich vor allem
dadurch aus, dass die Existenz eines phänomenalen Leibes vor, neben und hinter den Geräten, die sie vermitteln, völlig vernachlässigt wird und höchstens von indirekter Bedeutung
ist. Der eigene Leib wird aus der fiktionalen Ebene getilgt, er wird ausradiert. Gegenstand
der vorhandenen Forschungsliteratur sind dabei vor allem Betrachtungen von MehrspielerOnline-Rollenspielen und Chat-Räumen sowie verschiedene Ausformungen der Virtuellen
Realität. Die dort auffindbare virtuelle Körperlichkeit – und nicht zuletzt der TinySex49 –
wird größtenteils über Avatare, welche von den Usern meist als Idealmodelle ihres Selbst50
erschaffen werden, vermittelt. Diese unterscheiden sich – mutmaßlich aufgrund einer latenten Unzufriedenheit vieler mit dem eigenen Körper – nicht selten völlig von den manchmal
geradezu gegenteiligen biologischen Gegebenheiten. Magere Menschen verfügen oft über
muskulöse Avatare, eher füllige Menschen bevorzugen schlanke Stellvertreter.
Sobald der Fokus aber nicht mehr auf Virtual-Reality-Installationen bzw. auf Online-Rollenspielen liegt, sondern andere virtuelle Räume, wie beispielsweise die Blogosphäre, untersucht
46 Zu nennen sind Publikationen von Sherry Turkle, Heather Bromberg und Amy Bruckman.
47 Abk. für „Rolling over the Floor, laughing“.
48 Vgl. Kap. 2.2.2. der vorliegenden Arbeit: Die Organe des virtuellen Körpers.
49 TinySex oder virtueller Sex wird von zwei oder mehreren Personen in virtuellen Räumen praktiziert. Es
handelt sich hierbei um Beschreibungen körperlicher Handlungen, mündlichen Äußerungen und emotionalen Reaktionen ihrer Figuren und ist somit ein Phänomen, welches der virtuell vermittelten Körperlichkeit zuzuordnen ist. Vgl.: Turkle (1998), S. 363 ff.
50 Die User erschaffen natürlich nicht ausschließlich Idealmodelle ihres Selbst, sie schlüpfen in Rollen, um
sich selbst in anderen bzw. fremden Identitäten auszuprobieren. Diese Formen der Identität – die sich ausschließlich auf den virtuell vermittelten Körper beziehen – stellen Turkles Hauptuntersuchungsgegenstand
nach. Vgl.: Turkle (1998).
22
KÖRPERLICHKEIT
werden, zerfasert das Bild völlig: Nicht einmal mehr die Stellvertreter des biologischen Körpers in Form von Avataren existieren: Der Körper und mit ihm alle seine Merkmale scheinen
plötzlich nonexistent geworden zu sein. Es findet ein scheinbar völlig entkörperlichter Austausch von reinen Informationen statt.
Bei der Untersuchung dieser Phänomene stellt sich die Frage, ob es tatsächlich nötig ist, konkrete biologische Manifestationen oder Zeichen, welche auf diese verweisen, zu untersuchen,
wenn von Körperlichkeit im virtuellen Raum die Rede ist. Dem ist nicht so, die Untersuchung eines sozialen Körpers innerhalb sozialer Räume bilden schon seit Jahrzehnten ein
beliebtes Themenfeld der Gesellschaftswissenschaften.
Um jedoch konkrete körperliche Funktionen im virtuellen Raum zu untersuchen, reicht die
These vom sozialen Körper nicht aus. Es ist mit Sicherheit lohnenswert, den Repräsentationsbegriff auf Avatare und andere körperbezogene Entsprechungen innerhalb der virtuellen Realität hin zu betrachten. Interessanter aber scheint es, zu beleuchten, welche konkreten Körperfunktionen keinen Ersatz, sondern eine Entsprechung in der Virtualität gefunden haben.
Was sind diese Organe des virtuellen Körpers und wie lässt sich ihre Funktion definieren?
2.2.2. Die Organe des in der Virtualität geborenen Körpers
Es geht um die Frage nach der Präsenz im virtuellen Raum. Bekannte Blogger wie Hosea Jan
Frank (zeFrank) oder Felix Schwenzel51 schaffen es, ein konkretes Bild von sich zu vermitteln,
welches wiedererkennbar ist und sie von anderen Personen, die »ins Internet schreiben«52
abhebt und zu berühmten Netzpersönlichkeiten macht. Dies lässt sich nicht nur über die
Qualität der vermittelten Inhalte erklären, denn Netzpersönlichkeiten arbeiten genau wie
andere Personen des öffentlichen Lebens an ihrer Selbstdarstellung innerhalb des Mediums
und hinterlassen dort Spuren.
Genau wie ein biologischer Körper innerhalb einer Gesprächssituation oder einer Theateraufführung die Person, zu der er gehört, definiert, weist ein virtueller Körper innerhalb des
virtuellen Raumes auf diese Person hin. Stößt man in der Blogosphäre53 oder andernorts im
Internet auf eine manifestierte Datenstruktur, welche auf eine einzelne Person hinweist, so
kann man diese entweder als eine simple Hinterlassenschaft oder aber als ein ausschließlich
im virtuellen Raum existentes Körpermerkmal dieser Person deuten. Dies trifft beispielsweise
auf die Internetseite dieser Person und alle ihre Profile in Social Networks zu, die als ihr Gesicht, ihr äußeres Erscheinungsbild aufgefasst werden können.
Gleichermaßen dienen diese Profile der Netzpersönlichkeit als Organe zur Kommunikation
und als Repräsentationsfläche. Sie könnten gleichermaßen als ihre Gliedmaßen gesehen werden, welche die Netzpersönlichkeit innerhalb der Blogosphäre von sich streckt.
51 Hosea Jan Frank ist unter http://www.zefrank.com zu finden, Felix Schwenzel bloggt unter http://www.
wirres.net.
52 Felix Schwenzel (Internet, 2006): ix höre auf zu bloggen.
53 Siehe Glossar der vorliegenden Arbeit.
23
KÖRPERLICHKEIT
Ich bezeichne diese Datenstrukturen als manifest, da sie jederzeit abrufbar sind, auch, wenn
sie gerade nicht benutzt werden. Sie können angeschaut, eingesehen und bewundert werden,
sogar, wenn die mit ihr verbundene Netzpersönlichkeit gerade schläft oder aus irgendeinem
anderen Grunde offline ist. Mit einem echten, biologischen Körper macht sie das insofern
vergleichbar, als dass jener auch im schlafenden oder sogar toten Zustand, also ohne beseelt
zu sein, als Körper einer bestimmten Person erkennbar ist.
In den virtuellen Körper und dessen einzelne Organe schreiben sich Erlebnisse ein. Nicht
nur durch den Nutzer selbst gewählte Informationen fließen in seine verschiedenen Profile
ein – fast jeder Online-Dienst bietet die Funktion an, auf Profilen anderer Nutzer z.B. kurze
Nachrichten zu hinterlassen, oder diese – im Falle von Social Networks wie FaceBook und
StudiVZ – sogar zu poken bzw. zu gruscheln.54 Diese Handlungen zählen wohl zu den ersten
ausschließlich im virtuellen Raum vorkommenden Gesten, welche ein virtueller Körper vollführt. Gruscheln und Poking erfreut sich unter vielen Social-Network-Benutzern höchster
Beliebtheit.
Um die Körpermetapher auszuweiten, möchte ich auf eine weitere wichtige Eigenschaft eines biologischen Körpers hinweisen: Er ist verletzlich. Eine Verletzung oder das Abtrennen
einzelner Organe bzw. Gliedmaßen des in der Virtualität geborenen Körpers ist ohne weiteres vorstellbar: Das unerwartete Abtrennen eines Organes – das plötzliche Löschen eines
MySpace-Profiles oder eines World-of-Warcraft-Accounts von der virtuellen Körpergesamtheit – kann zu Tränen oder Schmerzen bis hin zum Selbstmordversuch führen. Gerade das
Nachspielen von gefährlichen Spielszenen scheint immer mehr in Mode zu kommen: Die
Eltern eines 13-jährigen Chinesen machten Blizzard Entertainment, die Herstellerfirma des
Online-Spiels World of Warcraft für den Tod ihres Sohnes verantwortlich. Dieser soll beim
Nachstellen einer Spielszene im Jahr 2005 ums Leben gekommen sein.55
Der virtuelle Körper besteht also aus den Manifestationen verschiedenster Datenstrukturen
im virtuellen Raum, aus einem Datenprofil. Er kann beispielsweise bei einer Google-Suche
nach einer Person mehr oder weniger sichtbar werden, er kann transparent oder opak sein,
mächtig und ausgebildet oder fragil und feingliedrig. Was die Konstitution meines virtuellen
Körpers von der seines biologischen Pendants unterscheidet, ist offensichtlich: Beide Körper
können von mir geformt, verändert, beschnitten, verletzt, vergrößert, verkleinert und in ihrem Aussehen modifiziert werden – mit einem virtuellen Körper werde ich aber nicht geboren, ich kann ihn erfinden und ich kann ihn töten, ohne, dass meine biologische Existenz ein
Ende findet. Den Körper aus Muskeln, Fleisch und Knochen, mit dem ich geboren wurde,
kann ich dahingegen nur bedingt modifizieren, um ihn meinen Bedürfnissen unterzuordnen.
54 Siehe Glossar der vorliegenden Arbeit.
55 Spiegel Online (2005, Internet): Tod durch Onlinespiel?
24
KÖRPERLICHKEIT
2.2.3. Repräsentationsflächen – Das Äußere der in der Virtualität geborenen Körper
Wie findet diese Anpassung im Falle des virtuellen Körpers statt? In der virtuellen Welt Second Life führt jeder Spieler eine in der äußeren Erscheinung menschenähnliche Figur, deren
Geschlecht, Größe und Körpermerkmale er festlegen kann, um diesen Avatar dann im Verlauf des Spieles – ganz wie im richtigen Leben – mit verschiedensten Accessoires zu auszustatten. Sei es Kleidung oder Schmuck – in Second Life haben sich ganze virtuelle Industriezweige
entwickelt, die ausschließlich der Produktion von Accessoires dienen. Nur erstreckt sich diese
Art der Verschönerung auf einen Stellvertreter, auf einen virtuell vermittelten Körper. Die
Ausformungen der in der Virtualität geborenen Körper, die ich beschreibe, sind jedoch in
ihrer Ästhetik genauso formbar, sogar um einiges variabler, da sie nicht, wie Second-LifeAvatare, an den begrenzten Formkanon eines menschlichen Körpers gebunden sind.
Sie sind nur in wenigen Beziehungen determiniert: Ein StudiVZ-Profil ist in der Gestaltung
immer gleich, denn es besteht kaum eine Möglichkeit, es den eigenen Vorstellungen anzupassen. Bei MySpace verhält sich dies völlig anders: Vergleichbar mit StudiVZ und Facebook erhält
ein neues MySpace-Mitglied eine eigene Seite, die zunächst auch mit einem standardisierten
Layout ausgestattet ist. Dieses Layout kann durch Einfügen von HTML-Code in bestimmte,
ursprünglich für die nähere Beschreibung des Nutzers vorgesehene Felder, verändert und den
eigenen Wünschen fast beliebig angepasst werden.
Die von MySpace ursprünglich vorgesehenen Gestaltungsmöglichkeiten des Profils sind zwar
begrenzter, erstrecken sich aber nicht nur auf die Optik der Seite: Viele User versehen ihre
Profile mit MP3-Playern, so dass die Besucher beim Aufrufen des Profils mit einem Musikstück begrüßt werden. Der in der Virtualität geborene Körper verfügt zwar nicht über eine
Stimme im eigentlichen Sinne, aber er hat einen eigenen Sound.
2.2.4. Zurück zur Körpersprache
Auch, wenn der in der Virtualität geborene Körper nicht über Sprechorgane verfügt – existiert möglicherweise so etwas wie ein Äquivalent zur Körpersprache? Ist eine Form der nonverbalen Kommunikation unter diesen virtuellen Körpern zu beobachten, und – falls ja – wie
gestaltet sie sich?
Kommunikation zwischen unterschiedlichen Profilen einzelner oder mehrerer Nutzer sozialer Netzwerke läuft halbautomatisch und -synchron ab. Besuche ich mein eigenes MySpaceProfil, so werde ich zunächst prominent über die neuesten Statusnachrichten meiner Freunde
informiert. Ich muss also nicht ihre Profile besuchen, um zu erfahren, wie es ihnen just in
diesem Moment geht, die Informationen darüber laufen in meinem eigenen Profil zusammen. Ich muss sie nicht suchen, sie kommen zu mir. Halbautomatisch nenne ich diesen
Prozess, weil im Gegensatz zur vollautomatischen informationellen Massenbestäubung56 ein
direkter Eingriff des Benutzers vonnöten ist: Dieser muss schließlich in seinem eigenen Profil
eine Information, seinen Gemütszustand betreffend, hinterlassen. Ich bezeichne diese Form
56 Siehe Kap 3.5.2. der vorliegenden Arbeit: Informationelle Massenbstäubung.
25
KÖRPERLICHKEIT
der halbautomatischen virtuellen Körpersprache als halbsynchron, weil sich meine eigene
Internet-Präsenz, mein eigener virtueller Körper, ohne mein Zutun ändert.57
Als Beispiel hierfür eignet sich eine ursprünglich vom Instant-Messenging stammende Kommunikationstechnik: Die der Statusmeldung. Will man innerhalb eines Messenging-Dienstes
signalisieren, dass man zwar grundsätzlich erreichbar ist, aber dennoch nicht gestört werden
möchte, so existiert die Möglichkeit des Setzens einer Statusmeldung. Ursprünglich auf das
lakonische „online“, „offline“, oder „away“ beschränkt, bieten die meisten Dienste heutzutage die Möglichkeit an, kurze, persönliche Statusmitteilungen zu verfassen. Diese Verfahrensweise wurde von fast allen Social Networks übernommen, sowohl StudiVZ als auch MySpace
bieten ihren Nutzern die Möglichkeit der Veröffentlichung einer frei wählbaren Statusmeldung.
Die Information darüber, dass sich die Zustandsänderung eines Freundes etwa von „total
happy“ zu „Liebeskummer“ geändert hat, wird in meinem eigenen Profil aktualisiert, ohne
dass ich meinen Computer dafür berühren muss. Ich selbst werde zwar erst dann davon erfahren, wenn ich wieder online gehe. Dritte allerdings, die wiederum mein Profil besuchen,
erfahren sofort und ohne mein Zutun vom beklagenswerten Zustand meines Freundes. Das
Prinzip der Statusmeldung wurde durch den Online-Dienst Twitter58 zum Hauptgeschäftsfeld erhoben. Das so genannte Microblogging, also das Verfassen von SMS-ähnlichen, auf
160 Zeichen beschränkten Kurzmitteilungen, erfreut sich hoher Beliebtheit. Eine Mitteilung
ist dabei im Gegensatz zum Instant-Messenging und zur SMS nicht an eine einzige Person
gerichtet, sondern an alle, die es interessiert. Möchte ich mehr über den Tagesablauf eines
Twitter-Users erfahren, so trage ich mich für eine automatische Benachrichtigung ein und
werde zu seinem follower. Dass hier die Vokabel „to follow“ nicht nur im Sinne von „folgen“,
sondern auch als „verfolgen“, als Stalking, verstanden werden kann, macht nur einige wenige
Datenschützer stutzig.
Bestimmte Informationen schreiben sich also halbautomatisch in meinen virtuellen Körper
ein. Er verändert relativ unabhängig von meiner eigenen Aufmerksamkeit sein Aussehen, indem er Teile von anderen virtuellen Körpern übernimmt – diese Art der Veränderung findet
ausschließlich auf einer Textebene statt und sie findet von der Netzpersönlichkeit unbemerkt,
also unbewusst, statt. Dies ist die Körpersprache des in der Virtualität geborenen Körpers.
2.3. Voyeuristisch, gar masochistisch? Zur bewussten Aufgabe der Privatsphäre
Was einen virtuellen Körper charakterisiert, wie seine Sinnesorgane beschaffen sind und wie
er verletzt werden kann, wurde im Kapitel über Die Organe des in der Virtualität geborenen
Körpers bereits erwähnt.
57 So bildet sich eine dritte Form der Internet-Kommunikation heraus, die sich zwischen synchronen (Chat,
Instant Messenging, Internet-Telefonie bzw. VoIP) und asynchronen Kommunikationsformen (E-Mail,
Publikation von Inhalten auf Internetseiten, Podcasting, etc.) positioniert.
58 Zu finden unter http://www.twitter.com.
26
KÖRPERLICHKEIT
Das meiner Meinung nach herausragendste und gleichzeitig am wenigsten beachtete Körpermerkmal einer Netzpersönlichkeit ist seine Privatsphäre. Sie übernimmt analog zur Haut des
biologischen Körpers eine Schutzfunktionen und ist – vergleichbar mit diesem – sehr empfindlich. Die Privatsphäre umgibt den virtuellen Körper gleich einer hauchfeinen Schicht
– sie bewahrt ihn vor äußeren Einflüssen. Diese Schutzschicht ist allerdings sehr verletzlich,
an vielen Stellen perforiert und droht an jeder Extremität zu reißen. Je weiter sich der in der
Virtualität geborene Körper ausstreckt, desto dünner wird sie. Je mehr ein Anwender von sich
im Netz preisgibt, desto verfolg- und manipulierbarer macht er sich.
Wird ein gewisses Maß an Privatsphäre geschätzt und soll ein Bestand an persönlichen und
privaten Daten Privatsache bleiben, so ist es ratsam, mit den eigenen Daten sehr sparsam
umzugehen. Es ändert meist nicht viel am Erlebnis des virtuellen Raumes, wenn die korrekten persönlichen Daten im Netz preisgegeben werden. Stattdessen erfreut sich eine andere
Vorgehensweise großer Beliebtheit: Das absichtliche Angeben falscher Daten.59 Je mehr erfundene Daten ein Nutzerprofil enthält, desto dicker und undurchdringlicher wird das Fell
Privatsphäre an diesem Punkt. Verfügt ein User über mehrere Profile mit unterschiedlichsten
Nicknames und verschiedenen Avatar-Bildern, ist es zur Zeit ohne staatliche Intervention
unmöglich, seine Datenspur aufzunehmen – die Privatsphäre bleibt gewahrt.
Leider ist das Bewusstsein für eine integere Privatsphäre, für Datenschutz und Persönlichkeitsrechte unter dem Großteil der Nutzerschaft populärer Online-Dienste schlicht und
ergreifend nicht vorhanden. Es scheint der Mehrheit der deutschsprachigen Studierenden
beispielsweise völlig egal zu sein, ob Fotos, welche sie in kompromittierenden Situationen
zeigen – sei es beim Drogenkonsum, bei Alkoholexzessen oder einfach nur in ausgelassener
Partystimmung – in die Chefetagen möglicher Arbeitgeber durchsickern. Fast jeder Bewerbungschef durchstöbert StudiVZ, Facebook und MySpace auf der Suche nach seinen Kandidaten. Gerade bei unter-18-jährigen Kindern und Jugendlichen, die die Zielgruppe des
SchülerVZ darstellen, sind Datenschutz und Privatsphäre nur selten ein Thema.
Das unbändige Verlangen nach Selbstdarstellung in virtuellen Räumen ist der Tod der Privatsphäre. Das ist nicht so negativ gemeint, wie es klingt. Eine selbstbewusste Positionierung
in sozialen Netzwerken beginnt einen immer höheren Stellenwert einzunehmen. Dies gilt
nicht nur für Musiker und Bands, die erste Marketingerfolge hauptsächlich über MySpace
feierten,60 jeder Einzelne kann von einer erfolgreichen Selbstdarstellung profitieren. Dieser
Profit muss nicht zwingend finanzieller Natur sein, auch ein Mehr an Aufmerksamkeit kann
– wie einleitend schon erwähnt – als Profit aufgefasst werden.61
Doch an diesem Punkt hört die freiwillige Datensammlung und -preisgabe der Netzgemeinde noch nicht auf: Erst mittels einer Rasterfahndung quer durch die verschiedenen Social
Networks lassen sich komplette Persönlichkeitsprofile erstellen, die über Freunde, Freizei59 Vgl. Kapitel 2.7. der vorliegenden Arbeit: Digitales Sterben und Not-So-Tiny-Sex.
60 Vgl. hierzu die Erfolgsgeschichte der Arctic Monkeys. S. Wikipedia (2008, Internet), Artikel Arctic Monkeys,
s. Anhang.
61 Vgl. hierzu Kapitel 3.6. der vorliegenden Arbeit: Echt ist nur, was ich sehe – Justin.tv.
27
KÖRPERLICHKEIT
taktivitäten, kulinarische Vorlieben, Mode- und Musikgeschmack usw. Aufschluss bieten.
Nicht nur für die Werbeindustrie hochinteressante demographische Datenprofile einzelner
Gesellschaftsschichten62 werden gesammelt und ausgewertet, die speziellen Interessen Einzelner sind in den Fokus der Aufmerksamkeit der Werbeindustrie gerückt. Personalisierte
Werbung, mit den Worten Felix Schwenzels ausgedrückt, ein »feuchter Wunschtraum von
Werbefuzzis«,63 wird die neuen virtuellen Räume finanzieren.
2.4. Handeln, Erinnern, Lernen, Spielen.
Eine Frage, die sich bei einer Beobachtung der Körperlichkeit im virtuellen Raum aufdrängt,
die aber bisher völlig unberücksichtigt geblieben ist, ist die nach Sinn und Zweck des in der
Virtualität geborenen Körpers: Wenn ein solcher Körper existiert, wozu dient er und was tun
wir eigentlich damit? Wie unterscheidet er sich in seiner Funktionalität von anderen Formen
der Körperlichkeit? Es besteht kein Zweifel daran, dass zwischen virtuellen und biologischen
Körperfunktionen immense Unterschiede auszumachen sind – schließlich kann der in der
Virtualität geborene Körper weder essen noch verdauen, er besitzt keine offensichtlichen
Sinnes- oder Geschlechtsorgane und verfügt deshalb auch nicht über die Möglichkeit, selbstständig zu empfinden oder Erfahrungen zu machen.
Dahingegen kann er wachsen und schrumpfen, er hat neben seiner Ausdehnung eine äußere
Form, eine Oberfläche und einen eigenen Sound. Ich kann mit seiner Hilfe handeln64, erinnern, lernen65 und – nicht zuletzt – auch spielen. Vor allem aber dient er mir als Oberfläche,
als Werkzeug zur Selbst-Veranschaulichung. Ich werde durch ihn nach außen repräsentiert
und er bietet mir durch seine zahlreichen Interfaces Mittel zur Kommunikation.
Ein Beispiel für das geradezu virtuose Spiel mit der Selbstdarstellung, für einen virtuell geborenen Körper immenser Ausdehnung bietet zeFrank. ZeFranks Internetpräsenz bietet neben
einem der bekanntesten Blogs der Welt ein Video-Blog und zahlreiche liebevoll gestaltete
Programmier-Experimente, die zum spielerischen Umgang mit ihr einladen. Als Beispiele
seien hier nur virtuelles Babyspielzeug und mehrere interaktive Ratgeber (»dance properly«,
»communications course #1«) genannt. ZeFrank handelt ganz nach Sherry Turkles Auffas62 Beispielsweise sind mittels einer Auswertung des StudiVZ-Datensatzes Aussagen über den Filmgeschmack
des durchschnittlichen 22-jährigen männlichen Wirtschaftsstudierenden möglich. Die Möglichkeiten des
Profiling, also des gezielten Auswertens dieser Daten, auch über mehrere Internetseiten hinweg, wirken
bedrohlich und scheinen unbegrenzt.
63 Felix Schwenzel (2008, Internet): 10 gegenthesen zu 10 thesen zur digtalen zukunft.
64 Ein Blog mit Namen Dataloo (www.dataloo.de) verbreitete beispielsweise eine Vorlage für eine Sprühschablone, die aus dem stilisierten Konterfei des Bundesinnenministers Wolfgang Schäuble, versehen mit der
Bildunterschrift »Stasi 2.0«, bestand. Innerhalb weniger Stunden erreichte das bis dato unbekannte Blog
knapp 10.000 Besucher und damit für eine kurze Zeitspanne ungefähr die gleiche Zugriffsrate wie die
größten deutschen Internet-Nachrichtenportale tagesschau.de und Spiegel Online. Das Bild wurde in vielen
Versionen angeboten, sogar zu einem Video weiterverarbeitet, tausendfach herunter geladen, benutzt und
neu publiziert. Aus einer einzigen Handlung, einer kleinen Kreativleistung, kann so in kürzester Zeit ein
Massenphänomen werden.
65 Ist eine Webseite mit automatisch aktualisierten RSS-Feeds versehen, so wird der User über Neuigkeiten
in bestimmten Interessensgebieten automatisch informiert.
28
KÖRPERLICHKEIT
Abbildung 4: John Marcotte: Free Speech Flag
Abbildung 5: Ein Produkt des Scribblers, zefrank.com
Abbildung 6: digg.com während des AACS-Falles
Abbildung 7: The horseman meets the oarsman – Veröffentlicht unter Creative Commons 3.0 von Red Labor
29
KÖRPERLICHKEIT
sung einer gleichzeitig multiplen und kohärenten Netz-Identität:
»Man entwirft eine Homepage, indem man Wörter, Bilder und Klänge verknüpft (…). Wie
bei den Agenten der emergenten KI ist die Identität des Users das Resultat der Verknüpfungen
und Verbindungen, die er herstellt.«66
Von einem »digital home«, welches Turkle in diesem Zusammenhang anspricht, sind wir
noch weit entfernt. Möglicherweise ist der in der Virtualität geborene Körper, dessen Hauptmerkmale sich zur Zeit auf Äußerlichkeiten beschränken und eine Oberfläche bilden, ein
Schritt auf dem Weg zum virtuellen Zuhause.
Wird diese Außenhülle um einen von der digitalen Außenwelt abgeschotteten, aber trotzdem
für angemeldete Besucher leicht zugänglichen Bereich ergänzt, ist es aber durchaus möglich,
von einem digitalen Zuhause zu sprechen. Die Google Labs, Googles Entwicklungsabteilung,
haben in diesem Bereich vorgelegt und gezeigt, was mit dem momentan vorhandenen technischen Instrumentarium möglich ist: iGoogle bietet – nach dem obligatorischen Login-Vorgang – nicht nur Möglichkeiten, die Suchfunktionen Googles auf individuelle Erfordernisse
zuzuschneiden, sondern stellt zahlreiche personalisierte Anwendungen zur Verfügung.67 Die
Vehemenz, mit der andere Firmen in diesen Markt vordringen, zeigt, dass dem digitalen Zuhause zumindest heute noch eine große Zukunft vorausgesagt wird.
2.5. Der virtuell-soziale Körper – 24/7-Kommunikationsgemeinschaften
Neben virtuell berührter, virtuell vermittelter und in der Virtualität geborener Körperlichkeit
existiert eine vierte Form der virtuellen Körperlichkeit: Der virtuell-soziale Körper.
Zu diesem Konstrukt existiert kein biologisches Pendant, der virtuell-soziale Körper ist als
digitales Analogon zur Gemeinschaft oder Körperschaft im weitesten Sinne entworfen. Die
Bezeichnung resultiert aus seinen zwei wichtigsten Eigenschaften: Virtuell ist er, weil er sich
ausschließlich im virtuellen Raum konstituieren kann. Die Bezeichnung „sozial“ ist aus der
Tatsache abgeleitet, dass diese Form der virtuellen Körperlichkeit nur unter der einen Bedingung existieren kann, dass sie sich aus zwei oder mehr Mitgliedern zusammensetzt. Ein
Beispiel für einen virtuell-sozialen Körper bietet die Community des Online-Rollenspiels
World of Warcraft, auch die Mitglieder der Plattform Second Life oder – um ein wenig im Anachronismenkoffer der Online-Kommunikation zu wühlen – viele MUDs und sehr bekannte
IRC-Räume, welche rund um die Uhr besucht werden.
Ein interessantes Beispiel für das Verhalten einer Community als ein zusammenhängender
Körper, als Gemeinschaft und letztlich sogar als bestimmend über das Verhalten der eigentlichen Betreiber der Internetseite, die dieser Community ihre Plattform bietet, ist der Streit
66 Turkle (1998), S.420
67 Zum Beispiel einen Kalender, eine lokale Wettervorhersage, individuelle zusammenstellbare News-Feeds,
ein Fernsehprogramm, kleine Spiele, ein E-Mail-Interface, die Möglichkeit, direkt Youtube-Videos abzuspielen; die Liste scheint endlos.
30
KÖRPERLICHKEIT
um die HD-DVD-Verschlüsselungstechnologie AACS68. Einer der wichtigen geheimen
Schlüssel, die benötigt werden, um die Inhalte bestimmte HD-DVDs zu replizieren, wurde
mehr oder weniger durch Zufall entdeckt und auf einigen Internetseiten veröffentlicht.69
Diese Seiten erregten innerhalb kürzester Zeit hohe Aufmerksamkeit und erlangten bei der
Social-Bookmarking-Plattform70 digg sofortige Berühmtheit. Dies zog die Aufmerksamkeit
der Motion Pictures Association of America (MPAA), dem US-amerikanischen Pendant zum
deutschen FSK-System71 auf sich. Die amerikanischen Wächter über die Altersfreigabe, deren
Vereinigung alle wichtigen Hollywood-Filmstudios angehören, sendeten einen cease-and-desist-Brief72 an digg, in dem sie eine sofortige Löschung der Schlüssel forderten. Die Betreiber
der Webseite reagierten umgehend und löschten die betreffenden Verweise auf den Schlüssel
sowie alle Nutzer, die auf die Veröffentlichung hingewiesen hatten. Dieses Vorgehen löste
eine Protestwelle aus, die es in dieser Form im Netz noch nie zuvor gegeben hatte: Hunderttausende Blogger veröffentlichten innerhalb weniger Stunden Beiträge, die ausschließlich den
Schlüssel enthielten und katapultierten ihre Beiträge gegenseitig in der Aufmerksamkeitsmaschinerie digg nach ganz oben. Besonders kreative Blogger setzten die Bestandteile des
Schlüssels in einen Farbcode um, der nun als Free-Speech-Flag vor einem gesetzlichen Eingriff
in die Redefreiheit innerhalb virtueller Räume warnt. Die MPAA musste vor einem solchen
Ansturm die Segel streichen, denn das Verklagen von 500.000 Einzelpersonen, die einen einzelnen Zeichencode publiziert haben, wäre weder wirtschaftlich kluges Verhalten noch eine
besonders geschickte Öffentlichkeitsarbeit gewesen.
Wie sehr die Meinung einer Community ihre eigene Plattform beeinflussen kann, zeigt die
Reaktion des digg-Gründers Kevin Rose:
»But now, after seeing hundreds of stories and reading thousands of comments, you’ve made
it clear. You’d rather see Digg go down fighting than bow down to a bigger company. We hear
you, and effective immediately we won’t delete stories or comments containing the code and
will deal with whatever the consequences might be. If we lose, then what the hell, at least we
died trying.«73
Digg ist eine 24/7-Kommunikationsgemeinschaft. Nachrichten, welche die Gruppe betreffen, verbreiten sich mit rasender Geschwindigkeit durch ein Netzwerk, das niemals schläft.
68 Advanced Access Content System, eine Vorrichtung, um das Kopieren von HD-DVDs (High-Definition
Digital Versatile Discs) zu verhindern.
69 Die Veröffentlichung geschah in hexadezimaler Form, der Schlüssel lautet 09 F9 11 02 9D 74 E3 5B D8
41 56 C5 63 56 88 C0. Diese – eigentlich höchst geheime – Buchstaben-Zahlenkombination ist alles, was
zum Kopieren der ersten Serie kommerzieller HD-DVDs notwendig ist. Sobald neue Schlüssel verwendet
wurden, um HD-DVDs zu schützen, wurden diese schon fast selbstverständlich und ohne ein weiteres
Eingreifen der MPAA veröffentlicht.
70 Siehe Glossar der vorliegenden Arbeit.
71 Die Freiwillige Selbstkontrolle der Filmwirtschaft bestimmt über die Altersfreigabe aller deutschen Kinoproduktionen.
72 In etwa vergleichbar mit einer einstweiligen Verfügung: Der Betroffene wird darum gebeten, die bemängelten Inhalte umgehend zu entfernen, um einem möglichen Verfahren zu entgehen oder Strafmilderung
zu erhalten.
73 Kevin Rose (2007, Internet): Digg This: 09-f9-11-02-9d-74-e3-5b-d8-41-56-c5-63-56-88-c0.
31
KÖRPERLICHKEIT
Die Community eines derartig populären Social Networks kann als virtuell-sozialer Körper
oder gleichsam als virtuelle Körperschaft angesehen werden.
2.6. Interfaces – Verbindungsstellen zwischen Virtualität und biologischem Körper
Der Zusammenhang zwischen Virtualität und Körperlichkeit kann sich jedoch völlig anders
gestalten als bisher beschrieben. Virtuell vermittelte und geborene Körperlichkeit sowie der
zuletzt beschriebene virtuell-soziale Körper existieren ausschließlich in virtuellen Umgebungen. Sie sind entweder eine Projektion biologischer Körpermerkmale in die digitale Welt
hinein oder eine Datenansammlung, die die dazu gehörige Netzpersönlichkeit repräsentiert.
Es drängt sich die Frage auf, ob Verbindungsstellen zwischen biologischen und virtuellen
Körpern existieren, und – falls ja – wie diese beschaffen sind. Am einfachsten sind die Verbindungsstellen bei der virtuell berührten Körperlichkeit zu beschreiben – schließlich könnte
diese ohne Interfaces, die zwischen Virtualität und Körper vermitteln, nicht existieren. Die
Interfaces, von denen ich spreche, sind so banal, wie sie alltäglich sind: Bildschirm, Maus und
Tastatur ermöglichen eine Berührung zwischen virtuellem Raum und phänomenalem Körper.74 Eigentlich sollte dies verwunderlich sein, träumte man doch in den 90er Jahren davon,
dass derart fortschrittliche virtuelle Umgebungen wie Second Life oder World of Warcraft heutzutage standesgemäß mit VR-Brille und Ganzkörperanzug betreten werden. Ich denke nicht,
dass es am mangelnden technischen Fortschritt in diese Richtung liegt, sondern ich vermute,
dass das Interesse, welches einer derart einengenden Bedienung virtueller Welten entgegen
gebracht wird, einfach nicht groß genug ist, um hier einen Massenmarkt entstehen zu lassen.
Kaum jemand möchte einen Anzug tragen müssen, um eine virtuelle Welt zu betreten. Alle
erzielten Immersionseffekte in virtuellen Welten und Online-Rollenspielen entstehen – wie
beim Pen-and-Paper-Rollenspiel auch – in der Phantasie der Spieler.
Zu den grundlegenden Benutzerschnittstellen Bildschirm, Maus und Tastatur gesellen sich
der Joystick und das Gamepad, um unkomplizierter spielen zu können, das Grafiktablett,
um den Vorgang des Zeichnens so einfach und gewohnt wie möglich zu gestalten und das
Touchpad, um auch an Notebooks eine einfache und intuitive Bedienung des Computers zu
gewährleisten. Die entscheidenden Stichworte in diesem Zusammenhang sind „Simplizität“
und „intuitive Bedienbarkeit“.75 Der enorme Erfolg der Spielekonsole Nintendo Wii ist allein
durch den enormen Spielspaß, der durch ihre intuitive Bedienung entsteht, zu erklären. Es
werden seltener Knöpfe gedrückt, denn die Controller sind mit 3-Achsen-Gravitationssensoren und einem Infrarotsender ausgestattet. Der Controller kann somit einfach im Raum
hin- und herbewegt werden, um ein Spiel zu steuern. Um etwa Tennis zu spielen, ahmt man
die Bewegungen eines Tennisspielers nach und die Flugbahn des Golfballes wird durch seinen korrekten Abschlag bestimmt. Der eigene Körper, seine Beweglichkeit und motorische
74 Die Vorzüge und Nachteile der Bedienung von Computern mit Bildschirm, Tastatur und Maus werden
ausführlich im vierten Kapitel der vorliegenden Arbeit erläutert: Materialität.
75 Zur intuitiven Bedienbarkeit neuer Interfaces siehe auch Kapitel 4.7. der vorliegenden Arbeit: Von der
Maus zu Minority Report - Die haptische Revolution im Umgang mit neuen Medien.
32
KÖRPERLICHKEIT
Geschicklichkeit spielen bei einer neuen Generation von Computerspielen eine wesentliche
Rolle.
Die gleichen Interfaces, welche bei virtuell berührter Körperlichkeit für die Berührung sorgen, stellen generell den Kontakt zu virtuellen Welten her. Emoticons und Emote-Tags werden getippt, Smileys werden per Klick ausgewählt und Avatare am Bildschirm verschönert.
Virtuelle Figuren werden nach der uralten Point-and-Click-Methode durch Second Life bewegt. Wie ein Interface gestaltet sein muss, um sich im virtuellen Raum adäquater bewegen
zu können, kann niemand vorhersagen. Was ich jedoch mit Gewissheit behaupten kann, ist,
dass es kein Interface sein wird, welches die Realität vor unseren Sinnesorganen und unserem Körper versteckt. Genau wie virtuelle Räume, die langsam um uns herum wachsen, die
Wirklichkeit ergänzen und erweitern, werden auch ihre Interfaces transparent sein. Wenn es
schon eine Brille sein muss, so wird diese unsere normale Sicht auf die Welt erweitern und
nicht abschaffen und durch etwas Neues ersetzen.
2.7. Digitales Sterben und Not-So-Tiny-Sex
Wenn es einen in der Virtualität geborenen Körper gibt, so stellt sich die Frage, ob dieser
dann auch den Weg alles Körperlichen gehen kann – kann ein virtueller Körper sterben? Wie
im Kapitel über die Privatsphäre beschrieben, ist diese Haut des in der Virtualität geborenen
Körpers sehr verletzlich. Auch seine Organe und Gliedmaßen können abgetrennt, also gelöscht werden und verschwinden.
Was passiert, wenn die Person, welche hinter einem virtuellen Körper steht, stirbt, ist sehr
verschieden: Ihre Online-Profile bleiben – solange dies nicht durch Hinterbliebene unterbunden wird – auf unbestimmte Zeit in den Social Networks bestehen, vermutlich so lange,
wie die Betreiber dieser Netzwerke im Geschäft sind. Auch der digitale Selbstmord findet
immer mehr Anhänger: Damit ist nicht die Ankündigung eines Selbstmordes im digitalen
Medium76 gemeint, sondern das Löschen aller Profile aus Social Networks, das vollkommene Auslöschen des in der Virtualität geborenen Körpers. Meist aus Angst vor schwindender
Privatsphäre und Überwachung, manchmal auch durch drohende Online-Sucht77 motiviert.
Vor allem aber aus Zeitgründen scheint das Verlangen zu wachsen, diesen vollkommenen
Rückzug aus dem Netz anzutreten.78 Die etwas harmlosere Variante des digitalen Selbstmords
ist das Anonymisieren der eigenen Profile in diesen Netzwerken: Bei StudiVZ ist es mittlerweile zur Normalität geworden, den eigenen Namen nicht mehr voll auszuschreiben, sondern
ihn durch einen Phantasie- oder Spitznamen zu ersetzen.79
Den Abmeldungen und Unkenntlichmachungen steht zur Zeit allerdings eine Welle der
76 Siehe Prolog der vorliegenden Arbeit.
77 Vgl.: Hahn / Jerusalem: Internetsucht: Befunde aus vier Onlinestudien, in: Ott (2003)
78 Vgl.: Spiegel Online (2008, Internet): Abschied von StudiVZ und XING: Mein digitaler Selbstmord
79 Vgl.: Spiegel Online (2008, Internet): StudiVZ-Datenschutz: Studenten demonstrieren gegen das SchnüffelVZ
33
KÖRPERLICHKEIT
Neuanmeldungen gegenüber. StudiVZ hat zur Zeit mehr als doppelt so viele Mitglieder, wie
es Studenten gibt.80 Durch eigene Beobachtungen kann ich bestätigen, dass StudiVZ das dritte soziale Netzwerk ist, welches sich neben MySpace und Xing (ehem. OpenBC) etablieren
konnte und auch im außeruniversitären Bereich starke Zuwächse verzeichnen kann.
Neben der in der Einleitung dieser Arbeit beschrieben Behandlung der Ankündigung und
detaillierten Planung eines Selbstmordes im virtuellen Raum existieren – besonders in der
Blogosphäre – einige weitere Seiten, welche sich mit dem Sterben und Tod auseinandersetzen. Besonders das Bestatter-Weblog81 ist hier zu nennen. Der anonyme Autor berichtet in
mittlerweile über 1500 Artikeln über die Skurrilitäten im Bestattungsgewerbe. Vor allem
schreibt er aber sehr emotionale Erfahrungsberichte, die die verschiedenen Arten und Weisen, in denen sich Menschen mit dem Tod ihrer Angehörigen auseinandersetzen, widerspiegeln. Während dieses Weblog – wie viele berufsgruppenspezifische Blogs82 – sich auf eine sehr
seriöse Art und Weise mit seiner schwierigen Thematik auseinandersetzt, kann die einleitend
erwähnte Vorbereitung auf den eigenen Suizid als aufmerksamkeitsheischende Maßnahme
aufgefasst werden.
Der stetig enger werdende Markt der Aufmerksamkeit83 fordert vom Einzelnen immer extremere Aktionen, um wahrgenommen zu werden. Beispiele dafür sind im Zusammenhang
mit dem Online-Rollenspiel World of Warcraft (WOW) zu finden. Ich möchte an dieser Stelle
nur zwei nennen: Ein englischer Spieler ließ sich den Namen seiner Gilde unübersehbar groß
auf sein Hinterteil tätowieren, um sich dafür im Spiel einen Epic Flying Mount, einen sehr
begehrten Flugdrachen, kaufen zu können.84 Diese Art der Drachen scheint unter WOWSpielern äußerst beliebt zu sein, denn eine unbekannte Spielerin bot für eines dieser virtuellen Reittiere ihren eigenen Körper feil. Auf craigslist.com, einem Online-Kleinanzeigen-Markt
veröffentlichte sie folgende Mitteilung inklusive Foto: »Hello I need 5000 world of warcraft
gold for my Epic flying mount. In return, you can mount me.« Nur wenige Tage später schien
jemand zu beiderseitiger Zufriedenheit auf das Angebot eingegangen zu sein.85 Beide Beispiele sind der virtuell berührten Körperlichkeit zuzuschreiben.
Sie erregten größeres Interesse im Netz, viel wesentlicher für die beiden einzelnen Spieler ist
jedoch, dass sie nun innerhalb des Spieles über einen Flugdrachen verfügen, der ihnen immer
und überall einen großen Auftritt beschert. Durch den hohen Preis von mindestens 5000
80 Bei StudiVZ sind nach Angaben der Holtzbrinck-Gruppe über 4,9 Millionen Mitglieder registriert, was
in etwa dem Zweifachen der Studierendenzahl in Deutschland, Österreich und der Schweiz entspricht
(aktuell ca. 2,3 Millionen). s. StudiVZ (2008, Internet): Neues aus dem Maschinenraum
81 http://www.bestatterweblog.de/
82 Zu nennen sind zum Beispiel der Shopblogger – ein Supermarktbetreiber, der Hostblogger – ein Internethoster, der Werbeblogger – betrieben von einem auf neue Medien spezialisierten Werber und das Lawblog, welches von einem Anwalt geschrieben wird.
83 Vgl.: Friebe / Lobo (2006), 80 Millionen Marken? S. 83
84 Heise Online (2008, Internet): Fliegender Untersatz für Hinterntattoo
85 Invisionpower-Forum (2008, Internet): An EPIC Mount...
34
KÖRPERLICHKEIT
WOW-Gold, der zu diesem Zeitpunkt umgerechnet etwa 800 US-Dollar entsprach,86 ist ein
solches Fluggerät im Spiel eine Seltenheit. Sie erregen – sowohl mit ihren Aktionen, als auch
mit den Früchten, die diese tragen – Aufmerksamkeit.
2.8. Auf der Suche nach Aufmerksamkeit
»Seit der Rotationspresse, dem Telefon und der Fotografie explodierten die Medien, gingen
Öffentlichkeit und damit Aufmerksamkeit auf die technischen Medien über. Noch lange aber
beherrschte die öffentliche Aufmerksamkeit die Massenmedien: Zeitungen, Kino, Rundfunk
und Fernsehen. Erst mit dem Video und dann mit dem Computer (…) bricht die Herrschaft
der Massenmedien zusammen und zerfleddert die öffentliche Aufmerksamkeit in eine Vielzahl
zunehmend individueller Nischen.«87
Was mit dem Zapping begann, findet mit Podcatchern88 und Social-Bookmarking-Plattformen seine Fortsetzung: Der Zuschauer übernimmt nach einem Jahrzehnte währenden Diktat
durch die Medienkonzerne wieder die Kontrolle über seinen Konsum. Florian Rötzer jedoch
begreift diesen Vorgang als ein Untergraben der Restsouveränität89 des Zuschauers durch das
Medium. Die Medienlandschaft scheint laut Rötzer dem Zuschauer nun – nachdem er bisher
seinen Fernseh- und Radiokonsum noch mit dem Zepter Fernbedienung regieren konnte
– dieses Zepter aus der Hand genommen zu haben, um ihm jegliche Restsouveränität gegenüber dem Medium zu nehmen. Völlig anders gestaltet sich die Sachlage jedoch, wird sie
von einem weniger kulturpessimistischen Standpunkt aus gesehen: Der Konsument neuer
Medien hat mit der Maus und neuen, interaktiven Bedientechnologien ein neues Instrument
zur Ausübung seiner Macht in die Hand bekommen, welches wesentlich wirkungsvoller ist,
als es die Fernbedienung jemals war. Zudem ist er – Drahtlos-Zugängen, portablen Computern und mobilem Internet sei dank! – nicht mehr an seinen unbeweglichen Thron, den heimischen Fernsehsessel, gebunden, sondern kann nun immer und überall mit dem Medium
verbunden sein.
Nahezu sämtliche Radio- und Fernsehstationen – egal, ob öffentlich oder privat – zeichnen
sich zur Zeit durch eine Einheitskultur der Langeweile aus. Sie versuchen weniger, durch
den besonderen und interessanten Charakter ihres Programmangebotes eine spezielle Hörergruppe zu binden, sondern bevorzugen eine Politik der Nivellierung. Frei nach der Philosophie, dass dort, wo keine Gipfel sind, auch keine tieferen Täler existieren können. Anders
formuliert: Das Programm wird so flach gehalten, dass kaum ein Hörer mehr bemerkt, dass
er gerade Radio hört oder Fernsehen schaut und daraufhin womöglich auf die Idee kommt,
aufgrund der Qualität der Inhalte den Sender zu wechseln. Fernsehen und Radio haben sich
86 Der Umrechnungskurs zwischen WOW-Gold in US-Dollar ist starken Schwankungen unterworfen und
unterscheidet sich je nach Server und Gruppenzugehörigkeit (Allianz oder Horde). Allein zwischen Januar
und Juni 2008 bewegte sich der Kurs zwischen 188 und 68 Euro pro 5000 WOW-Dollar. Verschiedene Unternehmen haben sich auf das Tauschgeschäft mit Computerspiel-Währungen spezialisiert. Siehe
htpp://www.gold-price-check.com/wow_gold_trend_average.html
87 Rötzer (1998), S. 93
88 Siehe Glossar der vorliegenden Arbeit.
89 Rötzer (1998), S. 95
35
KÖRPERLICHKEIT
– im Gegensatz zu Buch und Zeitung – von bewusst konsumierten Medien zu NebenbeiTätigkeiten entwickelt. Welche der Tätigkeiten mehr Aufmerksamkeit erfordert bzw. erregt,
Bügeln oder Fernsehen, Frühstücken oder Radiohören, kann ich nicht sagen. Aber man hört
selten vom „nebenbei-im-Internet-surfen“.
Gerade durch seine Anlage als grundsätzlich interaktives Medium kann das Internet beim
einzelnen Benutzer niemals in die untere Schublade der Achtlosigkeit absteigen. Es wird
immer Aufmerksamkeit erfordern, sich aktiv im Netz zu bewegen oder mithilfe des Netzes
zu kommunizieren.
Das nächste Kapitel wird zeigen, wie eng das stetige Bemühen um die Aufmerksamkeit der
Nutzer mit der Authentizität der einzelnen Angebote zusammenhängt. Die Online-MusikPlattform Last.fm, das Social-Bookmarking-Tool digg, neue Urheberrechtsmodelle am Beispiel von creative commons und Justin Kan, ein Videoblogger, sollen Beispiele für diesen Zusammenhang liefern.
36
DRITTES KAPITEL
Kann ein virtueller Raum authentisch sein? // Besteht ein Zusammenhang zwischen Digitalisierung und dem Verlust von Authentizität? // Welche Verhaltensweisen und Eigenschaften dienen der
Inszenierung von Authentizität im virtuellen Raum? // Gibt es einen Zusammenhang zwischen
der »Ware Aufmerksamkeit« und Authentizität in virtuellen Räumen? // Welche Strategien zur
Aufmerksamkeitserzeugung sind in virtuellen Räumen zu beobachten?
AUTHENTIZITÄT
Die einleitenden Fragen zeigen, dass dieser Abschnitt nicht der Reflektion der vorliegenden
Forschungsergebnisse zur Authentizität90 dienen wird. Es soll genügen, an dieser Stelle das
grundlegend wichtigste Merkmal von Authentizität im Zusammenhang mit medialer Inszenierung, aber auch mit den performativen Künsten darzustellen: Eine „natürliche“ Authentizität existiert nicht: Authentizität ist immer inszeniert, sie setzt einen Macher voraus.91
Die Fragestellungen versuchen also nicht, eine generalisierende Erklärung des Phänomens
am Beispiel virtueller Räume zu bieten. Es sollen vielmehr einzelne Strategien der Herstellung von Authentizität an ausgesuchten Beispielen betrachtet werden. Beginnen möchte ich
mit zwei Adjektiven, die den deutlichsten Unterschied zwischen virtuellen Räumen und der
phänomenalen Realität markieren: Dem Gegensatzpaar „analog“ und „digital“. Die fortschreitende Digitalisierung alter Analog-Medien und ihre Einflüsse auf den Eindruck von
Authentizität, der diese Medien umhüllt, soll am Beispiel von Tonträgern und ihren digitalen
Pendants beschrieben werden.
»Die erste Platte, die ich mir von meinem eigenen Geld gekauft habt, war Electric Café von
Kraftwerk. Ich war 15. Als ich aus dem Plattenladen nach Hause kam, machte ich es mir gemütlich, kochte mir einen Kaffee und ich kann mich noch genau an den Moment erinnern,
in dem die Nadel auf die Platte herabsank. Auch mein zweiter und dritter Plattenkauf sind
mir dauerhaft in Erinnerung geblieben. Isao Tomita mit den Planeten von Holst und The Art
of Noise. Meinst Du, heutzutage kann sich noch ein Jugendlicher an seinen ersten MP3-Kauf
erinnern? Die Wertschätzung für Musik ist vollkommen verloren gegangen. Aber woher sollen
sie es auch wissen? Ob sie jetzt eine MP3-Datei kaufen oder illegal runterladen – im Endeffekt
haben sie nichts in der Hand.«
90 Beispielsweise Erika Fischer-Lichte (2007): Inszenierung von Authentizität; Siemke Böhnisch: Was heißt
wahr sein auf dem Theater? in Fischer-Lichte (1994), S. 125-134 oder Hans-Thies Lehmann (1999): Postdramatisches Theater, S. 170 ff. Einbruch des Realen.
91 Vgl.: Annemarie M. Matzke: Von echten Menschen und wahren Performern, in: Fischer-Lichte (2006), S.3947
37
AUTHENTIZITÄT
Diese Worte stammen – zugegeben – vom Stammtisch, allerdings von einem mit den Mechanismen der Plattenindustrie vertrauten Produzenten zeitgenössischer Popmusik, der sich
– beruflich bedingt – ausgiebig mit dieser Thematik beschäftigt hat.
Etwas Ähnliches hat wohl jeder schon einmal gedacht, der über das Geschäftsmodell von
Online-Musik-Portalen, wie beispielsweise dem des iTunes Music Store, nachgedacht hat. Was
genau wird dort eigentlich verkauft? Musik? Die Gelegenheit, Musik zu hören, oder vielleicht
das Recht dazu? Sollte dieses Recht nicht eigentlich ein Grundrecht sein?
Man hat nach dem Online-Musikkauf de facto nichts mehr in der Hand. Die Plattenhülle
ist genau wie das Jewel-Case der Compact Disc verschwunden. Alles, was vom Kauferlebnis
übrig bleibt, ist der spärliche Inhalt des digitalen Pakets. Ein stellvertretendes Bild, ein Avatar
des Album-Artworks, einige wenige Informationen über den Interpreten, den Komponisten,
das Label und das Jahr der Aufnahme sowie die Musik in Form einer leider meist kopiergeschützten und auf Kosten ihrer Qualität komprimierten Audiodatei.
All diese Informationen lassen sich ohne weiteres innerhalb weniger Minuten, ohne Kopierschutz und in gleicher Qualität aus den verschiedensten Internet-Tauschbörsen zusammenklauben. Bei deren Benutzung bestünde die Schwierigkeit eher darin, nur ein bestimmtes
Album herunterzuladen und nicht gleich den Gesamtkatalog eines Künstlers. Außerdem entfällt die langwierige Anmeldeprozedur, eine Kreditkarte ist nicht nötig, genauso wenig wie
das Preisgeben persönlicher Daten.
Worin kann also die Motivation bestehen, statt des Herunterladens einer so genannten Raubkopie eine MP3-Datei zu kaufen?
Zunächst fällt der Sicherheitsaspekt ins Auge: Beim Kauf einer Audio-Datei kauft sich der
Hörer gleichzeitig den „Segen“ der Musikindustrie mit. Er wird als Käufer der MP3-Datei
zum legitimen Besitzer der Musik erklärt und muss sich demzufolge keine Sorgen um eine
mögliche Strafverfolgung machen. Es wird also ein reines Gewissen verkauft. Doch dieses
kann auch mit dem Kauf eines Albums auf CD erworben werden. Was kann also einen Käufer motivieren, etwas Imaginäres zu erwerben, wenn er ebenfalls die Möglichkeit hat, etwas
zu kaufen, was ihm auf den ersten Blick deutlich realer erscheint?
Zunächst spielen Aspekte der Bequemlichkeit und der sofortigen Verfügbarkeit der Ware
Musik eine große Rolle: Es ist einfacher, einen Online-Musikshop zu besuchen, als den Gang
in den nächsten gut sortierten Plattenladen zu wagen (den es zunächst zu finden gilt). Die
Alben sind im Online-Shop unbegrenzt vorrätig, meist günstiger, gut sortiert und wesentlich
bequemer zu durchsuchen. Auch die Suche nach Querverweisen und Hintergrundinformationen, die normalerweise der gut informierte Plattenhändler für den Kunden vorgenommen
hat (Wer spielte wann, wo und bei welcher Gruppe mit; auf welchem anderen Album ist er
noch zu hören?), ist der zuverlässigeren, elektronischen Suchmethode gewichen. Das gemütliche Kauferlebnis weicht also einer effizienteren, weil zeitsparenderen und exakteren Methode, die richtige Musik zu finden.
Der eigentliche Vorteil eines Online-Musikkaufs aber ist ein anderer: Die nahtlose Einbet38
AUTHENTIZITÄT
tung digital verfügbarer Musik in den Alltag.
Kauft ein Kunde ein CD-Album und will es mit der heimischen Stereo-Anlage hören, so
stellt dies zunächst kein Problem dar. Möchte er jedoch eine Kopie der Disk fürs Auto haben, liegen ihm die ersten Steine im Weg: Oft ist es nötig, einen Kopierschutz zu umgehen,
ein unerfahrener Nutzer ist schon mit dieser Aufgabe überfordert. Noch schwieriger ist die
Umwandlung ins richtige Audioformat, um die Musik auf einem mobilen Abspielgerät wiederzugeben: Das MP3-Format existiert in unterschiedlichsten Qualitätsstufen, die meist nur
in kryptisch erscheinenden Bitraten angegeben werden. Zwischen diesen kann ohne entsprechendes Hintergrundwissen nur per Trial-&-Error-Verfahren entschieden werden. Mono-,
Stereo-, Surround-MP3-Dateien mit konstanter oder variabler Bitrate stehen zur Auswahl.
Die Existenz von vielen anderen, meist proprietären und somit zu den Playern der meisten Hersteller inkompatiblen Formaten gestaltet den Enkodierungsprozess nicht leichter.
Im Zuge der andauernden Reformen des Urheberrechts, die gern zum Anlass genommen
werden, das Recht auf eine Privatkopie noch einmal zu überdenken, bewegt sich der Nutzer
zudem zunehmend am Rande der Legalität, vor allem, wenn er beim Überspielen der CD auf
ein anderes Medium einen Kopierschutz umgeht.
Der Kauf in einem Online-Musik-Store gestaltet sich völlig anders: Die Dateien sind blitzschnell auf der Festplatte und erscheinen umgehend in der Musikbibliothek des Kunden. Es
ist ohne weiteres möglich, eine standardkonforme Audio-CD davon zu brennen, auch das
Kopieren auf den Musik-Player oder das Telefon der Wahl ist ein Kinderspiel.
So wird also das haptische Erlebnis des Plattenkaufs schleichend durch den bequemeren
Online-Einkauf ersetzt. Das Besitzgefühl, welches durch die Materialität eines Albums entsteht, scheint zwar völlig zu verschwinden, es weicht aber zugunsten der nahtlosen Integration von Musik in unseren Alltag. Ein Gefühl von Authentizität wird nicht mehr über
das in-der-Hand-halten eines physischen Datenträgers vermittelt, sondern resultiert aus der
ständigen Verfügbarkeit der Daten. Ein Zugriff auf sie ist überall möglich, sei es auf dem
MP3-Player, im Auto, auf dem Notebook oder eben – ganz traditionell – zu Hause auf der
Stereo-Anlage.
Damit sind aber die Möglichkeiten des Umgangs mit digitaler Musik noch nicht vollständig
beschrieben: Liegen Musikstücke in digitaler Form vor, ergeben sich neue Zugriffsmöglichkeiten: Es ist möglich, sie zu bearbeiten, zusammenzuschneiden, ihre Meta-Informationen
semantisch miteinander zu verknüpfen, sie zu mischen, sie zu taggen und sie zu publizieren.
3.1. Urheberrecht und Creative Commons – Fesseln oder Flügel einer neuen Welle
der Kreativität?
Diese Möglichkeiten bestehen nicht nur bei Musikstücken, sondern bei jeder medial vermittelbaren Kreativleistung, die ihren Weg in die digitale Form gefunden hat – auch Texte, Bilder und Videos werden im Rahmen des durch neue technische Möglichkeiten eingeleiteten
Wandels zugänglicher – und gewinnen damit an Präsenz.
39
AUTHENTIZITÄT
Ob der Titel des bereits 1987 durch Vilém Flusser veröffentlichten Textes Hinweg vom Papier
als Aufforderung oder nur als Prophezeiung oder Zustandsbeschreibung aufgefasst werden
soll, bleibt unklar. Bemerkenswert ist jedoch, dass sich Flusser bereits zu diesem Zeitpunkt
der Möglichkeiten des digitalen Zeitalters vollkommen bewusst zu sein schien:
»Der ins elektromagnetische Feld hineingeschriebene Text ist jedoch «dialogisch» (…). Er ist
nämlich nicht mehr an Empfänger gerichtet, die ihn in ihrem Gedächtnis speichern, ihn kritisieren (zersetzen) oder kommentieren (weiterführen). Vielmehr ist er an Empfänger gerichtet,
die ihn prozessieren (manipulieren, umstülpen, verändern).«92
Kreative Empfänger, die Texte manipulieren, umstülpen und verändern – genau diese durch
Flusser beschriebene Art des Umgangs mit neuen Medien, des Erstellens der Inhalte der
virtuellen Räume, die das Web 2.0 als „Mitmachnetz“ konstituieren, ist mit dem heutigen
Urheberrecht nicht vereinbar.
Schon der traditionelle Remix einer Platte, das Verwenden eines einzigen Audiosamples, verlangt von einem Musiker einen bürokratischen und im Endeffekt auch finanziellen Hürdenlauf, der meist ohne Anwälte und Plattenfirma bzw. Produzent nicht zu bewältigen ist.
Wenn nun aber private Nutzer des Internets Inhalte manipulieren, umstülpen und schneiden
wollen, wären die rechtlichen Folgen unüberschaubar und das Unternehmen von vornherein
zum Scheitern verurteilt. Diese Problematik im Visier, schuf Lawrence Lessing, Rechtsprofessor an der Stanford Law School, 2001 das Konzept von Creative Commons.93
Creative Commons stellt Medienschaffenden, Wissenschaftlern und anderen Kreativen verschiedene Möglichkeiten zur Verfügung, um ihre Werke anderen Nutzern zugänglich zu
machen. Im Gegensatz zu herkömmlichen Lizenzmodellen besteht das vorrangige Ziel der
Creative Commons nicht darin, Urheber- und Verwertungsrechte durchzusetzen oder diese
kommerziell zu verwerten. Stattdessen sind die verschiedenen Lizenztypen94 mit Blick auf
Werte wie Zugänglichkeit und Offenheit konzipiert. Weiterhin unterscheiden sie sich dahingehend von anderen offenen und geschlossenen Lizenztypen, dass sie sich nicht auf eine
einzelne Art von Werken beziehen, wie z.B. die GNU General Public License, welche sich
ausschließlich auf die Weiterverbreitung von Software bezieht, sondern auf jeden Medientyp
angewendet werden können.
Die Creative-Commons-Lizenzen werden ständig überarbeitet und verfeinert, mittlerweile
existieren sogar schon einige lokal beschränkte Lizenztypen, die die Nutzung eines Werkes
beispielsweise nur in Entwicklungsländern zulassen. Außerdem sind alle gängigen Lizenztypen an die Unterschiede im Urheberrecht einzelner Staaten angepasst, so dass viele verschiedene national bestimmte Urheberrechtsvarianten mit einer einheitlichen Lizenz abgedeckt
92 Flusser (1997), S. 64
93 Engl. für „schöpferisches Allgemeingut“, vgl. Wikipedia (2008, Internet), Artikel Creative Commons.
94 Es existieren Lizenzmodelle mit den Bezeichnungen »all rights reserved«, »some rights reserved« oder »no
rights reserved«. Jedes dieser Modelle setzt sich aus verschiedenen Modulen zusammen, die auf folgenden
Fragestellungen basieren: Muss der Name des Urhebers genannt werden? Darf das Werk bearbeitet werden? Darf es kommerziell genutzt werden?
40
AUTHENTIZITÄT
werden können.
Kreative, die diese Lizenztypen nutzen, verfügen über eine rechtliche Absicherung beim Bearbeiten und Weiterverbreiten der Werke anderer, was sich in einer großen Anzahl von Remixes
und Mashups niederschlägt.
Das Führen aller Lizenzen unter dem Namen Creative Commons birgt jedoch auch Nachteile:
Gerade durch teilweise nur marginale Unterschiede zwischen einzelnen Lizenztypen ist vielen
Nutzern nicht klar, dass es sich um unterschiedliche Lizenzmodelle handelt und dass es vor
allem einen deutlichen Unterschied zu Open-Source-Software gibt: Es stehen bei weitem
nicht alle Werke, die unter einer der verschiedenen Creative-Commons-Lizenzen veröffentlicht wurden, für jeden erdenklichen Verwendungszweck frei zur Verfügung.
Nichtsdestotrotz wird durch die Entwicklung von Creative Commons die Remix- und Mashup-Kultur auf eine rechtssichere Basis gestellt und ist so weniger anfällig für die Wellen der
Kritik der ängstlichen Rechteverwertungsindustrie.
3.2. Automatische Kreativität?
Löst man den Begriff der Kreativität vom Geniegedanken und dem „Funken der Inspiration“, lässt er sich auf einen sehr einfachen Nenner bringen: Kreativität bezeichnet den Prozess
des Schaffens einer Innovation.
Gedanken, die bisher ungedacht waren, unerhörte Klänge, vormals ungesehene und unmöglich erscheinende Gebäude, neue Perspektiven – all diese Dinge verlangen zum Zeitpunkt
ihrer Schöpfung und manchmal auch im Prozess ihrer Rezeption nach Kreativität.
Ein Automat hingegen stellt das Gegenteil von allem dar, was als kreativ zu bezeichnen ist: Er
ist eine Einrichtung, die – nachdem sie eine Programmierung erfahren hat, sei diese in ihre
Hardware implementiert oder Software – bestimmte Handlungen vorbestimmt und selbsttätig ablaufen lässt.95 Mit äußerster Kreativität programmierte Software kann nichts an dieser
Tatsache ändern: Ein Programm – und sei es noch so raffiniert geschrieben – kann nicht
kreativ sein.
Oder doch? Ist es möglich, beide Begriffe mit Blick auf die neuesten Entwicklungen des Web
2.0 zusammenzubringen? Während bisher die Entwicklung der neuen Medien im Sinne von
Manovičh – also die Entwicklung von Apparaten, die gleichzeitig Informationen speichern
und mit ihnen arbeiten können – menschliche Kreativität nur erleichtert und unterstützt
hat, sind die Automaten jüngerer Zeit dazu in der Lage, gewisse Prozesse, für deren Umsetzung bislang Kreativität als Voraussetzung galt, selbsttätig zu unternehmen. Erste Versuche in
diese Richtung sind bis in das 18. Jahrhundert zurückzuverfolgen: Wolfgang von Kempelens
Schachtürke, Abbé Micals sprechende Köpfe, Joseph Fabers Euphonia sowie die Musikautomaten Friedrich Kaufmanns bieten frühe Beispiele für den Versuch, den Anschein einer automatisiert produzierten kreativen Leistung zu erwecken. Diese Illusion konnte jedoch nicht
95 Vgl. Wikipedia (2008, Internet), Artikel Automat.
41
AUTHENTIZITÄT
lange aufrecht erhalten werden: Der Schachautomat wurde im 19. Jahrhundert durch Edgar
Allan Poe enttarnt,96 und spätestens mit der Erfindung programmierbarer Universalmaschinen können Musikautomaten nicht mehr als kreative Automaten angesehen werden.
Bei der automatisierten Kreativität, von der ich spreche, soll es nicht um Schöpfungs- und
Schaffensprozesse gehen, die von einer Software übernommen werden. Es geht vielmehr um
die selbsttätige und sinnvolle Verknüpfung bereits existenter Informationen, also um einen
maschinellen Remix mit dem Ergebnis der Produktion neuer und nutzbarer Informationen.
Die Vorteile virtueller Räume im Internet – speziell der Automatismen des Web 2.0 – liegen
in der Vernetzung von Datenströmen aller Art, um einerseits vollautomatisch neue Informationen zu erschaffen und andererseits darin, neue soziale Verbindungen der Benutzer zu
ermöglichen.
3.3. last.fm – Authentisch, weil omnipräsent?
Die Plattform last.fm bietet hierfür das ideale Beispiel: Der Nutzer installiert ein kleines Programm auf seinen Computer, das dazu dient, die Titel der von ihm gehörten Musikstücke
an ein Online-Portal zu versenden. Dieser Prozess wird immer dann in Gang gesetzt, sobald
er ein Musikstück zur Hälfte gehört hat. Dabei spielt es keine Rolle, ob er diese Stücke unterwegs auf einem MP3-Player, einem Handy oder auf dem heimischen Computer gehört
hat. Diese Informationen werden nach und nach zu einem Profil zusammengesetzt, welches
Aufschluss über sein Hörverhalten gibt und in diesem Zuge seine Lieblingslieder und -bands
ermittelt. Der Musikgeschmack eines Hörers wird zu einer für die anderen Nutzer transparenten und durchschaubaren Eigenschaft.
Bis zu diesem Punkt könnte man vermuten, last.fm sei ein automatisiertes System zur freiwilligen Aufgabe der Privatsphäre, welches vermutlich von der Musikindustrie erfunden wurde,
um den individuellen Musikgeschmack eines Hörers zu ermitteln und gleichzeitig herauszufinden, welche der gehörten Stücke möglicherweise auf illegitime Weise ihren Weg auf seinen
Computer gefunden haben.
Abgesehen davon, dass last.fm keine Unterschiede zwischen legal oder illegal erworbenen
Musikdateien erkennen kann, besteht der grundlegende Nutzen der Anwendung im automatisierten Auswerten der Nutzerdaten: Ein Nutzer bekommt anhand der genauen Analyse
seines Hörverhaltens Musik vorgeschlagen, die andere Nutzer mit ähnlichen Hörgewohnheiten bereits hören, er jedoch nicht. Darüber hinaus wird er mit Informationen darüber
versorgt, welche seiner Lieblingskünstler demnächst in der Nähe seines Wohnortes auftreten
werden, und welche andern last.fm-Teilnehmer dieses Konzert besuchen werden. Auch diese
Informationen bekommt das System von anderen Nutzern bereitgestellt.
Zugleich bietet last.fm die Möglichkeit, soziale Kontakte zu entwickeln. Denn die Plattform
96 Poe veröffentlichte 1834 den Text Maelzel‘s Chess Player, in welchem er die Funktionsweise der Kempelenschen Schachmaschine, die inzwischen durch Johann Jakob Maelzel zweitverwertet wurde, genau
beschrieb; s. Poe (1834, Internet).
42
AUTHENTIZITÄT
zeigt neben der in Web-2.0-Anwendungen bereits obligatorischen „Buddy-Liste“, die der
Nutzer selbst gestalten kann, eine Liste der Anwender an, deren Hörverhalten – verglichen
mit seinen eigenen Hörgewohnheiten – die höchste Übereinstimmung aufweist. Das System
versorgt ihn und sein Umfeld, also andere Teile des Systems, mit Informationen, welche vorher nicht existent waren. Diese Informationen hätten ohne eine große Anzahl aufeinander
abgestimmter automatisierter Prozesse überhaupt nicht zusammengetragen werden können
– es ist also kreativ. Dies vielleicht nicht im herkömmlichen, gestaltenden Sinne – dennoch:
Auch die Ausführung eines Remixes birgt Kreativitätspotential. Last.fm führt gleichsam einen
Informations-Remix durch.
Die digitale Kopie eines gekauften Albums kann wesentlich authentischer wirken, als es der
physikalische Datenträger je war. Man kann diese Kopie zwar nicht mehr anfassen, jedoch
ist die Zahl der Möglichkeiten ihrer Verwertung und des direkten Umgangs damit exorbitant
gestiegen.
Durch die ständige Verfügbarkeit97 der digitalen Daten und ihre Verknüpfung in sozialen
Netzwerken sind sie mehr denn je in den Alltag einer noch kleinen, aber stetig wachsenden
Gruppe von Menschen integriert. Sie sind omnipräsent.
Vilém Flussers Text über den städtischen Raum und die neuen Technologien prophezeit ein
Verschwinden des urbanen Raumes oder zumindest ein Schrumpfen dessen.98 Das Schrumpfen vollziehe sich, indem die Menschen ihre Häuser nicht mehr verlassen müssten, da die
Informationen mit der Entwicklung neuer Technologien – gleich dem Berge des Propheten
– durch kleine Röhren automatisch zu ihnen nach Hause kämen.
Diese These erscheint überholt. Zwar kommen die Informationen zu den Menschen, aber sie
werden – im Zuge des Ausbaus flächendeckender kabelloser Hochgeschwindigkeits-Datenverbindungen und der Nutzung neuester Gadgets99 – dort rezipiert, wo sich die Menschen
gerade aufhalten, egal ob dies zu Hause, im Park oder im Schuhgeschäft ist.
Ein System, welches eine derartige Omnipräsenz aufweist, gilt per se als authentisch. Das
beste Beispiel hierfür bietet die Geldwirtschaft. Geldscheinen und Münzen wird nicht nur
deswegen vertraut, weil man sich auf sie geeinigt hat und weil sie den Anschein von Fälschungssicherheit vermitteln – wir glauben vor allem an den Gegenwert des Geldes, weil das
System nahezu omnipräsent ist und fast überall Gütigkeit zu haben scheint. Eine ähnliche
Omnipräsenz können virtuelle Räume im Netz – zumindest innerhalb der gut versorgten Industriestaaten – in den nächsten Jahren erlangen. Warum sollten wir ihnen also nicht vertrauen? Als weiteres Beispiel möchte ich die GPS-Navigation anführen – Millionen von Kapitänen, Piloten und Autofahrern, sogar das Militär, vertrauen dem Satellitennavigationssystem
97 Die Daten sind in zeitlicher und gleichzeitig in räumlicher Hinsicht ständig verfügbar, sie werden einerseits jederzeit vorgehalten, andererseits können sie mittels mobiler Internet-Technologie von überall
gesendet und abgefragt werden.
98 Flusser (1997), S. 172.
99 Siehe Kapitel 4.7. der vorliegenden Arbeit: Informationen zum Anfassen: Das Internet wird be-greif-bar.
43
AUTHENTIZITÄT
ununterbrochen und teilweise blind – weil es omnipräsent ist.
Die Möglichkeiten, welche die fortschreitende Digitalisierung von ursprünglich griffigen
Tonträgern für den Umgang mit Musik bietet, eröffnen – wie beschrieben – grundlegend
neuartige und bahnbrechende Perspektiven ihrer Nutzung. Doch das betrifft nur die Gruppe
der Hörer der Musik – alle neuen Möglichkeiten scheinen sich ausschließlich auf Konsumentenseite auszuwirken.
Der Umgang mit der voranschreitenden Digitalisierung auf Produzentenseite stellt sich ungleich schwieriger dar: Es herrscht vor allem Verunsicherung. Die Pressemitteilungen und
die Handlungsweise der Musikindustrie verraten Unsicherheit darüber, wie unter diesen
Umständen mit dem Urheberrecht umgegangen werden soll. Original und Kopie sind bei
digital vertriebener Musik nicht mehr voneinander unterscheidbar. Wie also ist es zukünftig
möglich, als Schöpfer am Erfolg seines Kunstwerks zu partizipieren? Zusammengefasst ist
sich das Gros der Label, Manager und Vermarkter, der Sender und der Werber nicht sicher,
an welcher Stelle innerhalb eines derartig neu gestalteten Marktes sich denn nun eigentlich
das Geld verdienen lässt.
Diese absolute Ratlosigkeit, welche die Musikindustrie beim Verlassen des gewohnten Verkaufsparketts in Richtung E-Business befällt, lässt sich gut am anfänglichen Zögern aller
Labels, bei Apples iTunes Music Store einzusteigen, ablesen. Der iTunes-Store ist bereits fünf
Jahre nach seinem Markteintritt zum größten Musikhändler der USA aufgestiegen, und zwar
sowohl in Bezug auf Online- als auch auf traditionelle Ladenverkäufe.100 Die Vertreter der
Musik- und der Filmindustrie nehmen aber trotz dieser enormen Erfolge weiterhin die Rolle
ihrer ehemals ärgsten Gegner ein: Die der verzweifelten Kulturpessimisten.
Labels und Studios initiieren automatisierte Klagewellen gegen zehntausende Nutzer von
Filesharing-Diensten,101 beklagen sich über Umsatzeinbußen in Millionenhöhe und fordern
Rechte für sich ein, von denen andere Konzerne nur träumen können – aktuell den direkten
Auskunftsanspruch bei Urheberrechtsverletzungen, so dass die Rechteinhaber und deren Vertreter die Namen der Tauschbörsennutzer direkt von deren Internetprovider erfahren können, ohne den derzeitigen, für sie lästigen Weg über die Strafverfolgungsbehörden wählen zu
müssen102. Ein weiteres Beispiel für den Versuch der Musikindustrie, absurd wirkende Gesetze zu erwirken, ist das Anliegen, das Wegwerfen von Audio-CDs unter Strafe zu stellen.103
Doch es existieren auch auf der Produzentenseite positive Effekte der Social Networks und
der anderen, einfach gewordenen Musikdistributionsmöglichkeiten über das Internet: Zahlreiche Online-Labels erobern den Markt, Bands wie die Arctic Monkeys wären ohne MySpace,
durch das sie ihre Fangemeinde aufbauen konnten, kaum denkbar.
100 Apple (2008, Internet): iTunes Store Tops Over Five Billion Songs Sold.
101 Golem.de (2006, Internet): Weltweite Klagewelle gegen Tauschbörsennutzer.
102 Darüber wurde im Bundestag am 11. April 2008 abgestimmt, der Gesetzesentwurf ist einsehbar unter
http://dip21.bundestag.de/dip21/btd/16/050/1605048.pdf
103 Heise Online (2008, Internet): Musikindustrie will Wegwerfen von CDs verbieten.
44
AUTHENTIZITÄT
Dennoch – oder gerade deshalb: Traditionelle Verkaufsmodelle, welche vorsehen, eine bestimmte, möglichst günstig hergestellte Ware, also einen Tonträger, gegen einen möglichst
hohen Geldwert zu tauschen und so den Gewinn zu maximieren, greifen nicht mehr. Denn
sie basieren auf der Annahme, dass ein „echtes“, einmaliges Original existiert, welches einen
materiellen Wert aufweist. Dieses Original ist zwar im Falle des Tonträgers tausendfach vorhanden, dennoch hat ein Käufer die Gewissheit, etwas in der Hand zu halten, was er nicht
mit einfachsten Mitteln in vergleichbarer Qualität selbst zu Hause herstellen kann.
3.4. Von der Echtheit der Kopie
Diese Form der Originalität ist bei den über das Internet verbreiteten Kunstwerken nicht
mehr gegeben. Es sind zwei Sichtweisen auf das Problem denkbar: Entweder existiert das
einmalige Original nicht mehr oder jedes heruntergeladene Duplikat muss als Original betrachtet werden.
Walter Benjamin umschreibt diesen Umstand in seinem Kunstwerk-Aufsatz im Hinblick auf
die Authentizität der Replik eines Kunstwerks: »Der gesamte Bereich der Echtheit entzieht
sich der technischen – und natürlich nicht nur der technischen – Reproduzierbarkeit.«104
Während das Echte aber – schuld an diesem Umstand sind vor allem Fehler, die einer von
Hand produzierten Replik anhaften, einer technischen Reproduktion jedoch nicht – der manuellen Reproduktion gegenüber seine volle Autorität bewahre, sei dies bei der technischen
Replik nicht der Fall.
Einen Teil dieser Aussage möchte ich anzweifeln, dann selbst bei Medien, die ohne die Hilfsmittel der technischen Reproduktion nicht existieren könnten,105 gilt z.B. ein Glasmaster, also
die „Mutter“ oder Urform einer Compact Disc, als besonders wertvoll, wesentlich wertvoller
als ihre technischen Reproduktionen, die im Handel erhältlich sind. Sowohl der OriginalCharakter des Produkts als auch sein Faktor als Unikat sorgen für eine immense Wertsteigerung gegenüber seinen Reproduktionen. Noch deutlicher zeigt sich der Originalcharakter
eines Kunstwerkes als wertsteigerndes Element bei Erstausgaben von Audio-CDs, die später
aufgrund ihres Erfolges neu aufgelegt werden. Sammler bevorzugen Exemplare aus der ersten
Charge – die Wertsteigerung eines Einzelexemplares erfolgt hier ausschließlich aus einem
imaginativen Unterschied zwischen Original und Kopie.
Die Frage danach, ob die Kopie eines Kunstwerks echt ist oder nicht, stellt sich offenbar nicht
mehr, wenn dieses Kunstwerk jegliche physische Präsenz vermissen lässt und ausschließlich
in einer virtuellen Umgebung existiert. So unterscheidet sich die Originalaufnahme eines
Podcasts in keiner Weise von einer seiner digitalen Kopien auf den Festplatten der Hörer.
Würde sich nur ein einziges falsches Bit einschleichen, so sorgten Prüfsummen für ein sofortiges Aussortieren dieser Datei. Entweder, sie existiert als Original oder sie existiert gar nicht.
104 Benjamin (1974), S. 476
105 Insbesondere die Audio-CD ist ohne technische Reproduktion nicht denkbar.
45
AUTHENTIZITÄT
Beschädigungen oder Alterungsprozesse sind im digitalen Universum nicht vorgesehen.106
Der binäre Charakter digitaler Kunst setzt sich also auch im Makrokosmos fort, sie existiert
ohne Patina, entweder sie ist vorhanden oder unbrauchbar – Alterung, Gebrauchsspuren
oder andere Zwischenzustände berühren sie nicht. Weiterhin wird der Authentizitätsbegriff
heute nicht mehr für einen Vergleich z.B. einzelner Abzüge einer photographischen Platte
angewandt, denn die viel dringendere Frage ist, ob ein digitales Foto wirklich das widerspiegelt, was der Sensor der Kamera im Moment der Aufnahme aufgezeichnet hat oder ob eben
dieses Foto digital nachbearbeitet wurde. Selbst eine direkte Einflussnahme auf das Material
wie die nachträgliche Veränderung eines Fotos oder beispielsweise auch einer Sprachaufzeichnung hinterlässt keinerlei augen- oder ohrenscheinliche Spuren und ist somit viel schwerer zu
beweisen als eine Fälschung zu Zeiten der manuellen (Re)-Produktion von Kunst.
Den Stellenwert bzw. die Relevanz eines über ein digitales Medium vermittelten Kunstwerks
über dessen Echtheitsbegriff zu definieren, scheint also ein zweckloses Unterfangen zu sein
und es stellt sich die Frage, ob sich die daraus entstehenden Unwägbarkeiten in der Rezeption107 nicht unmittelbar auf das Kunsterlebnis auswirken.
Benjamin führt weiterhin den durch die technische Reproduzierbarkeit des Kunstwerks ausgelösten Wandel in der Rezeptionsweise an: Erst durch den massiven Anstieg der Anzahl der
Kopien eines Werkes sei der Massenkonsum eines Kunstwerks möglich. Ein gutes Beispiel
hierfür bietet das Hollywood-Kino unserer Tage, welches eine millionenfache Rezeption eines einzelnen Werkes aus nur marginal voneinander abweichenden Beobachterperspektiven
ermöglicht. Benjamin führt in diesem Zusammenhang den Begriff einer simultanen Kollektivrezeption ein; von einer solchen kann man bei der Rezeption von digitaler Kunst meines
Erachtens nicht sprechen. Es ist zwar mit deutlich weniger Aufwand verbunden, Kunst simultan zu konsumieren; und die Anzahl der Rezipienten könnte theoretisch bis ins Unendliche
skaliert werden. Alle Rezipienten könnten durch das Medium verbunden sein; ihnen steht
zumindest ein Rückkanal zur Verfügung, der es erlaubt, im Kontext des Werkes miteinander
zu kommunizieren – trotzdem ist die Rezeption von Medienkunst meist eine sehr einsame
Angelegenheit.108
Auch ein gewisser Respekt vor der Handwerkskunst, die bisher nötig war, um ein Kunstwerk
zu schaffen, scheint im Hinblick auf dessen Marktwert bedeutungslos geworden zu sein, im
Falle von digital verbreiteter Musik versagen momentan – wie beschrieben – alle Mechanis-
106 Jede Kopie ist also das Original, jede Kopie ist authentisch und je mehr Hörer auf diesen Podcast aufmerksam werden, umso zahlreicher die Kopien eines Podcasts sind, desto bedeutender wird er. Dies ist eine
essentielle Voraussetzung für die „Ökonomie der Aufmerksamkeit“.
107 Wird ein digitales Kunstwerk aus dem Internet bezogen, so sind viele Faktoren, welche das Kunsterlebnis
maßgeblich prägen können, nicht mehr vom Künstler beeinflussbar und werden dadurch beliebig: Welcher Monitor wird benutzt; existieren Lautsprecher, und wenn ja: Welche Qualität bieten sie? Steht der
Computer in einem Büro? etc.
108 Dies gilt nur solange für die Rezeption von Medienkunst, wie diese nicht in soziale Netzwerke verlagert
wird.
46
AUTHENTIZITÄT
men des Urheberrechtsschutzes,109 das Label EMI hat kürzlich als letzter der großen Musikdistributoren verkündet, keine kopiergeschützten Audio-CDs110 mehr vertreiben zu wollen
und als erstes der Major-Labels diesen Schritt auch für den digitalen Musikvertrieb nachvollzogen. EMI verzichtet weiterhin bei digital verbreiteter Musik auf einen Kopierschutz und
eine damit verbundene digitale Rechteverwaltung. Den Schutz vor einer technischen bzw.
einer simplen digitalen Reproduktion aufgebend, scheint es einfacher und vor allem umsatzträchtiger zu sein, hochqualitative und nicht mit einem Kopierschutz versehene Musik zu
verkaufen. Dieser Umstand sollte sich eigentlich von selbst verstehen, scheint sich aber über
Jahre hinweg nicht in die Chefetagen der Musikanbieter herumgesprochen zu haben.
Bis zum heutigen Tag haben sich dagegen fast alle großen Musikdistributoren – selbstverständlich ausschließlich aus wirtschaftlichen Gründen – dazu durchgerungen, ihre Musik
ohne digitalen Kopierschutz anzubieten. Als Beispiel hierfür soll der vom Online-Kaufhaus
Amazon angebotene Musikservice dienen, dessen hauptsächliches Unterscheidungsmerkmal
zu Apples iTunes-Store darin besteht, dass ausschließlich kopierschutzfreie Musik in hoher
Qualität vertrieben wird.
Trotzdem bleibt die Frage offen, an welcher Stelle in diesem System das Geld verdient wird:
Die Labels kämpfen nach wie vor mit starken Umsatzrückgängen. Dies ergibt sich aus der
Tatsache, dass die Verkaufszahlen von Tonträgern über die Jahre hinweg deutlich stagnieren
und die neu dazu gekommenen Download-Charts diese Stagnation im Gesamtergebnis zurzeit nur dämpfen, aber nicht vollständig kompensieren können. Auch das ist eine logische
Folge aus den Möglichkeiten, die die Digitalisierung den Rezipienten in die Hand gibt. Je
einfacher es ist, „Raubkopien“ zu erstellen und je mehr davon in Umlauf kommen, desto
weniger Tonträger werden verkauft und desto kleiner ist der Anteil legal erworbener Musik
am Gesamtvolumen. Eine Patentlösung für dieses Dilemma existiert – abgesehen von drakonischen Strafmaßnahmen in Form von Massenklagen über astronomisch hohe Streitwerte,
also der Kriminalisierung der Mehrzahl der Kinder, Jugendlichen und jungen Erwachsenen
– nicht.
3.5. Die Ökonomie der Aufmerksamkeit
Auch, wenn es für digitale Musik – abgesehen vom eher am traditionellen Warenhausprinzip
orientierten iTunes Music Store – noch keine Musterbeispiele für das große Geschäft gibt – die
Strukturen, die sich im Web 2.0 herausbilden, ähneln immer mehr denen eines klassischen
Marktes. Mit dem Unterschied, dass meist nicht mit Geld, sondern mit Aufmerksamkeit und
Respekt gehandelt wird.
Diese Ökonomie der Aufmerksamkeit beschreiben Holm Friebe und Sascha Lobo unter Be109 Sie leiden einerseits unter mangelnder Akzeptanz beim Kunden, andererseits sind die meisten Kopierschutzmechanismen leicht zu umgehen und deshalb nicht wirksam.
110 Mit einem Kopierschutz versehene Audio-CDs werden umgangssprachlich auch als Un-CDs bezeichnet,
da sie meist dem RedBook-Standard für Audio-CDs nicht mehr entsprechen und demzufolge von einigen
CD-Playern nicht abgespielt werden können.
47
AUTHENTIZITÄT
zugnahme auf Georg Franck.111 Franck stellt die Frage, ob – angesichts des Universalcharakters der Aufmerksamkeit, man könne seine Aufmerksamkeit für alles Erdenkliche ausgeben
– die Aufmerksamkeit nicht das Geld als Währung ersetzen sollte. Bei der Fortschreibung
dieser Theorie durch Friebe und Lobo ist vor allem die auto-affirmative Steuerung der Aufmerksamkeit der Konsumenten neuer Medien von Belang, denn mittlerweile hat sich in
Form von Social-Bookmarking-Plattformen und anderen virtuellen Räumen ein regelrechter
Marktplatz der Aufmerksamkeit entwickelt. Bei diesen Tauschgeschäften nimmt mit erhöhter Aufmerksamkeit auch die Relevanz der einzelnen Angebote zu. Diese Relevanz ist für viele
Blogger und Podcaster mit konkretem, wirtschaftlichen Erfolg gleichbedeutend. Aufmerksamkeit ist zur Währung geworden.
Die Relevanz bzw. der Wert, der in Social-Bookmarking-Plattformen einem einzelnen Text
oder einem einzelnen Autor zugeschrieben wird, generiert sich – im Gegensatz zu der Wichtigkeit, die einem einzelnen Text bei Google eingeräumt wird – nicht ausschließlich, aber
zu einem großen Anteil aus der Anzahl der Verweise anderer Medienschaffender auf diesen
Text. Der grundlegende Unterschied zur Suchmaschinen-Technologie besteht darin, dass ein
Text von einem Leser (und nicht von einem Automaten oder einem Programm) als wichtig
markiert werden kann. Dieser Leser muss selbst weder Autor sein, noch muss er sich in einer
sonstigen Machtposition über die konsumierten Inhalte befinden. Was als relevant gilt, wird
von denen entschieden, für die es relevant ist.
Ist der Autor selbst Mitglied bei einer dieser Plattformen, so finden sich unter den Texten auf
seiner eigenen Internetpräsenz oft Icons, die mit kurzen Erklärungen – zum Beispiel: »digg
it!« – versehen sind. Klickt nun ein Leser dieses Icon an, so gibt er seine Stimme für die Relevanz des Textes ab. Diese Handlung wird im für den Autor günstigsten Falle tausendfach
wiederholt. Je öfter etwas wiederholt wird, desto mehr prägt es sich ein und desto relevanter
ist es.
Das Phänomen der Wiederholung an sich – auch wenn von Kierkegaard als einzig mögliche
Wiederholung die Unmöglichkeit derselben postuliert wurde112 – spielt eine bedeutende Rolle bei der halbautomatischen Generierung von Aufmerksamkeit im Web 2.0. In der genauen
111 Friebe / Lobo (2006), S. 218; Franck (1998), S. 72 ff.
112 Meines Erachtens ist es wichtig, zwischen einer wahrgenommenen Wiederholung und der fiktiven Möglichkeit einer Iteration zu unterscheiden. Kierkegaard bezieht sich selbst in seinen fiktiven Experimenten
ausschließlich auf die konkrete Wahrnehmung einer Wiederholung. Voraussetzung dafür ist ein wahrnehmendes Bewusstsein, welches sich im Klaren darüber ist, dass es sich bei einem wahr-genommenen
Ereignis einmal um ein „Original“ und ein weiteres Mal um dessen Wiederholung handelt. Ohne diese
Veränderung im Bewusstsein wäre das Wahrnehmen einer Wiederholung unmöglich.
Die bewusstlose Wiederholung dagegen ist ein rein theoretisches und in dessen Folge ein informationstechnisches Phänomen, welches auf die Übertragung von ursprünglich mechanischen Prinzipien – z.B.
beim Arbeiten mit Programmschleifen – auf die Informationstechnologie gründet. Sie tritt ausschließlich
in einem virtuellen und fiktiven Kontext auf, da natürliche wie auch künstlich erzeugte Wiederholungen
in der phänomenalen Welt immer mit Problemen der Abnutzung oder des Energieverlustes behaftet sind.
Die ideale mechanische Wiederholung ist nur in Form eines Perpetuum Mobile denkbar und dieses ist
leider – fiktiv. Siehe auch Kierkegaard (2000).
48
AUTHENTIZITÄT
Wiederholung bestätigt ein Ereignis gleichzeitig seine eigene Existenz und bekräftigt damit
seine Relevanz. Dies gilt gleichermaßen für eine wahrgenommene als auch für eine fiktive
Wiederholung. Eine wahrgenommene Wiederholung ist darüber hinaus transitorisch – was
eigentlich ihrem Dasein als Wiederholung widerspricht – da der Wahrnehmungsprozess einer Wiederholung selbst nicht wiederholbar ist. Déjà-vu-, Déjà-entendu- oder Déjà-vécuErlebnisse sind vielen von uns schon begegnet: Diese Wiederholungserlebnisse, welche sich
an den Grenzen zwischen Wahrnehmung und Unterbewusstsein bewegen, sind per definitionem transitorisch.
Wird also eine Handlung wiederholt – egal, ob von einer oder von mehreren Personen, von
Maschinen oder determinierten Programmstrukturen – so gewinnt sie an Relevanz. Ein Beispiel hierfür bilden große Volksabstimmungen, bei denen teilweise Millionen von Menschen
bis ins Detail die gleiche Handlung vollziehen – nämlich ihr Kreuzchen heimlich auf der
exakt gleichen Stelle eines Zettels zu platzieren – um dann im Kollektiv eine der relevantesten
Entscheidungen überhaupt getroffen zu haben. So gründet sich das Prinzip der demokratischen Meinungsbildung unter anderem auf dem der Wiederholung.
Genau dieses Prinzip liegt Social-Bookmarking-Diensten113 zugrunde: Social Bookmarking
transportiert außerdem eine andere, relativ angestaubt wirkende Verhaltensweise – das Anlegen von Lesezeichen – in ein neues Jahrtausend. Erscheint dem Nutzer des Dienstes ein
bestimmter Artikel im Netz als interessant und erinnerungswürdig, speichert er die Adresse
dieses Artikels nicht nur auf dem eher traditionellen Wege in seinem Browser ab, sondern
übermittelt einen Link zu diesem Artikel zum Social-Bookmarking-Dienst, der eine Art zentralisierte Lesezeichenverwaltung für Millionen von Nutzern darstellt. Entscheiden sich nun
tausende von Benutzern gleichzeitig dafür, dass ein Artikel, ein Video oder ein Podcast sehens-, lesens- oder hörenswert ist, steigt dieser in der Rangliste der Relevanz nach oben, bis
hin zur höchsten Stufe: Der Startseite von digg.com. Ist ein Link dort verzeichnet, greift das
Prinzip der Autoaffirmativität – der Link wird nun von hunderttausenden Benutzern der
Plattform gesehen und angeklickt und steigt so immer weiter im Ranking, bis letztendlich die
Aufmerksamkeit nachlässt und der Verweis nach einiger Zeit im Hintergrundrauschen der
Irrelevanz verschwindet. An diesem Punkt – gerade, wenn es um Aufmerksamkeitsströme,
die vom Rezipienten ausgesandt und von einer Plattform ausgewertet werden, geht – liegt ein
Abstecher zur Radiotheorie Bertolt Brechts nahe.
3.5.1. Vom Radio zum Web 2.0 – Brechts Radiotheorie und das neue Netz
»Der Rundfunk [hat] eine Seite, wo er zwei haben müsste. Er ist ein reiner Distributionsapparat, er teilt lediglich zu. (…) Ein Vorschlag zur Umfunktionierung des Rundfunks: Der Rundfunk ist aus einem Distributionsapparat in einen Kommunikationsapparat zu verwandeln. Der
Rundfunk wäre der denkbar großartigste Kommunikationsapparat des öffentlichen Lebens,
ein ungeheures Kanalsystem, das heißt, er wäre es, wenn er es verstünde, nicht nur auszusenden, sondern auch zu empfangen, also den Zuhörer nicht nur hören, sondern auch sprechen
113 Siehe Glossar der vorliegenden Arbeit.
49
AUTHENTIZITÄT
zu machen und ihn nicht zu isolieren, sondern in Beziehung zu setzen.«114
Bertolt Brecht entwirft in einem Teil seiner Radiotheorie in den 1920er und 1930er Jahren
ganz nebenbei die Utopie einer Kommunikationsform, die offenbar erst mit der Erfindung
des Internets Wirklichkeit werden konnte. Alle dem Internet vorausgehenden und für die
breite Öffentlichkeit zugänglichen Produktionsmöglichkeiten sendetauglicher Programminhalte – z.B. die der relativ unpopulären offenen Kanäle der Radio- und Fernsehanstalten –
waren zwar in der Theorie wie auch praktisch vorhanden, sie wurden trotzdem nur von einer
sehr begrenzten Personengruppe auf Senderseite und von einer statistisch noch irrelevanteren Menge von Rezipienten genutzt. Die in den offenen Kanälen erzielten Ergebnisse sind
selbst nach großen Lernfortschritten der Privatpersonen, die in die Rolle der Medienmacher
schlüpfen, weit davon entfernt, professionell zu wirken und damit eine größere Zuschauergruppe ansprechen zu können.
Mit der Einführung von Computerprogrammen wie Microsofts FrontPage, welche es technisch unerfahrenen Menschen erlaubten, eigene Internetseiten mit wenigen Klicks zu erstellen
und zu veröffentlichen, war zumindest die technologische Hürde, die vom Produzieren und
vor allem vom Publizieren abhielt, überwunden. Leider waren die erzielten Ergebnisse ebenso
amateurhaft und unansehnlich wie die privat produzierten Radio- und Fernsehsendungen.
Von gut strukturierten, zugänglichen und gleichzeitig geschmackvoll gestalteten Internetauftritten, welche sinnvollen Inhalt präsentieren, waren diese Seiten meilenweit entfernt. Dies
bemerkten anscheinend auch deren Macher – was in einer schier endlosen Zahl von Baustellengrafiken auf privaten Homepages resultierte. Der „Coming-Soon-Boom“ brach über das
Internet herein. Der Schriftzug „Coming Soon“ entwickelte sich im Verständnis technisch
versierter Besucher schnell zum Synonym einer Todesanzeige für die entsprechende Domain.
Von einem Kommunikationsapparat des öffentlichen Lebens, wie ihn sich Brecht wünschte,
war diese Form des Internets also noch sehr weit entfernt.
Brecht entwirft in der Radiotheorie ein Modell des Mediums Radio, welches in der Lage ist,
durch seinen Charakter als Distributionsmedium das politische Bewusstsein der Zuhörer zu
schärfen. Gleichermaßen sei es in der Lage, Massen für politische Zwecke zu mobilisieren.
Die enge Verknüpfung und Beschäftigung aller Medien des Web 2.0 mit Fragen aktueller Tagespolitik lässt sich an vielen Beispielen deutlich machen. Die Einlösung von Brechts Utopie
scheint durch die neuen Web-2.0-Kommunikationsröhren näher gekommen zu sein, als sie
es durch den Einsatz des Mediums Radio jemals war.
Was die Beschäftigung mit Brechts Rundfunktheorie aber noch viel interessanter macht –
daher im ersten Satz dieses Kapitels die Formulierung »ganz nebenbei« – ist der historische
Kontext, in dem er sie entwickelt. Das Radio steckt in den 20er Jahren in seinen Kinderschuhen. Alle technischen Voraussetzungen für seine Entwicklung zum vollwertigen und
anerkannten Medium sind gegeben, dennoch wird es nur in sehr begrenztem Umfang – vor
allem in einer Stellvertreterfunktion für andere Medien, vorrangig für Theater und Literatur
114 Brecht (1967), S. 129
50
AUTHENTIZITÄT
– eingesetzt. Alle anderen Möglichkeiten, wie z.B. die der Verwendung als Distributionsmedium von Nachrichten oder als Diskussions- und Informationsforum und nicht zuletzt die
Verwendung des Radios als Werkzeug zur politischen Mobilisierung der Massen, entwickeln
sich erst zu einem späteren Zeitpunkt.
In dieser Zeit überwindet Brecht mit seinen Aufrufen an die Radiomacher zwei Grenzen
gleichzeitig: Er denkt über neue Verwendungsmöglichkeiten eines technisch begrenzten Mediums, also über einen Umbruch auf inhaltlicher Ebene nach. Gleichermaßen fordert er die
Erweiterung der technisch bedingten Grenzen durch das Umwandeln des Radios in einen
multidirektionalen Kommunikationsapparat. So ist Brecht gemeinsam mit Kurt Weill einer
der ersten Medientheoretiker, der es wagt, über neue, kreative Wege des Umgangs mit einem
gerade eingeführten Medium zu sinnieren – und das sogar abseits der vorhandenen technischen Möglichkeiten des Rundfunks. Zugleich fordern beide, von einer Verwendung des
Radios als reinem Stellvertretermedium Abstand zu nehmen.
Setzt man diese frühe Entwicklungsphase des Rundfunks mit der des Internets in Beziehung,
so offenbaren sich verblüffende Parallelen: Die technischen Möglichkeiten des Netzes waren
Tim Berners-Lee durchaus bewusst, als er 1989 das World Wide Web erfand. Der Weg des
Mediums weg von den Stellvertreterfunktionen kostete allerdings über 15 Jahre und ist bis
heute noch nicht ganz abgeschlossen: E-Mails imitieren weiterhin die klassischen Briefe und
die Voice-over-IP-Technologie versucht gerade, die herkömmliche Telefonie zu ersetzen. Verlage entwickelten digitale Ausgaben ihrer Zeitungen, Rundfunk- und Sendeanstalten stellen
den Großteil ihres Programms als Videostreams zur Verfügung.
Als einzige Lichtblicke im Sinne von Alleinstellungsmerkmalen waren bis zum Ende der
neunziger Jahre die Entwicklung des Usenet und die der daraus resultierenden Forenkultur
zu nennen. Diese bildeten neben Werbe-E-Mails den Löwenanteil der Kommunikation im
heute schon fast traditionell-anachronistisch anmutenden, etablierten Teil des Internets.
Erst die Entwicklung von neuen Geschäfts- und Nutzungsmodellen wie denen von Google, Wikipedia, eBay und auch Amazon, bereiteten den Weg weg vom Stellvertreternetz und
hin zum autonomen und kreativ genutzten Medium. Im Zuge dessen änderte sich auch die
Ausrichtung der Kommunikationswege: War es im Stellvertreternetz normal, dass Kommunikation mono- oder maximal bidirektional erfolgt, profitiert das Web 2.0 von angewandter
multidirektionaler Kommunikation in Form von Kommentaren, Tagging und Social Bookmarking.
Diese für die Entwicklung kommunikativer Web-2.0-Technologien notwendige Zeitspanne,
welche mit fast 15 Jahren für Internet-Verhältnisse extrem lang andauerte, ist der Grund
dafür, dass sich meine Beschreibung dieser Sachlage – entgegen meiner Gewohnheit und im
Einklang mit Brechts Radiotheorie – etwas abseitig von einer formalästhetischen Medienanalyse positioniert: Die Entwicklung der technischen Möglichkeiten des Internets ist zwar eine
grundlegende Voraussetzung für dessen vielfältige Nutzungsformen, ausschlaggebend für die
Etablierung von Netzkunst und womöglich sogar von einigen voneinander abgrenzbaren
Genres sind jedoch die Ideen der Netzpersönlichkeiten, die mit diesem Medium umgehen
51
AUTHENTIZITÄT
bzw. die jener Personen, die es theoretisch reflektieren.
Nicht nur die Anzahl und der Verlauf der Kommunikationswege wurde optimiert, auch ihre
Geschwindigkeit und Effizienz konnte durch neue Technologien wie Trackbacks, Pingbacks
und Feedreader verbessert werden.
3.5.2. Informationelle Massenbestäubung
Die Entwicklung und vor allem die stetig wachsende Verbreitung von Blogs trugen innerhalb der vergangenen vier Jahre zur Etablierung neuer Kommunikationsstrukturen im Netz
bei. Doch was sind eigentlich Blogs? Die schlichte Übersetzung „Internet-Tagebuch“ kann
schon lange nicht mehr dem gerecht werden, was sich hinter dem Wort „Blog“ verbirgt.
Vor einigen Jahren wurde häufig eine Form des Voyeurismus durch Internetseiten in Tagebuchform bedient – heutige, zeitgemäße Blogs bilden aber ein wesentlich breiter gefächertes
Themenspektrum: Sie befassen sich – nach dem „Long Tail-Prinzip“115 – mit fast allem, was
für Irgendjemanden von Interesse ist. Der Begriff Blog beschreibt also nicht die spezielle inhaltliche Ausrichtung einer Webseite, sondern zunächst nur deren Aufbau:
»Weblogs sind oft aktualisierte Websites mit eher kurzen Artikeln, bei denen der neueste Beitrag, bestehend aus Text, Bild, Ton oder Film, in der Regel oben steht. Dazu kommt eine Reihe
von Funktionen, die sich aufteilen in Vernetzung, Kommunikation und Bündelung.«116
Vernetzt sind Blogs zunächst einmal durch die „Urform“ der Vernetzung im Internet: durch
Hyperlinks. Doch nicht nur die bewusst gesetzten Verweise zu anderen Internetseiten – vornehmlich zu anderen Blogs – sorgen für Vernetzung, Kommunikation und Publicity. Sogar
die Blog-Software selbst, das Content-Management-System,117 welches zum Veröffentlichen
der Texte benutzt wird, sorgt für Vernetzung auf vielen weiteren Ebenen. Diese Software
bietet an, auf anderen Internetseiten, die ebenfalls mit einer Blogsoftware betrieben werden
und die sich thematisch in eine ähnliche Richtung orientieren, mittels Track- und Pingbacks
automatisch Kommentare zu hinterlassen. Diese Trackbacks beinhalten einen Auszug des eigenen Artikels zum Thema, der die Leser der anderen Blogs auf den eigenen Text aufmerksam
machen soll.
Es findet also eine ständige, automatische und wechselseitige informationelle Massenbestäubung in der Blogosphäre statt.
Die Brechtschen Grundbedingungen für einen fortschrittlichen Kommunikationsapparat
werden durch die Blogosphäre ausnahmslos erfüllt. Es existiert nun ein Medium, welches
es erlaubt, ohne besondere technische Vorkenntnisse Texte, Bilder, Filme und Töne zu veröffentlichen und zu diskutieren. Blogger, Zuhörer, Zuschauer und Leser können barrierefrei
miteinander in Beziehung gesetzt werden. Die steigende Popularität von Blogs und Blogsoftware ist mit ihrer sehr einfachen Handhabbarkeit zu begründen. Denn es ist genau so
115 Siehe Glossar der vorliegenden Arbeit.
116 Friebe / Lobo (2006), S. 190
117 Siehe Glossar der vorliegenden Arbeit.
52
AUTHENTIZITÄT
einfach, ein Blog einzurichten, wie eines zu lesen oder einen Kommentar darauf zu veröffentlichen. Es sind keinerlei komplexere Programmierkenntnisse nötig, auch das Einrichten einer
eigenen Internetpräsenz und die recht mühselige Beantragung eines Domainnamens fällt
weg. Außerdem ist das Betreiben eines Blogs kostenfrei, sieht man von der benötigten und
meist ohnehin vorhandenen Infrastruktur (Computer und Internetanbindung) ab. Durch
diese Demokratisierung der Produktionsmittel ist der von Brecht angedachte Kommunikationsapparat nun Wirklichkeit geworden. Jeder darf Sender sein.
Das Problem ist nur – wenn jeder sendet, und das nahezu ununterbrochen – wer hört dann
eigentlich noch zu? Dass das stetige Stimmengewirr mittels RSS-Feeds, Trackbacks und anderen aufmerksamkeitssteuernden Strukturen kanalisiert und kategorisiert werden kann, habe
ich in diesem Kapitel beschrieben, doch: Wie können einzelne Blogger auf sich aufmerksam
machen, wie findet ein Blogger im immer länger werdenden Long Tail seine Nische und wie
besetzt er diese?
3.5.3. Zur medialen Inszenierung von Authentizität
Zunächst die Beschreibung einer Situation, wie sie wohl jeder kennt: Die Auswahl eines
Portraitfotos beim Fotografen. Auf welchem Exemplar wurde ich am besten getroffen, wo
wirke ich am freundlichsten, schönsten, aufgewecktesten, welches Foto rückt mich ins rechte
Licht, welches kaschiert am Besten meine Schwachstellen? Mediale Selbstinszenierung fängt
schon bei der Auswahl des passenden Passbildes an. Wie kann ich mich selbst so darstellen,
dass andere mich zum Vorstellungsgespräch einladen, mich mögen, interessant finden oder
mir Respekt zollen?
Inszenierungsstrategien dieser Art, also solche, die auf eine möglichst überzeugende Darstellung eines idealisierten Selbstbildes zielen, sind ein Muss für jeden, der sich in einem Medium
sicher bewegen will. So genannte Medienkompetenz – also das Beherrschen dieser Strategien
– gehört zum Handwerkszeug eines jeden Prominenten, egal, ob es sich um einen Politiker,
einen Radrennfahrer oder einen Moderator handelt.118 Dabei sind die Eigenschaften, die
eine gute Inszenierung garantieren, vom Medium abhängig: In Printmedien sind Fotogenität
und Einfallsreichtum bei der Formulierung von Sachverhalten gefragt, im Radio kommt der
Klang der Stimme und Spontaneität hinzu, während im Fernsehen neben all diesen Dingen
die Mimik und die Gestik eine wichtige Rolle spielen.
Wie man sich im Internet präsentiert, hängt im Gegensatz dazu nicht direkt vom Medium
ab, man hat eine Wahl. Schreibt man für ein Blog, sind nur sprachliche Fähigkeiten relevant,
wird ein regelmäßiger Videocast produziert, gelten ähnliche Rahmenbedingungen wie im
Fernsehen. Der Unterschied zwischen herkömmlichen Medien und dem Internet liegt aber
im „Gedächtnis“ des Netzes.
118 Vgl. Kugler / Kurt, Inszenierungsformen von Glaubwürdigkeit im Medium Fernsehen in Fischer-Lichte
(2007), S. 149 ff.
53
AUTHENTIZITÄT
3.5.3.1. Das Netz vergisst (fast) nichts.
Dies wirft die Frage auf, was für diesen grundlegenden Unterschied zwischen Onlinemedien
und ihren Vorgängern verantwortlich ist; warum sollte ausgerechnet das Netz nichts vergessen, das Fernsehen aber schon?
Printmedien werden durch Bibliotheken und Verlagsarchive gespeichert, katalogisiert und
zugänglich gemacht. Fernseh- und Radiosendungen werden aufgezeichnet und sind in den
meisten Fällen in gut sortierten Sendearchiven zu finden. Sie sind zwar zu finden – nur sind
sie eben nicht zugänglich, denn die Archive sind schwer zu erreichen und ihre Nutzung ist
meist kostenpflichtig.
Dies verhält sich beim Netz grundlegend anders und resultiert aus einer ebenso augenscheinlichen wie interessanten Tatsache: Alle Informationen, die auf netz-übliche119 Art und Weise
über das Internet zugänglich gemacht werden sollen, müssen schon zum Zeitpunkt ihrer
Publikation so angelegt sein, dass sie zu verschiedenen Zeiten rezipiert werden können. Das
Internet ist bis auf wenige Ausnahmen kein Sendemedium, es ist nicht live.120 Es muss keine Verabredung getroffen werden, um Informationen auszutauschen. Vergleichbar mit der
E-Mail-Kommunikation handelt es sich bei der Browser-Kommunikation über das HTTPProtokoll um eine asynchrone Kommunikationsform. Dies mag Nachteile beinhalten – zum
Beispiel gibt es keine Möglichkeit, ein synchrones Ritual zu etablieren, welches dem wöchentlichen Einschalten des Fernsehers zur „Tatort“-Zeit entspricht – die zahlreichen Vorteile überwiegen jedoch: Informationen im Netz sind zuvorderst so angelegt, dass sie zeitlich
unbegrenzt verfügbar sind. Die schon angesprochene Omnipräsenz des Internets gründet
sich auf diese zwei Säulen: Informationen, welche übers Netz verbreitet werden, sind nicht
nur jederzeit, sondern auch allerorts zu empfangen, und dies sogar in doppeltem Sinne. Einerseits ist das Medium Internet so intendiert, dass es weltweit gleichermaßen zu empfangen
ist, andererseits ist man in Zeiten der mobilen Kommunikation bei der Nutzung nicht an
ein einzelnes, immobiles Gerät gebunden, wie das bei den herkömmlichen Sendemedien der
Fall ist, sondern hat – entsprechende Infrastruktur vorausgesetzt – zumindest in städtischen
Umgebungen von überall Zugriff auf das Netz. Dadurch, dass Informationen bei der Veröffentlichung so verfügbar gemacht werden müssen, dass sie jederzeit rezipiert werden können,
erübrigt sich bis auf wenige Ausnahmen auch die Nachfrage nach einem Archiv – Das Medium selbst ist sein Gedächtnis.
Wie jedes Gedächtnis ist allerdings auch dieses in der Lage, Sachverhalte zu überinterpretieren (beispielsweise, um die Vergangenheit zu schönen), beeinflusst zu werden und letztend119 Dies trifft nicht auf Livestreams zu, die vor allem gern von Fernsehsendern und Radiostationen angeboten
werden. Jegliche Form der Live-Übertragung ist eigentlich nicht netztypisch, da hier ein schon existentes
Medium durch ein neues Medium imitiert wird. Es handelt sich hierbei um eine der Anfangsschwierigkeiten eines jeden neuen Mediums – sobald es sich etabliert hat, d.h., sobald die neuen Distributionsformen
genügend weit ausgebaut und von einer breiten Masse akzeptiert sind, werden diese Imitationen seltener
und verlieren sich schließlich in der Irrelevanz. Siehe zum Begriff des Stellvertretermediums auch Kapitel
3.5.1. der vorliegenden Arbeit: Vom Radio zum Web 2.0 – Brechts Radiotheorie und das Internet.
120 Eine dieser Ausnahmen wird im Kapitel 3.6. der vorliegenden Arbeit beschrieben: Echt ist, was ich sehen
kann.
54
AUTHENTIZITÄT
lich auch zu vergessen. Dieses Vergessen ist allerdings kein natürlicher Prozess, auf im Netz
vorgehaltene Informationen wird ständig Einfluss genommen, sie sind variabel, demzufolge
können sie auch gelöscht werden. Da das „Gedächtnis Internet“ als kollektiver Mechanismus
funktioniert, welcher auf die zufällige Kollaboration von Millionen von Menschen angewiesen ist, ist es schon aus statistischen Gründen sehr fehleranfällig. Die Wikipedia-Gründer
waren sich sicherlich dieser Problematik bewusst, als sie veranlassten, dass wenigstens die
Wikipedia nie etwas vergessen wird. Jede Änderung jedes einzelnen Artikels wird minutiös
inkrementell gesichert, nichts geht verloren. Andere Mechanismen wie das Internet-Archiv121
haben sich der gleichen Zielrichtung verschrieben.
Eine wichtige Voraussetzung für den Erhalt des Gedächtnisses des Netzes ist, dass es so kostengünstig bleibt wie bisher. Die Preise für Speicherplatz sind kontinuierlich im Fallen begriffen und neue Technologien drängen auf den Markt, die ein Vielfaches des heute individuell
benötigten Speicherplatzes auf einem einzigen Datenträger versprechen. Diese Entwicklung
schlägt sich auch auf dem Servermarkt nieder, gut ans Internet angebundener und entsprechend abgesicherter Speicherplatz kostet heute weniger denn je.
Gleichermaßen haben die Publizierenden ein Interesse daran, dass das Gedächtnis erhalten
bleibt: Je umfassender auf die Vergangenheit einer einzelnen Internetseite zugegriffen werden
kann, desto authentischer wirkt sie. Es fällt für gewöhnlich deutlich leichter, einer Quelle zu
vertrauen, die in die Vergangenheit hinein transparent ist, als einer, die sich weiteren Nachforschungen verschließt. Man vertraut niemandem, der keine Vergangenheit besitzt oder sich
nicht an seine eigene Vergangenheit erinnern kann bzw. will.
Dadurch, dass die Informationen im Netz ihre Patina und zugleich ihre Meta-Informationen
verloren haben,122 fällt es leicht, diese zugänglich zu machen und zu vernetzen. Google, Yahoo
und Altavista teilen sich den Markt der Urbarmachung mit semantischen Suchmaschinen
und Linksammlungen wie semager und digg. Durch diese quasi im Medium Internet eingebaute Volltextsuche, die sich immer mehr an Relevanzkriterien zu orientieren hat,123 fällt es
leicht, auf Informationen jeglicher Art zuzugreifen. Durch das Internet sind Informationen
greifbar geworden, das Netz vergisst nichts – meistens.
Doch zurück zur medialen Selbstinszenierung im Internet. Einige authentizitätsstiftende
Mechanismen sind schon genannt worden: Reliabilität und Omnipräsenz sind unabdingbare
Voraussetzungen dafür, dass eine Internet-Präsenz für voll genommen wird. Gleichermaßen
ist – neben diesen räumlichen und zeitlichen Aspekten – die Positionierung innerhalb bestimmter sozialer und ästhetischer Rahmenstrukturen für die authentische Wirkung eines
Internetauftrittes unabdingbar.
121 Zu finden unter http://www.archive.org.
122 Siehe auch Kapitel 3.4. und 4.3. der vorliegenden Arbeit.
123 Suchmaschinen können auf Dauer nur erfolgreich sein, wenn sie es schaffen, wirklich Relevantes von vermeintlich Relevantem, also „Suchmaschinenoptimiertem“, zu unterscheiden.
55
AUTHENTIZITÄT
3.5.3.2. Eine Ästhetik der Aufmerksamkeit
Ästhetische Gesichtspunkte werden häufig zu Grunde gelegt, wenn etwas möglichst viel Aufmerksamkeit erregen soll. Ein Stopschild ist nicht von ungefähr eckig, rot und in Versalien
beschriftet. Konzerne sind darauf angewiesen, mittels Werbekampagnen und Corporate Designs Aufmerksamkeit für ihre Marken zu erregen, da diese sonst in dem Wust der weltweit
über 25 Millionen angemeldeten Gebrauchsmuster und Marken untergehen würden. Bei
der Kreierung einer solchen Marke sind die wichtigsten Rahmenbedingungen Einmaligkeit
und Identifizierbarkeit. Eine Marke im klassischen Sinne muss sich möglichst gut von der
Konkurrenz absetzen und sollte gleichzeitig mit dem Produkt identifizierbar sein. Die Marke
muss eindeutig auf das Produkt verweisen.
Im Web 2.0 scheint das zumindest zur Zeit ganz anders auszusehen: Die bedeutenden Marken, hinter denen große Konzerne stehen (Amazon, Google, Microsoft) bleiben bei ihrem Corporate Design und bieten ihre Online-Dienste weiterhin unter dem etablierten Markennamen an. In die Gestaltung der Logos kleinerer Start-Ups und Dienste, die zwar für das neue
Web unabdingbar geworden sind, auf der Bühne der klassischen Wirtschaftsunternehmen
jedoch hauptsächlich umsatzschwache Nebenrollen spielen, ist eine eigenartig anmutende
Uniformität zu bemerken. Die Start-Ups versuchen offensichtlich eher, sich mit dem Medium, in dem sie agieren, zu identifizieren, als Alleinstellungsmerkmale zu schaffen, die sie von
der Konkurrenz absetzen. Dies ist schon bei den Namen, die sie tragen, zu beobachten – Die
Foto-Community Flickr hat mit Frazr, Socializr und Approvr Nachahmer beim Weglassen des
Buchstaben „e“ gefunden, das von der Social-Bookmarking-Plattform del.icio.us verwendete
und sonst bei Domains gebräuchliche Länderkürzel hat in die Markennamen von identify.us,
adverlicio.us und wis.dm Einzug gehalten. Noch augenscheinlicher wird dieses Verhalten,
welches zur Identifikation mit dem Medium dient, beim optischen Erscheinungsbild der
Firmenlogos und bei den Zusätzen, mit denen sie versehen sind (Vgl. Abbildung 8). Es gibt
kaum eine Web-2.0-Seite, auf der nicht der Namenszusatz „Beta“ prangt. Diese Bezeichnung
macht darauf aufmerksam, dass es sich bei der angebotenen Dienstleistung keinesfalls um ein
fertig entwickeltes Produkt handelt, weil sie sich in einem ständigen Zustand der Überarbeitung befindet.124 Denn, solange sich alles im Umschwung und Aufbruch befindet, möchte
keine Firma diejenige sein, welche einen rückständigen Eindruck macht. Die Web-2.0-Logos
haben sich zu einem derart hohen Grad an Uniformität entwickelt, dass es erste – zugegeben
parodistische – Ansätze gibt, die Gestaltung eines Web-2.0-Logos zu automatisieren.125
Denn nicht nur die Nutzung serifenloser Schriftarten führt zur Uniformität – am Bildschirm
schlecht lesbare Serifenschriftarten sind im Web 2.0 ein „No-Go“ – auch Farbverläufe (möglichst Pastellfarben), Glanz-Effekte und Spiegelungen gehören zum unverzichtbaren Standardrepertoire eines sofort mit dem Mitmach-Internet identifizierbaren Logos. Was jedoch
124 Siehe Kapitel 5.1. der vorliegenden Arbeit: Die kollektive Geburt sozialer Software.
125 Einen derartigen Web-2.0-Logo-Generator gibt es unter http://h-master.net/web2.0/index.php zu bewundern. Nach der Eingabe eines Textes, der im Stile des Web 2.0 ausgestaltet werden soll, gibt das Tool eine
Grafik aus, die aus blauen Buchstaben und violetten Zahlen inklusive typischer Farbverläufe und Reflexionen besteht. Auf Wunsch lässt sich das Ganze mit einem „beta“-Label versehen.
56
AUTHENTIZITÄT
Abbildung 8: Web 2.0-Logos – Uniform?
Abbildung 9: justin.tv, Screenshot
Abbildung 10: Steve Mann, wearable computer und reality mediator (v.l.n.r.: 1980, Mitte der Achtziger, Anfang der Neunziger, Mitte der Neunziger, Ende der Neunziger Jahre)
57
AUTHENTIZITÄT
führt zu einer derartigen Uniformität in der grafischen Ausgestaltung der verschiedenen Markennamen, die nach klassischen Kriterien eigentlich einmalig sein sollten? Einfallslosigkeit
oder Faulheit kommen als Grund dafür wohl nicht in Frage – die für die Programmierleistung eines solchen Online-Dienstes benötigte Zeit übertrifft den Aufwand der Gestaltung
eines Logos bei weitem.
Dieses Phänomen kann als Ästhetik der integrativen Aufmerksamkeit bezeichnet werden:
Es geht nicht mehr darum, die Aufmerksamkeit des Nutzers auf ein einzelnes Produkt zu
fokussieren und ihn damit von den anderen Services abzulenken. Es soll ihm vielmehr klargemacht werden, dass sich dieses neue Produkt nahtlos in das Repertoire der bereits genutzten Web-2.0-Software einfügt. Es soll suggeriert werden, dass es die optimale Ergänzung zu
Flickr, YouTube, Twitter und Co. bietet und mit diesen zusammenarbeitet. Der Benutzer soll
von einem Produkt überzeugt werden, welches er aus genau diesen Gründen unbedingt benötigt – nicht weil es einzigartig ist, sondern weil es eingebettet und kollegial ist.
3.5.3.3. Nicht, wer am lautesten schreit…
Denn in der im Web 2.0 – zuvorderst in der Blogosphäre – gelten neue Regeln: Schreihälse,
die versuchen, Aufmerksamkeit durch möglichst provokante und reißerische Thesen zu erringen, existieren hier zwar en masse, nur wird ihnen wesentlich weniger Gehör geschenkt. Dies
resultiert vor allem daraus, dass der Weg vom mehr oder weniger talentierten Schreiberling
ohne eigene Lobby und Fans bis zur etablierten Netzpersönlichkeit mit mehr als 1000 Besuchern pro Tag, meist lang und steinig ist.
In der deutschen Blogosphäre kennt man sich, man ist vernetzt. Links und Trackbacks werden nicht einfach nach Gutdünken gesetzt, denn es gilt, einen Ruf zu verlieren, falls beispielsweise mehrfach auf minderwertig erscheinende oder uninteressante Inhalte verlinkt wird. So
genannte A-Blogger, also Autoren, die die höchsten Besucherzahlen der Blogosphäre auf ihren Seiten vorweisen können, entscheiden durch Verweise auf weniger bekannte Seiten über
deren Popularität innerhalb einer mehr oder weniger hermetisch nach außen abgeriegelten
Szene. Nur wenige Autoren schaffen es durch die Publikation außergewöhnlich guter Inhalte,
als A-Blogger anerkannt zu werden. Durch Beiträge im Bildzeitungs-Stil hat dies wohl noch
niemand geschafft. In den Lichtkreis der Aufmerksamkeit schaffen es also nicht die, die am
lautesten schreien, sondern Autoren, die am nachhaltigsten und am authentischsten schreiben. Gerade durch die oben schon erwähnten enormen Gedächtnisleistungen, zu denen das
Medium Internet in der Lage ist, enttarnen sich um Aufmerksamkeit heischende Hochstapler
meist von selbst.
3.6. Echt ist, was ich sehen kann.
„It‘s the content, baby!“ – Wie dieses geflügelte Wort vermittelt, sind es die Inhalte, die
zählen. Um im Web 2.0 authentisch zu wirken und demzufolge hohe Besucherzahlen zu
verzeichnen, die sich im Nachhinein in bare Münze umwandeln lassen, ist es nötig, neue und
ungewöhnliche Wege zu beschreiten. Ein perfektes Beispiel für neuartigen, aber dennoch
58
AUTHENTIZITÄT
interessanten Inhalt, dessen Publikation ohne technologische Neuerungen und intermediale
Verflechtungen im Kontext des Web 2.0 überhaupt nicht möglich gewesen wäre, bietet die
Internetpräsenz des 23-jährigen Yale-Absolventen Justin Kan.
Mittlerweile zu einem großen öffentlichen Netzwerk verschiedenster Videocaster angewachsen, war Justin.tv zunächst ein innovativer Alleingang: Nach dem Motto: „Ich glaube das
erst, wenn ich es sehe!“ verbindet Kan das Prinzip Webcam, welches an sich beim Betrachter
schon Anlass zu voyeuristischen Gefühlen bietet, mit der Internet-Flatrate übers Mobiltelefon und neuen Video-Kompressionsalgorithmen – kurz gesagt: er übertrug sein komplettes
Leben aus der Ich-Perspektive durch eine an seiner Baseball-Kappe befestigte Webcam ins
Internet – und das 24 Stunden am Tag, sieben Tage die Woche (Abbildung 9).
Diese Art der Performance trägt den ebenso einfachen wie zutreffenden Namen Lifecasting
und findet ihre Vorläufer in Form von Performances von Künstlern wie Chris Burden126. Ihre
filmischen Vorbilder findet sie in Titeln wie Being John Malcovic oder der Truman-Show.
Das Prinzip jedoch ist eigentlich umgekehrt: Justin Kan wird nicht überwacht, er überwacht
sich selbst – ein Phänomen wie dieses wird als Sousveillance bezeichnet, was so viel bedeutet
wie „Unterwachung“. Eine 24/7-Selbstüberwachung kann als Kritik am Drang zum alles
überblickenden Überwachungsstaat gesehen werden, vor allem aber ging es Kan um eines:
Um Aufmerksamkeit.
»I am broadcasting live video of my life 24/7 to the internet. I started Justin.tv because I
thought it would be awesome for people to see what it was like to be Justin. I convinced three
of my friends (Emmett, Michael, and Kyle) to join me out in San Francisco. Now, we’re starting a company to make broadcasting live video on the web easy. Thanks for watching Justin.tv.
Let me know what you like and don‘t like about the show; I hope to hear from you soon!«127
Justin.tv ist pure Authentizität – und das aus drei Gründen: Erstens ist es live, zweitens dilettantisch und drittens fälschungssicher.
Dass eine Live-Übertragung einen authentischeren Eindruck vermittelt als eine Aufzeichnung, liegt vermutlich an den technischen Problemen, ohne die in der analogen Prä-Computer-Ära kaum eine Live-Übertragung von statten ging. Es war nicht möglich, irgendetwas
nachträglich zu schönen, Fehler und Pannen wurden genau wie die Information selbst übertragen. Heutzutage untergräbt die Computertechnik diesen Eindruck von Authentizität mit
hochmodernen und leistungsstarken DSP-Systemen.128 Es ist zum Beispiel ohne weiteres
möglich, das Mikrofonsignal einer schlecht intonierenden Sängerin unabhängig vom akusti-
126 Im Falle von Chris Burden denke ich dabei an avantgardistische Performances wie Bed Piece. Burden
spielt neben bewusstem oder unbewusstem Voyeurismus oder der Angst der Zuschauer, den Künstler von
Selbstverletzungen abzuhalten, mit Formen medialer Vermittlung von Performances, z.B. im Falle von TV
Hijack oder ganz allgemein in seiner Video-Performancesammlung Documentation of Selected Works 197174.
127 Statement wurde der Webseite Justin.tv entnommen, leider nicht mehr zu finden unter http://www.
Justin.tv/cast#justin, dafür aber in einem anderen Gedächtnis des Internets: http://web.archive.org/
web/20070322163653/www.Justin.tv/cast
128 Digital Signal Processing, Digitale Signalbearbeitung
59
AUTHENTIZITÄT
schen Restgeschehen automatisch und in Echtzeit zu korrigieren. Sie singt zwar live ein und
wird auch live übertragen, zwischen Sender und Empfänger befindet sich aber ein kleines
Programm, welches ihre Tonspur automatisch in der Art verändert, dass der Eindruck einer
perfekten Intonation entsteht.
Diese neuen Technologien ändern dennoch nichts am Grundsatz live = authentisch, der nach
wie vor die individuelle Wahrnehmung des einzelnen Zuschauers beherrscht.
Interessanter ist, wie sich der Zusammenhang zwischen Dilettantismus und Authentizität
herstellen lässt: Hier lohnt sich ein kleiner Abstecher, ein Blick über den Tellerrand in Richtung der HipHop-Kultur. Unter Sprayern und Rappern besteht eines der höchsten Ziele
darin, Street Credibility zu erreichen. Diese Form der Anerkennung ist nur unter besonderen
Umständen erreichbar, nämlich nur dann, wenn das Produkt – egal ob Musik oder Gespraytes – gleichzeitig rough und true ist. Texte, Bilder und Musik werden glaubwürdiger, wenn
es so scheint, als ob sie unter schlechten Bedingungen produziert wurden. Einige Bands
verbringen Tage oder sogar Wochen damit, ihre Aufnahmen so lange zu bearbeiten, bis es so
klingt, als ob sie nie ein Studio von innen gesehen hätten und die Musik in einer Garage aufgezeichnet wurde. Street Credibility, Authentizität und die schon angesprochene Ökonomie
der Aufmerksamkeit liegen sehr dicht beieinander.
Auf einen interessanten Zusammenhang zwischen der Aufmerksamkeitsökonomie in der
Blogosphäre, der HipHop-Kultur und den Theorien von Pierre Bourdieu weisen Holm Friebe und Sascha Lobo in ihrer Publikation Wir nennen es Arbeit hin:
»‚Credits‘ und die verwandte ‚Credibility‘ stammen vom lateinischen ‚credere‘ (glauben) ab
und zielen damit eigentlich auf Glaubwürdigkeit, Anerkennung oder Achtung. (…) Bourdieu
macht uns in seinen Büchern, etwa in Die verborgenen Mechanismen der Macht von 1992, darauf aufmerksam, dass es neben dem ökonomischen Kapital (…) andere, immaterielle Formen
von Kapital gibt, die genauso ausschlaggebend für den Stand und das Vorankommen eines
Individuums in der Gesellschaft sind. (…) Hier ist Bourdieu, bis hinein in die Terminologie
des Kredits, ganz nahe beim Hip-Hop, wenn er schreibt: „Das Sozialkapital ist die Gesamtheit
eines dauerhaften Netzes, von mehr oder weniger institutionalisierten Beziehungen gegenseitigen Kennens und Anerkennens verbunden sind; oder, anders ausgedrückt, es handelt sich um
Ressourcen, die auf der Zugehörigkeit zu einer Gruppe beruhen. Das Gesamt-Kapital, das die
einzelnen Gruppenmitglieder besitzen, dient ihnen allen gemeinsam als Sicherheit und verleiht
ihnen – im weitesten Sinne des Wortes – Kreditwürdigkeit.“«129
Street Credibility oder die in der HipHop-Kultur synonyme Realness, also Wahrhaftigkeit,
Glaubwürdigkeit und Authentizität, sind immer Ergebnis einer Inszenierungsstrategie und
werden somit zu einem Forschungsgegenstand der Theaterwissenschaft.
»Realness im HipHop ist eine Inszenierungsstrategie. Sie ist eine Herstellungspraxis, die den
Nomenkodex des HipHop performativ bestätigt. Die Antwort auf die Frage ‚Is this real?‘ lautet
in diesem Buch: Real ist das, was glaubhaft in Szene gesetzt wird.«130
129 Friebe / Lobo (2006), S. 78, zur semiotischen Betrachtung von Graffitis im urbanen Raum siehe auch
Baudrillard in Barck / Gente (1990), S. 222.
130 Klein / Friedrich (2003), S.9.
60
AUTHENTIZITÄT
Genau wie im HipHop sind auch im virtuellen Raum Inszenierungsstrategien zu beobachten. Diese Inszenierungsstrategien sind am Beispiel von Justin.tv nachzuvollziehen. Durch die
produktionsbedingt dilettantische Kameraführung – schließlich ist sie am Kopf angebracht
– und die daraus resultierende Ich-Perspektive, den kaum verständlichen Ton, die Nebengeräusche und das nicht farbkorrigierte Bild entsteht ein authentischer Eindruck.
Noch ausschlaggebender für den hohen Grad an Glaubwürdigkeit von Justin.tv ist das Gefühl
der Fälschungssicherheit, welches eine 24/7-Video-Übertragung vermittelt. Zwar ist diese
unter anderem dem schon genannten Vertrauen in die Live-Übertragung geschuldet, welches
aus der analogen Vergangenheit und der mit ihr verbundenen Schwierigkeit, Übertragungen
in Echtzeit zu bearbeiten, stammt. Noch wichtiger allerdings ist der Fakt, dass es sich um
eine über Monate andauernde 24/7-Übertragung handelt: Sie befreit fast gänzlich von dem
natürlichen Misstrauen und den Vorbehalten, welche einer solchen Aktion gegenüber bestehen: Natürlich könnte Justin.tv in monatelanger Arbeit zusammengestückelt und zu vielen
verschiedenen Zeiten aufgenommen sein. Immer dann, wenn Justin Kan sich nach ein wenig
Freizeit und Intimsphäre sehnt, könnte er eine solche – vorbereitete – Aufnahme eingespielt
haben. Nur ist der Arbeitsaufwand, um einen nahtlosen Übergang zwischen Live- und vorbereiteten Sequenzen zu erreichen, unverhältnismäßig hoch. Dagegen spricht außerdem, dass
Kan sich mit vielen Kommilitonen, Freunden und seiner Familie getroffen und unterhalten
hat und dass von diesen Unterhaltungen Bilder und Erfahrungsberichte im Netz veröffentlicht wurden.
Justin.tv wirkt also authentisch, weil es live, dilettantisch produziert und fälschungssicher
ist. Aufgrund dieser inszenierten Authentizität konnte Justin Kan Besucherzahlen auf seiner Homepage verzeichnen, von denen andere Blogger, Pod- und Videocaster nur träumen
können. Und – vergleichbar mit dem Aufstieg von Google, nur in wesentlich kleineren Dimensionen131 – schafft auch Kan es, diese Aufmerksamkeit in bare Münze zu verwandeln:
Mittlerweile findet sich unter Justin.tv eine große, professionelle, werbefinanzierte Plattform,
auf der ausgewählte User Lifecasting betreiben.
Der große Erfolg von Justin Kan ist eigentlich nur dadurch erklärbar, dass Kan eine 24-Stunden-Übertragung anbot, denn Justin.tv ist bei weitem nicht der erste Versuch des Lifecasting:
Als erster Lifecaster gilt der Erfinder und mittlerweile auch Universitätsprofessor Steve Mann,
der schon 1980 mit tragbaren Computern und Live-Streams experimentierte und sich heute
vor allem auf dem Feld der computer-vermittelten Realität betätigt.
Abgesehen vom Altersunterschied und der mit Justin Kans Jugend höheren Credibility für
eine internet-affine Zielgruppe besteht der einzige – gleichzeitig aber ausschlaggebende –
Unterschied in der Arbeitsweise beider darin, dass Kan eine 24-Stunden-Übertragung anbot.
131 Die Google-Suche funktioniert nach dem Prinzip der automatisierten Auswertung von Aufmerksamkeit:
Je mehr fremde Webseiten auf die eigene verlinken, desto höher steigt diese im Google-Ranking. Nachdem
diese Art der Klassifizierung von Inhalten sich zu der gefragtesten Form der Internetsuche entwickelt hatte,
und Google damit selbst die höchstmögliche Aufmerksamkeit im Netz erreicht hatte, begann der Konzern
damit, durch den Verkauf von Anzeigenraum diese Aufmerksamkeit zu versilbern. Zwischenzeitlich war
diese Aufmerksamkeit an der Börse 190 Milliarden Dollar wert.
61
AUTHENTIZITÄT
Justin Kan ist rund um die Uhr zu sehen – und deswegen ist er authentisch.
3.7. Echt ist, was ich anfassen kann.
Das vorangegangene Kapitel handelte von verschiedenen Merkmalen der Authentizität im
Umgang mit digitalen Daten und virtuellen Räumen am Beispiel von Justin.tv und last.fm.
Das wesentliche Merkmal der Authentizität im virtuellen Raum ist Omnipräsenz – in doppeltem Sinn: Einerseits steht der Begriff der Omnipräsenz für die ständige Verfügbarkeit des
Mediums Internet und der virtuellen Räume, sei es durch Computer, Mobiltelefone oder völlig andere Geräte vermittelt. Gleichermaßen ist eine Online-Präsenz nur dann authentisch,
wenn sie ständig erreichbar ist, je omnipräsenter sie sich im virtuellen Raum zeigt, desto
mehr gilt sie als Instanz, desto mehr Vertrauen wird ihr entgegen gebracht.132
Ein weiterer, essentieller Bestandteil des Eindruckes von Authentizität, den virtuelle Welten
vermitteln können, ist das Gedächtnis des Netzes.
Zuletzt sind – am Beispiel von Justin Kan aufgezeigt – der Live-Charakter, eine gewisse Street
Credibility und Fälschungssicherheit Merkmale, die kennzeichnend für ein authentisches
Erleben der Virtualität sind.
Für einen besonders starken Eindruck von Authentizität ist aber nicht nur der optische Eindruck – auf welchem diese Merkmale größtenteils beruhen – prägend. Vielmehr geht es um
ein vollständiges Zusammenspiel aller Sinne. Virtuelle Räume können bisher keinen Eindruck von Geschmack oder Geruch133 vermitteln, optische und akustische Eindrücke lassen
sich aber sehr wohl übertragen.
Doch dies ist nur der Anfang: Im nächsten Kapitel soll es darum gehen, dass die Macher
der virtuellen Räume sich immer weniger auf eine rein optische Ebene verlassen: In naher
Zukunft wird es zur Selbstverständlichkeit geworden sein, Informationen anzufassen, sie mit
den Händen zu bewegen und – viel spannender, leider aber noch weiter in der Zukunft – von
diesen Informationen berührt zu werden. Die Fragen, welche das nächste Kapitel stellt, sollen
in diese Richtung zielen: Wie ist der Stand der Dinge und wohin kann sich die in Ansätzen
vorhandene Materialität virtueller Räume entwickeln? Werden wir Informationen anfassen
können, wie wir es gewohnt sind, einen Füllhalter anzufassen? Wird das Netz uns berühren
können?
132 Das Paradebeispiel für diese Form von Omnipräsenz und dem daraus resultierendem Vertrauen bietet die
Suchmaschine Google. Es gibt kaum eine Instanz im Internet, der mehr Vertrauen entgegen gebracht wird,
als der Google-Suche. Wir glauben – unter anderem ist dies dem klaren Erscheinungsbild der Seite zu verdanken – an die Qualität, die Integrität und die ständige Verfügbarkeit der Suchmaschine.
133 Obwohl es erste Versuche mit geruchserzeugenden Modulen für Fernseher und andere Unterhaltungselektronik gab, scheint es mir in näherer Zukunft nicht möglich oder sinnvoll, Gerüche oder Geschmacksrichtungen in Verbindung mit virtuellen Räumen zu erzeugen.
62
VIERTES KAPITEL
Sind virtuelle Räume zwingend durch Immaterialität gekennzeichnet? // Welche Unterschiede
bestehen zwischen digitaler und analoger Schreiberfahrung in Bezug auf ihre Materialität? // Wie
äußert sich die Materialität im Umgang mit Gadgets und anderen Interfaces, die zwischen Virtualität und Realität vermitteln? // Verhilft die Technologie in Form von berührungsempfindlichen
Displays dem virtuellen Raum zu mehr Materialität?
Materialität
»Mit dem Wort «immateriell» wird schon längst Unfug getrieben. Aber seit man von einer «immateriellen Kultur» spricht, kann ein derartiger Unfug nicht länger hingenommen
werden.«134
Der Begriff »immaterielle Kultur« bezeichnet meist jene Kulturelemente, welche geistiger
Natur sind, also Ideen, Werte oder Wissensbestände. In letzter Zeit dient der Begriff jedoch
auch zur Umschreibung der digitalen Medienkultur, beispielsweise bei Katrin Wenz:
»Der Begriff hybrid verweist auf einen Zwischenbereich zwischen Sprache und Kultur, in dem
das digitale Medium angesiedelt werden muß. Hybridkultur kann dann als Überschreitung
von einer materiellen zu einer immateriellen Ästhetik, von analogen zu digitalen Medien verstanden werden und damit als eine Kultur, die traditionelle Kunstformen und Medienkunst
vereint.«135
Hier wird – stellvertretend für andere aktuelle Publikationen – der Übergang zwischen analogen und digitalen Medien mit der Überschreitung von einer materiellen hin zu einer immateriellen Ästhetik gleichgesetzt. Mit Hinblick auf die im Kapitel zur Authentizität erwähnte nicht vorhandene Patina digitaler Medien und unter Berücksichtigung des verlustfreien
Duplizierens, der vom Original ununterscheidbaren Kopie, ist diese These nachvollziehbar.
Alles, was sich ohne eine Abnutzung des Trägermaterials kopieren lässt, müsste folglich immateriellen Charakters sein. Form und Inhalt, das Material und die Idee eines jeden Gegenstandes lassen sich voneinander trennen. Dennoch käme kaum jemand darauf, das stählerne
Duplikat eines goldenen Schlüssels als weniger materiell als sein Original zu bezeichnen, nur
weil sich die Trägermaterialien der „Information Schlüssel“ unterscheiden. »Die Frage ist also
nicht, ob Bilder Oberflächen von Stoffen oder Inhalte von elektromagnetischen Feldern sind,
sondern inwieweit sie dem stofflichen und dem formalen Denken entspringen.«136
Digitales scheint häufig per definitionem als immateriell verstanden zu werden, Analoges als
134 Flusser (1997), S. 216
135 Wenz (1999, Internet), Narrativität in Computerspielen
136 Flusser (1997), S. 222
63
MATERIALITÄT
materiell. Diese Gleichsetzung hinkt jedoch: Man möge mir den Unterschied in der Materialität, welcher zwischen einem analog aufgenommenen und abgespielten Videoband und
seiner digitalen Kopie bestehen soll, erklären – ich kann keinen erkennen. Dass das Trägermaterial eine gewisse Materialität aufweist bzw. vermissen lässt, spielt hierbei keine entscheidende Rolle, denn bei ästhetischen Erfahrungen steht für gewöhnlich nicht die Betrachtung
der Videokassette oder der Festplatte, sondern die ihrer Inhalte und Formen im Vordergrund.
Digitales Material ist genau so viel oder wenig materiell wie Analoges, beide Begriffe haben
meiner Ansicht nach nichts miteinander zu tun.
Doch wie steht es mit den materiellen Qualitäten eines virtuellen Raumes? Obwohl vielfach
– teils mit absurd wirkenden Argumentationen137 – negiert, ist die Darstellung von Netzkunst oder die eines virtuellen Raumes an die spezifische Materialität des Internets und seiner
Darstellungsmöglichkeiten gebunden.
4.1. Von der Materialität des Netzes
Das Internet ist ein Gebilde, wie man es sich immaterieller und theoretischer kaum vorstellen
kann. Es ist nicht greifbar, es ist nahezu unverwundbar, unabhängig, fast weltumspannend
und dadurch nicht zu überschauen. Es ist durch Gesetze, Regeln und Normen kaum eingrenzbar und verbindet große Teile der Menschheit miteinander. Völlig anders hingegen gestaltet
sich die konkrete Erfahrung, die ein einzelner Mensch mit dem Netz macht: Die Verbindung
des Einzelnen mit dem Netz ist abhängig von hunderten von Computern, Elektrizitätswerken und Datenleitungen. Darüber hinaus kann ohne ein finanzielles Abhängigkeitsverhältnis
zu einem Internet-Provider und einem Stromversorger keine Verbindung entstehen.
Wie gesendete und empfangene Daten im Endeffekt dargestellt, erfahren und manipuliert
werden, ist abhängig von Bildschirm, Tastatur, Trackpad, Maus, Lautsprechern, Druckern,
der Geschwindigkeit der Internetverbindung, Betriebssystem, Browser und vielem mehr. Die
Rezeption eines virtuellen Raumes – sei es ein Social Network, ein Online-Rollenspiel oder
die Wikipedia – ist also ein vollkommen individualisierter Prozess und hochgradig abhängig
von der Materialität der einzelnen Komponenten, die zur Vermittlung der Daten herangezogen werden.
In diesem Kapitel wird beschrieben, wie eine technisch bedingte Materialität die Erfahrungen im Umgang mit virtuellen Räumen beeinflusst. Bevor ich jedoch auf die Bezüge zwischen Materialität und virtuellen Räumen zu sprechen komme, möchte ich die Unterschiede
zwischen mechanischer und elektronischer Schrift untersuchen. Ich nehme Bezug auf den
Zustand, der oft von Schreibenden beklagt wird, auf den Mangel an Haptik und damit auch
an Authentizität im Umgang mit Computern und technischen Geräten. Was unterscheidet
137 So begründet Youn-Ju Ko Hoang unter Bezugnahme auf Hans-Joachim Drott den immateriellen Charakter der Computeranimation mit folgender Aussage: Luminenzpixel, die die Basis der Darstellung einer
Computeranimation bilden, seien lichtdurchlässig und daher im Prinzip farblos, während Farbpigmente,
die beispielsweise auf eine Leinwand aufgetragen werden, das Licht reflektierten. S. Ko Hoang (2000), S.
84
64
MATERIALITÄT
einen traditionellen Schreibvorgang von dem am Computer, was genau – abgesehen von der
Patina, also von Staub, Tintenklecksen und Kratzern – wird im Gegensatz zum Schreiben auf
Papier vermisst?
4.2. Ritzen, Kratzen, Stechen – Haptik und Prozessualität des Schreibens
Vilém Flusser beschreibt im Gesten-Band138 den mit dem Prozess des Schreibens verbundenen Vorgang der Einschreibung. Je stärker man etwa mit einem Kugelschreiber, einem
Griffel oder einem Stück Kreide den Untergrund bearbeitet, desto intensiver schreiben, ritzen
oder drücken sich die zu vermittelnden Inhalte in ihr jeweiliges Medium ein. Der Vorgang
des Einschreibens enthält auf diesem Weg eine Dimension von Dynamik, die beispielsweise mit den Lautstärkenunterschieden auditiver Erfahrungen vergleichbar ist. Je lauter ein
Klangereignis – ganz egal, ob es eher Geräusch- oder tonalen Charakter innehat – ist, desto
wichtiger erscheint es im Gesamtzusammenhang, je leiser es ist, desto eher verschwindet es
im Kontext oder im Grundrauschen der Irrelevanz. Die Spanne zwischen diesen beiden Extremen, zwischen Relevanz in Form von Lautstärke und dem Verschwinden eines Tons an der
Rauschgrenze, wird in der Akustik als Dynamik bezeichnet. Überträgt man diese Bezeichnung auf den Vorgang des Schreibens, lässt sich eine Dynamik verschiedener Druckintensitäten, unterschiedlicher Einschreibtiefen ausmachen, die es einem Leser erlauben, Inhalte
innerhalb ihres Mediums in Relevanzkategorien einzuordnen.
So überträgt sich also ein Eindruck von Haptik – ausgehend vom Autor – durch das Medium
bis hin zum Leser. Beim Schreibvorgang entstehen in der Hand des Schreibenden verschiedenste haptische Sinneseindrücke: Eine leichte Berührung des Griffels, gleichsam ein federleichtes Auftragen der Inhalte auf das Papier, ist genauso möglich wie eine Zerstörung des
Schreibwerkzeugs oder des Mediums durch den gewaltsam eindringenden und verletzenden
Schreibakt.
Die Körpererfahrung des manuellen Schreibvorgangs beruht aber nicht nur auf dem EinDruck, den das Schreibwerkzeug auf dem Papier hinterlässt, denn gleichermaßen muss die
akustische Komponente des Schreibvorganges in diesen Erfahrungsraum einbezogen werden: Es ließe sich sogar von einer Rauheit des Schreibens sprechen, wenn der Füller in einer
konzentrierten Stille lautstark über das Papier kratzt und so einen ephemeren Eindruck der
Verletzung, des Einschmirgelns in ein Medium hinterlässt.
4.3. Tippen, Kopieren, Einfügen und Löschen – die schleichende Abkehr von der emotionalen Schreiberfahrung
Vilém Flusser zieht im Kapitel Die Geste des Schreibens weiterhin Parallelen zur Schreibmaschine, die trotz ihres artifiziellen, ihres konstruierten Maschinencharakters das Haptische
und Eindrückliche am Schreibvorgang beibehält. Denn auch hier sei es möglich, bestimmten
Buchstaben und Worten mehr Nachdruck zu verleihen, indem man die Tasten mit mehr
138 Flusser (1991), S. 39
65
MATERIALITÄT
Macht betätige. Flusser vergleicht letztendlich den Schreibvorgang mit dem Musizieren auf
einem Klavier.
Auch bei der Benutzung einer Schreibmaschine ist es möglich, den Vorgang des Schreibens
bis zur physischen Zerstörung des Mediums und sogar der Maschine selbst auszureizen, sei es
ein Zerreißen des Papiers durch wiederholtes Bedrucken oder das Verhaken der Typenhebel
bis zur Funktionsunfähigkeit der Maschine.
Es gilt hierbei jedoch zu bedenken, dass mit dem Fortschritt der Entwicklung der Schreibmaschine diese einen immer größeren Teil ihres materiell-mechanischen, rohen Charakters
zugunsten einer schon im Jahr 1903 beginnenden Elektrifizierung eingebüßt hat.
Damit einher ging die Perfektionierung und – mit der Einführung der elektronischen Schreibmaschine – sogar die Automation des maschinellen Schreibvorganges. Dieser wurde durch
die Erfindung der elektrischen Schreibmaschine von einem dynamischen, drucksensitiven
Vorgang zu einem repetitiven, sich selbst ausführenden, digitalen, und scheinbar entkörperlichten Prozess. Ich bezeichne den moderneren maschinellen Schreibvorgang als einen digitalen Prozess, da er nur noch zwei Zustände kennt: Entweder wird ein Zeichen aufs Papier
gebracht oder nicht.139 Es gibt keine Zwischenschritte und keine Extreme mehr, Zeichen,
die nur sehr blass, fast unlesbar, buchstäblich aufs Papier gehaucht zu sein scheinen oder solche, die tiefschwarz in die Materie eingepresst sind, wurden zugunsten eines gleichmäßigen
Schriftbildes und einer wesentlich höheren Verarbeitungsgeschwindigkeit geopfert und zu
Einheitszeichen transformiert.
Zeitlich parallel zum Höhepunkt der Entwicklung der elektronischen Schreibmaschine in
der Mitte der 1980er Jahre werden in den USA die Wurzeln für den Siegeszug des modernen
Personal Computers über die Schreibmaschine gelegt. Computerbauteile wurden schon in
den 1970er Jahren so preisgünstig, dass die Firmen Xerox, Apple und IBM damit begannen,
Computer für den Hausgebrauch herzustellen.
Waren diese ersten, frühen PCs weder sonderlich weit verbreitet noch von großem Nutzen
für ihre Besitzer, sorgten sie und ihre ersten Nachfolgemodelle trotzdem nachhaltig für die
Konstruktion gewisser Ressentiments, die sich unter anderem auch auf die vermeintliche
Körperlosigkeit und die scheinbar nicht vorhandene Materialität im Umgang mit diesen
Computersystemen bezogen. Diese Vorurteile kommen nicht von ungefähr:
Zwar wird der Schreibvorgang an sich nicht entkörperlicht, denn nach wie vor übertragen
wir unsere Gedanken nicht direkt an den Computer, sondern berühren beim Tippen die Tasten, drücken sie nach unten, spüren, wie sie sich über den Druckpunkt bewegen und unseren
Fingerspitzen so die Bestätigung des Tastendrucks vermitteln, bis wir schließlich als optische
Rückkopplung an unser Verhalten Bestätigung in der Tatsache finden, dass das Zeichen sofort auf dem Bildschirm erscheint.
Digitales und analoges Schreiben scheint sich also vom Vorgang her gar nicht so sehr zu
139 Digitales Schreiben existiert also schon geraume Zeit vor der Entwicklung der modernen, elektronischen
Datenverarbeitung und deren Einfluss auf das Schreiben.
66
MATERIALITÄT
unterscheiden, zumindest sind beide Prozesse mit einer konkreten Form der Körperlichkeit
verbunden. Was beide Schreibvorgänge aber voneinander unterscheidet, ist die Form des Ergebnisses. Beim analogen Schreibprozess bleiben die Spuren der Körperlichkeit ins Medium
eingeschrieben, untrennbar mit der Information verbunden, beim digitalen Schreibvorgang
wird die Information dieser Spuren entledigt.
Alles, was sich in ein beschriebenes Blatt Papier eingeritzt hat, bleibt dort als Prägung über
Monate, Jahre und teilweise sogar Jahrhunderte erhalten, emotionale Aufruhr kann ebenso
am Schriftbild abgelesen werden wie Krankheiten oder Verletzungen des Autoren. Die elektronische Datenverarbeitung lässt diese Spuren verschwinden. Alle Informationen werden
auf ihre Essenz reduziert. Wie am Beispiel von digitaler Musik schon beschrieben, fehlt den
Informationsträgern die Möglichkeit des Alterns, denn sie sind irrelevant und austauschbar.
Digitalen Informationen haftet nichts an, eine Patina existiert nicht. Sie verraten nichts über
die Verfassung des Autoren im Moment des Schreibvorganges und verlieren somit einen großen Teil ihrer Individualität und damit ihrer Authentizität, ihrer Glaubwürdigkeit.
Dieses Nicht-Vorhandensein der Meta-Informationen, die einem Leser zusätzliches Wissen
zum Gelesenen verschaffen oder einfach nur zur Bildung einer bestimmten Lese-Atmosphäre dienen können, geht Hand in Hand mit der Mechanisierung und Elektrifizierung des
Schreibvorganges und findet seinen vorläufigen Höhepunkt in neuen Techniken des Umgangs mit digitalen Texten.
Copy+Paste ist zum polarisierenden Schlagwort geworden. Einerseits erleichtert dieser völlig
neuartige Umgang mit Informationen das Erstellen von originären Texten auf vielfältige Art
und Weise und ersetzt alte Korrekturtechniken, denn das mühelose Umherrücken von Textbausteinen war nie derartig einfach möglich wie im digitalen Zeitalter: Weder Tipp-Ex noch
die Schere oder ein Fotokopierer sind nötig, um Texte aus einzelnen Textmodulen zusammenzusetzen und diese so lange immer wieder zu verschieben, bis sie in eine sinnvolle Beziehung
zueinander gebracht werden können. Ich möchte sogar so weit gehen, zu behaupten, dass
ohne Copy+Paste die Akzeptanz der Überlegenheit der digitalen Textverarbeitung gegenüber
analogeren Schreibtechniken unter den Autoren nicht in dem Maße vorhanden wäre, wie sie
es heute ist. Gerade durch das oben erwähnte Fehlen der Meta-Informationen ist Copy+Paste
erst sinnvoll geworden, da es nun möglich wird, mit Informationsbausteinen, denen keine
direkten Verweise auf einen anderen Zusammenhang anhaften, modular zu arbeiten.140
Diese grundlegend neue Art und Weise, mit Text umzugehen, schafft natürlich neben vielen
Möglichkeiten auch eklatante Probleme: Ein populäres Beispiel dafür brachte der Salzburger
Kommunikationswissenschaftler Stefan Weber ans Licht, der mit seiner Dissertation das Op140 Ich halte darüber hinaus auch eine objektorientierte Arbeitsweise in den Geistes- und Kulturwissenschaften für einen interessanten Ansatz. Objektorientiertes Programmieren ist die gängigste Technik, um den
Quelltext von Programmen übersichtlich und gleichzeitig effizient zu halten. Dabei werden bestimmte,
häufig benutzte Programmteile (so genannte Objekte) ausgelagert und bei Bedarf aufgerufen. Dieses Auslagern und Verweisen wird zwar in den Geisteswissenschaften in Form von Fußnoten und Zitaten längst
praktiziert, eine grundlegende hypertextuelle Vernetzung und damit die unmittelbare Zugänglichkeit aller
wissenschaftlicher Veröffentlichungen würde es dem Autoren ermöglichen, diese Zitate direkt zu verlinken
und dem Leser das Prüfen und Weiterlesen immens erleichtern.
67
MATERIALITÄT
fer eines Plagiators geworden ist. Der ehemalige Kollege Webers – denn mittlerweile wurde
ihm der akademische Grad wieder aberkannt – hat Webers Dissertation seitenweise aus dem
Internet kopiert und die Textstellen ohne Verweise auf dessen Arbeit in seine eigene Dissertation übernommen. Weber, der sich seitdem hauptsächlich mit dem Plagiat in den Geisteswissenschaften auseinandersetzt, stellte daraufhin eine Untersuchung an, deren Ergebnis
ernüchternd ausfiel:
»Der weit überwiegende Teil der von mir studierten Arbeiten besteht im Wesentlichen aus
einer perlenartigen Aneinanderreihung von Web-Texten. (…) Und viele weitere Arbeiten sind
ein einziges Web-Sampling.«141
Dies ist die Kehrseite der Copy+Paste-Kultur. Plagiatsfälle existieren schon, seit es kreative
Geistesleistungen gibt, das Novum an den genannten Fällen ist allerdings deren erschreckend
hohe Häufigkeit. Es scheint fast, als würde eine neue Generation von Geisteswissenschaftlern heranwachsen, die nicht mehr in der Lage ist, eigene Texte zu verfassen und stattdessen
auf das Internet als nie versiegende Quelle von Informationen zurückgreift. Weber sieht die
Schuld offensichtlich eher beim Werkzeug als beim Täter:
»Es ist primär die Verführung durch das Internet. Es ist einfach in den letzten Jahren wahnsinnig verführerisch, ganze Textstellen wortgleich aus dem Internet zu übernehmen. Vor und
Mitte der 90er Jahre war es zumindest notwendig, sich ein Buch auszuleihen und abzuschreiben, oder sich bei einem Kollegen eine Arbeit aus diesem Bereich zu holen und diese vielleicht
umzuformulieren. Jetzt ist es einfach so, man geht auf „hausarbeiten.de“ oder tippt bei Google
einfach ein Stichwort ein, landet bei einem Wikipediaartikel und findet dort eine Vielzahl
an Links, die zu diesem Thema verweisen. Es ist einfach wahnsinnig verführerisch geworden,
quasi zum Volkssport avanciert, diese Textsegmente 1:1 zu übernehmen, oder – ein wenig
trickreicher – diese Texte einfach umzuformulieren.«142
Dadurch, dass Texte mittels digitaler Technik von ihren Meta-Informationen befreit werden
können, zu denen anscheinend auch die Verweise auf einen Autor und das Erscheinungsjahr
gehören, fällt es wesentlich leichter, ein Plagiat herzustellen als zu früheren Zeiten. Dies gilt
allerdings nur so lange, bis Dozenten und Prüfungskommissionen Werkzeuge zur Verfügung
stehen, die es ihnen ermöglichen, ein Plagiat schnell zu identifizieren. Diese Werkzeuge existieren in Form von spezieller Software oder Suchmaschinen143 schon seit längerer Zeit, nur
werden sie offensichtlich nicht hinreichend häufig angewendet. Um einen Überblick darüber
zu erhalten, wie häufig das Phänomen Plagiat in vergangenen, nur in gedruckter Form zur
Verfügung stehenden Texten, um sich gegriffen hat, wäre es wünschenswert, diese komplett
zu digitalisieren, um sie durchsuch- und vergleichbar zu machen.
Der geschriebene Text hat seine zweite Revolution durchlebt: War die erste Revolution seine
Geburt als Text, also als strukturiertes und indizierbares Wortgebilde, die ihn von seinen
Vorgängern, von mittelalterlichen Manuskripten unterscheidet, so ist die zweite Revolution
141 Weber (2006, Internet) - Plagiatsfahndung an der Uni Salzburg: Elf von 13 Diplomarbeiten unsauber
142 Reisinger (2006, Internet) – Interview: Stefan Weber über Plagiate, Internet, und Nestbeschmutzer
143 Meist würde schon eine kurze Google-Suche nach einem verdächtigen Textbaustein ausreichen, um ein
Plagiat zweifelsfrei zu identifizieren.
68
MATERIALITÄT
nun seine Verfügbarkeit, seine schnelle Durchsuchbarkeit und seine Vergleichbarkeit.144 Die
erste Revolution betraf die Form des Textes, die zweite betrifft seine möglichen Rezeptionsweisen.
Eines der meiner Meinung nach wichtigsten Merkmale eines natürlich wirkenden Schreibvorgangs ist eine konsequente und nachvollziehbare Linearität. Ein Musikstück beispielsweise wird erst dann für voll genommen, für echt gehalten, wenn keine hörbaren Schnitte auf
eine Manipulation der Zeitlichkeit des Stückes schließen lassen. Und nicht umsonst wird
im Kinofilm Matrix der Fehler in der Matrix, das Umprogrammieren der „echten“ virtuellen Welt in eine Welt ohne Ausgänge, an einem Déjà-vu-Erlebnis des Protagonisten Neo
bemerkt. Wenn ein eigentlich linearer Vorgang unterbrochen wird, wird dieser nicht mehr
als authentisch empfunden. Das Copy+Paste-Verfahren wiederum bricht den grundsätzlich
linearen Schreibvorgang auf und nimmt ihm damit einen Teil seiner natürlichen Wirkung.
Ein weiterer Faktor, welcher zum schleichenden Niedergang einer haptisch-materiell-emotionalen Schreiberfahrung führt, ist das sich unter Autoren wachsender Beliebtheit erfreuende Schreiben in Auszeichnungssprachen. Im naturwissenschaftlichen Bereich längst zum
Alltagsgeschäft gehörend, spielen deren beliebteste Vertreter, TeX und LaTeX, eine immer
bedeutendere Rolle in den Geisteswissenschaften. In diesen Sprachen wird der Textfluss beim
Schreibvorgang immer wieder durch Auszeichnungen, also digitale Meta-Informationen über
Absatzstrukturen, Formatierungen, Laufweite, Zitate etc. unterbrochen.
Doch das sind nur die oberflächlichen Auswirkungen der Trennung zwischen Mensch und
Schreibwerkzeug. Das größte Problem stellt meiner Ansicht die mangelnde Nachvollziehbarkeit des elektronischen Schreibvorganges dar. Während es zum Allgemeinwissen gehört, wie
ein Kugelschreiber funktioniert und nahezu jedem Schreibenden die generellen Unterschiede
in der Funktionsweise zwischen Bleistift und Füller klar sind, verhält es sich beim Computer
anders. Friedrich Kittler postuliert schon im Jahr 1993: »Der Schreibakt ist verschwunden.«145
Die Anzahl der Abstraktionslayer, die mittlerweile zwischen der graphischen Benutzeroberfläche und den konkret im Prozessor stattfindenden Rechenoperationen liegen, ist so hoch, dass
zur Zeit niemand alle der in einem handelsüblichen PC stattfindenden 3 Billionen Rechenoperationen146 pro Sekunde bis zum erwartungsfroh blinkenden Eingabecursor beschreiben
und schon gar nicht nachvollziehen kann.
Die Digitalisierung führte zusammengefasst also zu einer Abkehr von der materiellen Schreiberfahrung, der Griffel ist – um auf Flusser zurückzukommen – auf eine interessante Art und
Weise verschwunden und wurde durch etwas Neuartiges ersetzt.
Bis hierher liest sich dieser Text so, als ob ich eine Lanze für die Immaterialität der elektronischen Datenverarbeitung und damit im Umgang mit virtuellen Räumen brechen wollte.
144 Vgl. Illich (1990), S. 7 ff.
145 Kittler (1993), S. 226
146 Drei TeraFLOP (Floating Point Operations per Second) sind ein Spitzenwert, der aber durchaus beim
alltäglichen Arbeiten erreicht werden kann.
69
MATERIALITÄT
Was genau ist das Neuartige, das die materielle Schreiberfahrung ersetzt, ist dem digitalen
Schreibvorgang möglicherweise eine ganz eigene Materialität zuzuschreiben?
Flusser beschreibt mit Blick auf die Industrialisierung einen Bruch im Verhältnis zwischen
Mensch und Maschine, zunächst leitet er mit Blick auf das prä-industrielle Verhältnis des
Menschen zum Apparat ein:
»Im vorindustriellen Verhältnis steht die Maschine noch zwischen dem Menschen und der
vom Menschen bearbeiteten Welt. Sie ist ein »Attribut« des Menschen im juristischen, aber
auch im logischen Sinn.«147
Dieses Attribut-Verhältnis habe sich mit der Industrialisierung grundlegend geändert:
»Im industriellen Verhältnis befindet sich der Mensch während seiner Arbeit in der Maschine, und die bearbeitete Welt hat ihren Ort jenseits des Horizonts (in der »Metaphysik«). Im
logischen Sinn ist der Mensch ein Attribut des Apparats, denn er kann während der Arbeit
durch einen anderen Menschen ersetzt werden, obwohl es im juristischen Sinne immer noch
menschliche Eigentümer der Maschine gibt.«148
Ersetzt man in Flussers Ausführungen die Worte „Industrialisierung“ und „industriell“ durch
„Digitalisierung“ und „digital“, bekommen sie eine beklemmende Realitätsnähe: Der Mensch
als austauschbares Attribut eines scheinbar willkürlich handelnden und schier übermächtigen
Apparates; ein solches Gefühl ist wohl niemandem fremd, der schon einmal versucht hat, mit
einem herkömmlichen Textverarbeitungsprogramm einen Text von über 100 Seiten Länge zu
formatieren.
Sieht man das Internet oder den virtuellen Raum generell als zusammenhängenden Maschinenkomplex an, lassen sich Flussers Worte auf andere Art und Weise interpretieren: Die
Funktion des Menschen hat sich – gerade, wenn Entwicklungen des Web 2.0 berücksichtigt
werden – in einen Zuarbeiter der Maschinerie verwandelt, er versorgt – Stichwort: user generated content – die Maschine mit Inhalten. Von außen betrachtet, kann der Mensch sogar als
Teil dieses Komplexes, als innerhalb der Maschine positioniert gesehen werden.
Hier und nur hier ist das Innere des Computers nicht mehr als Black Box zu sehen. Wir können nicht nur Input und Output beobachten, wir sehen auch, was innerhalb der Maschine
vor sich geht. Sie ist transparent geworden und wir als ihre Bestandteile sind es auch.
Beim Benutzen eines Computers spielt noch ein weiterer Faktor in das allgemeine Gefühl
der Machtlosigkeit, der mangelnden Einflussnahme auf die Vorgänge hinter der grafischen
Benutzeroberfläche, auf die Operationen innerhalb des Gerätes, hinein: Alle traditionellen
Eingabegeräte, seien es Tastaturen oder Mäuse, Touchpads, Trackballs oder Joysticks, dienen
als Vermittler zwischen der Realität der Eingabe und der digitalen Virtualität der Daten, in
die diese Eingaben übersetzt werden.
Bis zu diesem Punkt ist das keine große Erkenntnis, interessant jedoch gestaltet sich die Bedienung dieser schon alltäglichen Eingabegeräte und damit die Bedienung des Computers
147 Flusser (1991), S. 32
148 Flusser (1991), S. 32
70
MATERIALITÄT
selbst: Zuvorderst muss der Umgang mit einer Tastatur erlernt werden; für viele stellt sogar
das Tippen mit mehr als zwei Fingern eine unüberwindliche Herausforderung dar. Ähnlich
absurd erscheint die Maus-Technologie – dass eine auf der horizontalen Ebene Tisch ausgeführte Bewegung auf die vertikale Ebene Monitor umgesetzt wird, ist zur Normalität geworden und wird bestenfalls von ungeübten Benutzern hinterfragt.
Vor uns steht ein Monitor, damit wir mit eigenen Augen die Ergebnisse dessen sehen können,
was wir im Computer bewirken, es stehen möglicherweise Lautsprecher zur Verfügung, damit
wir die Möglichkeit einer akustischen Rückmeldung über unser Tun bekommen. Maus, Tastatur, Trackpad, Grafiktablett und Joystick sind dafür zuständig, die Eingaben unserer Hände
aufzunehmen. Abgesehen davon, dass beim Umgang mit einem Computer der Geruchs- und
der Geschmackssinn bisher völlig unberücksichtigt bleiben, sorgt diese künstliche Trennung
der Schnittstellen zwischen Körper und Maschine für eine wachsende Entfremdung zwischen
Benutzer und Werkzeug bzw. den durch das Werkzeug vermittelten virtuellen Räumen.
Gekoppelt mit dem wachsenden Gefühl der Machtlosigkeit gegenüber einem übermächtigen
Apparat tut diese Trennung ihr übriges, um Veröffentlichungen voranzutreiben, die den virtuellen Raum als blutarm und als unfähig des Transports „echter“ Gefühle bezeichnen.
Ich räume ein, dass gewisse Techniken des digitalen Umgangs mit der Virtualität in Form
von Texten, Musik, Bildern und Videos dazu führen mussten, doch meine ich, in jüngerer
Zeit eine deutliche Tendenz in die entgegengesetzte Richtung beobachtet zu haben. Als Beispiele sollen hier technische Geräte dienen, welche es der Virtualität erlauben, weiter in viele
gewohnte Lebensbereiche hervorzudringen, als es ihr bisher unter Zuhilfenahme von Computern, Fernsehern und Walkmans möglich war.
4.4. Die Rückkehr des Drückens: Vom Anschmiegen der Gadgets
Anschmiegsame Gadgets muten in einer Zeit, in der es nur sehr begrenzt möglich erscheint,
eine emotionale Bindung oder gar eine Beziehung zu einem technischen Gerät aufzubauen,
als an Wahnsinn grenzende Utopie an. Dennoch gehen ernstzunehmende Wissenschaftler –
allen voran der britische Informatiker David Levy – davon aus, dass es in nur 50 Jahren zum
Alltagsgeschäft gehört, dass einige Menschen mit Robotern Beziehungen eingehen werden,
die weit über bloßen Sex hinausgehen. Im weiteren Verlauf dieses Kapitels möchte ich einige
Gadgets149 vorstellen, die so konzipiert sind, dass ihre Besitzer eine emotionale Bindung zu
ihnen aufbauen können. Die neueste Generation dieser Gadgets, deren Vorgänger Apples
meist eng am Körper getragener iPod oder auch schmale Mobiltelefone sind, die sich an den
Körper ihres Trägers anschmiegen, ist unter besonderer Berücksichtigung von Emotionalität
und Glaubwürdigkeit entwickelt worden. In welcher Art und Weise Inszenierungsstrategien
– vor allem innerhalb der Software-Programmierung – für Glaubwürdigkeit verantwortlich
sind, soll im nun folgenden Exkurs beschrieben werden. Um für ein glaubwürdiges Gegenüber gehalten zu werden, muss eine Software vor allem Respekt einflößen können, sie muss
149 Siehe Glossar der vorliegenden Arbeit.
71
MATERIALITÄT
darauf programmiert werden, eigenständiges Handeln zu simulieren. Dies ist das Ziel der
Forschung zur künstlichen Intelligenz (KI). Diese hat ihre Vorläufer schon im ausgehenden 18. Jahrhundert: Der Hofrat und Erfinder Wolfgang von Kempelen entwickelte verschiedene Automaten, unter anderem den „Schachtürken“, einen Automaten, der angeblich
das Schachspiel vollkommen unabhängig von einem menschlichen Gehirn beherrschte (S.
Abbildung 11). Dass der Schachautomat dabei von einem in seinem Inneren befindlichen
Schachmeister bedient wurde, spielt für die Inszenierungsstrategien, die für seine Popularität verantwortlich sind, keine Rolle. Die Entwicklung der Androiden, also der Maschinen,
die dem Menschen nachempfunden sind und dessen Verhaltensweisen simulieren sollten,
setzte sich durch das 19. Jahrhundert fort: Johann Nepomuk Maelzel, übrigens der Erbe des
Kempelenschen Schachautomaten, erfand einen Trompeter, der im Jahre 1910 von Friedrich
Kaufmann weiterentwickelt wurde. Musikautomaten dieser Art sind bis heute erhalten und
werfen die wichtigsten Fragen in Bezug auf künstliche Intelligenz und maschinell erzeugte
Menschlichkeit auf: Ist Intelligenz eine Eigenschaft, die von einer Maschine erlangt werden
kann, und – falls ja: Ab wann ist eine Maschine intelligent? Welche Kriterien können für
die Beurteilung von Intelligenz herangezogen werden, ist vielleicht gar die Beherrschung
der Künste, also beispielsweise kreatives Handeln, ein Kriterium für das Vorhandensein von
Intelligenz?
72
EXKURS
Turings Träume
4.5. Von ELIZA zu Rolly
Ähnliche Gedanken zur menschlichen und zur künstlichen Intelligenz bzw. zur Simulation
und Inszenierung dieser beherrschten den britischen Mathematiker Alan Turing schon kurz
nach dem Zweiten Weltkrieg. Er beschloss – als bis dahin relativ unbekannter Kryptograph,
der allerdings mit der Entschlüsselung der deutschen Chiffriermaschine Enigma kriegsentscheidende Leistungen auf Seiten der alliierten Kryptographie erbracht hatte – im Jahre 1946,
ein elektronisches Gehirn zu bauen.
Turing hatte kurz zuvor in Bletchley Park einen der ersten Großrechner, Colossus, entwickelt
und war von diesem Zeitpunkt an der festen Überzeugung, dass bestimmte Eigenschaften,
die elektrische Leiterbahnen und Röhren aufwiesen, auf die Nervenbahnen im menschlichen
Hirn übertragbar seien. Beide seien zur Informationsübermittlung gut, die Nervenbahnen
hätten allerdings gegenüber ihren elektronischen Verwandten den Vorteil, relativ wartungsfrei, kompakt und energiesparend zu sein, während die anfälligeren metallischen Leiter die
elektrischen Informationen schneller verarbeiten würden. Turing war weiterhin der Meinung,
dass dieser Vorteil des schnelleren Informationsflusses eines Tages den schier uneinholbar anmutenden Vorsprung der menschlichen Nervenzellen aufwiegen könnte: Ein Elektronenhirn
könnte somit in ferner Zukunft dem menschlichen Denkapparat überlegen sein.
4.5.1. Der Stellenwert des Schachspiels
Dass diese Überlegenheit der Maschinen eines Tages möglich werden würde, war Turing klar,
er wusste nur nicht genau, wie man sie beweisen solle. Er suchte nach einer zuverlässigen
und vergleichbaren Messmethode für die Leistungsfähigkeit eines Gehirns, sei es biologischer
oder elektronischer Natur: »Wir stehen dann dem Problem gegenüber, angemessene Denkarbeiten für die Maschine zu finden, in denen sie ihre Fähigkeiten ausüben kann.«150
Bei dieser Suche stößt Turing schnell auf das Schachspiel, denn es nimmt für ihn einen
hohen Stellenwert beim Versuch des Nachweises der maschinellen Intelligenz ein. Dies hat
vor allem den Grund, dass Schach eines der wenigen Spiele ist, die sich durch eine einfache
Symbolsprache umschreiben lassen. Im Gegensatz zu anderen denkbaren „Intelligenztests“,
wie beispielsweise dem Erfassen und Einordnen von optischen Figuren oder dem Rotieren
150 Turing (1987), S. 97
73
TURINGS TRÄUME
dreidimensionaler Objekte,151 benötigt eine Maschine im Vorfeld keine aufwändige Sensorik,
um ihre schachspielerischen Fähigkeiten unter Beweis zu stellen, sondern kann sich voll und
ganz der ihr gestellten Aufgabe, der logischen Analyse der Züge des Gegners und der daraus
folgenden Strategieentwicklung, widmen.
»Wenn man eine erfolgreiche Schachmaschine entwickeln könnte, wäre man imstande, zum
Inneren des menschlichen intellektuellen Könnens vorzudringen.«152
Da Alan Turing für die englische Regierung einerseits mehrere Berichte über seine neue Tätigkeit, nämlich über die Entwicklung einer Denkmaschine, abliefern musste, und andererseits bis dato kein Computer komplex genug war, um das Schachspiel zu beherrschen,
war der Wissenschaftler gezwungen, eine Art Maß für Geistesleistungen zu entwickeln. Um
alle metaphysischen Diskussionen über Seele und Geist zu vermeiden, entwickelte er den
Turing-Test, bei dem eine Maschine und ein Mensch darin konkurrieren, einen dritten, unabhängigen Menschen von der jeweils eigenen Menschlichkeit zu überzeugen. Maschine und
Mensch kämpfen also darum, wer der bessere Schauspieler ist. Sobald der „Tester“ Mensch
und Maschine nicht mehr voneinander unterscheiden könne, oder die Maschine diesen sogar
davon überzeugen kann, dass es sich bei ihrem Widersacher um eine Maschine handelt, sei
der Beweis für die Existenz einer dem Menschen zumindest in einer Disziplin ebenbürtigen
Maschine erbracht. Denn »eine Maschine, (...) die so gut beziehungsweise intelligent wie ein
Mensch zu arbeiten scheint, ist für Turing so gut und intelligent wie ein Mensch.«153
4.5.2. Schauspielqualitäten als Maß der Intelligenz?
Dies ist für mich einer der interessantesten Gedanken Turings. Eine Maschine, welche die
Kunst des Schauspiels beherrscht, ist für ihn so gut und intelligent wie ein Mensch. Und
tatsächlich ist es für Maschinen – zumindest deutet sich dies in den jüngsten Ergebnissen der
Forschung auf dem Gebiet der künstlichen Intelligenz an – wahrscheinlich nur auf eine einzige Art und Weise möglich, einen intelligenten Eindruck zu hinterlassen: Durch Täuschung
und Schauspielerei.
Die Forschungsergebnisse auf dem Gebiet der „hohen“ künstlichen Intelligenz, also dem
Wissenschaftszweig, welcher versucht, Intelligenz z.B. mittels neuronaler Netze und einer
Anhäufung von verschiedensten elektronischen Möglichkeiten geradezu aus dem Nichts heraus zu schaffen, sind niederschmetternd. Zwar kursieren einige ins Esoterische abdriftende
Vermutungen, dass das Internet allein aufgrund seiner ungeheuren Größe und der kumulierten Rechenleistung aller darin vernetzten Computer innerhalb der nächsten Jahre ein Be151 Ein Zeitgenosse Turings, der Philosoph und Elektrotechniker Louis Leon Thurstone, entwickelte für den
Entwurf eines Modells zur Erfassung der menschlichen Intelligenz sieben Primärfaktoren. Für mehrere
dieser Faktoren sind die genannten Fähigkeiten maßgeblich. Thurstones Arbeiten, allen voran The Nature
of Intelligence (1924) und Factorial Studies of Intelligence (1941), hatten prägenden Einfluss auf die Konzeption moderner Intelligenztests, beispielsweise auf den Stanford-Binet-Test.
152 Turing in Euwe (1970).
153 Strouhal in: Felderer (1996): Uhrwerk und Schachspiel: Zur Motivgeschichte des Bildes der intelligenten
Maschine, S. 446.
74
TURINGS TRÄUME
wusstsein entwickeln würde, diese halte ich persönlich jedoch für eine untragbare Wunschvorstellung bzw. für eine Horrorvision.
4.5.3. ELIZA – Das berühmteste „intelligente“ Programm der Welt
Wendet man sich von diesen Utopien ab, so bleibt die Forschungsarbeit zur „niederen“ Form
der künstlichen Intelligenz. Dies ist der Forschungszweig, welcher sich mit der Simulation
und dem Vorspiegeln von Intelligenz beschäftigt. Hier zeigen sich enorme Fortschritte. Auf
rein textueller Ebene – innerhalb von Chatprogrammen, welche auf ausschließlich textbasierter Kommunikation beschränkt sind – wurde es einigen Programmen, wie z.B. ELIZA154
schon ab 1966 möglich, ihre Gesprächspartner zu täuschen. Diese waren durch das Programm davon zu überzeugen, in der Maschine oder – bei internet-basierter Kommunikation
– auf der anderen Seite der Welt, müsse sich ein menschliches Bewusstsein befinden.
Weizenbaum tells us that he was shocked by the experience of releasing ELIZA (also known as
„Doctor“) to the nontechnical staff at the MIT AI Lab. Secretaries and nontechnical administrative staff thought the machine was a „real“ therapist, and spent hours revealing their personal
problems to the program. When Weizenbaum informed his secretary that he, of course, had
access to the logs of all the conversations, she reacted with outrage at this invasion of her privacy. Weizenbaum was shocked by this and similar incidents to find that such a simple program
could so easily deceive a naive user into revealing personal information.155
Das Psychiaterprogramm ELIZA funktioniert nach dem einfachen Prinzip, dass es alle Aussagen seines Gesprächspartners analysiert und umformt, eine typische Reaktion ELIZAs auf
eine Eingabe des Benutzers sieht in etwa so aus:
Patient: »Ich habe ein Problem mit meinem Auto.« – Eliza: »Warum, sagen Sie, haben Sie ein
Problem mit Ihrem Auto?«156
oder:
Patient: »Gestern habe ich meinen Vater getroffen.« – Eliza: »Erzählen Sie mir etwas mehr über
Ihre Familie.«
Die Reaktion ELIZAs im zweiten Beispiel lässt sich natürlich nicht nur über eine einfache
Umformung des Ausgangssatzes erklären. ELIZA verfügt außer der Fähigkeit zum Umformen noch über eine sehr rudimentäre Datenbank von zusammengehörigen Schlagwörtern
und ist so in der Lage, das Wort Vater mit dem Wort Familie zu assoziieren. Der Erfinder
dieses Programms, Joseph Weizenbaum, begründete seine Entscheidung, vorzugeben, dass
es sich bei ELIZA um eine Psychiaterin handele, damit, dass man von einer Psychiaterin
keinerlei Wissen über die Welt erwarte. Wenn man einer Psychiaterin erzähle, man sei mit
einem Boot gefahren und diese würde einen daraufhin bitten, mehr über Boote zu erzählen,
154 ELIZA ist übrigens nach Eliza Doolittle in George Bernard Shaws Pygmalion benannt, die – als einfache
Blumenverkäuferin – nur durch das Erlernen eines neuen Akzents glaubhaft eine Herzogin vorspielen
sollte.
155 Wallace (2001, Internet): From Eliza to A.L.I.C.E.
156 S. http://de.wikipedia.org/wiki/ELIZA vom 3. März 2008
75
TURINGS TRÄUME
so nehme man dennoch nicht an, dass man es mit einem Menschen zu tun habe, der nichts
über Boote wisse, sondern erzähle ihr bereitwillig etwas darüber. Weizenbaum beschreibt die
Funktionsweise des Programms in einem Interview157 wie folgt:
»Das wahrhaftigste Bild von ELIZA ist, ELIZA ist ein Schauspieler, der verschiedene Regeln
gelernt hat, aber der die ganze Zeit, als er auf der Bühne ist und seine Rolle spielt, improvisiert.
Aber nach den Regeln, die ihm gegeben wurden. Aber man weiß nicht, was er als nächstes
sagt.«
Auf die Frage, warum ELIZA so erfolgreich ein menschliches Gegenüber vortäuschen könne,
antwortet Weizenbaum:
»Eliza hat vielleicht eine Grundmethode, man könnte auch sagen, einen Trick. ELIZA stützt
sich auf die Tatsache, dass der Mensch die Signale, die ihm entgegenkommen, im Licht seiner
Bedürfnisse und Interessen interpretiert, und er projiziert seine eigene Vorstellung des Partners
in ihn hinein. (…) Besonders sympathiebedürftige Menschen projizieren mehr in das Programm hinein als andere.«
In der ersten Aussage bestätigt Weizenbaum meine These, dass eine gelungene Inszenierung
der wichtigste Bestandteil der Glaubwürdigkeit einer künstlichen Intelligenz ist, er bezeichnet ELIZA, ein Programm, welches nur wenige Zeilen Quellcode umfasst, als improvisierenden Schauspieler. Ein weiterer, noch interessanterer Aspekt liegt im Begriff der Projektion.
Der Patient, bzw. der Chatpartner projiziert in das Programm seine eigenen Vorstellungen,
welche dominant genug zu sein scheinen, um die objektive Sichtweise auf das einfache Funktionsprinzip des Programms und auf alle Ungereimtheiten, die in einer Konversation mit ihm
auftreten, zu überdecken.
Der Wunsch der Probenden, auf der anderen Seite einen menschlichen Gesprächspartner zu
haben, der zuhört und versteht, macht das Programm für sie erst glaubwürdig. ELIZA ist nur
die Vorgängerversion von hunderten von Programmen dieser Art. Modifizierte Versionen
von ELIZA finden sich heutzutage z.B. eingebaut in Internetseiten und Computerprogramme, als Berater und Assistenten, die deren Besucher immer wieder durch ihre scheinbare
Intelligenz verblüffen.
4.5.4. Love the machines! – Von der Projektion zur emotionalen Bindung zwischen
Mensch und Maschine
Die Projektion menschlicher Eigenschaften in Maschinen-Bewegungen oder in die Reaktionen eines technischen Gerätes, wie es im Falle von ELIZA auftritt, wurde schon im Jahr 1944
beobachtet. Die amerikanischen Psychologen Fritz Heider und Mary-Ann Simmel zeigten
einigen Probanden einen Film, der – ähnlich wie frühe Hans-Richter-Filme – aus bewegten
abstrakten Formen bestand. Anschließend führten sie eine Befragung durch. Auf die Frage,
was denn nun genau zu sehen gewesen wäre, antworteten einige der Probanden, dass sich die
Formen gegenseitig gejagt hätten. Die Weiterentwicklung der interaktiven Computertechnik
157 http://www.swr.de/swr2/audiohyperspace/engl_version/interview/weizenbaum.html
76
TURINGS TRÄUME
kann eine wesentlich festere emotionale Bindung zu einem Gerät ermöglichen, als sie noch
vor wenigen Jahrzehnten vorstellbar gewesen wäre.
Um eine wirkliche Bindung zwischen Mensch und Maschine herzustellen, muss ein Gerät
oder ein Programm in der Lage sein, auf eine Eingabe zu antworten. Die Grundlage für eine
emotionale Bindung zu einer Maschine ist allerdings eine andere: Der Nutzer muss konsequent und wiederholt überrascht werden.
Generell existieren zwei Formen von Überraschungen: Positive und Negative. Denn die neutrale Überraschung ist ein Ding der Unmöglichkeit. Von einer Maschine aber negativ überrascht zu werden und diese in der Folge dann geradezu zu hassen, ist schon längst zu einer
Alltagserfahrung geworden – Mir sind nur sehr wenige Menschen bekannt, die ihren Computer nicht mindestens einmal wöchentlich verfluchen. Dies tun sie meist aus dem Grund,
dass die Maschine sie mit einem Fehler überrascht, der ihnen schadet. Würde hingegen eine
Maschine oder ein Programm existieren, die mit guten, sinnvollen und nützlichen Taten
überraschen würde, wäre diese vermutlich sofort ein Verkaufsschlager.
Man stelle sich folgendes Szenario vor: Ein Programm untersucht den momentanen Arbeitsablauf eines Benutzers und entscheidet daraufhin selbsttätig, dass dieser ineffizient ist. Mit
einem freundlichen Gesichtsausdruck macht es den Benutzer darauf aufmerksam und bietet
ihm an, die Arbeit, die er gerade verrichtet, für ihn zu übernehmen, weil diese mit einfachen
Mitteln automatisierbar ist. Ich wäre sofort begeistert von solch einer Maschine. Ein derartiges Verhalten seitens eines Computers klingt zunächst unrealistisch, ist aber technisch
durchaus umsetzbar.
Erste wenig versprechende Ansätze eines Versuches, in diese Richtung tätig zu werden, zeigte
der Microsoft-Konzern mit der Entwicklung einer äußerst hilfreich erscheinenden, im Comic-Stil animierten Büroklammer, die zu allen möglichen und vor allem unpassenden Zeitpunkten von „innen“ an den Bildschirm tippt und den Office-Benutzer eher zurechtweist
oder ihn für dumm zu verkaufen scheint, anstatt ihm bei seiner täglichen Arbeit behilflich
zu sein.158
Dies sind Beispiele für zwei weitere zentrale Eigenschaften, die für eine emotionale Bindung
zu technischen Geräten unabdingbar sind: Authentizität und Respekt. Ein Nutzer muss die
Maschine ernst nehmen können und – noch wichtiger – er muss das Gefühl haben, selbst
von der Maschine ernst genommen zu werden. Diese Eigenschaften hängen sehr eng mit
dem bereits erwähnten Überraschungseffekt zusammen. Wir können ein Gegenüber – egal
ob Mensch oder Maschine – nur ernst nehmen, wenn wir davon ausgehen, dass es eigene
Entscheidungen treffen kann. Einen vorgegebenen, fest programmierten Ablauf Respekt entgegen zu bringen, ist absurd.
Eigene und vor allem vernünftige Entscheidungen werden Maschinen in den nächsten Jahren
158 Beispielsweise wurde ich von dieser Büroklammer innerhalb meines Studiums beim Verfassen von Essays
darauf hingewiesen, dass ich anscheinend einen Brief schreiben wolle. Ich kann beim besten Willen nicht
sagen, wie das Programm auf diese Idee gekommen ist.
77
TURINGS TRÄUME
aus den oben angesprochenen Gründen nicht treffen können. Um das Ziel der emotionalen
Bindung zwischen Mensch und Maschine zu erreichen, müssen positive Überraschungseffekte auf eine undurchschaubare Art und Weise Teil der Software werden.
Genau dieses Verfahrens versucht sich der japanische Konzern Sony zur Zeit bei der Entwicklung eines äußerst interessanten Produktes zu bedienen: Das eiförmige Musikabspielgerät
Rolly erfüllt – abgesehen von dem vergleichsweise eher geringen Nutzen für einen potentiellen Käufer – alle genannten Voraussetzungen, um nicht nur das Objekt der Begierde für viele
Menschen zu werden, sondern obendrein noch das Ziel einer starken emotionalen Bindung
zum Besitzer zu bieten (S. Abbildung 12).
»Aus unseren Erfahrungen mit Aibo159 wussten wir, dass die Tatsache, dass die Maschine sich
selbsttätig bewegt, die Gefühle von Menschen beeinflusst. (…) Wir hatten nicht vor, die Bewegungen eines bestimmten Tieres zu kopieren. Stattdessen haben wir versucht, Bewegungen
einzubauen, die für die Form – ein einfaches Oval, das auf den Benutzer freundlich wirken
soll – möglichst überraschend sind.«160
Nur, weil wir es gewohnt sind, auf mehreren, voneinander getrennten Kanälen mit dem
Computer zu kommunizieren, ist das kein Grund dafür, diese künstliche Beschränkung weiter aufrecht zu erhalten. Ein überraschendes, kleines, eiförmiges Gadget, welches sich anfassen lässt und auf Berührungen reagiert, etwas derartiges scheint ein erster Schritt in die
richtige Richtung zu sein. Die Idealvorstellung wäre natürlich die Erweiterung eines Gedankenexperimentes, des »umfassenden Computers«, welchen Martin Seel entwirft:
»Es ist dies ein Computer, der auch die Funktionen eines komfortablen Radio-, Fernseh- und
Videogeräts erfüllt, mehrere CD-Laufwerke hat, an das Internet angeschlossen ist, mit dem
man auch E-Mail versenden, faxen und telefonieren kann, wenn man will, so, daß man den
oder die Partner am Bildschirm sehen kann.«161
Es wäre ein Gerät, welches neben der umfassenden Funktionalität, die Seel beschreibt, alle
Sinne gleichzeitig anspricht, das man also gleichzeitig anfassen kann, um es zu bedienen,
welches einen Geruch und einen Geschmack aufweist, nebenbei noch verschiedene Temperaturen annehmen und Geräusche von sich geben kann und welches in der Lage ist, den
Nutzer im doppelten Wortsinne zu berühren – also im Prinzip die technokratische Version
der eierlegenden Wollmilchsau mit eingebautem Emotionserzeuger.
159 Aibo (japanisch für Freund) ist ein von der Firma Sony hergestellter Roboter. Er ist mit einer simplen
künstlichen Intelligenz ausgestattet und soll das Verhalten eines Hundes imitieren. Ursprünglich als Haustierersatz für Allergiker gedacht, werden die verschiedenen Aibo-Modelle als relativ kostengünstige und
gleichzeitig vielseitige Roboter in unterschiedlichsten Bereichen der KI-Forschung eingesetzt, zum Beispiel
beim Roboterfußball (S. Abbildung 13).
160 Nobuhiko Oguchi, Senior Manager New Business Field and Product Department des Audio-Bereichs bei
Sony in Technik zum Verlieben, Technology Review (03/2008), S. 31
161 Seel in: Krämer (1998), S. 256
78
TURINGS TRÄUME
Abbildung 11: Kempelens Schachautomat
Abbildung 12: Sony Rolly
Abbildung 13: Sony Aibo
Abbildung 14: Virtual Screen in Minority Report
Abbildung 15: Jeff Han / Multitouch Display
79
VIERTES KAPITEL
MATERIALITÄT
4.6. Von der Maus zu Minority Report - Die haptische Revolution im Umgang mit neuen Medien
Die wichtigste Eigenschaft dieses Gerätes wäre die intuitive Vermittlung aller Arten von Informationen und das Beherrschen jeder denkbaren Form der Online-Kommunikation, es
müsste also einen freien Umgang mit Texten, Bildern, Videos, Musik, dem Internet, Videound Audio-Telefonie, GPS, Fax, E-Mail usw. ermöglichen. Gleichermaßen müsste dieses
Gadget transportabel, also möglichst im Hosentaschenformat sein und somit jederzeit zur
Verfügung stehen.
Ein solches Gerät existiert zwar nicht, doch – frei nach Ludger Schwarte, der in einem Vortrag Uchronie und Prognose: Allüren der Technik das Prinzip der Technik als ein Prinzip der
Vorläufigkeit auffasste; denn technische Geräte selbst definierten sich unter anderem durch
eine bestimmte Art der Vorläufigkeit, sie selbst seien immer das Versprechen eines leistungsfähigen Nachfolgers – hat es unter anderem in Apples iPhone bzw. iPod touch einen Vorgänger
gefunden. Zwei bisher voneinander getrennte Schnittstellen zwischen Körper und technischem Gerät werden in diesem Gerät nicht zum ersten Mal, allerdings erstmalig auf eine
nachvollziehbare, einfach handhabbare Art und Weise auf eine Ebene gebracht: Der verbaute
Touchscreen führt den Gesichts- und den Tastsinn zusammen.
In Steven Spielbergs Minority Report arbeitet der Hauptdarsteller Tom Cruise an einer futuristisch anmutenden Computeroberfläche, welche in den Raum projiziert wird und es erlaubt, Computergrafiken und Videos mit der Hand zu bewegen, zu skalieren, zu greifen und
abzulegen (Vgl. Abbildung 14). Drag & drop in Reinkultur.
Spielberg imaginierte im Jahre 2002 eine Form von Technologie, die nur vier Jahre später
zur Realität geworden ist: Der New Yorker Computerwissenschaftler Jeff Han verblüffte mit
einem Video und einer beeindruckenden Präsentation die Welt der Technikbegeisterten. Er
entwickelte an der New York University die so genannte Multi-Touch-Technologie, bei der
es – im Gegensatz zu allen bisherigen Ansätzen der Entwicklung von berührungsempfindlichen Bildschirmen – möglich wird, mit beliebig vielen Fingern gleichzeitig die dargestellten
Informationen zu bearbeiten, seien sie nun in Form von Bildern, Videos oder Texten162.
162 Jeff Hans Fortschritte auf diesem Gebiet sind im Internet unter http://cs.nyu.edu/~jhan/ftirtouch/ dokumentiert. Siehe auch Abbildung 15.
80
MATERIALITÄT
Unter dem Titel Minority Report becomes reality wurde Hans verblüffende Präsentation des
Systems schnell zu einem der meistgesehenen Videos auf YouTube.163 Diese Technologie bildet außerdem den Grundstein zur intuitiven Bedienoberfläche von Apples iPhone.164
Texte, Bilder, Videos und Töne werden in naher Zukunft mit den Händen angefasst, zurechtgerückt, gestreckt, gestaucht, verzerrt und neu kombiniert werden. Die Trennung der
Benutzerschnittstellen wird obsolet.
Um zu verstehen, wie revolutionär der sich momentan vollziehende Wandel im Umgang mit
neuen Medien ist, ist es zunächst nötig, zu klären, wann die Medien eigentlich neu geworden
sind. Wo liegen die grundlegenden Unterschiede, welche diese Klassifizierung ermöglichen,
zwischen einem Gemälde und einem Digitalfoto, zwischen der Aufführung eines Sinfoniekonzerts und dem Hören einer CD? Was im dritten Kapitel am Beispiel von digitaler Musik
schon leise angeklungen ist, soll nun an dieser Stelle ausgearbeitet werden.
Lev Manovičh führt die Entwicklung der Neuen Medien auf zwei historische Schlüsselereignisse zurück, die merkwürdig früh in der Vergangenheit zu liegen scheinen: Da wäre zunächst
die Entwicklung der Kamera am Beispiel der Daguerrotypie (1839) und weiterhin die Erfindung der Rechenmaschine durch Charles Babbage (1833). Von diesen Punkten ausgehend,
entwickelten sich zwei Arten der Technologie: Einerseits Apparate, die selbsttätig rechnen
können, andererseits immer neuere und ausgefeiltere Arten, Bilder, Videos, Töne und Texte
zu speichern. Sobald beide Technologieformen miteinander kombiniert werden, wie etwa
mit der Erfindung des Personal Computers und der darauf folgenden Digitalisierung aller
bisher bekannten Analogmedien, sobald also eine Maschine gleichzeitig als Speicherort und
Manipulator dient, als Synthesizer und als Processor arbeiten kann, spricht Manovičh von
New Media.165
Neue Medien sind also schon relativ alt. Spätestens seit der Existenz von digitalen Bild- und
Videobearbeitungsprogrammen bzw. mit der breiten Akzeptanz des Personal Computers als
Arbeitsmittel sprechen wir von neuen Medien. Doch nun können diese Medien nicht nur
angesehen und angehört werden, die neuartige Hardware erlaubt es, sie zu biegen, sie zu brechen und sie – endlich! – authentischer als je zuvor in den Papierkorb zu befördern.
Apple betritt mit der Entwicklung des iPhones und seiner Benutzerschnittstellen absolutes
Neuland. Die entscheidenden Schlüsselsätze, welche Apple-CEO Steve Jobs bei der ersten –
wie immer bis ins kleinste Detail inszenierten – Präsentation des iPhones verwendete, sind:
»Who wants a stylus? (…) Nobody wants a stylus! So let‘s not use a stylus. We‘re gonna use the
163 Minority report becomes reality (2006), http://www.youtube.com/watch?v=PLhMVNdplJc
164 Ich wähle das iPhone nicht ohne Grund als Beispiel für eine ganze Serie ähnlich funktionierender Geräte,
so genannter Gadgets: Apples iPod touch arbeitet zwar nach dem gleichen Prinzip, des weiteren ungefähr
fünf weitere Smartphones verschiedener Hersteller. Das iPhone war aber mit das erste und ist in diesem
Zuge auch das bekannteste Gerät auf dem Markt, weiterhin ist die dort verbaute Technologie am fortschrittlichsten implementiert.
165 vgl. How Media became New, Manovičh (2001), S. 21 ff.
81
MATERIALITÄT
best pointing device in the world. (…) We‘re gonna touch it with our fingers.«166
Smartphones mit Touch-Screen werden üblicherweise mittels eines Stylus, eines Eingabestiftes bedient. Dieser erlaubt einerseits eine hohe Punktgenauigkeit und vermeidet so Fehlbedienungen, die durch einen kleinen Bildschirm mit relativ hoher Informationsdichte und die
Breite unserer Finger vorprogrammiert sind. Auf der anderen Seite ist der Weg von der nicht
intuitiven Mausbedienung zu der mit dem Stylus nicht weit. Zwar werden die Bewegungen
nicht mehr in eine andere Raumrichtung transformiert, trotzdem gibt es jeweils nur einen
einzigen Punkt, an dem sich ein Stift befinden kann, um eine Nutzereingabe vorzunehmen.
Wird die Multi-Touch-Technologie verwendet, gestaltet sich dies völlig anders. Fehlbedienungen werden durch eine Software vermieden, die aus der Menge an Punkten, an denen
der Finger auf den Bildschirm trifft, den Punkt errechnet, den der Nutzer vermutlich treffen
wollte. Der Bildschirm lässt sich an mehreren Stellen gleichzeitig anfassen, Fotos können mit
zwei Fingern skaliert werden, Listen lassen sich sehr schnell durchsuchen und Videos können
mit einem Wischen über den Bildschirm vor- und zurückgespult werden.
Sehen, Hören und Anfassen wurden also auf eine Ebene gebracht und ermöglichen einen äußerst direkten und damit wesentlich natürlicher wirkenden Umgang mit Medien und Daten,
also mit vermeintlich sehr immateriellen Dingen.
Nicht zuletzt ist es die dem Gadget eingebaute Sensorik, welche einen authentisch wirkenden
Umgang mit dem Gerät erlaubt. Das iPhone ist sowohl mit einem 3-Achsen-Beschleunigungssensor, der die Position des Gerätes im Raum feststellen kann, als auch mit einem Umgebungslicht- sowie einem Annäherungssensor ausgestattet. Dreht man es in die Horizontale,
schaltet es automatisch seinen Bildschirm in einen Widescreen-Modus, es reagiert also auf
seine Position im Raum. Bewegt man es zum Telefonieren ans Ohr, schaltet es den Bildschirm ab, es scheint, als würde das Gerät selbsttätig auf seine Position im Raum und seinen
momentanen Verwendungszweck reagieren. Diese Reaktion erfolgt nicht mehr auf eine direkte und bewusste Nutzereingabe – der Benutzer könnte ja auch einen Knopf drücken, um
auf Breitbild-Modus zu schalten – sie erfolgt automatisch. Das Gerät scheint gegenüber den
Bewegungen des Nutzers aufmerksam zu sein und ihn bei seinen Vorhaben zu unterstützen.
Nicht nur auf Seiten der Hardware ist die haptische Revolution nachzuvollziehen, auch die
Entwicklung neuer Software ist nötig, damit Medien endlich greifbar werden. Beim iPhone
sind die ersten Schritte auf diesem Weg bereits vollzogen, auch andere Hersteller von Mobilgeräten ziehen auf dem Sektor der berührungs-gesteuertern Software nach. Bisher erstreckt
sich diese Entwicklung jedoch nur auf die in den betreffenden Geräten direkt implementierte Software, internetspezifische Programmiersprachen unterstützen nur bedingt Steuerungsmöglichkeiten dieser Art.
Spezielle Internetseiten für Mobilgeräte existieren schon seit Jahrzehnten. Sie basieren auf
Protokollen wie WAP167 und iMode und stellen den zweifelhaften Versuch dar, Inhalte des
166 Steve Jobs bei der Eröffnungsrede der Macworld San Francisco, 2007
167 Wireless Application Protocol
82
MATERIALITÄT
Internets trotz einer aufs Minimum beschränkten Datenrate auf Mobiltelefonen und PDAs
darzustellen. Kein zeitgemäßes Gerät setzt mehr auf diese eingeschränkte Form des Internetsurfens, Apples iPhone und iPod touch bieten vollständige Browser, aktuelle WindowsMobile-Geräte können auf eine mobile Version des Browers Opera zurückgreifen. So hat
das Netz es zumindest in seiner gewöhnlichen Form als HTML, gekleidet in CSS, auf die
mobilen Geräte geschafft.
Nur – anfassen und bewegen kann man es davon noch lange nicht. Abgesehen von einigen unter immensem Programmieraufwand erstellte Drag-and-Drop-Experimenten wie dem
virtuellen Präsentationsprogramm 280Slides,168 sind HTML- und CSS-Oberflächen nicht
flexibel.
Für bestimmte Anwendungen, die Social Networks, Instant-Messenging, Location-BasedServices169 und Online-Spiele zugänglich machen, existieren allerdings vielversprechende
Mobil-Versionen, die gewährleisten, dass virtuelle Räume an jedem Ort zugänglich werden.
168 280Slides (http://www.280slides.org) könnte durch seine intiutive Bedienung eine ernstzunehmende Konkurrenz für Microsofts PowerPoint werden, welches zur Zeit den Standard unter Präsentationsprogrammen markiert.
169 Siehe Kapitel 5.2. der vorliegenden Arbeit: Interaktive Omnipräsenz: Location-Based Services.
83
5. Kapitel
Welche Formen der Interaktivität sind in virtuellen Räumen zu beobachten? // In welchem Zusammenhang stehen die bisher besprochenen Begriffe Körperlichkeit, Authentizität und Materialität mit der Interaktivität? // Wo liegen die Vorzüge und Nachteile kollaborativer und interaktiver
Arbeitsformen?
Interaktivität
»Meine Studien (…) haben mich davon überzeugt, daß die Informationstechnologie mehr tut,
als nur ein evokatives Objekt für unsere Selbstreflexion bereitzustellen (…). Sie bildet heute
darüber hinaus das Fundament für eine neue Kultur der Simulation und für eine grundlegende
Neubestimmung der menschlichen Identität, was ich in ‚Leben im Netz‘ darlegen wollte.«170
Die vorangegangenen drei Kapitel beschreiben und erörtern virtuelle Räume und einige ihrer
Schnittstellen zum Alltagsgeschehen. Innerhalb virtueller Räume und im Umgang mit ihnen
ist ein hohes Maß an Körperlichkeit, Authentizität und Materialität zu beobachten. Vor einem Fazit möchte ich nun diese drei Merkmale zusammenfassen und fragen, welche Rolle sie
bei konkreten, interaktiven Erfahrungen mit virtuellen Räumen spielen. Sherry Turkle stellt
die These auf, dass Informationstechnologie die Grundlage für ein Leben im Netz bietet. Ich
zweifele diese These an und verändere sie dahingehend, dass die Informationstechnologie die
Grundlage für ein Leben mit dem Netz darstellt. Das für diesen Unterschied entscheidende
Moment ist die Interaktivität. Gerade, weil das neue Netz unser aktives Eingreifen erfordert,
um es zu erfahren und zu gestalten, versinken wir nicht darin oder lassen uns von ihm einsaugen. Wir benutzen virtuelle Räume als Medien, um gleichzeitig mit anderen Menschen und
unserer Umgebung zu interagieren.
Interaktivität kann in virtuellen Räumen, wie schon in der Einleitung beschrieben, in verschiedensten Ausformungen auftreten: Es soll in diesem Kapitel nicht um die reine Interaktion zwischen Mensch und Maschine gehen,171 ich möchte die durch das Medium Internet
vermittelte Interaktivität zwischen zwei oder mehreren Individuen beschreiben. Die für die
Interaktivität grundlegende Kommunikation kann synchron oder asynchron erfolgen. Asynchrone Kommunikationswege wie E-Mail-Verkehr und das Schreiben in Internetforen sind
zwar bestimmt von Aktion und Reaktion, bieten aber – im Gegensatz zu synchronen Kommunikationsformen keinerlei Möglichkeit der unmittelbaren Rückkopplung, des direkten
Feedback auf eine Handlung. Dahingegen bieten sie ein Mehr an Flexibilität: Es müssen
170 Turkle (1998), S. 519
171 Siehe auch Kapitel 4: Materialität und Exkurs: Turings Träume.
84
INTERAKTIVITÄT
nicht alle User gleichzeitig anwesend sein,172 um ein Ziel zu erreichen,173 es kann genügen,
wenn die Interaktionen auch in größeren zeitlichen Abständen aufeinander folgen. Um ein
vereinfachtes Bild zu benutzen: Die Kommunikation innerhalb virtueller Räume ist nicht
mit einem vis-á-vis-Gespräch vergleichbar, sondern mit einer 1:n-Kommunikationssituation,
mit einer Konferenzschaltung. E-Mail, Internet-Foren und Usenet sind die Vorläufer dieser neuen Kommunikationsform; Wikis, der Internet-Relay-Chat und Mehrspieler-OnlineRollenspiele ihre Kinderstube. Die Entwicklung interaktiver Kommunikation, interaktiven
Spielens, Handelns, Lernens und sogar Denkens ist bei weitem nicht abgeschlossen, doch
denke ich, dass die Erfahrungen, die wir schon heute mit bestehenden Technologien machen
können, einen guten Ausblick darauf liefern können, was in naher Zukunft möglich sein
wird.
5.1. Die kollektive Geburt sozialer Software
Ebenso, wie die Grenzen zwischen Medienwissenschaft und Medienkunst fließend werden,174
verhält es sich mit Medienkunst und dem alltäglichen Umgang mit Medien. Innovative Umgangsformen mit neuen Materialien werden häufig zunächst in einem musealen Refugium
erprobt, bevor sie zum Allgemeingut werden. Extreme Videoeffekte tauchten vor ihrer Nutzung in der Werbung oder in Musikvideos zunächst im Experimentalfilm auf und Audio-Effekte wie die der Musique concrète finden im zeitgenössischen Hip-Hop Verwendung. Anders
im Internet: Bis neue Anwendungsformen elektronischer Medien alltagstauglich werden, haben sie meist eine recht kurze Phase des Experimentierens hinter sich.
Den kurzen Testzeitraum, den beispielsweise moderne Software zur Marktreife benötigt, verdankt sie ihrer extremen Wandelbarkeit. Im Gegensatz zu einem Video, welches – einmal
gedreht, geschnitten und post-produziert – als Werk feststeht und nur unter unverhältnismäßigem Aufwand verändert oder verbessert werden kann, im Gegensatz zu einem Haus,
welches – einmal gebaut – nur mit erheblichem Kostenaufwand aufgestockt werden kann, ist
Software durch die Veränderung weniger Programmbefehle und durch einen einzigen Mausklick, der den Rekompilierungsprozess auslöst, wandelbar. Alle Probleme, die im Rahmen
ihrer Nutzung auftauchen, können schnellstens beseitigt werden. Dieser Vorteil entpuppt
sich jedoch oft als Nachteil: Man könnte vermuten, dass die Software-Hersteller heutzutage
den Endnutzer als Beta-Tester verstehen. Unfertige Software wird zunächst ausgeliefert, um
sich eine teure Testphase ersparen zu können. Auf Beschwerden der auf diese Software angewiesenen Benutzer wird daraufhin mit einer teilweise endlos anmutenden Serie von Updates
reagiert.
172 Wie zum Beispiel bei so genannten Clan-Wars im Zusammenhang mit Ego-Shootern. Als Ego-Shooter
werden Echtzeit-Online-Spiele bezeichnet, die aus der Ich-Perspektive in einer dreidimensionalen Umgebung gespielt werden. Clan-Wars erforden die Anwesenheit aller bzw. der besten Spieler eines Clans.
173 Das Ziel einer asynchronen, aber interaktiven Massenkommunikation kann zum Beispiel die Programmierung einer Software oder die Erstellung einer Online-Enzyklopädie sein.
174 Vgl. Norbert M. Schmitz: Medialität als ästhetische Strategie der Moderne. Zur Diskursgeschichte der Medienkunst. in: Gendolla / Schmitz / Schneider / Spangenberg (2001), S.95 ff.
85
INTERAKTIVITÄT
Im Internet führten die Möglichkeiten, die eine so genannte Beta-Testphase bietet, jedoch
zu einer völlig neuartigen und positiv aufgenommenen Entwicklung: Zur Public Beta. Die
bisher übliche Closed-Beta-Phase, zu der nur einige ausgewählte Nutzer eingeladen werden,
wird in das üblicherweise vorangehende Alpha-Stadium der Software verlegt. An diesen Zeitraum schließt die Public Beta an. Für einen begrenzten Zeitraum hat nun jeder Nutzer die
Möglichkeit, die Software kostenlos zu testen und Verbesserungsvorschläge einzubringen.175
Web-2.0-Software – egal, ob es sich um ein Social Network oder eine der zahlreichen Google-Applikationen handelt, ist dem stetigen Wandel unterworfen. Dies führt unter anderem
dazu, dass manche Produkte sich scheinbar nie aus dem Beta-Stadium hinaus bewegen: Das
beliebte Foto-Portal Flickr befand sich für zwei Jahre in einer Beta-Phase, nur, um daran
anschließend überraschend eine „Gamma-Phase“ einzuläuten.176 Flickr ist also weiterhin kostenlos und befindet sich in einem Überarbeitungsprozess.
Die Software, die die Grundlage der neuen Medien und Kommunikationsformen bildet,
wird enger am Nutzer entwickelt als jedes andere Produkt. Die geschlossenen Tore der entwickelnden Unternehmen, die Refugien, in denen Software bisher unter strengster Geheimhaltung entwickelt wurde, sind im Web 2.0 weit geöffnet und laden die Öffentlichkeit zur
stetigen Weiterentwicklung der Produkte ein.177
Schon dem Geburtsvorgang der Software, die uns den Zugang zu virtuellen Räumen verschafft und diese gleichermaßen konstituiert, liegt also ein interaktives Moment zugrunde.
Die – traditionell gesprochen – Kunden,178 die eigentlichen Nutzer der Software, werden
durch ihre Anregungen und durch die breite Akzeptanz dieser Arbeitsweise zu ihren Schöpfern. Auf Produzentenseite lässt sich gerade in der Software-Entwicklung für das Web 2.0 die
Weiterentwicklung eines Phänomens beobachten, welches Sherry Turkle im Band Leben im
Netz den »Triumph des Bastelns« nennt: Social Software wird nicht nach einem feststehenden
Plan programmiert, sie entsteht in einem Prozess, der eher chaotisch organisiert ist.
»Für Planer sind Fehler Schritte in die falsche Richtung; Bastler dagegen navigieren durch
Korrekturen auf halber Strecke. Bastler lösen Probleme dadurch, daß sie in eine Art dialogische
175 Diese Entwicklung ist so signifikant, dass das Blog Museum of Modern Betas (MoMB, http://momb.sociokybernetics.net/) zum aktuellen Zeitpunkt über 5000 Beta-Versionen von Web-2.0-Anwendungen verzeichnen kann.
176 Dies wurde von den Machern der Seite einerseits als ironischer Seitenhieb auf die Beta-Kultur im Web
2.0 gesehen, diente aber andererseits als Hinweis darauf, dass sich das Fotoportal für immer in einer Phase
befinden wird, in der den Verbesserungswünschen und Fehlermeldungen seiner Nutzer Gehör geschenkt
wird. Vgl. auch Flickr (2008, Internet): Help: General Flickr Questions.
177 Ein berechtigter Einwand an dieser Stelle wäre der Hinweis darauf, dass dieses System nichts Neues ist
– schließlich findet die Entwicklung von Open-Source-Software (OSS) schon seit Jahrzehnten öffentlich
statt. Der Unterschied, der zum beschriebenen Phänomen besteht, liegt in den Kenntnissen, die vom mitarbeitenden Benutzer verlangt werden. Während bei der Softwareprogrammierung unbedingt Programmierkenntnisse vonnöten sind, um die Qualität der Software zu verbessern, ermöglicht die Public-BetaPhase auch programmier-unerfahrenen Benutzern die Verbesserung der Programme.
178 Auch in einer Umgebung, in der mit Aufmerksamkeit bezahlt wird und in der es Tradition ist, dass Erfolgsmodelle, abgesehen von der Anschaffung der Hardware und Verbindungsentgelten, nichts kosten, scheint
es mir angebracht, von Kunden zu sprechen.
86
INTERAKTIVITÄT
Beziehung zu ihren Arbeitsmaterialien eintreten.«179
Social Software ist Software von Bastlern im positivsten Sinne. In dem offenen Prozess der
Softwareentwicklung, beim Arbeiten in der Public-Beta-Phase, geht es meist nicht mehr um
das Ausmerzen von gewöhnlichen Programmfehlern, die zu Abstürzen des Browsers oder
kryptischen Fehlermeldungen führen, es geht vielmehr um die Ausformulierung neuer Features der Programme, um einen Ausbau der Funktionalität und Vernetzung. Die Entwicklungsphase sozialer Software ist sowohl auf Produzenten- als auch auf Konsumentenseite ein
interaktiver Vorgang.
5.2. Interaktive Massenphänomene
Soziale Netzwerke können ohne das aktive Eingreifen ihrer Nutzer nicht existieren. Nicht nur
ihr Entstehungsprozess und ihre Weiterentwicklung sind davon motiviert, auch ihre Funktionsweise ist vom ständigen und konstanten Input der User abhängig. Sogar in sich geschlossene, kostenpflichtige und auf traditionelle Weise entwickelte virtuelle Welten wie World of
Warcraft oder Second Life sind einzig und allein wegen des stetigen Inputs durch ihre User
interessant. Im Gegensatz zu den meisten interaktiven Computerspielen, Kunstprojekten
oder Installationen findet ein gegenseitiger Austausch nicht ausschließlich zwischen Mensch
und Maschine statt – Menschen tauschen sich mit anderen Menschen aus, die Maschinerie
wird zum omnipräsenten, aber durchsichtigen Mittler. Die neue Interaktivität unterscheidet
das Netz nicht nur von den etablierten Sendemedien,180 sie bringt das Medium Internet
auch wieder an seinen eigentlichen Wortsinn heran und zeigt, wie sehr es als Medium zu
verstehen ist: Das Internet ist ein „Zwischen“-Netz, ein Medium ist »in der Mitte befindlich,
dazwischen«.181 Wird das Netz hingegen als Stellvertretermedium für Sendemedien benutzt,
ist es in seiner Mittler-Funktion eingeschränkt.
Das wahrscheinlich wichtigste Ergebnis der kollaborativen und interaktiven Zusammenarbeit innerhalb eines virtuellen Raumes wurde in dieser Arbeit bisher nicht angesprochen,
obwohl es einen großen Teil zu ihr beigetragen hat: Es handelt sich um die Wikipedia. Die
mittlerweile umfangreichste Enzyklopädie der Welt wurde im Jahr 2001 durch Jimmy Wales
gegründet und umfasst heute ca. 2,4 Millionen englischsprachige Artikel, die deutsche Version umfasst ca. 760.000 Beiträge. Zum Vergleich: Die Encyclopædia Britannica umfasst in
der aktuellen Ausgabe 75.000 Artikel, das Brockhaus-Lexikon in der 21. Auflage 300.000.182
Über 250.000 angemeldete und eine unbekannte Anzahl nicht-angemeldeter, anonymer Autoren schreiben und überarbeiten minütlich die Lexikonartikel, die sie verändern möchten.183
Der immense Umfang der Wikipedia allein sagt nichts über die Qualität ihrer einzelnen
179 Turkle (1998), S. 79
180 Vgl.: Bieber / Leggewie (2004).
181 S. Wikipedia (2008), Artikel Medium
182 S. Wikipedia (2008), Artikel Encyclopædia Britannica und Artikel Wikipedia:Größenvergleich
183 S. Wikipedia (2008), Artikel Wikipedia
87
INTERAKTIVITÄT
Beiträge aus. Verschiedene stichprobenartig vorgenommene Studien jedoch belegen, dass die
Wikipedia den Vergleich mit anderen Nachschlagewerken und deren Online-Pendants nicht
scheuen muss.184 Sicherlich ist die Online-Enzyklopädie, so wie jede andere Enzyklopädie
auch, im Hinblick auf ihre wissenschaftliche Zitierfähigkeit als problematisch einzustufen –
fast alle Beiträge sind beliebig manipulierbar und gerade besonders strittige Themen lassen,
wenn sie nicht gerade in einem so genannten Flame-War185 untergehen, oft einen dialektischen und problemorientierten Überblick vermissen und beschränken sich ausschließlich
auf die Wiedergabe einer Einzelmeinung. Die Wikipedia ist – obschon zahlreiche Gegenmaßnahmen getroffen wurden – nach wie vor manipulierbar. Zusammen mit ihrer ständig
wachsenden Popularität186 wäre ein bedrohliches Szenario vorstellbar: Auf geschickte Art und
Weise manipuliert, könnte die Online-Enzyklopädie zu einem neuen Werkzeug der gezielten
Fehlinformation und Beeinflussung ganzer Bevölkerungsgruppen werden. Doch in dieser
vermeintlichen Schwäche der Wikipedia – dass sie jeder Nutzer editieren darf – liegt gleichzeitig ihr größter Vorzug.
Die Enzyklopädie ist unabhängig und gewährt allen, die über einen Internet-Zugang verfügen, Zugriff auf ihre Inhalte. Gleichzeitig ermöglicht sie jedem Interessierten, die Rolle eines
Autors oder auch die eines Lektors einzunehmen. Sie ist sowohl unabhängig von Werbekunden als auch in jeder sonstigen Hinsicht frei: Es gibt keinen Herausgeber, der Autoren nach
bestimmten Gesichtspunkten auswählt, es existiert keinerlei Zensur, etwa durch einen Verlag,
und die Autoren rekrutieren sich aus den verschiedensten soziokulturellen Bereichen. Zwar
editieren augenblicklich nur 2,5 Prozent der Wikipedia-Nutzer die Artikel, und der durchschnittliche Wikipedia-Autor ist Student, technik-begeistert, männlich und Single, er entspricht also dem klassischen Klischee des Computer-Nerds. Diese Strukturen scheinen sich
jedoch allmählich zu ändern.187 Je intensiver Menschen aller Altersgruppen und Herkunft das
Internet nutzen, desto mehr Diversifizität wird Wikipedia aufweisen können.
Eine derartige Masse von zugänglichen Informationen ist in vielerlei Hinsicht einzigartig:
Im Gegensatz zu einer Publikation auf Papier kann das angesammelte Wissen urbar gemacht
werden. Alle Artikel enthalten direkte Links zu anderen Artikeln und den Quellen, durch die
sie belegt sind, sie sind elektronisch durchsuchbar, und – nicht zuletzt durch ihre leicht nachvollziehbare Versionsgeschichte – auch referenzierbar. Denn jede Änderung eines jeden Artikels wird protokolliert und festgehalten. Es ist also einerseits unmöglich, bereits bestehende
184 In einem 2005 von der in Großbritannien herausgegebenen Zeitschrift Nature vorgenommenen Vergleich
schnitt die englischsprachige Wikipedia nur unwesentlich schlechter ab als die erstplatzierte Encyclopædia
Britannica. S. Giles in: Nature (2005). Die Zeitschrift Der Stern veröffentlichte im Dezember 2007 eine
Studie, laut der die Wikipedia sogar deutlich besser als der deutsche Brockhaus abschnitt. S. Stern (2007,
Internet).
185 Ein Flame-War (von engl. to flame, eine Bezeichnung, die der Comic-Serie Fantastic Four entlehnt ist) ist
eine kontroverse Diskussion im Internet, deren Teilnehmer unsachlich und schließlich beleidigend werden.
186 Wikipedia ist zur Zeit die siebthäufigst aufgerufene Internetseite der Welt, in Deutschland belegt sie Platz
sechs. Als einzige Seite unter den beliebtesten zehn ist sie nicht kommerziell ausgerichtet. S. ComStore
(2008, Internet)
187 Schroer / Hertel (2007, Internet)
88
INTERAKTIVITÄT
Inhalte unwiederbringlich zu verändern oder zu löschen, andererseits bietet die Wikipedia die
Möglichkeit, auf einen einmal abgerufenen Artikel und den genauen Zeitpunkt des Abrufs
zu verweisen, so dass dieser auch nach Jahren in exakt der Version wieder aufgerufen werden
kann, in der er gelesen wurde.
Die Wikipedia vereint gewissermaßen alle bisher besprochenen Merkmale virtueller Räume
in sich: Sie besteht zum einen aus manifestierten Datenspuren einzelner Benutzer, die sich
auf gesonderten personalisierten Seiten als Autoren vorstellen können, sie beinhaltet also
Merkmale des in der Virtualität geborenen Körpers. Zweitens vereint die Enzyklopädie die
im Kapitel zur Materialität angesprochenen Meta-Eigenschaften der virtuellen Écriture in
sich. Sie ist durch Links ins übrige Netz eingebettet, indexierbar, und durch ihre einheitliche
Form auch mittels kleiner Skripte, so genannter Bots, korrigierbar.188 Die für die Wikipedia
verwendeten Skripte sind aufgrund ihrer Größe und Popularität sehr ausgefeilt und könnten
für wissenschaftliches Arbeiten am Text eine enorme Hilfe darstellen, da sie viele Aufgaben
schneller und effizienter erledigen, als ein Mensch es vermag. Diese Aufgaben liegen zur Zeit
entweder beim Autor oder bei wissenschaftlich geschultem Personal.
Fragen nach Authentizität und Glaubwürdigkeit sind in Bezug auf die Wikipedia äußerst
relevant und haben deshalb besonders die Aufmerksamkeit einer wissenschaftlichen Öffentlichkeit erregt. Insbesondere die Frage nach der Zitierfähigkeit der Online-Enzyklopädie als
wissenschaftliche Quelle bietet Anlass zu einem angeregten Diskurs. Die Anforderungen an
ein zitierfähiges Medium nach „schwachen“ Kriterien189 sind in Bezug auf die Wikipedia
deutlich besser erfüllt als bei einem Großteil der anderen Internet-Publikationen: Durch die
Verteilung auf viele Server und einen sorgfältigen Umgang mit Datensicherheit190 sowie die
bereits angesprochene Versionsgeschichte ist die Möglichkeit des Abrufs jeglichen Inhaltes
des Nachschlagewerkes zu jeder Zeit gegeben. Die Wikipedia ist zwar nur mit technischen
Hilfsmitteln zu erreichen, doch ist das schnelle Nachschlagen einer Information deutlich
einfacher zu bewerkstelligen als beispielsweise in einer unpopulären Zeitschrift oder auch
in einem herkömmlichen Lexikon. Sobald „starke“ Kriterien der Zitierfähigkeit zugrunde
gelegt werden, also zusätzlich zur Nachprüfbarkeit danach verlangt wird, dass es sich bei der
zitierten Quelle um eine in einem Wissenschaftsverlag erschienene Publikation handelt, ist
keine Enzyklopädie – egal, ob online oder offline – zitierfähig. Ein genaues wissenschaftliches
Zitat verlangt außerdem nach einem Autor, dem dieses zuzurechnen ist. Da Wikipedia – wie
keine andere Publikation vor ihr – in einem kollaborativen, interaktiven Prozess entsteht, ist
die Referenz auf einen einzelnen Autor bei dem Großteil aller Artikel unmöglich.191 Als He188 Diese Programme überarbeiten ständig alle Artikel der Enzyklopädie, um korrekte Datumsformate zu
gewährleisten, Zitate zu überprüfen, bestehende Verweise zu korrigieren und neue zu schaffen. Außerdem
kontrollieren sie ständig alle Artikel auf unnötige Verwendung von Umgangssprache, Urheberrechtsverletzungen und Vandalismus.
189 Die zitierte Quelle muss dauerhaft nachprüfbar sein.
190 Wikimedia Foundation (2008, Internet): Wikimedia servers
191 Zum Beispiel hat der deutsche Wikipedia-Artikel über den Jazz-Pianisten Michel Camilo, den ich am 9.
Oktober 2004 erstellt habe, seitdem 37 Änderungen erfahren, die nicht von mir selbst vorgenommen
wurden. Auf inhaltlicher Ebene wurde – abgesehen von einigen unglücklichen Formulierungen – nichts
89
INTERAKTIVITÄT
Abbildung 16: Yugo Nakamura – Standbild aus Industrious Clock (2001)
Abbildung 17: Yugo Nakamura – Standbild aus Fingertracks: Studiy-E1 (2001)
Abbildung 18: Yugo Nakamura – Standbild aus Rigid_Body 02 (2001)
90
INTERAKTIVITÄT
rausgeber fungiert die Wikipedia selbst, als verantwortlich für die Inhalte wird bei allen Artikeln auf die »Wikipedia-Autoren« verwiesen. Ob oder wann kollaborativ erstellte Quellen
in der Nachfolge kollaborativer Open-Source-Software salon- und damit zitierfähig werden,
ist schwierig vorherzusehen. Die Vorteile dieser Projekte liegen allerdings auf der Hand: Mit
erheblich reduziertem zeitlichen und finanziellen Aufwand lassen sich Großprojekte wie das
Programmieren eines zuverlässigen Betriebssystems oder das Erstellen einer Enzyklopädie,
deren Reliabilität immerhin diskutiert wird,192 verwirklichen.
Wikipedia generiert nicht nur wegen ihrer Eigenschaften als Enzyklopädie, durch ihre stetige
Verfügbarkeit und ihre mediale Präsenz193 geradezu Glaubwürdigkeit. Auch die Darstellung
verschiedenster Blickwinkel bei strittigen Themen und eine grundsätzlich selbstkritische Haltung befördern dieses Image. Das grundlegende Misstrauen beispielsweise, welches einer reinen Online-Publikation entgegen gebracht wird, findet sich sogar im Wikipedia-Artikel über
die Wikipedia selbst wieder:
»Neben dem Problem bewusster Fehleintragungen besteht das weit schwerer einzugrenzende
Problem, dass sich in den Inhalten mittelfristig Halbwissen durchsetzt. In einer durch Arbeitsteilung ausgezeichneten Gesellschaft verfügt immer nur eine Minderheit über Fachwissen. Die
jeweilige Minderheit läuft stetig Gefahr, von der Mehrheit ‚korrigiert‘ zu werden. Die Inhalte
laufen somit Gefahr, nicht den Wissensstand der Gesellschaft, sondern die vorherrschenden
Vorurteile abzubilden, zu bekräftigen und zu tradieren. Dem ist selbst durch ‚korrektives‘ Eingreifen von Autorenseite und administrative Vorgänge nicht vollständig beizukommen.«194
Die Furcht vor der Bedrohung durch mittelfristiges Halbwissen erscheint berechtigt, ich gehe
jedoch davon aus, dass sich langfristig die Expertenmeinungen – gerade in Bereichen, in denen Faktenwissen zählt – durchsetzen werden.
Auch wenn Körperlichkeit, Authentizität und Materialität im Umgang mit virtuellen Räumen nicht als konstitutive Merkmale der Interaktivität angesehen werden können, befördern
sie diese doch ungemein. Sie führen zu einem intuitiveren und damit zu einem häufigeren
Umgang mit der Virtualität.
5.3. Interaktivität, Intuition und Zugänglichkeit
Eine der wichtigsten Voraussetzungen für interaktives und kollaboratives Zusammenarbeiten
ist die Zugänglichkeit des virtuellen Raumes, in dem sie geschieht. Die Wikipedia präsentiert sich als offenes Raumkonzept, sie ist so konzipiert, dass sie mit den unterschiedlichsten
Wesentliches ergänzt oder gestrichen, der Artikel wurde hauptsächlich von Bots den formalen Standards
der Enzyklopädie angepasst.
192 Microsofts elektronisches Lexikon Encarta beispielsweise hat diesen Status trotz eines vergleichsweise hohen Investitionsvolumens niemals erreicht.
193 Fast jede beliebige Google-Suche führt Wikipedia-Seiten auf den vorderen Rängen. Auch Zeitungsredakteure und Mitarbeiter der Sendemedien verlassen sich immer häufiger auf die Enzyklopädie.
194 Dies ist sowohl das einzige Wikipedia-Zitat als auch das einzige Zitat eines Nachschlagewerkes in dieser
Arbeit. Es soll verdeutlichen, dass sich zumindest einige Autoren der Problematik des Gesamtvorhabens
bewusst sind. Entnommen aus: Wikipedia (2008, Internet): Wikipedia, Kapitel: Problemfelder.
91
INTERAKTIVITÄT
Browsern betrachtet und gleichzeitig mit der verschiedensten Hardware, beispielsweise mit
Mobiltelefonen, bedient werden kann.
Wie bereits beschrieben, ist es eine der Qualitäten sozialer Software, dass sie einem stetigen
Entwicklungsprozess unterworfen ist, der nicht an ein notwendiges technisches Fachwissen
ihrer eigentlichen Macher, also ihrer Nutzer, gebunden ist.
Ich habe grundsätzlich drei Formen dieser offenen Arbeitsweise innerhalb virtueller Räume
beobachten können: Die erste Form erfordert kein technisches Fachwissen und ist gleichzeitig nicht moderiert.195 Das Produkt ist für jedermann leicht zugänglich und eine Änderung
daran wird unmittelbar wirksam. Die zweite Form der kollektiven Arbeit erfordert ein hohes
technisches Fachwissen und muss gerade deswegen moderiert werden. Als Beispiel dient das
Programmieren von Open-Source-Software, etwa das Entwickeln der 3D-Animationssoftware Blender.196 Durch den Moderationsprozess, also durch das Kontrollieren der vorgeschlagenen Änderungen durch die für das Projekt verantwortlich zeichnenden Experten, werden
Änderungen nicht unmittelbar übernommen, sondern fließen erst nach einer Testphase in
das Produkt ein. Die dritte Form kollektiver Arbeit erfordert kein technisches Fachwissen von
den Nutzern, sehr wohl aber von den Programmierern der Software.197 Aus diesem Grund
muss auch dieser Entwicklungsprozess moderiert werden, obwohl die Software an sich ähnlich einfach zu benutzen ist wie die Wikipedia.
5.4. Interaktive Omnipräsenz – Location-Based-Services
Virtuelle Räume überlagern den phänomenalen Raum, wie in dieser Arbeit mehrfach postuliert wurde. Eine der interessantesten Entwicklungen in dieser Hinsicht sind Location-BasedServices (LBS), also standortbezogene Dienstleistungen. LBS erfordern ein Mobilgerät, welches in der Lage ist, seinen eigenen Standort zu ermitteln. Das kann beispielsweise via GPS,
also durch Satellitenortung, geschehen.198 Ist der Aufenthaltsort des Nutzers bekannt, gibt es
verschiedene Anwendungs-Szenarien für klassische LBS: Vom Finden der nächsten Pizzeria
über die Suche nach Sehenswürdigkeiten und Museen in der Nähe bis hin zur Routenplanung sind vielfältige Nutzungsmöglichkeiten denkbar und bereits etabliert. Werden jedoch
virtuelle Räume – vor allem Social Networks – mit einbezogen, so bekommen die möglichen
Szenarien eine neue Qualität: Es wäre beispielsweise umsetzbar – befindet sich ein Nutzer
auf Partnersuche – dass er durch sein Mobiltelefon darauf aufmerksam gemacht würde, dass
sich im gleichen Park, in dem er sich gerade befindet, potentiell passende Partner für ihn
aufhalten, die ebenfalls auf der Suche sind. Durch einen kurzen Blick in deren Online-Profile
195 Als Beispiel kann die Wikipedia dienen. Auch andere Projekte wie das Open-Streetmap-Projekt, welches
sich der Erstellung frei zugänglichen Kartenmaterials verschrieben hat, funktionieren nach diesem Prinzip.
196 http://www.blender.org/
197 Als Beispiel dient der Entwicklungsprozess sozialer Software, siehe Kapitel 5.1. der vorliegenden Arbeit:
Die kollektive Geburt sozialer Software.
198 Andere Ortungsmechanismen werten die Feldstärken verschiedener Mobilfunk-Masten oder W-Lan-Access-Points aus, deren Standorte in einer weltweiten Datenbank verzeichnet sind.
92
INTERAKTIVITÄT
vergewissert sich der Nutzer, ob diese Menschen wirklich interessant für ihn sein könnten,
und spricht sie an. Ein anderes Anwendungs-Szenario sind Bewertungsportale wie Qype.199
Die Suche nach Gastronomieeinrichtungen oder Sehenswürdigkeiten wird durch die Bewertungen und Erfahrungsberichte, die andere Nutzer gemacht haben, deutlich aufgewertet und
gewinnt so an Relevanz.
Apples zweite Version des iPhones beispielsweise verfügt über GPS und eine Funktion, die anzeigt, ob sich Personen, die in der persönlichen Kontaktliste des Instant-Messenging-Dienstes
iChat verzeichnet sind, in einem Umkreis von 10 Meilen befinden. In Kombination mit dem
bereits vorgestellten last.fm-Dienst ist ein Szenario vorstellbar, in dem ein Benutzer zeitnah
über Konzerte seiner Lieblingsbands oder Bands, die last.fm ihm empfiehlt und die in seiner
unmittelbaren Nähe stattfinden, informiert wird. Auch die Aufwertung virtueller Spielszenarien, wie zum Beispiel der Street Wars,200 ist denkbar.
Dies sind nur einige Beispiele dafür, wie Location-Based-Services dazu beitragen können, dass
virtuelle Räume an Funktionalität und Nutzen gewinnen und zunehmend mit dem phänomenalen Raum verschmelzen.
5.5. Ästhetik und Interaktivität – Yugo Nakamura
Yugo Nakamura setzt sich seit 2001 kreativ mit dem Medium Internet und vor allem mit
den Möglichkeiten von Adobes Entwicklungsumgebung Flash auseinander. Seine Arbeiten
erlangten kurz nach dem Start seines virtuellen Portfolios MONO*crafts201 im Januar 2001
eine weltweite Berühmtheit in der Netzgemeinde. Nakamura ist Webdesigner und sieht sich
selbst nicht vorrangig als Künstler. Er befindet sich stetig auf der Suche nach neuen Bedienkonzepten, nach einem innovativen Umgang mit der Virtualität, die gewöhnlichen Vorstellungen von Usability widerspricht:
»The current monocrafts site is, well, let’s be honest, it’s a million miles from the ideas of someone like jakob nielsen say, about usability.[202] I can tell you, at least once every couple of
days, I get mail saying ‚this site is so user unfriendly!‘ or ‚I’ve never seen such an unnavigable
site‘ and sure, I completely agree! the techniques we’re trying out at the moment, they’re just
not mature yet.
There’s usability… but there’s also joy… there’s that simple fun of being able to touch and feel,
that can draw you deeper into a web experience. the things I see are determined by the relationship, interaction, between me and the enviroment that I’m part of. …
I believe that the perception, that any given person has of the web enviroment is dictated by
what they have already encountered there. …
I think that one of the key features of the web enviroment is that it in a constant state of flux;
it evolves from moment to moment, according to the user’s intentional browsing activities, and
the accidental discoveries she makes on the way. …
I am not particularly interested in using flash to create cool motion graphics. What I do want
199 http://www.qype.co.uk
200 Vgl. Kapitel 2.1. der vorliegenden Arbeit: Drei Formen virtueller Körperlichkeit.
201 http://yugop.com/
202 http://www.useit.com
93
INTERAKTIVITÄT
to create is a unique communication experience, or interface enviroment, a reactive field.
MONO*crafts was my attempt to fuse diverse elements organically into a single interface
world.«203
Minimalistische Flash- und Shockwave-Animationen, welche mit liebevoller Genauigkeit
programmiert wurden, kennzeichnen den Stil Nakamuras. Zusätzlich bietet die Verwendung von meist monochromen, schlichten Fotografien ein angenehmes Gegengewicht zur
gewohnten Animationslandschaft der Online-Werbung.
Nakamuras Arbeiten erlangten auch über das Internet hinaus in der zeitgenössischen KunstSzene Ansehen, unter anderem werden sie im Chiasma (Helsinki) und im Museum of Contemporary Art (Tokio) ausgestellt.
Eine seiner ersten Arbeiten, die größere Aufmerksamkeit erregte, trägt den Titel Industrious
Clock. Es handelt sich um eine Digitaluhr, deren einzelne Ziffern als sekündlich aktualisierte
Bleistiftzeichnungen ausgeführt sind. Sie erwecken also innerhalb einer virtuellen Umgebung
den Anschein, auf eine eigentümlich analoge Art und Weise erschaffen zu werden. Die Installation bietet zwar keinerlei Interaktivität, erregte aber durch ihre minimalistische Ästhetik
und die gleichzeitige Auseinandersetzung mit den Themenfeldern der Vergänglichkeit und
der Beständigkeit sowie des Spannungsfeldes, welches eine Ästhetik der Manufaktur im virtuellen Raum erzeugt, weltweites Aufsehen.
Yugo Nakamuras Arbeiten profitieren zwar größtenteils nicht von den neuen Massenkommunikations- und Produktionsweisen der virtuellen Räume des Web 2.0, dennoch spannen
sie eigene Räume, gleichsam kleine Ateliers, im Netz auf. Nakamuras Installationen beschäftigten sich auf experimentelle Art und Weise mit der Möglichkeit, den Prozess der Kunstrezeption international und kommunikativ zu gestalten. Die treffendste Umschreibung der
Arbeiten Nakamuras bietet meiner Meinung nach der Begriff der Netz-Installation. Viele
dieser Installationen bieten dem Rezipienten die Möglichkeit, nach oder während des Betrachtens einer bereits früher durch einen anderen Betrachter aufgezeichneten Aktion diese
auf spielerische Art am heimischen Computer nachzuahmen bzw. selbst zu vollführen und
sie währenddessen aufzuzeichnen. Die Aufzeichnungen werden an einen zentralen Server
übermittelt, der sie zusammen mit den Aktionen, die schon früher aufgezeichnet wurden,
verarbeitet und weiter verwendet, um die Online-Installation und damit auch zukünftige
Aktionen neuer Nutzer zu beeinflussen.
Beim Besuch der Webseiten Nakamuras werden die gleichen Gefühle und Gedanken evoziert
wie beim Erleben einer musealen Installation: Das Kunstwerk fordert die Neugier und damit
auch den Willen heraus, zu ergründen, nach welchen Prinzipien es funktioniert. Es belohnt
die spielerische Herangehensweise an eine ästhetisch ansprechend aufbereitete Aufgabe meist
mit einem Erfolgserlebnis.
Interessant ist die Transformation dieses Umgangs weg vom musealen – also öffentlichen –
Kontext hinein in die zumindest im Jahr 2001 noch äußerst verschlossene Privatsphäre des
203 Designboom (2001, Internet)
94
INTERAKTIVITÄT
heimischen Computers. Insofern waren Nakamuras Arbeiten visionär: Der Umgang mit dem
heimischen PC wird von einer völlig privaten Mensch-Maschine-Kommunikationssituation
zu einer durch das Medium eines virtuellen Raumes vermittelten 1:n-Kommunikationssituation transformiert. In diese Kommunikationssituation fließt zusätzlich eine zeitliche Komponente ein – Der Besucher der Installation interagiert mit Nutzern, die diese vor ihm besucht
haben und hinterlässt gleichzeitig eine Botschaft für alle späteren Gäste.
Noch wird während der Betrachtung von Netzkunst ein wichtiger Aspekt, der z.B. beim
öffentlichen Museumsbesuch eine wichtige Rolle spielt, außen vor gelassen: Das Spiel mit
den Reaktionen des Museumsbesuchers. Die Nervosität oder gar das Schamgefühl, welches
entsteht, wird man beim Umgang mit ungewohnten und neuartigen Situationen beobachtet,
bleiben nach wie vor Privatsache. Betrachtet man jedoch den stark ansteigenden Anteil der
mit einer Kamera und einem Mikrofon ausgerüsteten Computer, wird die Entwicklung eines
optisch-akustischen Rückkanals nicht mehr lange auf sich warten lassen, über den es für einen Künstler möglich sein wird, auch mit diesen Emotionen zu spielen.
95
6. Kapitel
Fazit
Der Umgang mit virtuellen Räumen ist zu einer Selbstverständlichkeit geworden. Es ist nicht
die Art der Virtualität, die – ausgehend von den medienwissenschaftlichen Untersuchungen der neunziger Jahre – zu erwarten war: Statt einer immersiven Virtual Reality hat sich
eine wesentlich pragmatischere Art der Nutzung virtueller Räume etabliert: Die Virtualität
überlagert unauffällig das Alltagsgeschehen und fügt sich nahtlos in das tägliche Leben von
Millionen von Nutzern ein. Die Interfaces, die zur Kommunikation mit ihr und durch sie
nötig sind, zeichnen sich durch Intuitivität, Simplizität und Unauffälligkeit aus und haben
mit sperrigen Headmount-Displays und Ganzkörperanzügen nichts gemeinsam.
Social Networks wie Facebook oder sein deutsches Pendant StudiVZ werden regelmäßig von
der großen Mehrzahl aller Studierenden genutzt. MySpace, die Wikipedia und die Blogosphäre sind zu Massenphänomenen avanciert und Location-Based-Services werden von einzelnen,
gerade zur Marktreife gelangten Interfaces unterstützt.
Die vorliegende Untersuchung hat gezeigt, dass virtuelle Räume – gerade durch ihre oszillierenden, die Realität überlagernden Eigenschaften – verschiedene Formen der Körperlichkeit
aufweisen und authentische Erfahrungen vermitteln können. Der Umgang mit ihnen weist
ein hohes Moment der Haptik und Materialität auf. Durch neue Entwicklungen in der Übermittlung und Bearbeitung von Daten sowie der stetigen Evolution der Interfaces werden sie
und ihre Inhalte omnipräsent, sowohl in zeitlicher als auch in räumlicher Hinsicht.
Körperlichkeit, Materialität und Authentizität bieten einen starken Anreiz für den interaktiven Umgang mit virtuellen Räumen und mit neuen Medien. Erst, wenn eine virtuelle Umgebung – wie beispielsweise die Wikipedia – einen Eindruck von Glaubwürdigkeit vermittelt,
erscheint es für viele potentielle Nutzer sinnvoll, eigene Arbeitszeit in ein solches Projekt zu
investieren. Und nicht zuletzt ist es – wie am Beispiel von last.fm und Yugo Nakamuras interaktiven Installationen deutlich wird – der spielerische Umgang mit einer ästhetisch reizvollen
interaktiven Umgebung, der für die Etablierung und feste Verankerung virtueller Räume im
Alltag sorgt.
Ich bezeichne virtuelle Räume in dieser Arbeit als Medien, die bestimmte Inhalte, zum Beispiel Merkmale des in der Virtualität geborenen Körpers, vermitteln. Ein Überdenken des
Medienbegriffes erscheint nicht nur in diesem Zusammenhang dringend erforderlich: Die
Verschachtelungen und Übergänge zwischen dem Medium Computer204, dem Medium In204 Ich selbst sehe den Computer nicht als Medium, sondern als Werkzeug, ähnlich dem Fernsehapparat.
Trotzdem scheint es medienwissenschaftlicher Konsens zu sein, vom „Medium Computer“ zu sprechen.
96
FAZIT
ternet, virtuellen Räumen und den Medien, die wiederum die Inhalte dieser Räume darstellen können (Videos, Bilder, Audio-Dateien, aber auch andere virtuelle Räume), sind fließend und lassen sich nur unzureichend mit einem Medienbegriff, der Medien als Vermittler
einordnet, vereinbaren. Bezeichnen wir den Computer, das Netz, virtuelle Räume, digitale
Text-, Bild-, Video- und Audio-Formate sowie ihre analogen Pendants als Medien, erscheint
mir dies als eine unnötige Verkomplizierung der Gegebenheiten.
6.1. Zur Körperlichkeit
Das Kapitel zur Körperlichkeit zeigt, dass der virtuelle Raum keineswegs „blutarm“ ist. Von
einer ausgedehnten Körpermetaphorik (Emoticons, Smileys, Avatare) über konkrete Einflüsse der Virtualität auf den phänomenalen Leib (Nachstellen von Spielszenen, Tätowierungen,
Veräußerung des eigenen Körpers für einen virtuellen Gegenstand) bis hin zu manifesten Datenstrukturen, die ich als virtuell geborenen Körper bezeichne, sind verschiedenste Formen
der virtuellen Körperlichkeit zu beobachten.
Ich stelle die virtuell berührte sowie die virtuell vermittelte Körperlichkeit vor und führe den
Begriff des virtuell geborenen Körpers ein. Jede dieser Formen spielt im Hinblick auf die Erfahrung virtueller Räume eine große Rolle. Während die virtuell berührte Körperlichkeit ein
unmittelbares Einschreiben der Virtualität in den phänomenalen Leib bezeichnet, beschreibt
die virtuell vermittelte Körperlichkeit die Verwendung von Körpermetaphorik und -symbolik, um die Erfahrungen und Körperbezüge innerhalb virtueller Räume besser ausdrücken
zu können. Der virtuell geborene Körper bietet gleichzeitig eine Repräsentationsfläche und
einen Handlungsspielraum, er ist das Ergebnis der in der Virtualität manifesten Datenstrukturen. Durch ihn und mit anderen virtuell geborenen Körpern kann ich kommunizieren,
handeln, spielen und lernen. Der virtuell geborene Körper kann verletzt werden oder auch
sterben – das Kapitel zum virtuellen Selbstmord beschreibt sowohl konkrete Einflüsse virtueller Räume auf den phänomenalen Leib als auch einen digitalen Selbstmordversuch.
Weiterhin wird der virtuell-soziale Körper thematisiert. Als Analogon zur Körperschaft,
die selbst ein virtuelles Konstrukt innerhalb der Realität ist, bilden sich innerhalb virtueller
Räume 24/7-Kommunikationsgemeinschaften, die – wie am Beispiel des digg-Aufstands beschrieben – als eine Einheit agieren und für ein gemeinsames Ziel eintreten. Die Nutzer eines
speziellen virtuellen Raumes, beispielsweise von MySpace oder Twitter, ordnen ihre Nutzerprofile, die eine der seltenen Repräsentationsflächen ihrer eigenen Identität in virtuellen Räumen bieten, der Corporate Identity der jeweiligen Gemeinschaft unter. Auch diese Form des
geschlossenen Auftretens kann als virtuell-soziale Körperlichkeit angesehen werden.
6.2. Zur Authentizität
Erfahrungen in virtuellen Räumen sind – wie im Prolog der vorliegenden Arbeit ersichtlich
wird – oft geprägt vom Spiel mit Authentizität und Glaubwürdigkeit. Neben der konkreten
körperlichen Erfahrung beim Lesen der Ankündigung eines Selbstmordes war es die Frage
nach der Authentizität, die Frage danach, ob es sich nicht um eine ausgeklügelte Werbekam97
FAZIT
pagne handelt, die mich zum Zeitpunkt des Lesens beschäftigt hat. Einige Tage später stellte
sich glücklicherweise heraus, dass es sich bei 90DayJane um ein Kunstprojekt handelte: Das
letzte Posting erschien einige Stunden, bevor das Blog aufgrund des großen Aufsehens und
der Entrüstung, das es erregt hatte, komplett aus dem Netz gelöscht wurde:205
»I feel a massive sense of responsibility to my art, but more importantly the readers of this blog.
My closeness to this project must have made art seem like reality to many people. That is not
a reaction that I expected nor can I morally justify. This is why my project, 90DayJane, will be
taken down in the next few hours. 90DayJane was meant to mirror the tragic figure, Christine
Chubbuck. Newscaster Christine Chubbuck committed suicide in 1974 by shooting herself in
the head live on air.«
Im Kapitel über Authentizität zeige ich zunächst, dass digitalen Medien – obwohl ihnen ein
großer Teil ihres Charmes und ihrer Patina durch den Prozess der Digitalisierung verloren
geht – eine neue Form der Authentizität innewohnt: Es sind nicht mehr die Gebrauchsspuren, die beispielsweise auf einer Schallplatte hinterlassen werden, es ist gerade die Abwesenheit
der Meta-Informationen, die die digitalen Daten authentisch machen. Sie sind durch ihre
einfache Zugänglichkeit, durch ihre Vielseitigkeit, durch ihre Indexierbarkeit und – nicht
zuletzt – durch die Möglichkeit, durch Prüfsummen als „Original“ zu gelten, glaubwürdiger
und überprüfbarer als ihre analogen Vorgänger – digitale Daten können meiner Ansicht nach
authentischer wirken als ihre analogen Pendants.
Der Eindruck von Authentizität wird im virtuellen wie im phänomenalen Raum durch Inszenierungen erreicht. Künstler wie Justin Kan oder Steve Mann, aber auch Netzpersönlichkeiten wie zeFrank zeigen, dass sich Strategien der medialen Inszenierung im Netz – vor allem
im virtuellen Raum „Blogosphäre“ – wie in allen anderen Medien auch etabliert haben. Ein
glaubwürdiger Eindruck wird vor allem durch authentizitätsstiftende Maßnahmen erreicht,
die an die „Street Credibility“ aus der HipHop-Kultur erinnern.
Fragen der Authentizität und Glaubwürdigkeit stellen sich nicht nur bei Erlebnissen im virtuellen Raum und beim Auftreten von Netzpersönlichkeiten, sondern auch in Bezug auf die
Inhalte kollaborativ und interaktiv erstellter Werke, etwa der Wikipedia. Ob und wann sie die
gleiche Anerkennung wie auf Papier publizierte Werke erfährt, ist schwer abzuschätzen, dennoch befindet sie sich durch ihr enormes Wachstum, ihre Diversifizität, ihre Datensicherheit,
ihre Nachprüfbarkeit und ihren Aufbau auf einem guten Weg dorthin.
6.3. Zur Materialität
Die Interfaces sind die Fenster zu virtuellen Räumen. Der Umgang mit ihnen wird – solange
sich die reine Gedankensteuerung noch nicht durchgesetzt hat – immer auf einer materiellen
Ebene stattfinden.206 Knöpfe werden gedrückt, Zeilen getippt, Bildschirme angefasst, Mäuse
205 Ich konnte das Blog leider nicht vollständig konservieren, da die Löschung kurzfristig erfolgte und selbst
der Google-Cache keinerlei Spuren der Aktion aufweist.
206 Der Gedanke an eine Gedankensteuerung ist nicht so abwegig, wie er klingt: Erste Interfaces, welche die
Gehirnströme ihrer Nutzer verarbeiten und zur Steuerung von Computerspielen nutzen, sind bereits zur
Marktreife gelangt. Vgl. Heise Online (2008, Internet): Gedankensteuerung für Computerspiele.
98
FAZIT
geschubst. Dadurch werden Informationen erzeugt, verarbeitet, bewegt und abgelegt. Das
Kapitel zur Materialität zeigt, dass Text und Schrift zwar einen Teil ihrer materiellen Qualität und damit viele ihrer eigentlichen Meta-Informationen eingebüßt haben, es aber gerade
dieser Verlust ist, der die Chance birgt, dass Texte indexiert, durchsucht und zu neuen Zusammenhängen verknüpft werden.
Der Umgang mit den Interfaces wird in dieser Arbeit als das »Anschmiegen der Gadgets« bezeichnet. Durch Touch-Screens, neue Programmiertechniken und hohe Portabilität bedingt,
scheinen sich technische Geräte immer mehr zu emotional konnotierten Gegenständen zu
entwickeln. Der Exkurs Turings Träume zeigt auf, inwieweit künstliche Intelligenz eine Frage
der Definition und – nicht zuletzt – der Inszenierung ist. Den neuesten Gadgets wird ein
„Verhalten“ einprogrammiert, welches ihren Besitzer überrascht – und es damit als glaubwürdiges Gegenüber etabliert. Zum Ende des Kapitels zur Materialität zeige ich auf, wie neue
Technologien – auf Hard- und Software-Ebene dazu führen, dass Informationen griffig und
dadurch begreifbar werden.
6.4. Zur Interaktivität
Körperlichkeit, Authentizität und Materialität werden im letzten Kapitel der Arbeit als Anreiz zum interaktiven Handeln in virtuellen Räumen beschrieben. Ich habe mehrere Formen
der interaktiven und kollaborativen Zusammenarbeit an Großprojekten vorgestellt. Am Beispiel der Public-Beta-Version, am Entwicklungsprozess sozialer Software zeigt sich, dass sich
im Web 2.0 neue Formen der Software-Entwicklung durchgesetzt haben. Soziale Software
befindet sich in einem kontinuierlichen Entwicklungsprozess.
Zu welch beachtenswerten Ergebnissen die kollaborative Zusammenarbeit – wird sie zum
Massenphänomen – innerhalb eines virtuellen Raumes in kürzester Zeit führen kann, zeige
ich am Beispiel der Wikipedia. Auf die Frage, ob die Inhalte des virtuellen Nachschlagewerks
vertrauenswürdig bzw. authentisch und damit zitierfähig sind, konnte keine abschließende
oder zumindest zufrieden stellende Antwort gefunden werden. Die zunehmende mediale
Präsenz und die Relevanz in schulischer und universitärer Lehre und Forschung der OnlineEnzyklopädie lässt sich jedoch nicht von der Hand weisen. Die Wikipedia bietet – gerade
unter naturwissenschaftlichen und historischen Gesichtspunkten – extrem schnell und überall verfügbares Faktenwissen, das zudem noch hervorragend indexiert und vernetzt ist. Sie ist
bisher das bedeutendste interaktive Projekt der Menschheitsgeschichte.
Dass Interaktivität in virtuellen Räumen nicht zwangsläufig mit Arbeit verknüpft sein muss,
zeigen die Beispiele der Arbeiten Yugo Nakamuras. Der japanische Medienkünstler programmiert ästhetisch ansprechende interaktive Installationen, welche ohne ein aktives Eingreifen
mehrerer über das Netz verbundener Personen nicht existent wären. Nakamuras Museum ist
der virtuelle Raum und seine Installationen werden von den Besuchern dieses Raumes vor
ihren eigenen Augen und durch ihre Hände verändert. Ob Nakamuras Kunstwerk das natürlich unveränderliche Programm selbst ist oder erst dann entsteht, wenn die Besucher seiner
Internetpräsenz damit arbeiten, bleibt offen. Trotzdem – lässt man folgerichtig den Produk99
FAZIT
tionsvorgang außen vor – wird beim Besuch seiner Schöpfungen mindestens der Rezeptionsprozess des Kunstwerkes mit einem Veränderungsprozess verschmolzen, dem es zwingend
unterworfen ist. Im Gegensatz zu den meisten anderen, in der Virtualität zu beobachtenden
interaktiven Phänomenen, gewinnen Nakamuras Arbeiten nicht umso mehr an Qualität, je
mehr Besucher sie aufweisen können, je zahlreicher die Veränderungen sind, die sie erfahren.
Nakamuras Kunst ist – trotz der Möglichkeit der gleichzeitigen Rezeption durch Millionen
von Besuchern – nicht als Massenphänomen anzusehen.
6.5. Schlussbemerkungen
Dies ist nur zum Teil eine theaterwissenschaftliche Arbeit; sie bewegt sich im Feld zwischen
Theater- und Medienwissenschaft. Ihr erster Anspruch war es, im Entstehen begriffene Medien (virtuelle Räume) einzuordnen und zu beschreiben sowie die Grenzen dieser Räume und
ihre Schnittstellen, ihre Einbettung ins Alltagsgeschehen, zu untersuchen. Diese Einordnung
erfolgte unter Zuhilfenahme theaterwissenschaftlicher Begriffe: Aspekte der Körperlichkeit,
der Materialität und der Authentizität wurden im Hinblick auf die Rolle, die sie innerhalb
virtueller Räume und im Umgang mit ihnen spielen, untersucht. Im zweiten Schritt führte
ich den Begriff der Interaktivität als weiteres konstitutives Merkmal virtueller Räume ein
und zeigte, welche Rolle die bisher untersuchten Merkmale für diese Interaktivität spielen.
An dieser Stelle sollte ursprünglich ein Ausblick erfolgen, ich habe mich jedoch dagegen entschieden. Rodney Brooks hat die Gründe dafür sehr prägnant zusammengefasst:
»My thesis is that in just twenty years the boundary between fantasy and reality will be rent
asunder. Just five years from now that boundary will be reached in ways that are as unimaginable to most people today as daily use of the World Wide Web was ten years ago.«207
Einen Ausblick zu wagen, inwiefern die Virtualität zukünftig das Alltagsgeschehen überlagern und sogar mit ihm verschmelzen wird, wäre pure Spekulation ohne Grundlage. Dass
diese Überlagerung weiterhin stattfinden wird – schlicht und ergreifend, weil es möglich ist
– halte ich jedoch für eine Tatsache.
Wir müssen lernen, damit klarzukommen.
207 Brooks (2002), S. 5
100
Glossar
Avatar – Ein Avatar (abgeleitet aus dem Sanskrit: Avatāra umschreibt den Abstieg einer Gottheit auf die Erde)
ist ein Stellvertreter einer Person im Internet. Dieser kann ein Foto, eine Grafik oder eine 3D-Figur sein. Avatare
sind in Internetforen, in Online-Rollenspielen oder Virtual-Reality-Szenarien gebräuchlich.
Blog – Ein Blog (Kofferwort, bestehend aus „Web“ und „Log“, also „Netz“ und „Tagebuch“ oder „Protokoll“)
ist eine öffentlich einsehbare und relativ häufig aktualisierte Internetseite, bei der der neueste Artikel oben steht.
Es dient – im Gegensatz zu „herkömmlichen“ Internetseiten – dem Austausch von Informationen. Dies wird
meist eine eingebaute Kommentarfunktion gewährleistet, welche auch den Lesern die Möglichkeit gibt, ihre
Meinung zu einem veröffentlichten Artikel zu äußern. Die Gesamtheit aller Blogs und die Strukturen, die zu
ihrer Vernetzung dienen (Trackbacks, RSS-Feeds und Blog-Verzeichnisse), nennt sich Blogosphäre.
Blogosphäre – Die Blogosphäre (ebenfalls ein Kofferwort, bestehend aus „Blog“ und „Atmosphäre“; weiterhin
ist die Bezeichnung abgeleitet vom Begriff der „Logosphäre“, also der „Welt der Worte“) ist ein soziokulturelles
Konstrukt im Internet und bildet ein gutes Beispiel für einen virtuellen Raum. Sie setzt sich aus der Gesamtheit
aller Blogs und der Strukturen und Technologien, die zu deren Vernetzung dienen, zusammen. In der Blogosphäre treten – wie in jeder Gemeinschaft – verschiedene, teilweise hierarische Strukturen auf. So existieren
beispielsweise so genannte A-, B- und C-Blogger. Der vorangestellte Buchstabe weist hierbei auf die Popularität
einzelner Autoren hin. Ein A-Blogger hat Einfluss, er gilt als prägend für das in der Blogosphäre vorherrschende
Meinungsbild, während B- und C-Blogger – analog zur B- und C-Prominenz – eine eher untergeordnete Rolle
spielen.
Content-Management-System (CMS) – Ein CMS (englisch etwa Inhalte-Verwaltungs-System) ist eine Software in Form eines Autorensystems, welche neben einer gleichzeitigen gemeinschaftlichen Arbeit an verschiedenen Dokumenten deren Publikation ermöglicht. Meist werden CM-Systeme eingesetzt, um es Autoren zu
ermöglichen, Inhalte im WWW zur Verfügung zu stellen, ohne dafür zwingend Programmierkenntnisse oder
eine spezielle Software besitzen zu müssen. CM-Systeme existieren für viele unterschiedliche Spezialanwendungen, zum Beispiel zum Publizieren von Blogs, aber auch, um beispielsweise die Internetpräsenz einer Universität
zu verwalten.
Emoticon / Emote-Tag – Ein Emoticon (Wortkreuzung aus „Emotion“ und „Icon“) ist entweder eine Zeichenfolge, die menschliche Gesichtszüge nachahmen soll (so steht z.B. „ :-) “ für Fröhlichkeit, „ ;-) “ für ein Augenzwinkern und „ :-P “ für eine herausgestreckte Zunge. Auch eine kleine Computergrafik, die ein gezeichnetes
Smiley darstellt, wird als Emoticon bezeichnet. Ein Emote-Tag („Tag“ bedeutet „Aufkleber“ oder „Etikett“) ist
ein spezieller Befehl, der in MUDs verwendet wird, um Emotionen oder Handlungen, die sich direkt auf den
Avatar beziehen, auszudrücken. Gibt etwa der Spieler Chris „emote: weint bitterlich“ ein, so erscheint auf den
Displays aller anderen Spieler: »Chris weint bitterlich«.
Flashmob – Ein Flashmob ist ein spontan wirkender Menschenauflauf an einem öffentlichen Ort, bei dem
sich die Teilnehmer meist persönlich nicht kennen. Die Verabredung zu diesen Treffen findet üblicherweise per
Mobiltelefon oder per Internet statt. Flashmobs sind oft politisch motiviert.
Forum (Internet-Forum) – Ein Forum ist eine Plattform, die dem Austausch von Gedanken, Meinungen und
Wissen dient. Um aktiv an einem Forum teilzunehmen, ist meist ein Anmeldevorgang Voraussetzung, weswegen es als abgeschlossener virtueller Raum zu betrachten ist. Die Kommunikation innerhalb eines Forums findet
asynchron statt. Die Ausrichtung eines Internet-Forums ist meist thematisch eingeschränkt, die Kommunikation findet in inhaltlich geordneten „Threads“, also Diskussionssträngen, statt.
Gadget – Ein Gadget (engl. für Technikspielzeug) ist ein portables elektronisches Gerät, welches einerseits funktional, aber gleichermaßen von schönem Design geprägt ist. Eine der wichtigsten Eigenschaften eines Gadgets
ist der Grenzgang zwischen Funktionalität und gleichzeitig hohem Spaßfaktor. Apples iPod ist das Musterbeispiel eines Gadgets.
101
GLOSSAR
Gender swapping – Der Begriff Gender Swapping beschreibt das Wechseln des eigenen Geschlechts. In virtuellen Räumen kann sich so beispielsweise ein Mann als Frau ausgeben oder umgekehrt, vgl. Bruckman (2003).
Geocaching – Geocaching (oder GPS-Schnitzeljagd) ist eine elektronische Form der Schnitzeljagd. Im Gelände
werden bestimmte Objekte (so genannte Caches) versteckt. Die genaue Position dieser Objekte wird in Form
von GPS-Koordinaten im Internet veröffentlicht. Jedes Objekt (meistens eine kleine, wasserdichte Kiste) ist in
der Regel mit einem Logbuch versehen, in das sich ein Finder eintragen kann. Es ist üblich, in den Kisten kleine
Tauschobjekte zu hinterlassen, die der nächste Finder durch ein eigenes Objekt ersetzen kann.
Gruscheln – (Kofferwort: Grüßen + Kuscheln) Abgeschaut vom sog. poking, der Facebook-Variante des gruschelns, stellt die virtuelle Variante einer Mischung aus Kitzeln und Kuscheln dar, und ist eine Form der virtuell
vermittelten Körperlichkeit.
Internet – Das Internet ist ein weltweites Netzwerk, durch welches einzelne Computer und kleinere Netzwerke
miteinander verbunden sind. In den 90er Jahren diente das Internet vorwiegend zum Austausch von Informationen. Gegründet als rein militärische Einrichtung Arpanet, welches eine ausfallsichere und deswegen dezentrale
Kommunikation zwischen den militärischen Einrichtungen der USA gewährleisten sollte, entwickelte es sich
vor allem dank der Arbeit von Tim Berners-Lee208 am CERN relativ zügig weiter: Nur wenige Jahre später bot
es – vor allem durch den rasanten Preisverfall bei internetfähigen Personal Computern – eine erschwingliche
und relativ verlässliche Kommunikationsplattform.
Internet-Relay-Chat (IRC) – Der IRC ist ein 1988 entwickeltes, textbasiertes Chat-System. Um teilzunehmen,
muss ein kleines Programm benutzt werden, welches sich als Client zu einem IRC-Server verbindet. Die Gespräche werden durch miteinander verbundene Servernetzwerke übermittelt. Einzelne Netzwerke können bis
zu 100.000 Benutzer gleichzeitig verbinden.
Long-Tail-Prinzip – Das Long-Tail-Prinzip (engl. für „langer Schwanz“) ist ein Wirtschaftsmodell, welches
der US-amerikanische Journalist und Chefredakteur des Wired Magazine Chris Anderson 2004 entwickelte.
Es zeigt auf, wie es möglich ist, mit dem Anbieten einer großen Anzahl von Nischenprodukten Gewinn zu
machen. In Begriffen traditioneller Warenwirtschaftshaltung gedacht, ist es nicht besonders vorteilhaft, selten
nachgefragte Produkte vorrätig zu haben, da diese ständig Lager- und Transport kosten verursachen. In einem
Online-Kaufhaus jedoch ist es von Vorteil, Nischenprodukte anzubieten, da einerseits eine viel höhere Zahl
an Kunden erreicht werden kann und andererseits selten Lagerkosten entstehen. So ist es für einen OnlineMusikhändler kein Problem, mehrere Terabyte an selten nachgefragten Musikstücken vorrätig zu haben: Selbst,
wenn nur wenige davon gekauft werden, lohnt sich das Geschäft.
Multi-User-Dungeon (MUD) – Ein Multi-User-Dungeon ist ein – meist textbasiertes – Rollenspiel, welches
von einem Internetserver bereitgestellt wird. Die Spieler können sich, indem sie kleine Programme, so genannte
MUD-Clients, benutzen, mit dem Server verbinden und dort eine Figur, ihren Avatar, steuern. Die Spielszenarien, in denen sich die Avatare bewegen und verschiedene Aufgaben, so genannte Quests, lösen, sind meist aus
dem Fantasy- oder Science-Fiction-Genre entlehnt.
Massively Multiplayer Online Role-Playing Game (MMORPG) – Mehrspieler-Online-Rollenspiele sind Rollenspiele, die ebenfalls auf Internetservern bereitgestellt werden können. Sie unterscheiden sich von den MUDs
dadurch, dass das Spielszenario meist in Echtzeit-Grafik dargestellt wird.
MySpace – MySpace ist ein äußerst bekanntes und als Internetseite realisiertes Soziales Netzwerk. Während
FaceBook und OpenBC eher als beruflich orientierte soziale Netzwerke gelten, wird MySpace als Netzwerk für
Freizeitgestaltung und Privates genutzt.
Podcast – Kofferwort, bestehend aus iPod und Broadcasting. Podcasting beschreibt das Aussenden von Informationen an mobile Musikabspielgeräte. Podcasts sind Audio-Dateien und gleichen kurzen Radiosendungen, die
sich meist mit einem spezifischen Thema auseinandersetzen. Sie werden meist im MP3-Format veröffentlicht
und können von jeder gängigen Audio-Software abgespielt werden. Der Unterschied zwischen Podcasts und
dem Radioprogramm besteht darin, dass der Hörer in der Wahl des Programms frei ist. Gleichermaßen ist er
nicht an eine bestimmte Sendezeit gebunden, da er die Audio-Datei herunterladen kann, wann er möchte.
208 Berners-Lee entwickelte ab 1989 am European Center for Nuclear Research, früher Conseil Européen
pour la Recherche Nucléaire, das World Wide Web, um einen reibungsloseren Informationsaustausch
zwischen den verschiedenen Forschungsabteilungen zu erreichen.
102
GLOSSAR
Podcatcher – Ein Podcast-Client, auch Podcatcher genannt, ist ein kleines Computerprogramm. Es nimmt
dem Hörer viele Tätigkeiten ab, die mit der traditionellen Rezeption von Medien verbunden waren: Einmal
programmiert, informiert sich der Client automatisch über neue Folgen eines Pod- oder Videocasts, lädt diese
herunter und bereitet sie für den MP3-Player seines Besitzers auf. Wird der Player dann an den Computer angeschlossen, befüllt der Podcast-Client diesen mit den neu herunter geladenen Folgen, während er überprüft,
welche alten – bzw. schon gehörten – Folgen vom Abspielgerät gelöscht werden können. Der Client übernimmt
also nicht nur einige der traditionellen Aufgaben eines Redakteurs, sondern übermittelt auch das Kunstwerk
selbst zum Rezipienten.
RSS-Feed – RSS steht in der Version 2.0 für Really Simple Syndication (wirklich einfache Verbreitung) und
ist ein Programmierstandard, der die Inhalte von allen Internetseiten, welche den RSS-Service anbieten, in ein
streng reglementiertes Schema presst und es dadurch Benutzern ermöglicht, die Inhalte vieler Internetseiten
gleichzeitig abzufragen und datenbankartig zu organisieren.
Social Network – Der Begriff „Soziales Netzwerk“ beschreibt grundsätzlich eine vernetzte Gesellschaftsstruktur.
In dieser Arbeit wird der Begriff synonym mit dem englischen „Social Network Service“ verwendet, der die
virtuellen Repräsentationen sozialer Netzwerke umschreibt bzw. die virtuellen Werkzeuge, die der Etablierung
sozialer Netzwerke dienen.
Social Bookmarking – Die Marke digg hat unter den Social-Bookmarking-Diensten eine ähnliche Berühmtheit
erlangt wie Procter & Gamble mit der Marke Tempo unter den Taschentuchherstellern. Wird ein Link bei digg
gemeldet, erhält er einen Punkt auf einer nach oben offenen Skala. Dieser Punkt wird auch als digg bezeichnet.
Kann ein bestimmter Link eine sehr hohe Anzahl von diggs aufweisen, ist er also für eine größere Menschengruppe relevant, erscheint er auf der Startseite des Dienstes, digg.com. Dadurch werden Hunderttausende von
Nutzern auf ihn aufmerksam und er gewinnt schlagartig sehr viel mehr an Popularität. Dieses System funktioniert so gut, dass Internetseiten, die kurzfristige Popularität bei digg erreichen, oft innerhalb von kürzester
Zeit nicht mehr erreichbar sind, da die Server, auf denen sie liegen, aufgrund des großen Besucheransturmes
zusammenbrechen.
Street Wars – Street Wars ist ein Spiel, welches die Spieler über den Zeitraum von drei Wochen in die Rolle
eines Attentäters bzw. dessen Opfers versetzt. Ziel des Spieles ist es, das Opfer mittels eines Treffers aus einer
Wasserpistole zu eliminieren. Dem Attentäter werden über das Internet persönliche Daten über das Opfer mitgeteilt, anhand derer er das Opfer identifizieren und aufsuchen kann. Üblicherweise beobachtet der Täter dann
die Lebensgewohnheiten des Opfers, um einen günstigen Zeitpunkt für das Attentat zu finden. Das Besondere
an Street Wars ist, dass es im alltäglichen Leben der Spieler stattfindet und sie ständig auf der Hut sein müssen.
Ein Attentat kann quasi jederzeit erfolgen.
Trackback – Track- bzw. Pingback nennt sich das automatische Benachrichtigen einer fremden Internetseite
durch das eigene Content-Management-System, sofern man einen Artikel der anderen Seite verlinkt hat. Je
nach Konfiguration des fremden Blogs erscheint nun unter dem fremden Artikel der mit einem Link zur eigenen Seite versehene Hinweis auf den eigenen Artikel – vollautomatisch.
Video-Podcast – Videopodcasting beschreibt das Aussenden von Video-Dateien an mobile Videoabspielgeräte
und Mobiltelefone. Genau wie Audio-Podcasts erscheinen Videocasts zu spezifischen Themengebieten oder
Ereignissen und können abonniert werden. Videocasts werden meist im MPEG-4-Format zum Download angeboten.
Videostream – Im Unterschied zum Video-Podcast werden beim Streaming Video-Inhalte in Echtzeit übermittelt, d.h. sie werden zur gleichen Zeit empfangen und abgespielt, zu der sie auch gesendet werden. VideoStreams stehen meist nach einem Ereignis nicht mehr zur Verfügung und sind so konzipiert, dass ein Abspeichern auf Benutzer-Seite unmöglich gemacht werden soll.
World of Warcraft – über 10 Millionen Spieler tauchen regelmäßig in die Online-Welt Azeroth ein, die den
Schauplatz des 2004 veröffentlichten Fantasy-Online-Mehrspieler-Rollenspieles World of Warcraft stellt. Damit ist World of Warcraft das größte MMORPG bei einem Marktanteil von über 60%. Wie auch in anderen
Rollenspielen üblich, steuert ein Spieler eine durch ihn erstellte Spielfigur, um die Landschaft Azeroths zu erkunden, gegen Monster zu kämpfen, Aufgaben zu erledigen und mit anderen Spielern und so genannten NPCs,
also Nicht-Spieler-Kreaturen, zu interagieren. Die Spieler sammeln Spielgeld und Erfahrungspunkte, mit denen
sie die Fähigkeiten ihrer Charaktere steigern können.
Web 2.0 – Web 2.0, das „Mitmachnetz“, ist ein vom O’Reilly-Verlag eingeführter Begriff, der vor allem neueste
103
GLOSSAR
Entwicklungen im Internet beschreibt. Alle Internetseiten, deren Ziel es ist, die Kreativität, den Informationsaustausch, und – vor allem – die Interaktivität und Kollaboration zwischen verschiedenen Nutzern zu steigern,
sind als Teil des Web 2.0 zu sehen. Dies trifft vor allem auf die Blogosphäre, auf Social Networks, auf SocialBookmarking-Dienste und auf Wikis zu.
104
Literaturverzeichnis
Barck, Karlheinz / Gente, Peter (Hrsg.): Aisthesis. Wahrnehmung heute oder Perspektiven einer anderen Ästhetik,
Reclam, Leipzig, 1990.
Baudrillard, Jean: Kool Killer oder der Aufstand der Zeichen, Merve Verlag, Berlin, 1978.
Benjamin, Walter: Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit, zweite Fassung, in: Ders.,
Gesammelte Schriften, Suhrkamp Verlag, Frankfurt (a.M.), 1974.
Bieber, Christoph / Leggewie, Claus (Hrsg.): Interaktivität. Ein transdisziplinärer Schlüsselbegriff. Campus Verlag, Frankfurt/Main, 2004.
Bolz, Norbert / Kittler, Friedrich A. / Tholen, Christoph (Hrsg.): Computer als Medium, Wilhelm Fink Verlag,
München, 1994.
Bourdieu, Pierre: Die feinen Unterschiede. Kritik der gesellschaftlichen Urteilskraft, Suhrkamp Verlag, Frankfurt
(a.M.), 1993.
Brecht, Bertolt: Radiotheorie (1927-1932) best. aus: Radio – eine vorsintflutliche Erfindung?; Vorschläge für den
Intendanten des Rundfunks; Erläuterungen zum Ozeanflug; Der Rundfunk als Kommunikationsapparat; in:
Ders., Gesammelte Werke 18 – Schriften zur Literatur und Kunst, Werkausgabe Edition Suhrkamp, Frankfurt (a.M.), 1967.
Brooks, Rodney: Robot. The future of Flesh and Machines, Penguin Verlag, London, 2002.
Euwe, Max: Schach mit dem Computer, in: Ders., Feldherrnkunst im Schach, S. 9-108, de Gruyter, Berlin,
1970.
Faßler, Manfred / Halbach, Wulf R. (Hrsg.): Geschichte der Medien, W. Fink Verlag, Utb, Stuttgart, 1998.
Faulstich, Werner: Einführung in die Medienwissenschaft, W. Fink Verlag, Utb, Stuttgart, 2003.
Felderer, Brigitte (Hrsg.): Wunschmaschine Welterfindung. Eine Geschichte der Technikvisionen seit dem 18. Jahrhundert. SpringerWienNewYork, New York, Wien 1996.
Fischer-Lichte, Erika / Gronau, Barbara / Schouten, Sabine / Weiler, Christel (Hrsg.): Wege der Wahrnehmung.
Authentizität, Reflexivität und Aufmerksamkeit im zeitgenössischen Theater, Theater der Zeit (Recherchen
33), Berlin, 2006.
Fischer-Lichte, Erika / Horn, Christian / Warstat, Matthias (Hrsg.): Theatralität, Band. 1: Inszenierung von
Authentizität, 2. Auflage, A.Francke Verlag, Tübingen, 2007.
Franck, Georg: Ökonomie der Aufmerksamkeit, Carl Hanser Verlag, München, Wien, 1998.
Friebe, Holm / Lobo, Sascha: Wir nennen es Arbeit. Die digitale Bohème oder: Intelligentes Leben jenseits der Festanstellung, Heyne, München, 2006.
Flusser, Vilém: Gesten – Versuch einer Phänomenologie, Bollmann Bibliothek, Düsseldorf und Bensheim, 1991.
Flusser, Vilém: Medienkultur, 4. Auflage 2005, Fischer Taschenbuch Verlag, Frankfurt (a.M.), 1997.
Gendolla, Peter / Schmitz, Norbert M. / Schneider, Irmela / Spangenberg, Peter M. (Hrsg.): Formen interaktiver
Medienkunst. Geschichte, Tendenzen, Utopien, Suhrkamp Verlag, Frankfurt (a.M.), 2001.
Glesner, Julia: Theater und Internet. Zum Verhältnis von Kultur und Technologie im Übergang zum 21. Jahrhundert, transcript Verlag, Bielefeld, 2005.
Grau, Oliver: Virtuelle Kunst in Geschichte und Gegenwart. Visuelle Strategien, Reimer Verlag, Berlin, 2002.
Illich, Ivan: Im Weinberg des Textes, Luchterhand Literaturverlag GmbH, Frankfurt (a.M.), 1991.
Kerckhove, Derrick de: Schriftgeburten, Fink Verlag, München, 1995.
Kierkegaard, Søren: Die Wiederholung, Hrsg.: Hans Rochol, Meiner Verlag, Hamburg, 2000.
Kittler, Friedrich: Draculas Vermächtnis, Reclam Verlag, Leipzig, 1993.
Klein, Gabriele / Friedrich, Malte: Is this real? Die Kultur des HipHop, Suhrkamp Verlag, Frankfurt (a.M.),
105
LITERATURVERZEICHNIS
2003.
Ko Hoang, Youn-Ju: Vermittlung von „Visual Literacy“ durch Computeranimation im Kunstunterricht, Dissertation an der Freien Universität Berlin im Fachbereich Erziehungswissenschaften, Berlin, 2000.
Krämer, Sybille (Hrsg.): Medien Computer Realität, Suhrkamp Verlag, Frankfurt (a.M.), 1998.
Lehmann, Hans-Thies: Postdramatisches Theater, Verlag der Autoren, Frankfurt (a.M.), 1999.
Levy, David: Love and Sex with Robots: The Evolution of Human-Robot Relationships, Harper, 2007.
Liebrand, Claudia / Schneider, Irmela / Bohnenkamp, Björn / Frahm, Laura (Hrsg.): Einführung in die Medienkulturwissenschaft, Münster, LIT, 2005.
Manovičh, Lev: The Language of New Media, Cambridge/MA: MIT Press, 2001.
Manovičh, Lev: Black Box – White Cube, Merve Verlag, Berlin, 2005.
Maresch, Rudolf / Werber, Niels (Hrsg.): Raum – Wissen – Macht, Suhrkamp Verlag, Frankfurt (a.M.), 2002.
Müller, Jürgen E. (Hrsg.): Intermedialität: Formen moderner kultureller Kommunikation, Nodus Publikationen,
Münster, 1996.
Ott, Ralf: Klinische Psychologie und Internet. Potenziale für klinische Praxis, Intervention, Psychotherapie und Forschung, Hogrefe Verlag, Göttingen, 2003.
Pratchett, Terry: Der Ganze Wahnsinn (Storys), S. 327, Piper, München, 2007.
Ries, Marc / Fraueneder, Hildegard / Mairitsch, Karin (Hrsg.): dating.21 – Liebesorganisation und Verabredungskulturen, transcript Verlag, Bielefeld, 2007
Rötzer, Florian: Digitale Weltentwürfe. Streifzüge durch die Netzkultur, Carl Hanser Verlag, München / Wien,
1998.
Rusch, Gebhard / Schanze, Helmut / Schwering, Gregor (Hrsg.): Theorien der Neuen Medien. Kino – Radio –
Fernsehen – Computer, Wilhelm Fink Verlag, Paderborn, 2007
Stone, Alluquere Rosanne: The Ware of Desire and Technology at the Close of the Mechanical Age, Cambridge/MA:
MIT Press, 1995.
Turing, Alan: Intelligence Service. Schriften, hg. von Bernhard Dotzler und Friedrich Kittler, Brinkmann & Bose,
Berlin, 1987.
Turkle, Sherry, Leben im Netz. Identität in Zeiten des Internet (Orig. Life on the Screen. Identity in the Age of
the Internet), Rowohlt Verlag GmbH, Reinbek bei Hamburg, 1998.
Wardrip-Fruin, Noah / Montfort, Nick (Hrsg.): The New Media Reader, Cambridge, MA./London, 2003
Zeitschriften:
Technology Review 03/2008, Heise Zeitschriften Verlag, Stuttgart.
Nature, Ausgabe 438, Jim Giles: Special Report: Internet encyclopaedias go head to head, S. 900 f. Online einsehbar
unter http://www.nature.com/nature/journal/v438/n7070/full/438900a.html
Internet:
Bruckman, Amy S.: Gender Swapping on the Internet, http://www.mith2.umd.edu/WomensStudies/Computing/Articles+ResearchPapers/gender-swapping, Maryland Institute of Technology in the Humanities,
2003 (Abgerufen: 3. März 2008)
Apple: iTunes Store Tops Over Five Billion Songs Sold. Apple Renting & Selling Over 50,000 Movies Per Day, 19.
Juni 2008, http://www.apple.com/pr/library/2008/06/19itunes.html (Abgerufen: 19. Juni 2008)
Bundesamt für Statistik der Schweiz: Schülerinnen, Schüler und Studierende 2005/06, http://www.bfs.admin.ch/
bfs/portal/de/index/themen/15/22/publ.Document.89187.pdf (Abgerufen: 12. Mai 2008)
ComStore Data Center: Sample Listing of Top Properties by Country, http://www.comscore.com/press/data.asp
106
LITERATURVERZEICHNIS
(Abgerufen: 5. Juni 2008)
Designboom: Yugo Nakamura, http://www.designboom.com/portrait/flash.html (Abgerufen: 11. Juni 2008)
Deutscher Akademischer Austausch Dienst: Studieren und Forschen in Deutschland. Tabelle 1: Hochschulen und Studierende in Deutschland 2005/2006, http://www.daad.de/deutschland/hochschulen/
hochschultypen/05949.de.html (Abgerufen: 12. Mai 2008)
Deutscher Bundestag, 16. Wahlperiode, Gesetzentwurf der Bundesregierung: Entwurf eines Gesetzes zur Verbesserung der Durchsetzung von Rechten des geistigen Eigentums, Drucksache 16/5048, 20. 04. 2007, http://
dip21.bundestag.de/dip21/btd/16/050/1605048.pdf (Abgerufen: 30. April 2008)
Flickr: Help: General Flickr Questions, http://flickr.com/help/general/#167 (Abgerufen: 26. Mai 2008)
Jobs, Steve: Eröffnungsrede der Macworld San Francisco 2007, http://phobos.apple.com/WebObjects/MZStore.
woa/wa/viewPodcast?i=13433123&id=212293773 (iTunes erforderlich, Abgerufen: 26. Mai 2008)
Golem.de: (Klaß & Ihlenfeld Verlag GmbH): Weltweite Klagewelle gegen Tauschbörsennutzer, 4. April 2006,
http://www.golem.de/0604/44452.html (Abgerufen: 12. Juni 2008)
Heise Online: (Hrsg: Christian Heise, Ansgar Heise, Christian Persson), Fliegender Untersatz für Hinterntattoo, 12. Januar 2008, http://www.heise.de/newsticker/Fliegender-Untersatz-fuer-Hinterntattoo--/
meldung/101695 (Abgerufen: 14. Mai 2008)
Heise Online: (Hrsg: Christian Heise, Ansgar Heise, Christian Persson), Gedankensteuerung für Computerspiele, 6. März 2008, http://www.heise.de/newsticker/Gedankensteuerung-fuer-Computerspiele--/
meldung/104618 (Abgerufen: 10. Juni 2008)
Heise Online: (Hrsg: Christian Heise, Ansgar Heise, Christian Persson), Harvard-Studie erkennt klar positive Eigenschaften bei Videospielen, 4. Mai 2008, http://www.heise.de/newsticker/Harvard-Studie-erkennt-klarpositive-Eigenschaften-bei-Videospielen--/meldung/107360 (Abgerufen: 15. Mai 2008)
Heise Online: (Hrsg: Christian Heise, Ansgar Heise, Christian Persson), Musikindustrie will Wegwerfen von CDs
verbieten, 14. April 2008, http://www.heise.de/newsticker/Musikindustrie-will-Wegwerfen-von-CDs-verbieten--/meldung/106423 (Abgerufen: 30. April 2008)
Invisionpower Forum: An EPIC Mount..., 13. April 2007, http://forums.invisionpower.com/index.
php?showtopic=234053 (Abgerufen: 14. Mai 2008)
Müller, Jörg: Virtuelle Körper. Aspekte sozialer Körperlichkeit im Cyberspace, WZB Discussion Paper FS II 96-105,
Wissenschaftszentrum Berlin, 1996, http://duplox.wzb.eu/texte/koerper/ (Abgerufen: 30. April 2008)
Museum of Modern Betas: Museum of Modern Betas (MoMB), http://momb.socio-kybernetics.net/ (Abgerufen:
26. Mai 2008)
Naone, Erika: Ein Avatar für viele 3D-Welten, 1. Mai 2008, http://www.heise.de/tr/Ein-Avatar-fuer-viele-3DWelten--/artikel/106739 (Abgerufen: 1. Mai 2008)
Poe, Edgar Allan: Maelzel‘s Chess-Player, ersch. in: Southern Literary Messenger, April 1836, einzusehen unter:
http://www.eapoe.org/works/ESSAYS/MAELZEL.HTM (Abgerufen: 29. Mai 2008)
Projektgruppe „Kulturraum Internet“ am Wissenschaftszentrum Berlin für Sozialforschung: Internet... the Final
Frontier: eine Ethnographie, http://duplox.wzb.eu/endbericht/index.html (Abgerufen: 20. Mai 2008)
Reisinger, Christian: Interview: Stefan Weber über Plagiate, Internet, und Nestbeschmutzer, 11. Juni 2006, http://
www.die-eule.at/article.php?story=20060611135748757 (Abgerufen: 30. April 2008)
Rose, Kevin: Digg This: 09-f9-11-02-9d-74-e3-5b-d8-41-56-c5-63-56-88-c0, 1. Mai 2007, http://blog.digg.
com/?p=74 (Abgerufen: 3. Juni 2008)
Sandbothe, Mike: Pragmatische Medienphilosophie und das Internet, 11. November 1998, http://userpage.fuberlin.de/~sybkram/medium/sandbothe.html#sternh (Abgerufen: 30. Mai 2008)
Schroer, Joachim / Hertel, Guido (Universität Würzburg): Voluntary Engagement in an Open Web-based Encyclopedia: Wikipedians, and Why They Do It, 3. Dezember 2007, http://www.abo.psychologie.uni-wuerzburg.
de/virtualcollaboration/publications.php?action=view&id=44 (Abgerufen: 6. Juni 2008)
Schwenzel, Felix: ix höre auf zu bloggen, 29. Juni 2006, http://wirres.net/article/articleview/3759/1/6 (Abgerufen: 18. Juni 2008)
Schwenzel, Felix: 10 gegenthesen zu 10 thesen zur digtalen zukunft, 1. Juni 2008, http://wirres.net/article/
articleview/4889/1/6 (Abgerufen: 3. Juni 2008)
107
LITERATURVERZEICHNIS
Spiegel Online: Tod durch Onlinespiel?, 21. November 2005, http://www.spiegel.de/netzwelt/
web/0,1518,386118,00.html (Abgerufen: 6. Mai 2008)
Spiegel Online: Abschied von StudiVZ und XING: Mein digitaler Selbstmord, 3. Februar 2008, http://www.spiegel.de/unispiegel/wunderbar/0,1518,532070,00.html (Abgerufen: 10. Mai 2008)
Spiegel Online: StudiVZ-Datenschutz: Studenten demonstrieren gegen das SchnüffelVZ, 18. Dezember 2007,
http://www.spiegel.de/netzwelt/web/0,1518,523906,00.html (Abgerufen: 10. Mai 2008)
Spreeblick: When Jane became insane, 12. Februar 2008, lttp://www.spreeblick.com/2008/02/12/when-janebecame-insane/ (Abgerufen: 13. Juni 2008)
Statistik Austria: Hochschulstatistik: Studierende in Österreich 2004/05 - 2006/07, 27.8.2007, http://www.statistik.at/web_de/static/ergebnisse_im_ueberblick_021630.pdf (Abgerufen: 12. Mai 2008)
Stern: Wikipedia schlägt Brockhaus, 5. Dezember 2007, http://www.stern.de/computer-technik/internet/604423.
html?nv=sml (Abgerufen: 5. Juni 2008)
StudiVZ: Neues aus dem Maschinenraum, 30. Januar 2008, http://www.studivz.net/Newsroom/
Detail/18551b101d553f7c/backPg/2 (Abgerufen: 30. April 2008)
Wallace, Richard S.: From Eliza to A.L.I.C.E., http://www.alicebot.org/articles/wallace/eliza.html (Abgerufen:
19. Juni 2008)
Weber, Stefan: Plagiatsfahndung an der Uni Salzburg: Elf von 13 Diplomarbeiten unsauber, APA-OTS Originaltext-Service GmbH, 2. Juni 2006, http://www.ots.at/presseaussendung.php?schluessel=OTS_20060602_
OTS0226&ch=technologie (Abgerufen: 30. April 2008)
Wenz, Katrin: Computerspiele: Hybride Formen zwischen Spiel und Erzählung, 2001, http://www.netzliteratur.
net/wenz/wenz_computerspiele.htm (Abgerufen: 30. April 2008)
Wikimedia Foundation: Wikimedia servers, 20. Februar 2008, http://meta.wikimedia.org/wiki/Wikimedia_servers (Abgerufen: 7. Juni 2008)
Wikipedia:
Artikel AACS encryption key controversy. In: Wikipedia, The Free Encyclopedia. Bearbeitungsstand: 17. Mai
2008, 00:37 UTC. URL: http://de.wikipedia.org/w/index.php?title=Aibo&oldid=42800963 (Abgerufen: 3. Juni 2008, 00:57 UTC)
Artikel Alan Turing. In: Wikipedia, The Free Encyclopedia. Bearbeitungsstand: 18. Juni 2008, 11:11 UTC.
URL: http://en.wikipedia.org/w/index.php?title=Alan_Turing&oldid=220120346 (Abgerufen: 19. Juni
2008, 12:36 UTC)
Artikel Aibo. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 21. Februar 2008, 11:10 UTC. URL:
http://de.wikipedia.org/w/index.php?title=Aibo&oldid=42800963 (Abgerufen: 3. März 2008, 23:36
UTC)
Artikel Arctic Monkeys. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 2. Juni 2008, 10:19 UTC.
URL: http://de.wikipedia.org/w/index.php?title=Arctic_Monkeys&oldid=46787588 (Abgerufen: 2. Juni
2008, 13:49 UTC)
Artikel Assassin (Game). In: Wikipedia, The Free Encyclopedia. Bearbeitungsstand: 2. Mai 2008, 19:47 UTC.
URL: http://en.wikipedia.org/w/index.php?title=Assassin_%28game%29&oldid=209761778 (Abgerufen: 4. Mai 2008, 12:52 UTC)
Artikel Automat. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 27. März 2008, 09:24 UTC. URL:
http://de.wikipedia.org/w/index.php?title=Automat&oldid=44200603 (Abgerufen: 9. April 2008, 12:44
UTC)
Artikel Avatar (Internet). In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 29. April 2008, 19:14
UTC. URL: http://de.wikipedia.org/w/index.php?title=Avatar_%28Internet%29&oldid=45459552
(Abgerufen: 30. April 2008, 15:13 UTC)
Artikel Blogosphäre. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 23. Februar 2008, 19:55 UTC.
URL: http://de.wikipedia.org/w/index.php?title=Blogosph%C3%A4re&oldid=42902416 (Abgerufen:
25. April 2008, 12:32 UTC)
Artikel Creative Commons. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 7. April 2008, 09:08
108
LITERATURVERZEICHNIS
UTC. URL: http://de.wikipedia.org/w/index.php?title=Creative_Commons&oldid=44617187 (Abgerufen: 9. April 2008, 15:52 UTC)
Artikel Content-Management-System. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 7. April 2008, 14:47 UTC. URL: http://de.wikipedia.org/w/index.php?title=Content-ManagementSystem&oldid=44630322 (Abgerufen: 25. April 2008, 12:33 UTC)
Artikel Eliza. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 29. August 2007, 21:22 UTC. URL:
http://de.wikipedia.org/w/index.php?title=Eliza&oldid=36113891 (Abgerufen: 3. März 2008, 23:36
UTC)
Artikel Encyclopædia Britannica. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 19. Mai
2008, 19:33 UTC. URL: http://de.wikipedia.org/w/index.php?title=Encyclop%C3%A6dia_
Britannica&oldid=46249799 (Abgerufen: 5. Juni 2008, 13:49 UTC)
Artikel Flashmob. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 28. April 2008, 13:49 UTC. URL:
http://de.wikipedia.org/w/index.php?title=Flashmob&oldid=45405755 (Abgerufen: 2. Mai 2008, 08:08
UTC)
Artikel Gadget. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 30. März 2008, 08:03 UTC. URL:
http://de.wikipedia.org/w/index.php?title=Gadget&oldid=44315036 (Abgerufen: 25. April 2008, 12:22
UTC)
Artikel GNU General Public License. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 28.
März 2008, 02:06 UTC. URL: http://de.wikipedia.org/w/index.php?title=GNU_General_Public_
License&oldid=44235438 (Abgerufen: 10. April 2008, 11:45 UTC)
Artikel Internet. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 10. Juni 2008, 11:22 UTC. URL:
http://de.wikipedia.org/w/index.php?title=Internet&oldid=47088118 (Abgerufen: 11. Juni 2008, 16:16
UTC)
Artikel Internetforum. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 19. Mai 2008, 00:32 UTC.
URL: http://de.wikipedia.org/w/index.php?title=Internetforum&oldid=46216592 (Abgerufen: 11. Juni
2008, 15:02 UTC)
Artikel Lifecasting. In: Wikipedia, The Free Encyclopedia. Bearbeitungsstand: 20. Januar 2008, 16:57 UTC.
URL: http://en.wikipedia.org/w/index.php?title=Lifecasting&oldid=185667325 (Abgerufen: 17. April
2008, 09:41 UTC)
Artikel Long Tail. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 19. März 2008, 17:59 UTC.
URL: http://de.wikipedia.org/w/index.php?title=Long_Tail&oldid=43899387 (Abgerufen: 25. April
2008, 12:45 UTC)
Artikel Massively Multiplayer Online Role-Playing Game. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 25. April 2008, 21:48 UTC. URL: http://de.wikipedia.org/w/index.php?title=Massively_Multiplayer_Online_Role-Playing_Game&oldid=45316479 (Abgerufen: 30. April 2008, 15:12 UTC)
Artikel Medium. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 29. Mai 2008, 05:24 UTC. URL:
http://de.wikipedia.org/w/index.php?title=Medium&oldid=46626622 (Abgerufen: 5. Juni 2008, 15:32
UTC)
Artikel Medientheorie. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 16. März 2008, 17:17 UTC.
URL: http://de.wikipedia.org/w/index.php?title=Medientheorie&oldid=43776440 (Abgerufen: 18. Mai
2008, 16:55 UTC)
Artikel Multi User Dungeon. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 3. April 2008, 15:49
UTC. URL: http://de.wikipedia.org/w/index.php?title=Multi_User_Dungeon&oldid=44482951 (Abgerufen: 30. April 2008, 15:11 UTC)
Artikel MySpace. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 11. Juni 2008, 12:46 UTC. URL:
http://de.wikipedia.org/w/index.php?title=MySpace&oldid=47127459 (Abgerufen: 11. Juni 2008, 16:27
UTC)
Artikel Podcasting. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 23. April 2008, 18:58 UTC.
URL: http://de.wikipedia.org/w/index.php?title=Podcasting&oldid=45231950 (Abgerufen: 25. April
2008, 12:49 UTC)
Artikel RSS. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 23. April 2008, 11:36 UTC. URL:
http://de.wikipedia.org/w/index.php?title=RSS&oldid=45213735 (Abgerufen: 25. April 2008, 12:50
109
LITERATURVERZEICHNIS
UTC)
Artikel Social Bookmarks. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 9. April 2008, 20:36 UTC.
URL: http://de.wikipedia.org/w/index.php?title=Social_Bookmarks&oldid=44719631 (Abgerufen: 25.
April 2008, 12:47 UTC)
Artikel Soziales Netzwerk. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 25. April 2008, 11:56
UTC. URL: http://de.wikipedia.org/w/index.php?title=Soziales_Netzwerk&oldid=45293999 (Abgerufen: 25. April 2008, 12:46 UTC)
Artikel Social Network Service. In: Wikipedia, The Free Encyclopedia. Bearbeitungsstand: 11. Juni 2008, 12:09
UTC. URL: http://en.wikipedia.org/w/index.php?title=Social_network_service&oldid=218611029 (Abgerufen: 11. Juni 2008, 16:31 UTC)
Artikel Steve Mann. In: Wikipedia, The Free Encyclopedia. Bearbeitungsstand: 31. Januar 2008, 23:02 UTC.
URL: http://en.wikipedia.org/w/index.php?title=Steve_Mann&oldid=188257040 (Abgerufen: 17. April
2008, 09:44 UTC)
Artikel StudiVZ. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 1. April 2008, 23:41 UTC. URL:
http://de.wikipedia.org/w/index.php?title=StudiVZ&oldid=44421046 (Abgerufen: 8. April 2008, 15:27
UTC)
Artikel Streaming Media. In: Wikipedia, The Free Encyclopedia. Bearbeitungsstand: 15. Juni 2008, 06:18 UTC.
URL: http://en.wikipedia.org/w/index.php?title=Streaming_media&oldid=219439077 (Abgerufen: 16.
Juni 2008, 21:07 UTC)
Artikel Trackback. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 7. April 2008, 10:13 UTC. URL:
http://de.wikipedia.org/w/index.php?title=Trackback&oldid=44619876 (Abgerufen: 25. April 2008,
12:48 UTC)
Artikel Virtuelle Realität. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 13. Dezember 2007, 10:41
UTC. URL: http://de.wikipedia.org/w/index.php?title=Virtuelle_Realit%C3%A4t&oldid=40012613
(Abgerufen: 4. Februar 2008, 16:07 UTC)
Artikel Web 2.0. In: Wikipedia, The Free Encyclopedia. Bearbeitungsstand: 16. Juni 2008, 06:49 UTC. URL:
http://en.wikipedia.org/w/index.php?title=Web_2.0&oldid=219649806 (Abgerufen: 16. Juni 2008,
21:29 UTC)
Artikel Wikipedia. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 3. Juni 2008, 20:58 UTC. URL:
http://de.wikipedia.org/w/index.php?title=Wikipedia&oldid=46851980 (Abgerufen: 5. Juni 2008, 13:48
UTC)
Artikel Wikipedia:Größenvergleich. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 6. Juni 2008,
20:58 UTC. URL: http://de.wikipedia.org/w/index.php?title=Wikipedia:Größenvergleich&oldid=4695
6283 (Abgerufen: 10. Juni 2008, 10:57 UTC)
Artikel World of Warcraft. In: Wikipedia, The Free Encyclopedia. Bearbeitungsstand: 15. Juni 2008, 13:48
UTC. URL: http://en.wikipedia.org/w/index.php?title=World_of_Warcraft&oldid=219488498 (Abgerufen: 16. Juni 2008, 21:16 UTC)
110
Abbildungsverzeichnis
Titelseite: Haus Rucker und Co.: Rahmenbau, anlässlich der Documenta 6, fotografiert von Wolfgang Staudt
am 25. September 2007, veröffentlicht unter einer Creative-Commons-Lizenz (Namensnennung 2.0 USamerikanisch).
Abbildung 1: Tron / Disney 1982 (Standbild).
Abbildung 2: Alive (Artificial Life Interactive Video Environment), Patti Mae Installation.
Abbildung 3: Szenen aus World of Warcraft (links) und Second Life (rechts).
Abbildung 4: Free speech flag, John Marcotte, veröffentlicht als Public Domain, Quelle: http://www.badmouth.
net/content/uploads/2007/05/free-speech-flag.png.
Abbildung 5: Ein Produkt des Scribblers, Screenshot von zefrank.com.
Abbildung 6: digg.com während des AACS-Vorfalles, Screenshot.
Abbildung 7: The horseman meets the oarsman, Red Labor, 2008, http://www.redlabor.com/index.php.
Abbildung 8: Web 2.0-Logos: Uniform?, Bearbeitung einer Grafik Ludwig Glatzkes – http://flickr.com/stabiloboss/ , veröffentlicht unter Creative Commons Share-Alike 2.0.
Abbildung 9: Justin.tv, Screenshot.
Abbildung 10: Steve Mann, wearable computer und reality mediator (vlnr: 1980, Mitte der Achtziger, Anfang der
Neunziger, Mitte der Neunziger, Ende der Neunziger Jahre).
Abbildung 12: Kempelens Schachautomat, Wikimedia Commons, URL: http://upload.wikimedia.org/wikipedia/commons/8/8b/Tuerkischer_schachspieler_windisch4.jpg.
Abbildung 11: Sony Rolly, gizmodo.com, URL: http://gizmodo.com/gadgets/sony/sony-rolly-on-sale-in-japansept-29th-comes-with-annoying-video-297996.php.
Abbildung 13: Sony Aibo, Screenshot sony.com.
Abbildung 14: Virtual Screen in Minority Report, Still Image.
Abbildung 15: Jeff Han / Multitouch Display, Screenshot.
Abbildung 16: Yugo Nakamura – Standbild aus Industrious Clock (2001), Screenshot.
Abbildung 17: Yugo Nakamura – Standbild aus Fingertracks: Studiy-E1 (2001), Screenshot.
Abbildung 18: Yugo Nakamura – Standbild aus Rigid_Body 02 (2001), Screenshot.
Rückumschlag: Der Fließtext dieser Arbeit, analysiert und bearbeitet durch die Internet-Seite Wordle, http://
www.wordle.net.
111
ERKLÄRUNG
Ich erkläre, dass ich die Arbeit selbständig verfasst habe und keine anderen als die angegebenen Quellen und Hilfsmittel verwendet habe. Ich bin damit einverstanden, dass die Magisterarbeit in der Bibliothek eingesehen werden kann.
Datum
Unterschrift
112

Documentos relacionados