Es ist so. Es könnte auch anders sein.

Transcrição

Es ist so. Es könnte auch anders sein.
Virtuelles Seminar im Wintersemester 2003/2004
im Rahmen des Virtuellen Graduierten Kollegs (VGK)
Wissenschaft &
Öffentlichkeit
Arbeitsergebnisse und Dokumentation
Es ist so. Es könnte
auch anders sein.
Kritik des gesunden
Menschenverstandes
Wissenschaft & Öffentlichkeit
Glossar
Literatur
Dozenten:
Prof. Bromme & Prof. Spada
Arbeitsgruppen:
Gruppe A (Kapitel 1.1)
Miriam Bertholet, Sabine Müller, Tina Schorr
Gruppe B (Kapitel 1.2)
Anna Ertelt, Mareike Florax, Tanja Keller
Gruppe C (Kapitel 1.3)
Stephanie Pieschl, Erik Ründal
Gruppe D (Kapitel 2.1)
Julia Schuh, Marc Stadtler, Karsten Stegmann
Gruppe E (Kapitel 2.2)
Tobias Bartholomé, Ingo Kollar, Jessica Phillip
Redaktionsgruppe:
Tina Schorr, Anna Ertelt, Erik Ründal, Karsten Stegmann, Ingo Kollar
Gliederung
1.
Es ist so. Es könnte auch anders sein........................................................... 4
1.1.
Gruppe A: Die Veränderung des epistemischen Kerns in der Wissenschaft
(Kapitel 2 & 3).....................................................................................................................4
1.1.1. Exzerpt .................................................................................................................................4
1.1.2. Annotationen........................................................................................................................6
Die Sokal-Affäre ........................................................................................................................... 6
Auswirkungen der Trennung von Natur- und Geisteswissenschaft auf die Psychologie.............. 7
Einfluss wissenschaftlicher Ergebnisse......................................................................................... 8
„Epistemischer Kern“ der Wissenschaft ..................................................................................... 10
1.1.3. Diskussion des Grundlagentexts durch die Seminarteilnehmer ........................................11
Allgemeine Fragen ...................................................................................................................... 11
Fragen Psychologie ..................................................................................................................... 16
1.2.
Gruppe B: Das Verhältnis zwischen Wissenschaft & Öffentlichkeit – Krisen und
Entwicklungen (Kapitel 4 bis 6) ........................................................................................17
1.2.1. Exzerpt und Annotationen..................................................................................................17
Wie ist es? Unsaubere Schnittstellen (Kapitel 4) ........................................................................ 17
Es hätte anders kommen können (Kapitel 5)............................................................................... 24
Anders für wen – anders mit wem? (Kapitel 6) .......................................................................... 28
1.2.2. Diskussion des Grundlagentexts durch die Seminarteilnehmer ........................................32
Allgemeine Fragen ...................................................................................................................... 32
Weitere Beiträge.......................................................................................................................... 36
1.3.
Gruppe C: Zwei Modi – Verschleierung und Produktion von Wissen? (Kapitel 7 &
Epilog) ...............................................................................................................................36
1.3.1. Exzerpt ...............................................................................................................................36
Es könnte auch anders sein: Wissensproduktion nach Modus II (S. 66 - 78) ............................. 36
Wie könnte es anders sein? (S. 79 - 83) ...................................................................................... 38
1.3.2. Annotationen......................................................................................................................38
1.3.3. Diskussion des Grundlagentexts durch die Seminarteilnehmer ........................................38
2.
Kritik des gesunden Menschenverstandes ................................................ 43
2.1.
Gruppe D: Untersuchte Fehlkonzepte in naturwissenschaftlichen Domänen (S. 9 – 34)..43
2
2.1.1. Beispiele für untersuchte Fehlkonzepte .............................................................................44
Umwelt & Biologie ..................................................................................................................... 44
Physik.......................................................................................................................................... 45
Wissenschaftliches Arbeiten ....................................................................................................... 47
2.1.2. Diskussion des Grundlagentexts durch die Seminarteilnehmer ........................................49
Fragen zu Fehlkonzepten und Ihrer Bedeutung in der (pädagogischen) Psychologie................. 49
Weitere Beiträge.......................................................................................................................... 54
2.2.
Gruppe E: Unanschaulichkeiten in der Psychologie (S. 77 - 128) ....................................55
2.2.1. Beispiele für Unanschaulichkeiten innerhalb der Psychologie.........................................56
Genetische Einflüsse in der Psychologie..................................................................................... 56
Fehlkonzepte aus dem Bereich Entwicklungspsychologie.......................................................... 57
Fehlkonzepte bzgl. des Operanten Konditionierens.................................................................... 58
Fehlkonzepte über die Wirkweise von Affekt / Emotion............................................................ 58
Kontraintuitive Befunde aus der Sozialpsychologie ................................................................... 59
Fehlkonzepte zum Intelligenzbegriff........................................................................................... 60
Fehlkonzepte über die Aussagekraft statistischer Methoden ...................................................... 61
Fehlkonzepte aus dem Bereich Wahrnehmung ........................................................................... 61
Historische Fehlkonzepte ............................................................................................................ 61
Analogien und Metaphern bei der Beschreibung von psychologischen Sachverhalten .............. 62
Verbreitung und Veränderbarkeit von Fehlkonzepten und Mythen............................................ 62
Abschließende Bemerkungen...................................................................................................... 63
2.2.2. Diskussion des Grundlagentexts durch die Seminarteilnehmer ........................................65
3.
Glossar .......................................................................................................... 71
4.
Literatur ....................................................................................................... 77
3
1.
Es ist so. Es könnte auch anders sein.
Helga Nowotny (1999). Es ist so. Es könnte auch anders sein. Über das veränderte
Verhältnis von Wissenschaft und Gesellschaft.
Gruppe A: Die
Veränderung des
epistemischen Kerns in
der Wissenschaft
(Kapitel 2 & 3)
Wissenschaft & Öffentlichkeit
Es ist so. Es könnte
auch anders sein.
Glossar
Literatur
Gruppe B: Das Verhältnis
zwischen Wissenschaft &
Öffentlichkeit Krisen und
Entwicklungen (Kapitel 4
bis 6)
Gruppe C: Zwei Modi Verschleierung und
Produktion von Wissen?
(Kapitel 7 & Epilog)
Kritik des gesunden
Menschenverstandes
1.1.
Gruppe A: Die Veränderung des epistemischen Kerns in
der Wissenschaft (Kapitel 2 & 3)
1.1.1.
Exzerpt
Wissenschaftliches Wissen hat weitgreifende, weltveränderliche Möglichkeiten. Dies
hat sich in beeindruckender Deutlichkeit in der Entwicklung der Technowissenschaften in den
letzten Jahrzehnten gezeigt. Die neue Zielsetzung von Wissenschaft ist die Stärkung
internationaler wirtschaftlicher Wettbewerbsfähigkeit durch innovative Leistungen. Begleitet
wird diese Ausrichtung von einem Privatisierungsschub in den Wissenschaften. Dieser
bezieht sich jedoch nicht nur auf die Ressourcenverteilung, sondern umfasst ebenso die
Verbreitung von Wissen und das Einfordern der Öffentlichkeit von Mitspracherecht. Dies ist
begleitet von der Rückkehr von Emotionen in den wissenschaftlich-öffentlichen Diskurs, die
sich besonders drastisch in den „science wars“ zwischen Naturwissenschaftlern und der
„postmodernen Linken“ zeigen, wofür die so genannte Sokal-Affäre ein prominentes Beispiel
ist.
4
Sokal-Affäre. Im Mai 1996 reichte der New Yorker Physikprofessor Alan Sokal einen
Aufsatz mit dem Titel „Transgressing the Boundaries: Toward a Transformative
Hermeneutics of Quantum Gravity“ bei der amerikanischen, für ihre postmoderne
Ausrichtung bekannte kulturwissenschaftlichen (Cultural Studies) Zeitschrift für Social Text
zur Veröffentlichung ein, die ihn unbeanstandet abdruckte. Der Artikel lief auf die
relativistische Behauptung hinaus, dass die physikalische Wirklichkeit ebenso wie die
gesellschaftliche im Grunde eine sprachliche Konstruktion sei. Für diese Thesen wurde nicht
nur das ganze einschlägige Jargon- und Referenz-Arsenal des postmodernen Diskurses
mobilisiert, sondern auch einige völlig unsinnige naturwissenschaftliche Behauptungen.
Zeitgleich enthüllt Sokal in der Zeitschrift Lingua Franca seinen Scherz in dem Artikel: „A
Physicist Experiments with Cultural Studies“, Mai/Juni 1996, S. 62-64.
Die emotionalisierte Debatte zeigt eine tiefe Verunsicherung über die Frage, mit
welchen Argumenten die Unterstützung der Wissenschaft durch die Öffentlichkeit im 21.
Jahrhundert sichergestellt werden kann.
Wissenschaftler müssen den Verlust ihrer Autorität ertragen und es wird notwendig
Lobbyarbeit zu leisten. Der epistemische Kern der Wissenschaften muss neu mit der
Gesellschaft verhandelt werden. Der zentralen Bestandteile des Wissenschaftsbildes sind neu
zu bestimmen. Bisher fand wissenschaftliche Lebensform, experimentelle Arbeits- und
methodische Denkweise ihren Ausdruck im Entstehen der scientific community. Diese ist
geprägt durch die Geschichte der Wissenschaft, die eine Entwicklung nahm, die dem
möglichst objektiven und unparteiischen Wissen am meisten Gewicht zuspricht. Dadurch
wird
Unabhängigkeit
von
subjektivem,
durch
Interessen
verzerrtem
Wissen
der
Alltagswirklichkeit gefordert, es bedingt jedoch gleichzeitig eine moralisch erkaltete
Professionalität und Getrenntheit der Ergebnisse der Wissenschaft.
Es existieren zur Zeit nicht kohärente Bilder von Wissenschaft. Die wachsende
Diskrepanz derselben zeigt sich im Anspruch und der tatsächlichen Umsetzung von
Wissenschaft. Das allgemeine Bild der Wissenschaft, entspricht nicht mehr der empirischen
Wirklichkeit der Forschungspraxis. Der Glaube an das besondere Ethos der Wissenschaft und
ihren epistemischen, unverzichtbaren Kern bildet jedoch die Legitimationsbasis für die
Autonomie der Wissenschaften.
Dennoch, das Bild einer Wissenschaft, die mittels strikter Rationalität und Objektivität
verpflichteter Methodik und abgehoben vom gesellschaftlichen Kontext aus sich heraus Ideen
5
erzeugt, ist heute obsolet. Es bleibt umstritten, wer die Prioritäten in der Forschungspolitik
setzt und welche Mitsprache der Öffentlichkeit eingeräumt wird.
1.1.2.
Annotationen
Die Sokal-Affäre
Nowotny (1999, S. 22) erwähnt die so genannten „Science Wars“, die besonders als
Sokal-Affäre bekannt wurden. Es handelt sich dabei um eine Auseinandersetzung über
Postmoderne
Philosophie,
in
deren
Mittelpunkt
deren
Verhältnis
zur
modernen
Naturwissenschaft steht. Diese Wissenschafts-Affäre nahm folgenden Verlauf:
Im Mai 1996 reichte der New Yorker Physikprofessor Alan Sokal einen Aufsatz mit
dem Titel Transgressing the Boundaries: Toward a Transformative Hermeneutics of
Quantum Gravity (S. 217-252) (deutsch: Die Grenze überschreiten: Auf dem Weg zu einer
transformativen Hermeneutik der Quantengravitation) bei der amerikanischen, für ihre
postmoderne Ausrichtung bekannte kulturwissenschaftlichen (Cultural Studies) Zeitschrift für
Social Text zur Veröffentlichung ein. Diese druckte ihn unbeanstandet mit anderen in einer
Sondernummer ab. Der Artikel lief auf die relativistische Behauptung hinaus, dass die
physikalische Wirklichkeit ebenso wie die gesellschaftliche im Grunde eine sprachliche
Konstruktion sei. Selbst noch die Naturgesetze seien abhängig vom kulturellen Weltbild der
Forscher. Für diese Thesen wurde nicht nur das ganze einschlägige Jargon- und ReferenzArsenal des postmodernen Diskurses mobilisiert, sondern auch einige völlig unsinnige
naturwissenschaftliche Behauptungen, die den Herausgebern von Social Text indes nicht
weiter auffielen. Zeitgleich enthüllt Sokal in der Zeitschrift Lingua Franca seinen Scherz in
dem Artikel: „A Physicist Experiments with Cultural Studies“, Mai/Juni 1996, S. 62-64.
Dieser Vorfall löste im akademischen Milieu und der Presse (der Fall kam immerhin bis
auf die Titelseite der New York Times) einige öffentliche Diskussionen aus, wie dieser
Vorfall
zu
bewerten
sei.
Alan
Sokal
wird
zum
gefragten
Teilnehmer
von
Podiumsdiskussionen in den USA, später auch weltweit. Für Sokal selbst waren die
Ergebnisse seines "Experiments" offenkundig: Der postmoderne Relativismus habe in weiten
Bereichen der Sozial- und Geisteswissenschaften zu einem Verfall der wissenschaftlichen
Standards, aber auch der politischen Argumentationskultur geführt. Dabei ist für ihn das eine
durchaus mit dem anderen verbunden: Er selbst ist nach eigener Aussage "ein Linker und
Feminist aufgrund von Evidenz und Logik, nicht entgegen diesen Prinzipien" - im Gegensatz
6
zu den Postmodernen Denkern, die zwar ebenfalls Linke, aber eben Relativisten seien, für die
es keine "wirklichen" Wahrheiten gebe.
Eine besondere Pikanterie von Sokals Jux lag darin, dass sein Artikel in einer
Sondernummer von Social Text erschien, die den Auseinandersetzungen rund um die
sogenannten „Science Wars“ gewidmet war. Seit dem Anfang der neunziger Jahre bekriegen
sich vor allem in der anglo-amerikanischen Wissenschaftswelt zwei Fraktionen. Auf der einen
Seite haben sich einige Wissenschaftssoziologen, -historiker und -philosophen versammelt.
Die Radikalsten unter ihnen stellten danach die Objektivität der Naturerkenntnis und ihrer von
sozialen Einflüssen scheinbar unberührten Wahrheit in Frage. Anfang der neunziger Jahre
begannen dann die ersten Reaktionen der Gegenseite, den Naturwissenschaftlern, die ihre bis
dahin völlig unhinterfragte Autorität angetastet sahen.
Im Herbst 1997 fand eine Verlagerung der Kriegsschauplätze sowie der beteiligten
Streithähne statt: Alan Sokal holte gemeinsam mit seinem belgischen Physiker-Kollegen Jean
Bricmont zu einer weiteren Attacke aus, mit der es nun vor allem wider die postmoderne
Philosophie gehen sollte. Der Titel des Buches "Impostures intellectuelles" (deutsch etwa
"Intellektuelle Hochstapeleien" bzw. " Eleganter Unsinn") bezog sich allerdings fast nur auf
eines:
die
fragwürdige
Verwendung
naturwissenschaftlicher
Begrifflichkeiten
und
mathematischer Konzepte durch postmoderne Denker wie Jacques Lacan, Julia Kristeva oder
Gilles Deleuze. In neun Kapiteln wird ein französischer Denker nach dem anderen an den
Pranger gestellt; nur wenige kommen ungeschoren davon, denen die beiden Physiker keine
Unredlichkeiten nachweisen können.
Auswirkungen der Trennung von Natur- und Geisteswissenschaft auf die
Psychologie
Nowotny (1999, S. 25) stellt fest: „Zu den wahrscheinlich wichtigsten Voraussetzungen
für den Erfolg des Wissensprojekts gehörte die institutionalisierte Trennung der
wissenschaftlichen Untersuchungsobjekte. Die Bereiche „Natur“ und „Kultur“ oder „Natur“
und „Gesellschaft“ wurden scharf voneinander geschieden, […]“
Die Trennung der Wissenschaften in Natur- und Geisteswissenschaften, in
nomothetischen und ideographischen Ansatz oder in quantitative und qualitative Methodik hat
besonders auf die Psychologie Einfluss genommen. Die Standortbestimmung ist innerhalb der
Psychologie uneindeutig, was auch an der von Universität zu Universität unterschiedlichen
Fakultätszugehörigkeit erkennbar ist. Es findet sich also gerade in der Psychologie ein
7
Nebeneinander von nomothetischen Ansätzen, also der Suche nach allgemeinen Gesetzen,
und ideographischen Ansätzen, die aus der Betrachtung von bedeutenden Einzelfällen ihre
Erkenntnisse gewinnen.
Die scharfe Trennung zwischen Natur- und Geisteswissenschaft sowie die häufig damit
verbundene „Abwertung“ von nicht rein naturwissenschaftlichem Wissen, hat unter anderem
ihren Ursprung in Kants Kategorisierung von Wissenschaften in „Naturlehre“ und
„Naturwissenschaft“ (vgl. dazu Schönpflug, 2000). Naturlehre hat nach Kant beschreibende
und ordnende Funktionen, während Naturwissenschaft zu Gesetzen mit apodiktischer
Gewissheit führen muss. In der Anwendbarkeit der Mathematik liegt die Möglichkeit zur
Trennung zwischen Naturlehre und –wissenschaft: Eine Disziplin ist in dem Maße
Wissenschaft, in dem in ihr Mathematik enthalten ist. Nur wenn Beobachtungen nach a priori
Prinzipien geschehen, entsteht Wissenschaft. Kant und auch Hegel bestimmten als
Gegenstand der Psychologie das subjektive Bewusstsein, was sich nicht durch mathematische
Formeln beschreiben lässt und nicht durch a priori Prinzipien beobachtbar ist. Dadurch wurde
der Psychologie abgesprochen, die Kriterien für Wissenschaftlichkeit zu erfüllen und sie
wurde – als deren minderer Teil – in die Philosophie eingebunden.
Als Reaktion auf die Kriterien des Idealismus für Wissenschaftlichkeit entwickelten
sich Richtungen innerhalb der Experimentellen Psychologie, die versuchten, Mathematik in
der Psychologie anwendbar zu machen, so z.B. die Psychophysik. Daneben aber existierten
natürlich auch weiterhin Ansätze mit geisteswissenschaftlicher Methodik, wie z.B. der
Hermeneutik nach Dilthey. So kommt es, dass die Psychologie bis heute zu den
Wissenschaften mit der breitesten Methodenvielfalt gehört.
Einfluss wissenschaftlicher Ergebnisse
Nowotny (1999, S. 26) stellt im Zusammenhang mit dem Einfluss von Wissenschaft
folgende These auf: „Je objektiver und unparteiischer sich Wissen präsentieren kann, desto
mehr Gewicht kommt ihm zu, um moralische und politische Entscheidungen anzuleiten.“
Objektivität gehört zusammen mit dem Streben nach Wahrheit, der Rationalität und der
wissenschaftlichen Methodik zum bisherigen epistemischen Kern der Wissenschaft und
begründet dadurch mit das Bild von Wissenschaft, wie es sowohl wissenschaftsintern als auch
–extern von Seiten der Gesellschaft gesehen wird. Ein Festhalten an diesem epistemischen
Kern bedeutet nach Nowotny, dass den wissenschaftlichen Ergebnissen ein hohes Maß an
8
Glaubwürdigkeit zugesprochen wird. Dies resultiert darin, dass wissenschaftliche Ergebnisse
und auch die Methodik Einzug in öffentliche Debatten und Entscheidungen halten. Dies ist
beispielsweise bei der Entscheidung darüber der Fall, ob gentechnisch veränderte
Nahrungsmittel nach Deutschland eingeführt bzw. auch hier angebaut werden dürfen. Bei der
Debatte führen sowohl Gegner als auch Befürworter gentechnisch veränderter Nahrungsmittel
wissenschaftliche Untersuchungsergebnisse an, um ihre eigene Position zu unterstützen.
Der Rückgriff auf wissenschaftliche Ergebnisse in öffentlichen Diskussionen führt aber
dazu, dass die Ergebnisse an Glaubwürdigkeit verlieren, da sie selbst zum Gegenstand der
Diskussion werden können. Beispielsweise wird das Argument von Befürwortern
gentechnisch veränderter Nahrungsmittel, dass in bisherigen Freilanduntersuchungen keine
negativen Auswirkungen der Freisetzung festgestellt werden konnten, von Gegnern oft mit
dem Vorwurf von Untersuchungsmängeln (z.B. zu kurzer Untersuchungszeitraum, zu
geringer Untersuchungsradius) beantwortet. Damit wird wissenschaftliches Wissen verbreitet
und mit Alltagswissen vermischt, wodurch wissenschaftliche Ergebnisse immer stärker zur
Disposition gestellt werden. Hinzu kommt außerdem, dass meist nicht nur die
wissenschaftlichen Ergebnisse in öffentlichen Diskussionen Verwendung finden, sondern
auch Wissenschaftler von der Öffentlichkeit zitiert bzw. instrumentalisiert werden und häufig
sogar selbst aktiv an öffentlichen Auseinandersetzungen teilnehmen. Dies wird zwar auf der
einen Seite von der Öffentlichkeit im Zuge einer Verwertbarkeit von Wissenschaft gefordert,
geht
aber
auf
der
anderen
Seite
gleichzeitig
mit
einem
Autoritäts-
und
Glaubwürdigkeitsverlust wissenschaftlicher Ergebnisse, bestimmter Wissenschaftler und
letztlich gar der Wissenschaft selber einher, da epistemischer Kern und besonders Objektivität
nicht mehr aufrechterhalten werden. Der Autoritätsverlust entsteht also durch die Annäherung
von Wissenschaft und Gesellschaft bzw. durch die Einbettung von Wissenschaft in politische
und ökonomische Zusammenhänge.
Ergebnis dieser Entwicklung ist, dass eine autonome Sonderstellung von Wissenschaft
nicht mehr gegeben ist und Wissenschaft damit angreifbar wird. Wissenschaftler sind daher
darauf angewiesen, um Unterstützung für ihre Arbeit zu werben, d.h. als Lobbyisten tätig zu
werden.
Öffentlichkeitsgerechte
Ergebnispräsentationen
und
wissenschaftsexterne
Kooperationen dienen damit nicht mehr nur der inhaltlichen Auseinandersetzung, sondern in
weitaus stärkerem Maß der Wissenschaftswerbung mit dem Ziel, die Verteilung von
Aufmerksamkeit und Ressourcen zugunsten des eigenen Fachs oder Projekts zu beeinflussen.
Dieses Auftreten von Wissenschaftlern als Lobbyisten verstärkt aber gerade wieder den
9
Autoritätsverlust der Wissenschaft, da bisheriger epistemischer Kern und Objektivität
angegriffen werden. Das öffentliche Bild von Wissenschaft, das auf diesem epistemischen
Kern basiert, steht damit auch in Diskrepanz zu den tatsächlichen Forschungspraktiken,
wodurch der Autoritätsverlust der Wissenschaft in einer Art „Abwärtsspirale“ immer weiter
beschleunigt wird. Dies drückt sich auch dadurch aus, dass die Autonomie der Wissenschaft
stark beeinträchtigt ist und Legitimität nur noch punktuell neu erworben werden kann, wenn
etwa
wissenschaftsextern
bestimmte
Forschungsprioritäten
verfolgt
werden
bzw.
öffentlichkeitsnahe Selektionskriterien für wissenschaftliche Fragestellungen Anwendung
finden. Ein Beispiel für eine solche Entwicklung kann in dem seit Vorstellung der PISAStudie plötzlich erwachten Interesse an empirischer Bildungsforschung in mehreren
Disziplinen (z.B. Pädagogik, Psychologie, diverse Fachdidaktiken) gesehen werden, obwohl
empirische Bildungsforschung bis zu diesem Zeitpunkt in Deutschland kaum Beachtung
gefunden hat.
„Epistemischer Kern“ der Wissenschaft
Im dritten Kapitel beschäftigt sich Nowotny (1999, S. 28ff) hauptsächlich mit der Frage,
inwiefern der epistemische Kern der Wissenschaft neu bestimmt werden kann. Was ist mit
diesem Begriff gemeint?
„Epistemisch“ (von „episteme“ (griech.) = Wissen) bedeutet „die Erkenntnis
betreffend“ oder „erkenntnistheoretisch“. Der epistemische Kern der Wissenschaften
beinhaltet also das Selbstverständnis darüber, wie Erkenntnis zustande kommt.
Fleck (1935/1980) geht in seiner Wissenschaftstheorie von der Annahme aus, dass
Wissenschaft kooperativ stattfinden muss. Deshalb besteht die Notwendigkeit, neben
empirischen Ergebnissen auch die Überzeugungen zu berücksichtigen, die Wissenschaftler
verbinden. Fleck verwendet die Begriffe „Denkkollektiv“ für die Gemeinschaft der
Wissenschaftler und „Denkstil“ für die Vorannahmen, auf denen sie ihr Wissen begründen.
Teil des epistemischen Kerns ist also, dass Wissen nie allein, sondern nur aufgrund von
Vorannahmen möglich ist. Diese sind allerdings nicht a priori vorhanden, sondern durch
verschiedene soziale und historische Faktoren geprägt:
(1) Durch „das Gewicht der Erziehung“; Wissen besteht hauptsächlich aus Erlerntem.
(2) Durch „die Last der Tradition“; das Erkennen von neuem ist geprägt durch das Alte.
10
(3) Durch „die Wirkung der Reihenfolge des Erkennens“; bereits formulierte
Erkenntnis, schränkt die Möglichkeit neuer Erkenntnisse ein.
Dadurch gibt es neben den wissenschaftlichen Erkenntnissen immer eine große Menge
an alternativen Wirklichkeiten, die miteinander in Konkurrenz stehen. Jede soziale Gruppe
bildet ihren eigenen Denkstil aufgrund des sozialen Hintergrunds und mit Fokus auf ihre
spezifischen Probleme aus.
Durch das Vorhandensein des Denkstils gibt es keine unvoreingenommene oder
voraussetzungslose
Beobachtung,
stattdessen
aber
zwei
verschieden
Typen
von
Beobachtungen:
(1) das unklare anfängliche Schauen
(2) das entwickelte unmittelbare Gestaltsehen
Letzteres ist nur möglich, wenn man in einem bestimmten Wissensgebiet genügend
Erfahrungen hat. Die Fähigkeit zum unmittelbaren Gestaltsehen ist Bestandteil des Denkstils
und hindert einen daran, Wissen zu bilden, welches widersprüchlich zur bekannten Gestalt ist.
Das unklare Schauen ermöglicht in seiner Unstrukturiertheit hingegen empirische
Entdeckungen. Fleck (1935/1980, S. 122) stellt fest: „Jede empirische Entdeckung kann also
als Denkstilergänzung, Denkstilentwicklung oder Denkstilumwandlung aufgefasst werden.“
Nowotny betont die Notwendigkeit der Wandlung des epistemischen Kerns. Doch wie
kann sich eine solche vollziehen, wenn doch innerhalb eines Denkkollektivs eine Tendenz zur
Verhaftung an alten Erkenntnissen besteht? Fleck weist darauf hin, dass jedes Mitglied eines
solchen Denkkollektivs auch gleichzeitig Mitglied des größeren Kollektivs der alltäglichen
Lebenswelt ist, indem es den gesunden Menschenverstand nutzt. Verschiebungen von
Gedanken zwischen verschiedenen Kollektiven, also der Einbezug des gesunden
Menschenverstands, verursachen Verschiebungen oder Veränderungen innerhalb des
Denkstils. Der Austausch zwischen Wissenschaft und der Gesellschaft ist demnach
wesentliche Bedingung für eine Flexibilisierung des Erkenntnisprozesses.
1.1.3.
Diskussion des Grundlagentexts durch die
Seminarteilnehmer
Allgemeine Fragen
11
Epistemischer Kern in der Vergangenheit?
Nowotny (1999) beschreibt den bisherigen epistemischen Kern von Wissenschaft durch die
Merkmale Suche nach Wahrheit, Objektivität, Rationalität und praktische Umsetzung der
wissenschaftlichen Methode, wenngleich die Autorin einschränkend hinzufügt, dass der
epistemische Kern in einem bestimmten Ausmaß schon immer kontextgebunden und damit
wandelbar war. Nichtsdestotrotz stellt sie heraus, dass dieser epistemische Kern bisher mehr
oder minder Bestand hatte und erst aktuell nicht mehr aufrechterhalten wird bzw. werden
kann. Ist das wirklich so oder handelt es sich dabei eher um eine „nachträgliche Verklärung“
aus heutiger Sicht?
•
Weitere Gültigkeit des epistemischen Kerns
Ich würde die Aussage anzweifeln, dass der epistemische Kern mit den Merkmalen
"Suche nach Wahrheit", "Objektivität", "Rationalität" und "praktische Umsetzung der
wissenschaftlichen Methode" heute nicht mehr aufrechtzuerhalten ist. Ich denke, auch
wenn anwendungsnahe Forschung betrieben wird, so sind doch Objektivität, Rationalität,
der Einsatz wissenschaftlicher Methoden und auch die Suche nach Wahrheit weiterhin
Maximen, die ein seriöser Forscher einzuhalten anstrebt. Wenn mich nun zum Beispiel ein
Unternehmen XY, das eine bestimmte Lernsoftware entwickelt hat, beauftragt, diese
Software zu evaluieren, so würde ich doch versuchen, eine Evaluationsstudie
durchzuführen, die den Kriterien Rationalität, Objektivität etc. entspricht. Fraglich ist
natürlich, was das Unternehmen XY mit meinen Evaluationsergebnissen macht, sollten sie
zeigen, dass ihre Lernsoftware unbrauchbar ist.
Ich denke, was sich tatsächlich geändert hat, sind die Verflechtungen zwischen
Wissenschaft und (in diesem Fall) Wirtschaft, mit dem Effekt, dass Wissenschaftler
tatsächlich Lobbyarbeit betreiben müssen, um Forschungsaufträge aus der Wirtschaft zu
erhalten. Dennoch denke ich, dass ein Unternehmen, das einem Wissenschaftler einen
Forschungsauftrag erteilt, sich weiterhin des epistemischen Kerns der Wissenschaft
bewusst ist bzw. sein muss, d.h. dass der "eingekaufte" Forscher versuchen wird, mit
seinen objektiven, rationalen Methoden nach "Wahrheit" zu suchen. Wäre dies nicht der
Fall, so gäbe es keinen Grund, einen Wissenschaftler mit der Aufgabe zu betrauen, zu
zeigen, dass das eigene Produkt gut ist - in diesem Fall wäre dann wohl eher ein
Werbefachmann angebracht.
•
Epistemischer Kern zu allen Zeiten als Ideal
Selbstverständlich muss der epistemische Kern der Wissenschaft auch in der
Wissenschaftsgeschichte als ein Ideal betrachtet werden, dass zwar handlungsleitend war
aber wohl nie vollständige Gültigkeit erlangte. Vielleicht war es in der Vergangenheit
nichts desto trotz für die Wissenschaft leichter, sich größere Freiräume jenseits der
Öffentlichkeit zu bewahren. Dies könnte zum Beispiel an dem insgesamt niedrigern
Bildungsniveau der breiten Öffentlichkeit liegen, das einer Teilnahme am
wissenschaftlichen Diskurs entgegenstand. Außerdem entsprach es auch dem von der
Öffentlichkeit gestützten Selbstbild der Wissenschaften Wissenschaft ihrer selbst Willen
im geschützten Raum’ (z.B. in Klöstern) zu betreiben.
Grundsätzlich stimme ich zu, aber in Klöstern wurde natürlich nie Wissenschaft betrieben.
12
Dieser "epistemische Kern der Wissenschaft" existiert doch erst seit der Aufklärung und
wurde selbst damals noch in Frage gestellt (siehe auch Annotationen Gruppe C). Mir
scheint es mehr und mehr so, dass dieser Kern als Idealtyp gesehen werden sollte, der
vielleicht im 19. Jahrhundert (Humboldtsche Universitätsidee) verklärt wurde - das ist
dann die wirkliche "nachträgliche Verklärung". In der Zeit davor scheint es eher so zu
sein, dass Öffentlichkeit und Wissenschaft sehr wohl in regem Austausch stand und sich
beide gegenseitig befruchteten. Wieso sich die Wissenschaft aber im Elfenbeinturm
niedergelassen hat, ist mir immernoch nicht ganz klar (werde aber versuchen, das mal in
meinen Geschichtsbüchern zu eruieren...). Dass der epistemische Kern aktuell nicht mehr
aufrechterhalten werden kann, wäre dann eine direkte Folge der Postmoderne-Diskussion,
oder? Oder vielleicht Paul Feyerabends "Anything Goes"-Theorie?
Die These, dass der epistemische Kern der Wissenschaft mit den Merkmalen der Suche
nach Wahrheit, Objektivität und Rationalität sowie der wissenschaftlichen Methode früher
in stärkerem Umfang Bestand hatte als dies heute der Fall ist, beinhaltet eine Verklärung
oder zumindest unvollständige Darstellung der Wissenschaftsgeschichte. Ich stimme der
Einschätzung zu, dass dem epistemischen Kern stets eher die Funktion eines
handlungsleitenden Ideals zukam, ohne die wissenschaftliche Realität vollständig
abzubilden. Wissenschaft war stets eingebunden in den gesellschaftlichen Kontext und
den Autoritäten und Institutionen verpflichtet, die sie finanzierten, und damit nie
ausschließlich auf den skizzierten epistemischen Kern ausgerichtet. So wurde eine
Großzahl der Entwicklungen im Bereich der Physik im letzten Jahrhundert (z.B.
Entwicklung der Computertechnologie) angestoßen und finanziert durch das Militär.
Relativ jung ist allerdings der öffentliche gesellschaftliche Diskurs über die Rolle und
Rechtfertigung von Wissenschaft. Zum einen steht dieser Diskurs im Zusammenhang mit
der steigenden Allgemeinbildung sowie der zunehmenden Distribuierung von Wissen über
Massenmedien wie Fernsehen, Zeitungen und das Internet. Die Informiertheit der
Öffentlichkeit über wissenschaftliche Erkenntnisse und damit auch über die mitunter
negativen Wissenschaftsfolgen bildet die Grundlage für die von Nowotny geschilderte
Skepsis gegenüber Wissenschaft. Zum anderen führt die fortschreitende Liberalisierung
der westlichen Demokratien dazu, dass staatliche Investitionen (und damit auch die
Investition in Wissenschaft) immer stärker vor der Öffentlichkeit gerechtfertigt werden
müssen. Dieser Diskurs kann sich als fruchtbar für das Selbstverständnis der Wissenschaft
erweisen, da er die Chance bietet, das Verhältnis von Wissenschaft und Öffentlichkeit zu
explizieren und somit zur Neuverhandlung des epistemischen Kerns der Wissenschaft
beizutragen.
13
Gemeinsamer epistemischer Kern in der Wissenschaft?
Ist ein epistemischer Kern für alle Wissenschaftsbereiche gemeinsam überhaupt be-schreibbar
oder ist dies heute durch zunehmende Segmentierung nur noch spezifisch mög-lich, also
separat z.B. für anwendungsnahe Forschung, Grundlagenforschung, technisch orientierte
Forschung etc.?
•
Einheitliche Beschreibbarkeit des epistemischen Kerns nur als Ideal
Wenn man, wie in der Annotation dieser Gruppe beschrieben den epistemischen Kern als
"das Selbstverständnis darüber, wie Erkenntnis zustande kommt" bezeichnet, ist meiner
Meinung nach offensichtlich, dass der epistemische Kern nicht einheitlich beschrieben
werden kann. Das Verständnis darüber, wie Erkenntnis zustande kommt variiert nicht nur
zwischen den Disziplinen (verschiedene Forschungsmethodiken, nur teilweise empirisch,
...), sondern selbst innerhalb einer Disziplin werden oft verschiedene Ansätze vertreten
(z.B. quantitative vs qualitative Methoden in der Psychologie). Des Weiteren wandelt sich
dieses Verständnis historisch und passt sich damit immer den neusten Entwicklungen an
(besonders in Bezug auf technologische Neuerungen, z.B. Kernspin-Technologie in der
Medizin, alle Arten der rechnergestützten Datenerhebungen nicht nur in der Psychologie
oder Forschung im AI-Bereich). Allerdings sollte man meiner Meinung nach trotzdem
eine Art gemeinsame Beschreibung versuchen, wenn auch nur als eine Art Ideal, an dem
sich alle ausrichten können.
Verhältnis Wissenschaft und Öffentlichkeit
Kann es generell als positiv oder negativ klassifiziert werden, wenn Fragestellungen aus der
Öffentlichkeit an die Wissenschaft herangetragen werden bzw. wenn die Öffentlichkeit die
Forschungsprioritäten festlegt? Wenn nicht: Wie könnten sinnvolle Rahmenbedingun-gen für
den Einfluss von Öffentlichkeit auf Wissenschaft aussehen?
•
Unterscheidung zwischen Grundlagenforschung und Anwendungsforschung
Eine grundsätzliche Bewertung, ob wissenschaftliche Fragestellungen von der
Öffentlichkeit angeregt werden dürfen oder nicht, erscheint mir nicht sinnvoll. Zum einen
ist es natürlich richtig, dass Öffentlichkeit oftmals von wissenschaftsfernen Interessen
geleitet ist (z.B. ökonomischen Interessen), zum andern kann eine Fragestellung aber auch
nicht per se zur unwissenschaftlichen degradiert werden, nur weil sie von öffentlichem
Belang ist. Im Grunde spiegelen sich diese Überlegungen ja auch in der Unterscheidung
zwischen grundlagen- und anwedungsorientierter Forschung wider. Einerseits bedarf es –
und dem wird im Rahmen der Grundlagenforschung ja auch Rechnung getragenwissenschaftliche Freiräume in den vorrangig nach wissenschaftlichen Prinzipien
vorgegangen wird. Gleichwohl ist es aber auch hier erforderlich, Rahmenbedingungen
abzustecken, die öffentliche Legitimation finden. Diese Spannungsgefüge ist z.B. durch
die wissenschaftliche Selbstverwaltung (z.B DFG) und regierungsstaatliche
Forschungsförderung (Bundes- und Landesministerien) institutionalisiert. Anderseits
muss es aber auch als legitimes Interesse der Öffentlichkeit respektiert werden, dass
Lösungen für aktuelle Problemfelder in Gesellschaft und Wirtschaft von der Wissenschaft
gesucht werden, wie es ja auch in der Anwendungsforschung zu finden ist.
14
•
Bewertung im Einzelfall – Unterscheidung zwischen implizitem und explizitem
Dialog
Um diese Beurteilung vorzunehmen zu können, sollte man beim historischen Verhältnis
von Wissenschaft und Öffentlichkeit beginnen, das auf der künstlichen Trennung von
Natur und Kultur bzw. von Natur und Gesellschaft beruhte. Diese strikte Trennung wurde
jedoch aufgehoben und ein Hoffnungsstrang richtete sich auf die utilitaristischeinstrumentelle Verwendung von Wissenschaften (vgl. Kapitel 5), so dass heute auch die
reinste Grundlagenforschung unter einer gewissen Anwendungsperspektive stattfindet.
Mögliche Anwendungen richten sich dabei an eine Öffentlichkeit, da sie von dieser
angewendet werden sollen (Anwendungsideen --> Öffentlichkeit), gleichzeitig kommen
die Ideen für diese Anwendung aus dem In-Beziehung-Setzen oder dem Dialog mit der
Öffentlichkeit (Öffentlichkeit --> Anwendungsideen). Dabei ist zu unterscheiden, ob
dieses In-Beziehung-Setzen oder dieser Dialog implizit oder explizit stattfindet:
1) Eine implizite und allgemeine Erwartung der Öffentlichkeit an die Naturwissenschaft
ist z.B. Therapieformen gegen Krebs zu finden. Beschäftigen sich nun also Biologen mit
einer bestimmten Algensorte und züchten Chemiker eine neue Art von Molekülen, so wird
Grundlagenforschung unter Anwendungsperspektive betrieben und man greift quasi
implizit eine Fragestellung aus der Öffentlichkeit auf. Forschung dieser Art ist meiner
Ansicht als positiv zu klassifizieren, da man weder Elfenbeinturmforschung betreibt, noch
zum
Spielball
gewisser
Interessengruppen
wird
und
das
Ergebnis
gesamtgesellschaftlichen Nutzen hat.
2) Eine andere Variante ist, dass bestimmte Gruppen einer Öffentlichkeit explizit
Fragestellungen an die Wissenschaft herantragen. Ein Beispiel könnte sein, dass mehrere
Automobilkonzerne eine TU sponsern, jedoch verknüpft mit der Erwartung, dass über
Katalysatoren geforscht wird und verbunden mit dem Anspruch nach Exklusivität
hinsichtlich der Ergebnisverwertung. In diesem Fall ist der Einfluss einer
Öffentlichkeitsgruppierung als negativ anzusehen, da es sich um Einflussnahme und
Auftragswissenschaft handelt. Wissenschaft verliert ihre Neutralität und wird
gegebenenfalls einer Wirtschaftlichkeit untergeordnet, indem für den Auftraggeber
ungünstige Ergebnisse zurückgehalten werden.
==> Ein Herantragen von Fragestellungen aus der Öffentlichkeit an die Wissenschaft
kann somit nicht generell als positiv oder negativ bewertet werden, sondern muss im
Einzelfall geprüft werden. Deshalb sollte meiner Meinung nach die Öffentlichkeit zwar in
Dialog mit den Wissenschaften treten, aber nicht alleine Forschungsprioritäten festlegen,
da die Gefahr besteht Forschung und Wissenschaft dabei hauptsächlich unter einer
Kosten-Nutzen-Perspektive zu betrachten. Natur- und Technowissenschaften hätten es
dabei leichter einen Verwertungszusammenhang aufzuzeigen, während reine
Geisteswissenschaften (z.B. Philosophie, Altlatein etc.) nicht nach diesen Kriterien
beurteilt werden können.
Um sinnvolle Rahmenbedingungen zu finden, müsste man den Gesellschaftsvertrag neu
aushandeln (vgl. Kapitel 6). Da der Einfluss prinzipiell in beide Richtungen gehen kann
(Öffentlichkeit --> Wissenschaft, Wissenschaft --> Öffentlichkeit), handelt es sich um
eine Grauzone, für die es schwer ist, generelle Regeln zu finden. Eine Lösungsmöglichkeit
könnte daher sein, einen offenen Dialog zu führen, in dem gegenseitige Erwartungen und
Befürchtungen dargelegt werden und bei Problemen und verhärteten Positionen
gegebenenfalls eine dritte, unabhängige Vermittlungsinstanz einzuschalten.
15
Fragen Psychologie
Verhältnis wissenschaftliches Wissen und Laienwissen in der Psychologie?
Nowotny stellt zwei gegensätzliche Annahmen zum Zusammenhang von wissenschaftli-chem
Wissen und Laienwissen vor: (1) Objektives Wissen existiert unabhängig vom Lai-enwissen
und (2) es besteht keine Trennung mehr zwischen objektivem Wissen und Lai-enwissen.
Kennzeichnend für die Psychologie als Wissenschaft ist, dass sie sich nicht so scharf von dem
Allgemeinwissen absetzen kann wie andere Disziplinen, z.B. Physik. Zentrale Forschungsgebiete der Psychologie sind auch immer Bereiche, die Teil der Erfahrung von Laien
sind. Dadurch fühlen sich auch Laien häufig in der Lage, sich selbst als Experten für
psychologische Fragestellungen zu fühlen. Jedoch unterscheidet sich die wissenschaftliche
Psychologie durch eine sorgfältige Analyse und die dabei verwendete Methodik von der
Alltagspsychologie. In welcher Beziehung stehen im Bereich der Psychologie wissenschaftliches Wissen und Laienwissen zueinander?
•
Problematisches Verhältnis von wissenschaftlichem Wissen und Laienwissen
Die Beziehung zwischen wissenschaftlichem Wissen und Laienwissen ist generell als
problematisch einzustufen. Während der Laie in den Naturwissenschaften jedoch in der
Lage ist, sein Wissen kritisch zu bewerten und Aussagen eines Experten wie „die Erde ist
keine Kugel, sondern ein Rotationsellipsoid“ akzeptiert, ist dies bei psychologischen
Themen häufig nicht der Fall und es ist für einen Psychologen schwieriger zu
verdeutlichen, dass es sich bei einer zweitägigen gedrückten Stimmung nicht um eine
Depression handelt. Zugleich ist man sich in den Naturwissenschaften seiner
Wissenslücken bewusster, da es häufig eindeutige Lösungen gibt (z.B. Moleküle haben
bestimmte Strukturformeln, eine mathematische Gleichung eine bestimmte Ableitung
etc.). In den Geisteswissenschaften allgemein und in der Psychologie speziell gibt es
innerhalb einer Bandbreite verschiedene Lösungsvarianten, die je nach
Argumentationsstrang alle Gültigkeit haben können. Dadurch fühlt sich auch der Laie
bemüßigt, aktiv an Diskussionen teilzunehmen, was prinzipiell im Sinne eines Dialogs
zwischen Öffentlichkeit und Wissenschaft zu begrüßen ist. Häufig wird jedoch von beiden
Seiten vergessen, dass es sich um eine Experten-Laien-Kommunikationssituation handelt
und nicht selten kommt es zu Begriffsdiffusionen und Missverständnissen, da man zwar
die gleichen Begriffe verwendet aber qualitativ und quantitativ unterschiedlich
strukturiertes Wissen hat. Um dieses Dilemma zu lösen bedarf es somit sowohl einer
Öffentlichkeits- und Aufklärungsarbeit durch die Experten (hier: Psychologen) als auch
der Schärfung des Bewusstseins auf beiden Seiten für die tatsächlich vorhandenen
(Wissens-) Unterschiede und damit auch der Akzeptanz der Psychologie als Wissenschaft.
Die Beziehung zwischen dem Laienwissen und wissenschaftlichen Erkenntnissen in der
Psychologie ist meiner Meinung nach eher problematisch einzuschätzen. Diese
Problematik erwächst aus dem Umstand, dass sich die Psychologie häufig mit
Alltagsphänomenen beschäftigt. Da diese Alltagsphänomene von jedermann beobachtbar
sind, werden psychologisch-wissenschaftliche Erkenntnisse häufig nicht als solche
16
wahrgenommen. Ein Zeichen für dieses Phänomen sind die Reaktionen von NichtPsychologen auf neue psychologische, methodisch-fundierte Erkenntnisse („Na, das hätte
ich dir auch vorher sagen können). Im Gegensatz dazu werden neue Erkenntnisse in
anderen wissenschaftlichen Disziplinen häufig von der Öffentlichkeit im Sinne eines
anerkennenden Interesses rezipiert („Das ist ja interessant“ oder „Ach, das wusste ich
noch gar nicht“).
Diese Einstellung von Nicht-Psychologen gegenüber der psychologische Forschung
drückt aus, dass der wissenschaftliche Erkenntnisgewinn, der diesen neuen Erkenntnisse
innewohnt, von der Öffentlichkeit nicht wertgeschätzt wird, da nicht gesehen wird, dass es
einen Unterschied gibt zwischen einer eigenen Hypothese, die durch Alltagserfahrungen
bestätigt wird und eine Hypothese, die durch die Anwendung wissenschaftlicher
Methoden Bestätigung findet. Wenn aber die Öffentlichkeit nicht den Erkenntniszuwachs
wahrnimmt, der durch die Forschung geschaffen wird, dann läuft die psychologische
Forschung Gefahr, neben anderen Disziplinen als unwichtig eingestuft zu werden.
Ich stimme der Aussage zu, dass es gerade in der Psychologie eine thematische
Überlappung zwischen den wissenschaftlichen Forschungsfeldern und den menschlichen
Erfahrungsbereichen gibt. Aufgrund dessen trifft man bei der Diskussion mit Laien sehr
oft auf die Aussage, dass sie selbst ja auch Psychologen, wenn auch Hobby-Psychologen
seien und daher ohne Zweifel auch auf Expertenebene mitdiskutieren könnten. Die
Psychologie ist also mit dem Problem konfrontiert, dass sich Laien selbst als
psychologische Experten sehen. Es ist daher sehr schwierig, Laien vom Gegenteil zu
überzeugen und ihnen die Unterschiede zwischen Laien- und Expertenwissen zu
verdeutlichen. Erschwerend kommt hinzu, dass unter den Laien psychologische
Fehlkonzepte weit verbreitet sind. So wird beispielsweise Schizophrenie in der
Allgemeinbevölkerung meist mit multipler Persönlichkeitsstörung verwechselt oder auch
Depression wird gleichgesetzt mit einer lediglich traurigen Stimmung.
Die Psychologie muss daher nicht nur wissenschaftlich arbeiten, sondern dies auch den
Laien verständlich kommunizieren. Daher ist gerade für den Fachbereich Psychologie die
Schnittstelle zwischen Öffentlichkeit und Wissenschaft von großer Bedeutung.
1.2.
Gruppe B: Das Verhältnis zwischen Wissenschaft &
Öffentlichkeit – Krisen und Entwicklungen (Kapitel 4 bis 6)
1.2.1.
Exzerpt und Annotationen
Wie ist es? Unsaubere Schnittstellen (Kapitel 4)
Zustand der Wissenschaft in den 30er Jahren
In den 30er Jahren befand sich Europa in einer Krise. Diese Krise erstreckte sich nicht
nur auf den politischen und den ökonomischen Bereich, sondern ebenfalls auf den gesamten
wissenschaftlichen Bereich.
Auslöser für die wissenschaftliche Krise waren neue Erkenntnisse im Bereich der
Physik, die dazu führten, dass das alte physikalische Weltbild ins Wanken geriet und einem
17
neuen weichen musste. Folgenreich war insbesondere die Erkenntnis, dass eine eindeutige
Trennung zwischen einem Objekt und dessen Repräsentation nicht möglich ist.
Annotation: In den 20er und 30er Jahren des letzten Jahrhunderts wurde die Physik durch
die Themen Quantenmechanik und Atomphysik beherrscht, die sich wechselseitig
beeinflussten. Bahn brechend waren die neuen Erkenntnisse über den inneren Aufbau des
Atoms. Zum Phänomen, dass, wie von Nowotny angesprochen, die Trennung zwischen Objekt
und Repräsentation verwischt: In der Quantenmechanik ist es möglich, dass sich ein
Teilchen in einem so genannten Überlagerungszustand (superposition) befindet. Betrachten
wir z.B. den Ort, so kann es sein, dass sich das Teilchen an keinem bestimmten Ort befindet.
Das liegt nicht an unserer Unkenntnis des Systems, sondern daran, dass sich das Teilchen
„gleichzeitig“ an mehreren Orten aufhält. Im mikroskopischen Bereich von Atomen ist es
also möglich, dass sich ein Atom in einem “Zwischenstadium“ von zwei Zuständen befindet,
die sich eigentlich gegenseitig ausschließen. So können Atome mehrere verschiedene
Anregungszustände quasi gleichzeitig besetzen, ja sie können sich sogar an zwei Orten
gleichzeitig aufhalten, so lange niemand genau hinschaut! Messen wir nun allerdings den
Ort eines Teilchens, so stellen wir fest, dass es sich dann nur an einem einzigen Ort aufhält.
Wie kann das sein? Wie kann ein Teilchen, das sich erst in einem Überlagerungszustand
befand, nach der Messung einen konkreten Ortszustand einnehmen? Ende der 20er Jahre
entstand um den dänischen Wissenschaftler Niels Bohr die bis heute verbreitete
Kopenhagener Deutung. Danach führt die Messung durch einen „bewussten“ Beobachter
dazu, dass das Teilchen, das sich zuvor in einem Überlagerungszustand befand, abrupt in
einen
der
möglichen
Zustände
springt. Es
gibt
also für
das
Elektron
viele
Zustandsmöglichkeiten und erst durch unsere Beobachtung muss es sich entscheiden, d.h. die
Repräsentation eines Objektes stellt sich anders dar als das Objekt selbst.
•
www.hpwt.de/Quanten2.htm
•
www.iap.uni-bonn.de/pdmfeb/pdmatomtxt.html
•
http://www.colorado.edu/physics/2000/quantumzone/schroedinger.html
Die Reaktion innerhalb der Bevölkerung auf eine die Grundlagen des Weltbildes
berührende Erkenntnis war der Verlust des Glaubens in die Sicherheit, die die
Naturwissenschaften bisher mit sich gebracht hatten. Dieser Vertrauensverlust betraf jedoch
nicht nur die Physik, sondern auch andere wissenschaftliche Bereiche.
18
Zustand der Wissenschaft heute
Wie sieht es heute mit dem Verlust an Sicherheit und Anschaulichkeit aus? Eine
generelle Krise der Wissenschaft besteht laut Nowotny nicht. Sie unterscheidet jedoch
zwischen a) einer Krise innerhalb der Wissenschaft und b) einer Krise der Wissenschaft nach
außen zur Öffentlichkeit.
a)
Krise innerhalb der Wissenschaft:
Es wird davon ausgegangen, dass innerhalb der Wissenschaft keine Krise,
sondern vielmehr eine Art Hochstimmung besteht, aufgrund der vielen in naher
Zukunft zu erwartenden wissenschaftlichen Durchbrüche.
b)
Krise der Wissenschaft nach außen
Es handelt sich um eine Krise des Wissens. Sie ist dadurch gekennzeichnet,
dass die Öffentlichkeit der Wissenschaft viel Pessimismus entgegenbringt. Das
ist
erstaunlich,
weil
das
Bildungsniveau
der
Bevölkerung
in
den
Industriestaaten heute wesentlich höher ist als je zuvor und man deshalb
erwarten würde, dass die Bevölkerung wohlwollender auf wissenschaftlichen
Erkenntniszuwachs reagiert. Leider nimmt jedoch momentan das Vertrauen der
Bevölkerung in die Wissenschaft eher ab als zu. Es wird vermutet, dass der
gestiegene Wissenstand in der Bevölkerung dazu führt, dass immer mehr
Risiken und Gefahren in der Umwelt wahrgenommen werden, von denen man
allerdings nicht mehr wie früher glaubt, dass sie beherrscht werden können.
Diese Krise des Wissens untergräbt somit die kognitive Rationalität, für die die
Wissenschaft früher unangefochten stand.
Delegation der Vermittlung von Wissenschaft in die Öffentlichkeit an spezielle
Popularisatoren – die dritte Kultur
John Brockman, ein New Yorker Literaturagent, geht davon aus, dass die Quelle des
gesellschaftlichen Pessimismus zurzeit von den humanwissenschaftlichen Intellektuellen
ausgeht. Seine Hoffnung besteht jedoch darin, dass eine so genannte „dritte Kultur“ entsteht,
in der empirisch-arbeitende Menschen diese traditionellen Intellektuellen ablösen sollen.
Diese Empiristen würden in Brockmans Vorstellung die Aufgabe übernehmen, die
wissenschaftliche Welt der Öffentlichkeit zu erklären und Sinnstiftung zu betreiben. Die
Erklärung soll beispielsweise mit Hilfe von Fernsehprogrammen oder gut geschriebenen,
allgemeinverständlichen Büchern geschehen.
19
Annotation: Brockman war ein New Yorker Literaturagent, der vor ca. 10 Jahren die
„fröhliche Wissenschaft“ für alle, die sog. Popscience, forderte. Sie sollte jenseits von
naturwissenschaftlichem Fachchinesisch und den intellektuellen Stammesdünkeln sein. In ihr
sollte angesichts von Gentechnik und Computerwissenschaften, Minirobotern und
Künstlicher Intelligenz nach neuen Antworten auf die großen, alten Fragen gesucht werden.
Brockmann hoffte, dass die dritte Kultur von Menschen geprägt würde, „die durch
empirische Arbeiten in den Naturwissenschaften, aber auch in anderen Gebieten – wie
Feminismus, Architektur etc. – das Denken darüber verändern, wer und was wir sind.“ Von
den klassischen Intellektuellen hingegen erwartete er sich keine Hilfe. Bei der Beantwortung
dieser alten Fragen sind nach Brockmann die Nutzung naturwissenschaftlicher Methoden
ebenso erlaubt wie beherzte Spekulationen.
Seine Kritik, aus der der Wunsch nach der dritten Kultur erwuchs, gilt den amerikanischen
Verhältnissen. Dort gibt es trotz einer „New York Times“ keine breiten publizistischen Foren
für die populäre Vermittlung naturwissenschaftlicher Entwicklungen. Brockmanns dritte
Kultur will diese Lücke schließen. Die dritte Kultur hat inzwischen auch Deutschland
erreicht. Die FAZ forciert in ihrem Feuilleton-Teil seit einem Jahr die Naturwissenschaft als
Thema. Die treibende Kraft dahinter ist Frank Schirrmacher, der das FAZ-Feuilleton auf
Wissenschaftskurs gebracht hat, weil er nicht will, dass die europäische Intelligenz die
atemberaubenden Umwälzungen in der Bio-, Nano- und Computertechnologie verschläft.
Andere Zeitungen kritisieren das Vorgehen zwar, ziehen aber nach. :
•
www.3sat.de/kulturzeit/themen/15519/
•
www.science-journalism.ch/html/bulletin+77.html
Eine gute Erklärung der Wissenschaft in der Öffentlichkeit ist Brockman deshalb so
wichtig, weil er glaubt, dass allein die Wissenschaft dazu in der Lage ist, wirklich Neues zu
schaffen. Selbst Technologien seien nichts Neues, wenn man die dazugehörige Wissenschaft
kenne, denn schließlich basiere die Technologie auf Erkenntnissen, die zuvor durch die
Wissenschaft entdeckt wurden. Somit stellen die Technologien nur spezielle Ausprägungen
bzw. Weiterentwicklungen der grundlegenden wissenschaftlichen Erkenntnisse dar.
Unabhängig davon, wer die Vertreter dieser dritten Kultur sind und wo sie wirken (in
Europa oder in den USA) zeigt die Idee deutlich, dass der Wunsch besteht, die Sinnstiftung
20
von Wissenschaft in der Öffentlichkeit an eine neue Gruppe wissenschaftlicher
Popularisatoren zu delegieren.
Darstellung der Krise früher – heute: Suche nach wissenschaftlichen Weltbildern
vs. Suche nach übergreifend relevanten Kategorien
Früher lag das Problem der Wissenschaft darin, dass die vermeintlich sicheren,
wissenschaftlichen Grundlagen erschüttert wurden. Das ist heute nicht mehr das Problem.
Inzwischen haben wir die Idee verinnerlicht, dass „die Welt nicht statisch oder ewig“ ist,
sondern sich ständig verändert. Heute beschäftigt man sich weniger mit wissenschaftlichen
Weltbildern und Erklärungsmodellen. Man sucht vielmehr nach übergreifenden Kategorien,
die auf ganz unterschiedliche Bereiche wie Gesellschaft, Natur und Kunst bezogen werden
können. Als Beispiel für die Kategorien werden Ordnung, Kontrolle und Vorhersehbarkeit
genannt.
Verlust des Glaubens an die Vorhersehbarkeit und Kontrolle der Wissenschaft
und Gesellschaft
Nowotny diskutiert den lange Zeit vorherrschenden Glauben an die Vorhersehbarkeit
und Kontrolle von Naturwissenschaft und Gesellschaft, der so stark war, dass erste Zeichen
der Schwäche ignoriert wurden. Erst die folgenden Krisen führten dazu, dass dieser Glaube
bröckelte:
•
Die Ölkrise: Sie machte die Verwundbarkeit einer hoch spezialisierten, technisierten
Zivilisation deutlich. Die Erschöpfbarkeit natürlicher Ressourcen wurde bewusst.
•
Die Atomenergie/Tschernobyl: Zeigte die Wirkungslosigkeit nationaler Grenzen auf.
Folge war die Forderung der Bevölkerung auf Mitspracherecht bei Entscheidungen über
wissenschaftlich-technische Entwicklungen.
•
Die Chaostheorie: Sie wurde als Bestätigung für die tief sitzenden Vorbehalte gegenüber
der wissenschaftlichen Vorhersagekraft genommen. Folge war, dass die bis dahin
vermeintlich robuste Verbindung zwischen Determinismus und Vorhersagefähigkeit
gelöst werden musste.
21
Annotation: Die Chaostheorie beschäftigt sich damit, in scheinbar völlig unregelmäßigen
Mustern doch etwas Gesetzmäßiges zu entdecken.
Die Theorie untersucht Systeme, die, obwohl sie einfachsten Gesetzen folgen (beim
Planetensystem das Gesetz der Schwerkraft oder im Beispiel des Poolbillards die
Stoßgesetze), ungeheuer sensibel auf winzig geänderte Anfangsbedingungen reagieren.
Kleinste Schwankungen können große Wirkungen nach sich ziehen. Im Einzelnen sind bei
solchen Systemen künftige Systemzustände nicht mehr vorhersagbar. Vorhersagbar ist wohl
aber die Tatsache, dass sich das System chaotisch verhalten wird. Solche Systeme
unterliegen dem "deterministischen" Chaos. Deterministisch bedeutet, dass hinter dem
scheinbaren Chaos nach wie vor die Ordnungen der Physik bestehen - wenn auch im
Verborgenen. Wegen dieser zugrunde liegenden Ordnung sind zukünftige Phänomene rein
theoretisch berechenbar. Aufgrund der Abhängigkeit von winzigen Faktoren, ist die
tatsächliche Berechnung des Zustandes des Systems unmöglich. Das deterministische Chaos
zeigt somit die Grenzen der Vorhersagbarkeit auf.
•
http://www.quarks.de/dyn/3871.phtml
•
http://www.ers1.de/physik/chaos.ppt
Hinzu kam, dass der Staat sein Monopol in verschiedenen Bereich verlor: Die
Globalisierung der Wirtschaft führte zu einer Dezentralisierung. Konsumenten wurden zu
aktiven Entscheidungsträger aufgewertet.
Auch die Wissensproduktion blieb nicht das Monopol einer kleinen Anzahl hoch
industrialisierter Länder, sondern andere Länder beteiligten sich ebenfalls.
Uneinheitlichkeit der Wissenschaften
Heute besteht die Krise der Wissenschaft nicht mehr darin, dass wissenschaftliche
Grundlagen oder gesamte Weltbilder angezweifelt werden (Vgl. → Darstellung der Krise
früher – heute). Die Gesellschaft ist weder Willens, noch in der Lage dazu, ein
wissenschaftliches Weltbild als Ganzes zu übernehmen. Die Krise der Wissenschaft bezieht
sich vielmehr auf ihre vermeintlichen Ränder oder anders gesagt, auf ihre unsauberen
Schnittstellen zwischen Wissenschaft und Öffentlichkeit.
22
Inzwischen ist sich die Gesellschaft der „Uneinheitlichkeit der Wissenschaften“ bewusst
geworden, welche daraus resultiert, dass Wissenschaft in vielfältigen historischen und
politischen Kontexten betrieben und diskutiert wird. Dass heute die „lokale Entstehung“ und
„kulturelle,
politische
und
ökonomische
Einbettung“
des
Wissens
von
der
sozialwissenschaftlichen Wissenschaftsforschung betont wird, entspringt primär der
Überzeugung, dass Pluralität einen demokratischen Wert darstellt und liegt nicht daran, dass
nicht mehr versucht würde, der Wissenschaft den Mantel der Einheitlichkeit überzustreifen.
Man muss sich auch darüber im Klaren sein, dass jeglicher Aspekt der
Wissensproduktion und –kommunikation zusätzlich von sozialen Mechanismen abhängt: von
der Sprache über visuelle Techniken der Repräsentation bis hin zu Mechanismen der sozialen
Zuschreibung, derer es bedarf, um eine Entdeckung überhaupt erst zu einer solchen zu
machen.
Das Zitat „Es ist so- doch es könnte auch anders sein“ spielt auf diese
Kontextabhängigkeit und damit auch auf die Relativität des Wissens an. Durch dieses
Bewusstsein wird der Blick geschärft für eben die Fragen, die nicht gestellt werden und die
Methoden, die nicht verwendet werden.
Wandel der ideologischen Anforderungen an die Wissenschaft
Auch die ideologischen Anforderungen an die Wissenschaft haben sich geändert. Früher
sollte die Wissenschaft politisch möglichst neutral sein. Das führte dazu, dass sie zum
Streitobjekt politischer und gesellschaftlich unterschiedlicher Interessen wurde.
Heute will die Öffentlichkeit sicherstellen, dass neben den Interessen von Wissenschaft
und Forschung, auch die Interessen und Befürchtungen der Bevölkerung nicht zu kurz
kommen.
Trotzdem
soll
die
Diskussion
wissenschaftlicher
Themen
möglichst
wissenschaftlich sein. An diesem Phänomen zeigt sich, dass Wissenschaft heutzutage vor
allem benutzt und bestritten wird.
Die Autorität der Wissenschaft hat abgenommen
An den Schnittstellen zwischen Wissenschaft und Öffentlichkeit hat sich eine eigene
Dynamik etabliert, die durch Widersprüche angetrieben wird. Das Problem sind die sich
laufend potenzierenden Möglichkeiten des Eingreifens, Umgestaltens und Manipulierens, die
sich aus den neuen wissenschaftlichen Erkenntnissen ergeben. Dieser Zustand macht Ängste
und Risiken bewusst, welche außerdem öffentlich diskutiert werden. Die Autorität der
23
Wissenschaft ist jedoch inzwischen nicht mehr dazu in der Lage, eine einzige Interpretation
von Wirklichkeit zu definieren und somit den Ängsten entgegenzuwirken. Was ihre
Definitionsmacht reduziert, sind nicht die weiter oben beschriebenen möglichen Gefahren und
Risiken, die mit neuen Erkenntnissen in den Technowissenschaften einhergehen. Es ist die
Einbettung der Produktion von wissenschaftlichem Wissen und ihre Anwendung in vielen
unterschiedlichen Kontexten, die dazu führt, dass die Wissenschaft begonnen hat, sich
anderen
gesellschaftlichen
Institutionen
anzugleichen.
Diese
Angleichung
hatte
logischerweise zur Folge, dass der privilegierte Status der Wissenschaft verloren ging.
Es hätte anders kommen können (Kapitel 5)
Erzeugt die Anwendung der wissenschaftlichen Methode am Ende des 20. Jahrhunderts
bei Entscheidungen, im Rahmen derer wissenschaftliches Wissen in Form einer Expertise in
den gesellschaftlichen und politischen Kontext eingebettet werden muss, statt Konsens eher
Dissens?
Innerhalb der Wissenschaften funktioniert der Mechanismus der Konsensfindung zwar
noch und darf nicht unterschätzt werden. Er weist jedoch Defizite auf, die auf die Spaltung
zwischen der natürlichen und sozialen Ordnung (d.h. Natur und Gesellschaft) zurückgehen
und auch mit dem Wandel des Wissenschaftsbildes zusammenhängen.
Annotation: Vergleiche an dieser Stelle Kapitel 4 „Zustand der Wissenschaften“: Innerhalb
der Wissenschaften gibt es dabei keine Krise und der Mechanismus der Konsensfindung
funktioniert deshalb auch. Die hier erwähnten Defizite in der Konsensfindung hängen mit der
Krise der Wissenschaft nach außen und dem Wandel der ideologischen Anforderungen an
die Wissenschaft zusammen. Die künstliche Trennung von Natur und Gesellschaft und die
postulierte Wertefreiheit haben sich als illusionär herausgestellt und der wissenschaftliche
Mechanismus der Konsensfindung kann somit im Schnittpunkt von Natur und Gesellschaft
nicht funktionieren. Die Defizite gründen auf falschen Prämissen. Es kann daher nicht mehr
um
die
Durchsetzung
von
wissenschaftlicher
Rationalität
gehen,
sondern
um
Interessenausgleich (siehe Kapitel 5 im Folgenden).
Muss man daher die Prämisse der Trennbarkeit von Natur und Gesellschaft nicht neu
überdenken, da bei Entscheidungsmechanismen wissenschaftliches Wissen und Expertise zu
sehr verknüpft sind?
24
Zwei Erwartungen wurden immer wieder an die Wissenschaft herangetragen und
betreffen die Fähigkeit der Wissenschaften, auch in der sozialen Ordnung Einigkeit
herzustellen, indem man sich auf die natürliche Ordnung beruft.
1. Hoffnungsstrang: Utilitaristische-instrumentelle Verwendung von Wissenschaften,
d.h. sie sollten vor allem nützliche Verwendung haben.
Diese Erwartung wurde (vorerst1) erfolgreich erfüllt, da sich die modernen
Naturwissenschaften gegenüber einer nützlichen Verwendung sehr offen zeigten und die
Technowissenschaft zum entscheidenden Einflussfaktor bezüglich technischer Innovation und
Wettbewerbsfähigkeit wurde.
2. Hoffnungsstrang: Verallgemeinerte Nutzung der wissenschaftlichen Rationalität,
d.h. der innerhalb der scientific community entwickelte Mechanismus Konsens zu erzielen,
sollte auch außerhalb zu nutzen sein und übte in Ermangelung einer allgemein anerkannten
Autorität (z.B. in Kirche oder Staat) besondere Faszination aus.
Die wissenschaftliche Rationalität wurde dabei als eine Art universelle, sich selbst
ausbreitende Wirkungskraft gesehen, die den Fortschrittsglauben (in wissenschaftlichtechnischer, gesellschaftlicher und menschlicher Hinsicht) maßgeblich beeinflusste und somit
als ein Prozessmotor des Modernisierungsprozesses wirkte bis der Glaube an den Fortschritt
in der zweiten Hälfte des 20. Jahrhunderts stark erschüttert wurde.
Wodurch wurde die Fortschrittsidee erschüttert?
Der Offenheit gegenüber einer nützlichen Verwendung von Wissenschaft stand ein
Beharren auf Wertefreiheit der Wissenschaft gegenüber und damit die Weigerung der
Wissenschaft
eine Führungsposition in der Gesellschaft zu übernehmen, obwohl die
wissenschaftlich-technische Entwicklung eng mit der Gesellschaft verknüpft war und
grundlegende und irreversible Auswirkungen auf sie hatte.
1
Gegen Ende des Kapitels wird diese Aussage wieder eingeschränkt, indem darauf hingewiesen wird, dass
heutzutage technischer Fortschritt nicht nur hinsichtlich seiner nützlichen Verwendung beurteilt wird, sondern
auch bezüglich seiner „potentiellen Risiken und Nebenwirkungen“.
25
Annotation: Als Beispiel für die Auswirkungen der wissenschaftlich-technischen
Entwicklung
auf
die
gesellschaftlichen
Bedingungen
könnte
die
Erfindung
der
Dampfmaschine gelten, welche das Zeitalter der Industrialisierung – verbunden mit
zunehmender Arbeitsteilung und Massenproduktion – einläutete und die Gesellschaft nicht
nur wirtschaftlich stark veränderte, sondern auch großen Einfluss auf die sozialen
Lebensbedingungen hatte, indem es z.B. zur Verstädterung und damit verbunden zu neuen
sozialen Problemen kam.
Durch die Institutionalisierung der Wissenschaft wurde zwar ein gewisser wertefreier
Raum geschaffen, der jedoch für gesellschaftliche Werte durchlässiger war als erwartet
wurde. Dies führte in der zweiten Hälfte des 19. Jahrhunderts zur Ausdifferenzierung des
Wissenschaftssystems und zur Unterscheidung in reine und angewandte Wissenschaften.
Dieser Wandel setzt sich bis heute fort, so dass auch die reinste Grundlagenforschung
unter einer Anwendungsperspektive stattfindet.
Dem zweiten Hoffnungsstrang stellten sich jedoch noch weitere Hindernisse in den
Weg, die am Beispiel der Kontroverse zwischen J.B.S. Haldane und Bertrand Russell in den
1920-igern erklärt wird.
Haldane hielt in Cambridge vor dem Club der Häretiker einen Vortrag mit dem Titel
Daedalus oder die Wissenschaft der Zukunft (1923). Er nimmt darin eine optimistische
Perspektive über die Zukunft der Wissenschaft ein und zieht den Schluss, dass die Menschheit
in Zukunft ihre Moral an die von der Wissenschaft gebotenen Lösungsmöglichkeiten
anpassen sollte und muss, da sich manche Entwicklungen (z.B. innerhalb der Biologie wie
Geburtenkontrolle, Manipulation des Erbgutes, in vitro Befruchtung etc.) nicht mit sozialen
Missständen und Übeln vertragen würden.
Russell hingegen warnt in seinem Aufsatz Ikarus oder die Zukunft der Wissenschaft vor
zu viel Optimismus mit der Begründung, dass ein Mehr an Wissen, die Menschen weder
vernünftiger noch selbstkontrollierter macht und so durch zuviel Übermut das Schicksal des
Ikarus droht.
Yaron Ezrahi analysiert die Beziehung zwischen Wissenschaft und Politik und erklärt
das Scheitern des Haldaneschen Ansatzes mit zwei Punkten:
26
•
Die Auswirkungen der Wissenschaft auf die Gesellschaft müssen nicht immer positiv
bewertet werden.
•
Menschen können sich nicht einigen, was gut für sie ist und verfolgen somit auch keine
gemeinsame Ziele und leiten daraus ein öffentliches Mandat ab.
Der zweite Punkt steht somit auch im Widerspruch zum Funktionieren einer
Demokratie, in der der Prozess des Interessenausgleiches gewährleistet sein muss und auch
widersprüchliche Interessen der Beteiligten integriert werden müssen. Wissenschaftlichtechnisches Wissen kann daher nicht nur aufgrund rational-wissenschaftlicher Kriterien auf
die Gesellschaft übertragen werden. Daher haben Wissenschaft und Demokratie auch
unterschiedliche Mechanismen der Konsensfindung und Konfliktlösung entwickelt und
beibehalten und das Scheitern des zweiten Hoffnungsstranges kann damit erklärt werden.
Merke: Das Scheitern des zweiten Hoffnungsstranges – der verallgemeinerten Nutzung
der wissenschaftlichen Rationalität – beruht auf zwei Gründen:
•
Dem Beharren der Wissenschaften auf Wertefreiheit und der damit verbundenen
Weigerung in gesellschaftlichen Angelegenheiten eine Führungsrolle zu übernehmen
•
Dem Vorhandensein einer Demokratie als Staatsform, da es in einer Demokratie um
Interessenausgleich geht und nicht um die Übernahme von Zielen, die ausschließlich an
der wissenschaftlichen Rationalität orientiert sind.
Doch auch der utilitaristische-instrumentelle Hoffnungsstrang steht heute neuen
Hindernissen gegenüber: Der Fortschrittsglaube ist stark erschüttert und wissenschaftlichtechnische Risiken werden neu wahrgenommen. Deshalb werden Fortschritte nicht nur
bezüglich
ihrer
Innovationsmöglichkeiten
wahrgenommen,
sondern
auch
in
ihrer
Problemhaftigkeit.
Beispiele:
•
Durch eine gestiegene Lebenserwartung werden die Thematiken wie Probleme im hohen
Lebensalter oder chronischer Krankheit relevant.
•
Durch die Möglichkeiten der Gentechnologie rücken Diskussionen zu ethischen
Dilemmata in den Fokus.
•
Durch
Computersimulation
und
neue
Messtechniken
erhält
man
Einsicht
in
problematische Zusammenhänge wie z.B. das Ozonloch oder die globale Erwärmung.
27
Durch die bisherigen Erfolge der Wissenschaft wird ein Verständnis für
problembehaftete Aussichten erst möglich.
Andererseits sind die Möglichkeiten der Wissenschaft bisher noch nicht artikulierte
Dienstleistungen zu befriedigen noch lange nicht erschöpft. Luhmann nennt dies die
Resonanzfähigkeit der Wissenschaft, d.h. die Forschung erfährt auf der einen Seite ihre
Grenzen, auf der anderen Seite stehen jedoch die nahezu unendliche Innovationsfähigkeit und
Möglichkeitsräume.
„Die Wissenschaft produziert eine gläserne Welt, die, wo immer sie sich verdichtet, sich in sich
spiegelt und die Durchsichtigkeit in Sicht verwandelt. Die Phantasie wird beflügelt, neuartige
Kombinationen sind denkbar, sei es als technische Artefakte, sei es als deren ungewollte, vielleicht
katastrophale Nebenwirkungen. Alles, was sein kann, und alles was ist, ist Selektion.“ (Luhmann,
2
1986, S. 164 zitiert in Nowotny, 1999).
Diese Selektion kann nicht mehr mit Hilfe der üblichen rationalen Selektionskriterien
erfolgen, weil
•
die Fülle der Optionen für den bisherigen Referenzrahmen zu klein ist
•
und sich die Autorität der Wissenschaft selbst verändert, da die Grenze zwischen natürlich
und künstlich verschwimmt.
Durch die Eingriffe in die Natur wandelt sich ihr Status und sie wird wie die
Wirklichkeit von den Menschen gemacht oder instrumentalisiert, um bestehende Theorien zu
bestätigen. Dadurch verändert sich auch ihre Autorität als letzte Entscheidungs- und
Appelationsinstanz. Die der wissenschaftlich-technischen Sachkenntnis zugrunde liegenden
Selektionskriterien sind einer situativ definierten Rationalität angepasst, so dass letztendlich
die Autorität der Wissenschaft und ihre Rationalität auch nicht mehr aus der Natur abgeleitet
werden können.
Aufgabe der Zukunft: Die Wissenschaft muss sich eine neue Autorität und
Legitimationsbasis verschaffen und die dabei verwendeten Selektionskriterien verhandeln.
Dabei müssen alle beteiligt werden, die an der Herstellung der Wirklichkeit beteiligt sind.
Anders für wen – anders mit wem? (Kapitel 6)
Viele Forschungsbereiche (z.B. Informatik oder Materialwissenschaften) erhielten in
der Vergangenheit Anstöße und Entfaltungsmöglichkeiten durch das Militär.
2
Luhmann, Niklas (1986). Ökologische Kommunikation. Kann die moderne Gesellschaft sich auf ökologische Gefährdungen
einstellen? Opladen.
28
Die militärischen Ziele wurden nun durch andere Ziele, wie etwa die Stärkung der
internationalen wirtschaftlichen Wettbewerbsfähigkeit, ersetzt. Diese Änderung hat
Konsequenzen für die Wissenschaft(sforschung).
Der Gesellschaftsvertrag:
Der
Gesellschaftsvertrag,
der
in
den
westlichen
Industriestaaten
zwischen
Wissenschaftssystem und politischen Repräsentanten in der Nachkriegszeit geschlossen
wurde, legt fest, welche Leistung die Wissenschaft erbringen muss und was sie als
Gegenleistung dafür bekommt (nämlich Autonomie).
Dieser Gesellschaftsvertrag ist aus zwei Gründen brüchig geworden:
•
Es gab von den Wissenschaften nicht nur Leistungen, sondern auch „Bürden“, die nun
nach Adjustierung verlangen
Annotation: Was sind Bürden? Unter Bürden werden die negativen, unbeabsichtigten
Folgen bzw. Konsequenzen, die mit der Forschung einhergehen, verstanden. Forschung hat
als Nebeneffekt Risiken und Gefahren (vergleiche auch Nowotny, S. 45).
•
Die
Vertragspartner
haben
sich
„multipliziert,
dezentralisiert,
pluralisiert
und
emanzipiert“, d.h. Öffentlichkeit/Gesellschaft ist nicht mehr gleichzusetzen mit ihren
politischen Repräsentanten.
Der Triade der Nachkriegszeit (Wissenschaftler, Regierung, Industrie) steht heute eine
Vielfalt von Interessen und Kompetenzen gegenüber.
Öffentlichkeit ist heute charakterisiert durch „prinzipielle Offenheit, d.h. alle gehören
dazu, jedoch kann sich jeder jederzeit abkehren. Die Konsequenz ist Unvorhersehbarkeit
dahingehend, wer gerade dazu gehört und aufmerksam das wissenschaftliche Geschehen
verfolgt.
29
Annotation: Eine sehr gute Ergänzung stellt der Artikel der Zeitschrift „Nature“ vom
02.12.1999 dar, der neben weiteren lesenswerten Informationen „social contract“ zwischen
Wissenschaft und Gesellschaft definiert als “…an arrangement built on trust which sets out
the expectations of the one held by the other, and which — in principle — includes
appropriate sanctions if these expectations are not met… This social contract has been made
up of several individual elements, reflecting broader contracts between government and
society, between industry and society, and between higher education and society.” Es
wurden zudem Gründe genannt, warum der „social contract“ durch einen neuen ersetzt
werden muss und welcher Art dieser sein muss. Im Artikel wird dies wie folgt
zusammengefasst: „To summarize, I have argued in this paper that the prevailing contract
between science and society was set up to sustain the production of 'reliable knowledge'; a
new one must ensure the production of 'socially robust knowledge'. The prevailing contract is
governed by the rules of bureaucratic rationality, with society linked to 'people' primarily
through representative institutions. A new contract will require more open, socially
distributed, self-organizing systems of knowledge production that generate their own
accountability and audit systems. Under the prevailing contract, science was left to make
discoveries and then make them available to society. A new contract will be based upon the
joint production of knowledge by society and science. A new social contract will therefore
involve a dynamic process in which the authority of science will need to be legitimated again
and again. To maintain this, science must enter the agora and participate fully in the
production
of
socially
robust
knowledge.”
(siehe
http://www.nature.com/cgi-
taf/DynaPage.taf?file=/nature/ journal/v402/n6761supp/full/402c81a0_r.html)
Ein Artikel aus der Zeit vom 14.09.2000 zeigt ebenfalls Gründe auf, warum der
Gesellschaftsvertrag ersetzt werden muss: http://www.palais-jalta.de/texte/Simon.rtf
Albert Hirschman (1970): Exit, Voice, and Loyality beschreibt in seinem Essay drei
Reaktionsmöglichkeiten der Mitglieder der Öffentlichkeit gegenüber der Wissenschaft:
•
Exit: sie wenden sich ab
•
Voice: sie verlangen Mitsprache und protestieren
•
Loyality: sie bleiben treu, d.h. es verändert sich (aus Unkenntnis oder fehlender
Motivation) nichts
30
•
Problematische Sichtweise der Wissenschaftler:
•
sie wollen Öffentlichkeit aufklären (=Wissensvermittlung)
•
und erwarten als Gegenleistung Loyalität und Unterstützung
•
sie übersehen dabei, dass ihre Forderung nach Teilnahme der gesamten Menschheit an
ihrem Wissen völlig unrealistisch ist!
•
Autoritätsabnahme der Wissenschaft:
•
dies verursacht erschüttertes Verhältnis zwischen Wissenschaft und Gesellschaft
•
bisheriges Monopol der Wissenschaft als Definierer der Wirklichkeit ist aufgelöst
Gründe für den Autoritätsverlust: Die heutige Öffentlichkeit
•
sieht die Wissenschaft von „ökonomischen und anderen Interessen“ geleitet
Annotation: Früher war Wissenschaft völlig wertfrei und hatte den Anspruch, politisch
neutral zu sein (Vergleiche auch Nowotny, S. 44 und S.49!)
•
hält Handeln aus Gemeinnützigkeit als obsolet
•
sieht Wissenschaft als Lobby
•
Von diesem Autoritätsverlust sind betroffen:
•
Wissenschaftler
•
die konsensstiftende Funktion der Wissenschaft
Annotation: Wissenschaft definiert die Welt und ihre Einzelheiten, die dann für alle
Gültigkeit besitzen. Sie bringt Beweise, die die Welt erklären und erzeugen damit Konsens,
dass das so ist. (Vergleiche auch Nowotny, S. 47-48!)
Nach Yaron Ezrahi (1990) beruht der Modernisierungsprozess, der von Technik und
Wissenschaft ausgelöst wird, auf dieser konsensstiftenden Funktion der Wissenschaft, d.h.
ohne Konsens ist keine Modernisierung möglich. Dieser Modernisierungsprozess wird durch
eine Maschinenmetapher veranschaulicht. Mit ihr soll das Bild einer effizient arbeitenden
Maschine hervorgerufen
Vorhersagbarkeit
und
werden,
Kontrolle“
weshalb
in
sie mit
Verbindung
„Transparenz,
gebracht
Überprüfbarkeit,
wird.
Mit
dieser
31
Maschinenmetapher
konnte
daher
„Industrialisierung,
Modernisierung
und
Demokratisierung“ legitimiert werden.
Dilemma der Beherrschbarkeit der wissenschaftlich-technischen Entwicklung und deren
Folgen:
•
Ursache des Dilemmas: keine strikte Trennung mehr zwischen Natur und Kultur bzw.
zwischen Natürlichem und Artifiziellem
•
Beispiel: Früher zielten die Biophysik, die Biochemie und die Genetik auf Isolierbarkeit
und Analysierbarkeit zellulärer Strukturen und metabolischer Prozesse. Seit den 70ern ist
durch die DNA-Technik auch künstliche Synthese möglich.
•
Konsequenz:
Die
Grenze
zwischen
objektiver
Natur
und
deren
subjektiven
Repräsentation, d.h. zwischen Fakten und Werten, verwischt. In der Folge kann
Wissenschaft kein objektives Bild von der Wirklichkeit mehr liefern, da Werte, Moral
oder Politik auf das wissenschaftliche Geschehen Einfluss nehmen. Wissenschaft ist dann
nicht mehr wissenschaftlich!
Wenn die Grenzen zwischen Wissenschaft und Gesellschaft verwischen oder sich
verschieben stellen sich auch neue Fragen, die nach Beantwortung verlangen, wie
beispielsweise
die
Frage
danach,
wer
wann
unter
welchen
Bedingungen
zum
Wissensproduzenten wird!
1.2.2.
Diskussion des Grundlagentexts durch die
Seminarteilnehmer
Allgemeine Fragen
Zu Kapitel 4: Trifft das beschriebene Phänomen der Krise der Wissenschaft die
Psychologie genauso hart wie die „traditionelle Wissenschaft“ wie Physik oder Chemie?
Schließlich wurde/ wird diese in der Öffentlichkeit häufig gar nicht zur „richtigen“
Wissenschaft gezählt.
Zusammenfassung der Diskussion: Zum Einfluss der beschriebenen Krise auf die
Psychologie wurden unterschiedliche Meinungen vertreten:
1. Die Naturwissenschaften sind aufgrund ihrer bisherigen Sonderrolle stärker
betroffen, während die Psychologie, die häufig nicht als Wissenschaft
32
wahrgenommen wird/ wurde, weniger unter diesem Autoritätsverlust zu leiden
hat.
2. Ein direkter Vergleich bezüglich der Krise zwischen Psychologie und
Naturwissenschaften ist aufgrund der Zwischenstellung der Psychologie
zwischen Sozial- und Naturwissenschaften nicht möglich.
Die Antworten im Einzelnen:
•
Aus meiner Sicht liegt es in der Natur der Dinge, dass originär naturwissenschaftliche
Disziplinen von der beschrieben Krise härter betroffen sind, als die
Geisteswissenschaften. Die Naturwissenschaften wurde nämlich bisher wegen ihres
epistemischen Kerns in weit größerem Maße eine Sonderrolle seitens der Öffentlichkeit
zugesprochen als den Geisteswissenschaften. Damit liegt es auf der Hand, dass eine
öffentliche Einflussnahme auf die Naturwissenschaft stärker beklagt wird als auf die
Geisteswissenschaften.
•
Aus meiner Sicht leidet die Psychologie weniger unter einem Verlust ihrer Autorität wie
die klassischen Naturwissenschaften, sondern sieht sich als Wissenschaft seit jeher dem
Problem gegenüber nicht als solche wahrgenommen zu werden
•
Die Krise in dem Verhältnis der Wissenschaft zur Öffentlichkeit ist sicher bezüglich der
Psychologie, die seit ihrer Gründung als eigenständige wissenschaftliche Disziplin eine
große methodische Vielfalt zeigt und eine Zwischenstellung zwischen Sozial- und
Naturwissenschaften einnimmt, anders zu bewerten, als für die klassisch
naturwissenschaftlichen Fächer.
Psychologie und ihr Bild in der Öffentlichkeit (Meinungen)
Zusammenfassung der Diskussion: Insgesamt wird die Psychologie in der
Öffentlichkeit eher als „weiche“ Wissenschaft betrachtet. Dies gründet u.a. in der
zweigeteilten Wahrnehmung der Psychologie:
1. Psychologie als Anwendungsfach: Die (vor allem klinische) Anwendungsseite
(z.B. Psychotherapie) ist der Öffentlichkeit bekannt. Psychologen wird daher
auch praxisrelevantes Know-How zugeschrieben und sie werden in Medien als
Experten herangezogen
2. Psychologie als Wissenschaft: Über die wissenschaftliche Seite der Psychologie
mit ihrer Vielfalt an Forschungsbereichen und Methoden ist in der Öffentlichkeit
häufig wenig bekannt bzw. es ist nur undifferenziertes Wissen vorhanden. Die
Psychologie wird somit vielfach auch nicht als empirische Wissenschaft, die
nach strengen Qualitätsstandards operiert, wahrgenommen.
33
Einerseits könnte man durch das Kommunizieren der Methoden(vielfalt) versuchen, das
wissenschaftliche Image der Psychologie zu stärken und ihren Forschungserkenntnissen damit
größere Anerkennung verschaffen. Andererseits gilt es aufzupassen nicht ausschließlich „rein
naturwissenschaftliche“ Methoden zu verwenden, sondern „psychologische“ damit man der
Komplexität des Gegenstandes der Psychologie – dem Menschen – gerecht werden kann.
Die Antworten im Einzelnen:
•
Dies trifft auch auf die Psychologie zu, die aus Sicht der Öffentlichkeit eher den „weichen
Wissenschaften“ zugerechnet wird.
Während sich der Berufsstand der Psychologen in den letzten Jahren steigender
Medienpräsenz erfreut und Psychologen häufig als Experten befragt und präsentiert
werden (man unterstellt ihnen also durchaus ein gewisses praxisrelevantes Know-How
mindestens im klinischen Bereich), ist das Bild der Wissenschaft Psychologie in der
Öffentlichkeit äußerst undifferenziert, und man weiß wenig über die verschiedenen
Forschungsdisziplinen und -inhalte und fast nichts über die eingesetzten Methoden. Die
Autorität der Wissenschaft aber basiert ja u.a. gerade auf bestimmten
Zertifizierungsroutinen, die dafür sorgen, dass das Zustandekommen neuen Wissens durch
Methoden und Theorien kontrolliert wird. Qualitätsmanagement als Vokabel ist heute in
aller (Praktiker) Munde, in Industrie wie auch in Dienstleistungsbetrieben. Die
Psychologie möchte, wie Gruppe C in ihren Thesen bemerkt, als empirische Wissenschaft,
die nach strengen Qualitätsstandards operiert, wahrgenommen werden. Ihre
wissenschaftlichen Zertifizierungs- und Kontrollmechanismen werden allerdings einer
breiten Öffentlichkeit häufig nicht kommuniziert und so von dieser auch nicht
wahrgenommen oder verstanden und somit auch nicht der Wert, den das produzierte
Wissen hat. Infolge werden psychologische Erkenntnisse bezüglich Phänomenen, die von
jedermann im Alltag beobachtbar sind, in der Öffentlichkeit teilweise belächelt („das war
doch klar“, „dazu muss man doch nicht forschen“). Insofern könnte eine stärkere
Betonung des Qualitätsmanagements der Wissenschaft Psychologie und eine
entsprechende Darstellung nach außen ihr Image stärken.
•
Zumal „die Psychologie“ auch heute aus Sicht der Öffentlichkeit in zwei sehr getrennte
Bereiche zerfällt: dem der Anwendung z.B. in Psychotherapie und dem der Forschung an
den Universitäten. Die Vielfalt und die Beteiligung von „wissenschaftlicher Psychologie“
an bestimmten Forschungsbereichen sind der Öffentlichkeit nicht bekannt und auch der
Zugang zum Selbstverständnis der forschenden Psychologen bleibt der Öffentlichkeit
bisher noch weitgehend verschlossen.
Würde sich das Bild der Psychologie als Forschungsdisziplin in den Augen der
Öffentlichkeit stärker in Richtung Naturwissenschaft wandeln, käme allerdings vermutlich
nicht nur die beschriebene Krise zum tragen, sondern auch der Vorwurf, unzureichende
Methoden zur Erfassung des menschlichen Erlebens und Verhaltens zu verwenden. An
dieser Stelle spielen religiöse Vorstellungen von der Seele des Menschen sowie das
alltägliche Erleben der Komplexität von Verhalten und Gefühlen eine große Rolle.
34
Zu Kapitel 5: Wie könnten diese neuen Selektionskriterien aussehen, um der
Wissenschaft neue Autorität und Legitimation zu verschaffen? Wer müsste daran
beteiligt werden?
Versuchen Sie ein geeignetes Beispiel zu finden, an dem Sie erläutern, welche
Selektionskriterien zum Zuge kommen könnten und wer die Interessengruppen sein könnten.
Die Antworten im Einzelnen:
•
Generell erscheint es mir wichtig, unterschiedliche Selektionskriterien anzulegen in
Abhängigkeit davon, ob es um allgemeine Rahmenbedingungen wie etwa die
Prioritätensetzung in der Forschung oder um konkrete Entscheidungen beispielsweise über
Annahme oder Ablehnung eines wissenschaftlichen Artikels in einer bestimmten
Zeitschrift geht. Konkrete Entscheidungen müssen meiner Meinung nach im Rahmen
wissenschaftlicher Selbstverwaltung der Wissenschaft selbst überlassen sein, wobei eine
stärker institutionalisierte wissenschaftsinterne Diskussion über die Kriterien von Zeit zu
Zeit mit Sicherheit sinnvoll wäre (an Stelle „ungeschriebener Regeln“). Dies ist allerdings
auch nur wissenschaftsintern bzw. sogar fach- oder communityintern möglich, da es
zwischen Fächern und Forschungsgebieten zu Recht beachtliche Unterschiede gibt, z.B. in
Bezug auf für sinnvoll gehaltene Methodik. Die Festlegung allgemeiner
Rahmenbedingungen aber bedarf durchaus eines breiteren Diskurses, wodurch eine
Legitimation der Wissenschaft erreicht werden kann. Ein Beispiel hierfür ist etwa im
Nationalen Ethikrat zu sehen, dessen Diskussionen zur Stammzellenforschung in
Deutschland im Austausch mit der Öffentlichkeit geführt wurden und dessen
Entscheidungen breite Zustimmung fanden. Die hierbei zum Tragen kommenden
Kriterien können nicht aus der Wissenschaft stammen, sondern müssen von Seiten der
Öffentlichkeit definiert werden. Entsprechend ist auch die Beteiligung jeweils relevanter
öffentlicher Gruppierungen erforderlich, wobei die Zusammensetzung nicht generell,
sondern ausschließlich unter Berücksichtigung der jeweiligen Fragestellung bestimmt
werden kann.
Zu Kapitel 6: Der Titel des Kapitels „Anders für wen – anders mit wem?“ verdeutlicht
diese „prinzipielle Öffentlichkeit“ zu der jeder gehören kann, aber nicht muss.
Wie können die Wissenschaftler mit dieser neuen Art der Unvorhersehbarkeit, wer zu
welchem Zeitpunkt zur Öffentlichkeit gehört und damit seine Aufmerksamkeit der
Wissenschaft und ihrer Resultate schenkt, sinnvoll umgehen?
Die Antworten im Einzelnen:
•
Zunächst einmal bin ich der Überzeugung, dass der Raum, den im aktuellen
Wissenschaftleralltag die Kommunikation mit der (wie auch immer zusammengesetzten)
Öffentlichkeit einnimmt, für das Gros der Wissenschaftler noch immer denkbar gering ist.
Die Außendarstellung der eigenen Arbeit konzentriert sich gemeinhin stark auf die eigene
scientific community in Form von Kongressbeiträgen oder Workshops. Dieser nicht
unbedingt zu begrüßende Umstand führt auch dazu, dass wir es nicht gewohnt sind,
35
Inhalte, Methoden und Ziele unserer Arbeit in laienverständliche Worte zu kleiden. Die
Kommunikation mit der Öffentlichkeit – ob nun privat auf einer Party, im
universitätseigenen Wissenschaftsjournal oder über das Internet – dürfte häufig
suboptimal verlaufen. Der Weg aus diesem Misstand erfordert meiner Meinung nach
zweierlei: Zum einen muss die universitäre Lehre unbedingt das wissenschaftliche
Schreiben sowie das Schreiben über Wissenschaft zu ihrem Gegenstand machen, um
junge Wissenschaftler mit dem entsprechenden Rüstzeug auszustatten. Andererseits
verdeutlich das Problem sich ständig neu zusammensetzender Öffentlichkeiten, dass man
das Gelingen der Kommunikation nicht allein als Aufgabe der Experten konzeptualisieren
kann. Als Paradebeispiel mag hier das Internet fungieren: Es ist nicht in meiner Kontrolle
als Autor, wer mit welchem Vorwissen und welchem Erkenntnisinteresse Informationen
über mein Forschungsgebiet über das Internet aufruft. Folglich gilt es auch für Laien, über
Kompetenzen zu verfügen, die ihnen helfen, sich innerhalb fachlicher Informationen
erfolgreich zurecht zu finden und zu informieren. Hier ist wiederum die Schule gefordert,
eine solche Art von „informiertem Lesen“ zum Gegenstand der schulischen Ausbildung
zu machen.
Weitere Beiträge
Denkanstoss zum Gesellschaftsvertrag zwischen Wissenschaft und Gesellschaft
•
Glaubt ihr, dass das tatsächliche Formulieren eines Vertrags zwischen Wissenschaft und
Gesellschaft den Autoritätsverlust der Wissenschaft kompensiert könnte und zwar derart,
dass die Bilder von der Wissenschaft dadurch mit den realen Forschungspraktiken wieder
in Einklang gebracht werden könnten? Oder führte dies eher zum endgültigen
Zusammenbruch von Autorität und Sonderstatus, da eine breite öffentliche Diskussion
über das Verhältnis von Wissenschaft und Gesellschaft auch den letzten Rest des
bisherigen epistemischen Kerns zerstören würde?
1.3.
Gruppe C: Zwei Modi – Verschleierung und Produktion von
Wissen? (Kapitel 7 & Epilog)
1.3.1.
Exzerpt
Es könnte auch anders sein: Wissensproduktion nach Modus II (S. 66 - 78)
Es gibt zwei Modi der Wissensproduktion. In Modus I bestimmt die wissenschaftliche Elite
der jeweiligen Disziplin, was als Forschungsproblem zu sehen ist, und überwacht die strengen
disziplinären
Qualitätsstandards,
wie
beispielsweise
Objektivität,
Reinheit
und
Distanziertheit. Das so gewonnene Wissen ist daher im allgemeinen homogen. Ziel dieser Art
der Wissensproduktion ist häufig die Suche nach allgemeingültigen Erklärungsprinzipien. Sie
wird teilweise als die einzige "reine" Wissenschaft angesehen. Dem gegenüber steht die
Wissensproduktion nach Modus II, bei dem die Problemstellungen nicht vorgegeben, sondern
durch das jeweilige temporär zusammengesetzte, transdisziplinäre Forschungsteam anhand
36
der heterogenen, praktischen Ansprüche kontextspezifisch definiert werden. Das so
gewonnene Wissen ist jeweils nach Maß hergestellt, dadurch allerdings relativ temporär und
heterogen, es ist eher eine Art "Anwendungswissen".
Frau Nowotny argumentiert überzeugend, dass sich die Wissensproduktion immer mehr von
Modus I nach Modus II verschiebt. Dies zeigt sie vor allem für die Sozial- und
Humanwissenschaften, indem sie Beispiele für Wissensproduktion nach Modus II nennt, die
es früher nicht in dem Maße gab. Hier einige ihrer Argumente: Als Antwort auf den
gesellschaftlichen Problemdruck in verschiedenen Bereichen werden transdisziplinäre
Forschungsgruppen gebildet. Diese Transdisziplinarität zeigt sich u.a. auch in der gesteigerten
Anzahl wissenschaftlicher Publikationen mit Autoren aus verschiedenen Institutionen. Des
Weiteren gibt es eine Expansion auf dem höheren Bildungssektor, die dazu führt dass sich
Wissensträger verschiedener Disziplinen über viele Institutionen und sozialen Räume
verteilen und sich dort potentiell zu heterogenen Forschergruppen zusammen finden können.
Außerdem hat wissenschaftliches Wissen inzwischen den Stellenwert eines marktfähigen
Produktes gewonnen und wird daher von Angebot und Nachfrage der Öffentlichkeit (mit-)
bestimmt. Auch eine ausgeweitete Bücher- und Kulturindustrie und moderne Informationsund Kommunikationstechnologien erleichtern zum einen die Verteilung des Wissens auch
außerhalb der klassisch zuständigen Institutionen und zum anderen die transdisziplinäre
Zusammenarbeit.
Eine (Gegen-) These zu der hier beschriebenen Verbreitung von Modus II ist der vor allem
von Pestre (1996) vorgebrachte Einwand, dass es Modus II schon immer gegeben habe. Er sei
lediglich verschwiegen worden, da er nicht zur ,,reinen" Wissenschaft gehörte. Nähme man
diesen Einwand ernst, müsste man schlussendlich die Wissenschaftsgeschichte umschreiben,
denn es könnte auch ganz anders als dargestellt gewesen sein. Man könnte sogar noch weiter
gehen und Modus I als nicht existent, sondern vielmehr als rhetorischen Schutz oder
moralisches Ideal bezeichnen, der nur dazu dient, die Allgegenwärtigkeit von Modus II zu
verschleiern. Nowotny kommt daher zu dem Schluss, dass Modus II nicht nur für eine
aktuelle Gegenwartsdiagnose steht, sondern auch die Vergangenheit in einem anderen Licht
erscheinen lässt. Akzeptieren wir, dass eine Umschreibung der Geschichte notwendig wäre,
sollte es uns auch leichter fallen, uns der Öffentlichkeit gegenüber zu öffnen. Durch diesen
Schritt könnten wir ein Paradox
den steigende Bedarf an wissenschaftlichem Wissen
einerseits und die öffentliche Abwertung andererseits aufheben.
37
Wie könnte es anders sein? (S. 79 - 83)
In dem Epilog wird der Frage nachgegangen, wie die Wissenschaft Wissensproduktion nach
beiden Modi haben kann und ob dies überhaupt möglich ist. Die Argumentation lässt sich
weitestgehend wie folgt zusammenfassen: Modus I wird es auch weiterhin geben, selbst wenn
nur als Idealbild (s. Verweis auf die quinta essentia), an dem sich die Suche und
Neuverhandlung des epistemischen Kerns des wissenschaftlichen Wissens immer wieder
ausrichtet kann und sollte. Auch Modus II ist und war schon immer allgegenwärtig und
eignet sich besser für die Neuverhandlung des epistemischen Kerns, da er nicht davon
ausgeht, dass dieser unantastbar, unwandelbar oder irrelevant ist. Wie kann es uns aber
möglich sein, wissenschaftliches Wissen als legitim zu akzeptieren, wenn wir über die
sozialen, kulturellen, politischen und ökonomischen Bedingungen seiner Entstehung und über
mögliche Mythenbildung Bescheid wissen? Eine mögliche Antwort sollte darin bestehen, dass
wir lernen müssen, mit Widersprüchen und Paradoxien in einer komplexen und
unordentlichen Welt zu leben, in der die ,,reine" Wissenschaft (s. Modus I) nur ein Ideal sein
kann, an dem wir uns ausrichten.
1.3.2.
Annotationen
(siehe Glossar: Historisch-Kritische Annotationen)
1.3.3.
Diskussion des Grundlagentexts durch die
Seminarteilnehmer
Modus I vs. Modus II oder Modus I und Modus II?
Nowotny stellt die Wissensproduktion nach zwei Modi und die Ausbreitung von Modus II in
unserer Gesellschaft relativ ausführlich dar. Auch wenn beide Modi durch Beispiele
beschrieben
werden,
finden
wir,
dass
diese
Konzepte
noch
zu
abstrakt
sind.
Daher unsere Frage: Welche Merkmale von Modus I und Modus II gibt es in eurer Forschung
(Dissertation) oder der Forschung eures Instituts? Begründet damit die Zuordnung eurer
Forschung zu einem der beiden Modi.
38
•
Modus I vs. Modus II
Während das generelle Forschungsgebiet „Wissenserwerb und –austausch mit neuen
Medien“ aus meiner Sicht eindeutig der Forschung nach Modus II zuzuordnen ist
(interdisziplinäre Kooperationen, häufig anwendungsbezogen...), würde ich mein eigenes
Forschungsprojekt („Aktives Integrieren von Text und Bild“) dem Modus I zuordnen. Aus
folgenden Gründen:
- Es handelt sich um eine Fragestellung, die der Grundlagenforschung zuzuordnen ist.
- Es wird nach allgemeinen Lernprinzipien gesucht.
- Die Frage ist aus keiner konkreten praktischen Fragestellung erwachsen, sondern hat
ihren Ausgangspunkt in theoretischen Überlegungen.
- Während der Durchführung der Studie werden keine interdisziplinären Bemühungen
unternommen.
- Die Einhaltung der „klassischen, wissenschaftlichen Kriterien“ hat gegenüber der
Praxisnähe der Forschung Priorität.
•
Modus I und Modus II
Ich denke, dass in vielen heutigen Forschungsprojekten eine strikte Trennung zwischen
Modus I und Modus II nicht vollzogen werden kann, sondern dass es eine Art
Vermischung zwischen den beiden Modi gibt. Auch im Rahmen meines
Dissertationsprojekts sind beide Modi untrennbar verknüpft: Das Projekt ist insofern dem
Modus II zuzuordnen, da die Forschungsfragen nicht ohne Interdisziplinarität beantwortet
werden könnten. Ohne die Programmierarbeiten von Informatikern beispielsweise,
stünden mir keine Informationsvisualisierungen zur Verfügung, anhand derer ich meine
Forschungsfragen überprüfen könnte. Darüber hinaus fließen die Ergebnisse der Studien
direkt in einen Anwendungskontext (der Informatiker) ein, da sie zur Lösung der Frage
dienen, wie Informationsvisualisierungen, welche zur Informationsdarbietung im Rahmen
mobiler Endgeräte benötigt werden, zu gestalten sind, damit mit ihnen effizient gearbeitet
werden kann.
Aber auch Modus I ist im Dissertationsprojekt enthalten, nämlich durch die Methodik.
Diese strebt danach, den Kriterien des Modus I Objektivität, Reinheit und Distanziertheit
gerecht zu werden. So wurden die Forschungsfragen nicht nur theoretisch abgeleitet, sie
werden
auch
auf
Basis
des
experimentellen
Paradigmas
beantwortet.
Ich finde es wichtig, dass Forschung nach Modus II danach strebt, den Kriterien des
Modus I zu genügen.
•
Warum klar unterscheiden?
Glaubt ihr, dass tatsächlich immer klar zwischen nach Modus I und nach Modus II
produziertes Wissen unterschieden werden kann? Nowotny kommt zu dem Ergebnis, dass
Wissensproduktion nach Modus I wohl eher als nicht erreichtes, aber anzustrebendes Ideal
zu bezeichnen ist. Dies scheint mir auch grundsätzlich auf diese Unterscheidung
zuzutreffen, wobei ich mir nicht sicher bin, ob man diese anstreben sollte. Eine solche
Unterteilung birgt meiner Meinung nach auch die Gefahr, künstlich unterschiedliche
Kriterien für die Wissensproduktion zu erzeugen bzw. eventuell bestehende Tendenzen zu
verstärken. Resultat wäre nicht die Wissensproduktion nach Modus I und II, sondern eine
Wissensproduktion 1. und 2. Klasse.
39
Verschleierung in der Psychologie?
Wissen nach Modus I wird u.a. als „rhetorischer Schutz“ (S. 73) oder als „diskursive Maske“
(S. 77) bezeichnet, um die Allgegenwärtigkeit von Modus II zu verschleiern.
Unsere These hierzu: Besonders in der Psychologie gibt es diese Art der Verschleierung, da
wir häufig darauf bedacht sind, als empirische Wissenschaft, die nach strengen
Qualitätsstandards operiert (s. Merkmale von Modus I), wahrgenommen zu werden.
•
Situative Verschleierung
Die Position, die die Psychologie und ihre wissenschaftlichen Vertreter in der Modus I /
Modus II-Diskussion einnimmt ist m.E. zwiegespalten. Einerseits stimme ich der von
Euch aufgestellten These, dass die Betonung von Charakteristika, die Modus I
zuzurechnen sind, in der Psychologie stark verbreitet ist, zu. Mit dieser Strategie – so
meine Erfahrung – wird nicht nur versucht, die Anerkennung der „strengen“, empirischen
Wissenschaften zu erhalten, vielmehr dient die Berufung auf das empirische
Methodenarsenal der Psychologie auch häufig der Abgrenzug gegenüber „nahen
Verwandten“ wie der Pädagogik oder den Kommunikationswissenschaften.
Gleichzeitig werden Wissenschaftler aus der Psychologie im Diskurs mit Laien und
Novizen (z.B. Seminarteilnehmern) immer wieder aufgefordert, den Anwendungsbezug
ihres speziellen Teilgebiets zu verdeutlichen. Die resultierenden Erklärungen laufen dann
auf Aspekte von Modus II heraus – interdisziplinäre Projekte werden geschildert und
Kooperationsprojekte mit Wirtschaftsunternehmen oder Schulen betont. Auf den Punkt
gebracht: Die Betonung von Modus I oder Modus II scheint mir – auch und gerade in der
Psychologie – massiv von situativen Merkmalen abhängig.
•
Theoretische Verschleierung
Zu dieser These möchte ich zwei Anmerkungen machen:
1. Meiner Meinung nach muss es ein wie auch immer geartetes Methodenrepertoire in
jeder Wissenschaft geben, die sich empirisch mit bestimmten Phänomenen
auseinandersetzt. Ob dies jedoch stets ein Mittel der Verschleierung von Modus II sein
muss, wage ich zu bezweifeln. Vielmehr würde ich dafür plädieren, dass sich die
Verwendung von Methodologien, die Modus I entsprechen, und die "kontextspezifische
Definition von Forschungsfragen durch temporär zusammengesetzte, transdisziplinäre
Forschungsteams", was eurem Exzerpt zufolge ein Indikator für Modus II ist, einander
nicht widersprechen müssen. Selbst in solchen kontextspezifischen Bereichen und
transdisziplinären Teams kann meines Erachtens Forschung nach Modus I ablaufen. Dies
ist zum Beispiel dann der Fall, wenn aufgrund bisheriger Forschung deutlich geworden
ist, dass die Theoriegebäude einer Disziplin nicht ausreichend sind, um ein bestimmtes
Phänomen auf der Grundlage empirischer Daten hinreichend zu erklären und deshalb
theoretische Anstöße aus anderen Disziplinen mit einbezogen werden.
2. Zur Frage, ob die Psychologie besonders gefährdet sei, Modus II mit Modus I zu
verschleiern, bzw. ob in der Psychologie eine besonders starke Durchmischung der beiden
Modi vorliegt, würde ich sagen, dass es beträchtliche Unterschiede zwischen und
innerhalb der einzelnen Subdisziplinen der Psychologie gibt. So würde ich argumentieren,
dass z. B. in der Sozialpsychologie oft eher grundlagenorientiert und auf der Basis
40
spezifischer Hypothesen geforscht wird (also nach Modus I) als dies etwa in der
pädagogischen Psychologie der Fall ist. Dennoch tritt auch in der pädagogischen
Psychologie eine gewisse Varianz auf in dem Sinne, dass auch hier ab und an
grundlagenorientierte Forschung betrieben wird, aber häufig betont wird, dass der
Gegenstand der pädagogischen Psychologie so breit sei, dass ein Theorien- und
Methodeneklektizismus dringend erforderlich sei, will man die behandelten Phänomene
tatsächlich verstehen. Dies würde die Einrichtung transdisziplinärer Forscherteams, die
ihre Problemstellung selbst definieren, quasi unerlässlich machen.
Wissensproduktion in der Psychologie?
Es wird behauptet ("... ist die Verbreitung einer neuen Art der Wissensproduktion nach
Modus II unübersehbar.", S. 68), dass sich Modus II der Wissensproduktion immer mehr
ausbreitet.
Unsere Frage: Ist dies auch in der Psychologie der Fall? Woran könnten wir das erkennen?
•
Anwendungsbezug
In psychologischen Grundlagenfächern habe ich häufig den Eindruck, dass man bestrebt
ist, weniger die Existenz von Modus II Forschung zu verschleiern, als vielmehr
Anwendungsbezüge der Forschung herauszustellen um sie somit nach außen zu
legitimieren und darüber hinaus auch für Studenten attraktiv zu machen, die nach dem
Studium nicht in der Wissenschaft bleiben möchten und nach Praxisbezügen im Studium
suchen.
Hinter psychologischen Anwendungsfächern wie beispielsweise der Arbeits-, Betriebsund Organisationspsychologie steht dagegen schon immer ein starkes
Verwertungsinteresse hinsichtlich der Ergebnisse. Meist unterliegt die Forschung in
diesem Bereich erheblichen methodologischen Einschränkungen, da Betriebe und
Organisationen als Untersuchungsfeld viele Rahmenbedingungen vorgeben. Man
versucht, den verbleibenden Spielraum so gut wie möglich zu nutzen und den
Möglichkeiten entsprechend methodisch sauber zu arbeiten. Häufig ist man auch bestrebt,
die methodologischen Einschränkungen klar zu kommunizieren und die eingeschränkte
Gültigikeit der erworbenen Erkenntnisse deutlich zu machen. Allerdings besteht die
Gefahr, dass die Öffentlichkeit, die die Ergebnisse erreicht, diese Einschränkungen nicht
wahrnimmt und dass unzulässige Verallgemeinerungen vorgenommen werden. Hier stellt
sich dann wieder die Frage, ob nicht starke Nutzungsinteressen zwangsläufig die
epistemischen Werte untergraben, auf denen die Zuverlässigkeit und Tragweite
wissenschaftlichen Wissens beruhen.
•
Interdisziplinarität
Von der DFG werden inter- oder transdisziplinäre Projektanträge explizit erwünscht, wie
auch auf der Website betont wird: „Die Deutsche Forschungsgemeinschaft fördert
Forschungsvorhaben in allen Wissenschaftsgebieten. Wissenschaftliche Exzellenz,
Förderung der wissenschaftlichen Nachwuchses, Interdisziplinarität und Internationalität
41
gehören zu den Eckpunkten der Förderung.“ Dies bezieht sich natürlich auf alle
Disziplinen. Auch in der Psychologie ist interdisziplinäre Forschung erwünscht und wird
immer mehr praktiziert. Es bestanden z.B. allein in unserer Abteilung in jüngster Zeit
Forschungskooperationen
mit
Ethnologie,
Informatik
sowie
Geographie.
Die stärkere Ausrichtung der Forschung an Fragen, die in interdisziplinären Teams
entwickelt werden im Gegensatz zu explizit von den „Eliten“ der einzelnen Disziplinen
bestimmten Problemen, zeigt sich auch in der Entstehung von Scientific communities, die
sich nicht über die Zugehörigkeit zu einer Disziplin, als viel mehr über den gemeinsamen
Beitrag zur Generierung von Wissen in einem Bereich definieren. Als Beispiel hierfür sei
die CSCL-Community benannt.
•
Interdisziplinär und anwendungsbezogen
In den meisten Fällen lässt sich nicht trennscharf zwischen den beiden Modi der
Wissensproduktion unterscheiden. Vielmehr beinhalten die meisten Forschungsprojekte
meist Aspekte beider Modi. Ähnlich wie der von Nowotny formulierte traditionelle
epistemische Kern der Wissenschaft stellt Modus I eine Art wissenschaftsinternes Ideal
dar.
Zur Frage, ob sich auch in der Psychologie ein Trend zur Wissensproduktion nach Modus
II zeigt: In vielen Forschungsfeldern der Psychologie lassen sich verstärkt
interdisziplinäre Ansätze beobachten. Das gilt insbesondere für die „Neuen Medien“ als
Forschungsgegenstand. So war eine Vielzahl der BMBF-Projekte „Neue Medien in der
Bildung“ interdisziplinär ausgerichtet. Da eine solche interdisziplinäre Herangehensweise
laut Nowotny einen Indikator für Modus II darstellt, stützt diese Beobachtung die These
einer entsprechenden Verschiebung innerhalb der Psychologie. Allerdings hat die
Beschreibung von Modus II bei Nowotny und in eurem Exzerpt die negative Konnotation
einer „unreinen“ Anwendungsforschung, die vom Forschungsideal Modus I weit entfernt
ist. Meiner Meinung nach ist die stärkere Betonung der Interdisziplinarität bei der
Erforschung zahlreicher Phänomene schlicht erforderlich, um durch Bündelung der
Expertise verschiedener Forschungsdisziplinen zu einem Erkenntnisgewinn zu gelangen.
Darüber hinaus finde ich die von Nowotny aufgestellte Gegenthese, dass es
Wissensproduktion nach Modus II immer schon gegeben habe, sehr gut nachvollziehbar.
Gerade für die Psychologie als relativ junge Wissenschaft lässt sich zeigen, dass durch
Einflüsse von außen neue Subdisziplinen überhaupt erst entstanden sind. Beispielsweise
erhielten die Intelligenzforschung und die psychologische Diagnostik wesentliche Impulse
durch den Bedarf an geeigneten Instrumenten zur Diagnose der Schuleignung (Binet) oder
der Eignung zum Wehrdienst (Army Alpha Test). Dieses Beispiel stützt die von Nowotny
aufgestellte These, dass Wissensproduktion nach Modus II besser als Modus I dazu
geeignet ist, zur Weiterentwicklung des epistemischen Kerns einer Wissenschaft
beizutragen. Insofern wäre ein Trend in Richtung Modus II, so es ihn denn gibt, durchaus
wünschenswert.
42
2.
Kritik des gesunden Menschenverstandes
Ernst Peter Fischer (2002) Kritik des gesunden Menschenverstandes. Unser
Hindernislauf zur Erkenntnis
Wissenschaft & Öffentlichkeit
Glossar
Es ist so. Es könnte
auch anders sein.
Literatur
Kritik des gesunden
Menschenverstandes
2.1.
Untersuchte
Fehlkonzepte in
naturwissenschaftlichen
Domänen (S. 9 34)
Unanschaulichkeiten in
der Psychologie (S.
77-128)
Gruppe D: Untersuchte Fehlkonzepte in
naturwissenschaftlichen Domänen (S. 9 – 34)
Zum Thema Fehlkonzeptionen hat die psychologische Forschung mittlerweile
zahlreiche empirische Untersuchungen sowie eine Anzahl an Theorieartikeln hervorgebracht.
Insbesondere die in der Seminarlektüre bereits vorgestellten Untersuchungen von Michael
McCloskey zu Fehlkonzepten in Bezug auf die Newton’sche Bewegungslehre legten den
Grundstein für eine kaum zu überschauende Anzahl weiterer Untersuchungen, deren
Zielsetzung darin bestand, Fehlkonzepte aufzudecken, diese möglichst exakt zu beschreiben,
theoretische Erklärungen für deren Auftreten zu diskutieren und nicht zuletzt instruktionale
Maßnahmen zu erproben, mit Hilfe derer Lerner Fehlkonzepte durch angemessene Konzepte
ersetzen sollen. Die Band-breite der untersuchten Domänen wurde dabei in der Folge deutlich
erweitert. So liegen mittlerweile Untersuchungen zu Fehlkonzepten in Physik (z.B. McElwee,
1991), Mathematik/ Statistik (z.B. Griffiths & Thompson, 1993), Chemie (z.B. Schmidt,
1995), Geowissenschaften (z.B. Brody, 1996; Marques & Thompson, 1997) oder Medizin
(z.B. Chamot, 2001) vor. Gleichwohl bleibt festzuhalten, dass sich das Gros der
Untersuchungen nach wie vor Fehlkonzepten im Bereich der Naturwissenschaften widmet.
Mit der Erweiterung der untersuchten Domänen ging auch eine Ausweitung der untersuchten
Stichproben einher: Während sich diese im vorliegenden Forschungsbereich traditionell aus
SchülerInnen oder Studierenden zusammensetzen, standen in neueren Experimenten u.a. die
43
Fehlkonzepte von Lehrenden (Sciutto et al., 2000) oder der Allgemeinbevölkerung (z.B. Swift
& Wilson, 2001) im Fokus.
In unserem Seminarbeitrag schildern wir eine Auswahl der untersuchten Fehlkonzepte,
sparen dabei aber bewusst jene Untersuchungen aus, die sich mit Fehlkonzepten in Bezug auf
die Psychologie beschäftigen, da diese Gegenstand des Seminarbeitrags der Arbeitsgruppe E
im folgenden Abschnitt sind.
2.1.1.
Beispiele für untersuchte Fehlkonzepte
Umwelt & Biologie
Im Zuge der wachsenden Bedrohung durch Umweltgefahren, wie z.B. der Zerstörung
der Ozonschicht, erlangt das Wissen um diese Phänomene, ihre Ursachen und ihre
Auswirkungen auf unseren Alltag immer größere Relevanz. Nicht zuletzt weil in Bezug auf
die reelle Gefährdung durch Klimawandel, Ozonloch etc. auch in der Fachwelt verschiedene,
teils gegensätzliche Meinungen verbreitet sind, ist ein grundlegendes Verständnis der
Zusammenhänge für ein informiertes Handeln im Alltag notwendig.
Um die Kenntnisse griechischer Schülerinnen und Schüler über die Ozonschicht zu
erheben, setzten Boyes, Stanisstreet & Spiliotopoulou Papantoniou (1999) einen Fragebogen
ein, den 1161 SchülerInnen im Alter von 11 bis 16 Jahren ausfüllten. Das Inventar umfasst 36
Aussagen, die sich den Teilgebieten Eigenschaften und Funktion der Ozonschicht, Ursachen
der Zerstörung und Folgen einer beschädigten Ozonschicht zuordnen lassen. Aufgabe der
SchülerInnen ist es, für jede der Aussage zu bestimmen, ob diese wahr oder falsch ist.
Die Ergebnisse zeigen, dass die SchülerInnen im Allgemeinen recht gut über Position
und Funktion der Ozonschicht Bescheid wissen. Trotzdem glauben 35% aller SchülerInnen,
dass die Ozonschicht die Erde wärmt (die Prozentzahl der SchülerInnen, die dieser
Auffassung sind nimmt aber mit steigendem Alter ab). Wiederum ca. 35% aller Befragten
geben an, dass die Ozonschicht die Erde vor saurem Regen schütze.
Des Weiteren ist den SchülerInnen bewusst, dass die Ozonschicht gefährdet ist. Für
diese Gefährdung machen sie eine Reihe von Ursachen verantwortlich, von denen jedoch
nicht alle wirklich im Zusammenhang mit der Beschädigung der Ozonschicht stehen. So
glauben über 80% der Befragten, dass sowohl Rauch aus Fabrikschloten als auch Autoabgase
zur Zerstörung der Ozonschicht beitragen. Weiterhin sind mehr als 70% der SchülerInnen der
Annnahme, Radioaktivität schädige die Ozonschicht – diese Annahme ist sogar unter den
44
älteren SchülerInnen weiter verbreitet als bei den Jüngeren. Als weitere Schadensquellen
werden von den SchülerInnen die Abholzung des Regenwaldes, der Treibhauseffekt, die
Meeresverschmutzung und saurer Regen angesehen.
Bezüglich der unmittelbaren Folgen einer zerstörten Ozonschicht kennen sich die
SchülerInnen recht gut aus: Nahezu allen älteren SchülerInnen ist bekannt, dass durch die
Zerstörung der Ozonschicht mehr UV-Strahlen die Erde erreichen und Hautkrebs
verursachen. 70% aller SchülerInnen wissen, dass aus erhöhter UV-Einstrahlung auch
Augenprobleme resultieren können. Trotzdem sind auch in diesem Bereich fehlerhafte
Annahmen unter den SchülerInnen verbreitet. Z.B. glauben 40% der Befragten, dass durch die
zerstörte Ozonschicht Fische vergiftet werden und dass das Trinken von (Leitungs-) Wasser
nicht mehr unbedenklich ist. Über die Hälfte aller SchülerInnen ist weiterhin der Annahme,
die Zahl der Herzinfarkte steige infolge der beschädigten Ozonschicht.
Der Vergleich mit Daten, die mit demselben Instrument an N = 1700 britischen
SchülerInnen gewonnen wurden, ergibt nur geringfügige Unterschiede auf Itemebene. Zum
Beispiel nehmen weniger britische SchülerInnen an, dass radioaktive Strahlen die
Ozonschicht schädigen, griechische SchülerInnen wiederum wissen besser Bescheid über die
Gefahr für die Augen, die von einer erhöhten Belastung mit UV-Strahlen ausgehen. Die
Autoren erklären diese Differenzen mit den unterschiedlichen soziokulturellen Hintergründen
der Schüler: Während die Nutzung von Atomkraft und damit auch die Diskussion über ihre
Risiken und Chancen in Großbritannien weiter verbreitet ist als in Griechenland, ist UVSchutz eher im sonnenverwöhnten Griechenland ein von den Medien häufig aufgegriffenes
Thema.
Physik
Das Ziel der Untersuchung von Kikas (2003) bestand darin, die Verbreitung von
Fehlkonzepten bezüglich dreier verschiedener physikalischer Phänomene unter estnischen
Studierenden zu dokumentieren. Bei den untersuchten Phänomenen handelte es sich um die
Bewegung
von
Objekten,
die
Entstehung
der
Jahreszeiten
und
Wechsel
von
Aggregatzuständen. Weil Fehlkonzepte aus dem Bereich der Mechanik in der Seminarlektüre
von Fischer bereits detailliert beschrieben wurden, konzentrieren wir uns hier auf die
Vorstellung der Ergebnisse zu letzteren beiden Themen.
Kikas verwendete in ihrer Untersuchung so genannte ‚evaluation-tasks’ und ‚problemtasks’. In den evaluation-tasks wurden je 4 Erklärungen für ein zuvor beschriebenes
Phänomen angeboten.
45
Eine der Erklärungen entsprach der wissenschaftlich korrekten Erklärung, zwei weitere
enthielten gängige Fehlkonzepte und eine weitere war eine einfache Beschreibung des
Phänomens. Die Aufgabe der 132 (M = 18.8 Jahre) Studierenden aus den Bereichen
Humanwissenschaften, Naturwissenschaften und Angewandte Naturwissenschaften bestand
nun darin, auf einer 4-stufigen Skala jede der vier Erklärungen hinsichtlich ihrer Adäquatheit
als aktuelle wissenschaftliche Erklärung zu bewerten. Außerdem galt es zu jedem der drei
Unterthemen eine Problemlöseaufgabe schriftlich zu beantworten.
Die Ergebnisse der ‚evaluation-tasks’ zeigen, dass für alle drei Phänomene die
korrekten wissenschaftlichen Erklärungen die höchsten Ratings von den Probanden erhalten.
Die einfachen Erklärungen werden als am wenigsten der aktuellen wissenschaftlichen
Erklärung entsprechend angesehen, dazwischen liegen die Antworten mit Fehlkonzepten.
Dieser Trend gilt für alle untersuchten Studentengruppen. Dass jedoch auch bezüglich der hier
untersuchten Phänomene Fehlkonzepte unter den Studierenden verbreitet sind, zeigen die
Antworten auf die ‚problem-tasks’: Nur 16% aller Studierenden gaben eine korrekte Antwort
auf die folgende Frage:
„In Estland ist es im Sommer warm und im Winter kalt, im Frühjahr und Herbst liegt
die Temperatur dazwischen. Was müsste anders an der Erde sein, damit in allen 4
Jahreszeiten das Klima gleich ist?“
Die richtige Antwort ist, dass die Erdachse im rechten Winkel zur Umlaufbahn der Erde
um die Sonne stehen müsste. In 13% der Studierendenantworten zeigt jedoch sich eine
fehlerhafte Auffassung, die als Distanztheorie bezeichnet wird. In dieser werden
Temperaturunterschiede zwischen Sommer und Winter an einem bestimmten Punkt auf der
Erde durch unterschiedliche Entfernungen zwischen diesem Punkt und der Sonne erklärt.
Eine weitere Problemlöseaufgabe bezog sich auf den Wechsel von Aggregatzuständen:
Was passiert mit den Atomen, wenn Eisen bis zum Schmelzpunkt erhitzt wird? Sie (a) dehnen
sich aus (b) ziehen sich zusammen (c) verändern ihre Größe nicht. 31% der Studierenden
glauben, dass die Atome sich ausdehnen. Ihr fehlerhaftes Konzept besteht darin, dass sie
Atome offen-sichtlich als materielle Partikel sehen, denen sie makroskopische Eigenschaften
zuschreiben. Mikro- und makroskopische Welt werde – bis auf den verkleinerten Maßstab gleichgesetzt. Die schriftlichen Ausführungen zu den Antworten unterstützen diese Erklärung.
65% der Studierenden, die Antwort (a) wählten, begründeten ihre Wahl damit, dass Materie
sich beim Erhitzen ausdehnt - folglich tun dies auch die darin enthaltenen Atome.
Interessanter Weise fanden sich hier keine Unterschiede in den Antworten der Studierenden
46
aus unterschiedlichen Studienfächern. Basierend auf diesen Ergebnissen kommt die Autorin
zu dem Schluss, dass Phänomene immer dann besonders schwer zu begreifen sind, wenn sich
die Prozesse auf der sichtbaren phänomenologischen Ebene von dem, was auf der
mikroskopischen Ebene wirklich geschieht - wie in diesem Fall – grundlegend unterscheiden.
Ein andere Studie, die sich ebenfalls mit Fehlkonzepten beim Erhitzen von Stoffen
beschäftigt, ist eine Studie von McElwee (1991). McElwee (1991) untersuchte 37
amerikanische Schüler hinsichtlich ihrer Fehlkonzepte bezüglich des Kochens von
Flüssigkeiten. Den Schülern wurden in Interviews Fragen darüber gestellt, wie sie sich
bestimmte Phänomene erklären. Vor allem wurde gefragt, wie sich die Blasen erklären lassen,
die während des Kochvorgangs aus dem Wasser aufsteigen. Ca. 50% der Probanden gaben an,
dass es sich bei den Blasen um Luft bzw. Sauerstoff oder Wasserstoff handelt. Als
Begründung wird angeführt, dass es kein Dampf sein kann, da sich Wasser erst bei 100° Grad
Celsius in Dampf verwandelt. Bei diesen Schülern hat sich ein synthetisches Modell gebildet,
das zum einen aus der Erfahrung stammt (wenn Wasser kocht, steigen Luftblasen auf) und
zum anderen in der Schule erlernt wurde (Wasser ändert seinen Aggregatzustand bei 100°
Grad Celsius von flüssig in gasförmig).
Wissenschaftliches Arbeiten
In einer Reihe von Untersuchungen konnte gezeigt werden, dass Schüler eigene Ideen
und Konstrukte über wissenschaftliche Phänomene entwickeln, lange bevor ihnen
wissenschaftliche Erklärungskonstrukte angeboten werden. Aus konstruktionspsychologischer
Sicht kann argumentiert werden, dass jede neue Information im Lichte dieser bereits
vorliegenden Konzepte interpretiert, modifiziert und revidiert wird. In vielen Studien zeigte
sich, dass zwischen diesen wissenschaftlichen und nicht-wissenschaftlichen Konzepten häufig
große
Diskrepanzen
bestehen,
deren
Identifikation
und
Überwindung
Ziel
instruktionspsychologischer Forschung ist. Dabei wird oftmals bemängelt, dass insbesondere
das methodische Vorgehen bei der Identifikation von Fehlkonzepten problematisch ist (Pfundt
& Duit, 1991).
Palmer (1998) diskutiert in seiner Studie die Verbindung zwischen wissenschaftlichen
Konzepten mit bereits vorliegenden alternativen Erklärungskonzepten. Untersuchungsdomäne
ist in dieser Studie das Konzept der „biologischen Rolle oder der biologischen Nische“. Dazu
wurden 100 Schüler zwischen 10- und 15 Jahren in Einzelinterviews Itemlisten vorgelegt,
welche einen hinreichend großen Range an Lebewesen abdeckten (z.B. Baum, Wurm, Grass,
Fisch.). Die Probanden wurden aufgefordert, zu jedem Item die spezifische Rolle des
47
Lebewesens anzugeben. Dabei zeigte sich, dass ein Großteil der Probanden sowohl
wissenschaftliche Konzepte als auch alternative Konzepte zur Erklärung der biologischen
Rolle von Lebewesen heranzogen. Diese unterschiedlichen Erklärungskonzepte wurden meist
mit „wenn... dann“ Konstruktionen verknüpft. (Beispiel: Frage: Welche biologische Rolle hat
ein Wurm? Antwort: Keine, Würmer kriechen nur rum und tun nichts. Frage: Nach welchem
Kriterium entscheidest du, ob etwas eine biologische Rolle übernimmt? Antwort: Wenn es
etwas tut oder hat, das wichtig oder hilfreich ist, dann übernimmt es eine biologische Rolle.)
Palmer betont in seiner Studie, dass die von ihm angewandte Interviewmethode, sehr hilfreich
sei, um mit den eingesetzten Itemlisten Wissensfragmente der Probanden zu erheben.
Dadurch können sowohl vorliegende Fehlkonzepte als auch deren Verknüpfungen mit
wissenschaftlichen Konzepten erfasst werden. Dadurch kann eine entsprechende Instruktion,
die Probanden vor Fehlkonzepten bewahren oder bereits bestehende auflösen soll, gezielt
eingesetzt werden.
Der Einfluss von Tradition und Kultur auf Erwerb und Modifikation wissenschaftlicher
Konzepte ist Thema vieler Studien (vgl. Ogawa, 1997). Im Mittelpunkt dieser Studien steht
meist die Frage, ob und wie kulturelle Aspekte –die sich z.B. in der Sprache niederschlagen den Erwerb wissenschaftlicher Konzepte beeinflussen.
Die hier skizzierte Studie von Lubben et al. (1998) untersucht Probanden, die auf Grund
ihrer kulturellen Prägung die Begriffe „heiß und kalt“ als Metapher zur Charakterisierung
alltäglicher Situationen benutzten und vergleicht, ob sich deren Konzept der Erwärmung von
Probanden ohne metaphorische Nutzung der Begriffe unterscheidet. Die Untersuchung wurde
an Studenten der afrikanischen Kultur Sotho durchgeführt. Die Sprache der Sotho verwendet
den Begriff „heiß“ im Sinne von „disharmonisch, abseits der Norm“ und den Begriff „kalt“
als „harmonisch, völlig normal“. Im ersten Teil der Studie klassifizierten 100 Studenten der
Sotho Kultur ein Aussagenset, welches verschiedenen Alltagssituationen beschrieb
hinsichtlich der Ausprägungen „heiß“, „kalt“ und „weder noch“. Alle Probanden wurden
aufgefordert, ihre Codierung zu begründen. Auf Basis dieses Ratings wurden die Probanden
in einer zweiten Studie in so genannte „metaphoric reasoners“ und „nonmetaphoric reasoners“
eingeteilt, deren Aufgabe es war, das Konzept der Teilchenerwärmung zu erklären. Dieses
wurde ihnen in einer anschließenden Trainingsphase erklärt. In einer letzten Untersuchung
wurde das Konzept der Erwärmung erneut getestet.
Im Ergebnis zeigte sich, dass etwa ein Drittel aller Teilnehmer als „metaphoric
reasoners“ einzustufen waren, also die Begriffe „heiß“ und „kalt“ als Metapher zur
48
Beschreibung alltäglicher Situationen gebrauchten. Entscheidend zur Klassifikation war in
erster Linie das Ausmaß der Bewegung in den beschriebenen Situationen. „bewegt sein“
wurde als Kriterium zur Klassifikation „heiß“ verstanden, „Starre“ zur Klassifikation „kalt“.
Im Gegensatz zu einer Reihe früherer Untersuchungen von Hewson und Hamlyn (1984)
konnte sich in dieser Untersuchung keine Überlegenheit der „metaphoric reasoners“ im
Erwerb des Konzeptes der Erwärmung zeigen. Die Vorstellung, dass „kalt“ gleichzeitig
„starr“ und „heiß“ „beweglich“ bedeutet, wurde in der erwähnten Studie als Vorteil für
metaphoric reasoners interpretiert, da diese metaphorische Nutzung der Begriff das
wissenschaftliche Konzept der Erwärmung bereits umschreibt. Lubben et al. konnten
hingegen keinen Performanzunterschied zwischen metaphoric und nonmetaphoric reasoners
feststellen. Aus ihrer Sicht nehmen Studenten bei der Bearbeitung von wissenschaftlichen
Fragestellungen einen „conceptual change“ vor und ignorieren offensichtlich ihre kulturelle
Prägung.
Im Gegensatz zu kulturellen Perspektive Ogawa (1997) oder Lubben und Kollegen
(1998), untersuchten Griffiths und Thompson (1993) ohne deren Berücksichtung kanadische
Jugendliche. Griffiths, A. K. & Thompson, J. (1993) interviewten 32 Teilnehmer von
Wissenschaftswettbewerben in Kanada im Alter zwischen 13 und 16 zum Thema
„wissenschaftliches Arbeiten“. In den Interviews wurden u.a. die Fragen gestellt „Was ist eine
unabhängige Variable?“ und „Ist eine unabhängige Variable das gleiche wie eine
Kontrollvariable?“. Jeweils nur ca. ein Drittel der Schüler konnte jedoch die richtige Antwort
geben. So gaben die restlichen Probanden an, eine unabhängige Variable sei vom restlichen
Experiment abgetrennt bzw. das sich diese Variable selbst kontrolliert oder steuert. Auf die
Frage, ob unabhängige und kontrollierte Variablen das gleiche sind, antworten zwei Drittel
mit ja. Diese Antwort wurde z.B. wie folgt begründet: „Man kontrolliert die unabhängige
Variable; man kontrolliert was passiert und das ist das gleiche wie eine unabhängige
Variable.“. Aber auch die Teilnehmer, die mit nein geantwortet hatten, begründeten ihre
Antwort zumeist nicht richtig („Nun, eine unabhängige Variable kann nicht kontrolliert
werden, da sie sich selbst kontrolliert. Eine Kontrollvariable kann jedoch kontrolliert
werden.“).
2.1.2.
Diskussion des Grundlagentexts durch die
Seminarteilnehmer
Fragen zu Fehlkonzepten und Ihrer Bedeutung in der (pädagogischen)
Psychologie
49
Sind Fehlkonzepte grundsätzlich negativ?
Im Schulunterricht werden gezielt Fehlkonzepte eingesetzt (z.B. das Licht als Strahl), nur
werden sie hier als Vereinfachung zur Reduzierung der Komplexität verwendet.
Zusammenfassung der Diskussion: In der Online-Diskussion wurde der These, das
Fehlkonzepte grundsätzlich negativ sind, deutlich widersprochen. Als Gegenthese wurde vor
allem hervorgehoben, dass es sich bei Fehlkonzepten um vereinfachte Modelle handelt, die in
der Lage sind, einen Teil der Wirklichkeit konsistent und Vorwissenskonform abzubilden.
Damit
werden
vor
allem
Fehlkonzepte
angesprochen,
die
vor
allem
der
Komplexitätsreduktion dienen. Neben dieser Perspektive der „Wissensvermittlung durch
Fehlkonzepte“, wurde auch die Bedeutung von Fehlkonzepten in der Wissenschaft diskutiert.
Vor allem wurde darauf hingewiesen, dass die „richtigen“ Konzepte von heute die
Fehlkonzepte von morgen sein könnten, wie es bei einigen Theorien schon geschehen ist (z.B.
„Die Erde ist eine Scheibe“, „Der Weltraum ist gefüllt mit Äther“).
Im Folgenden werden die Diskussionsbeiträge der Seminarteilnehmer zu dieser Frage
präsentiert:
•
Fehlkonzepte im Sinne einer vereinfachten Darstellung von Sachverhalten, wie sie im
Unterricht häufig angewendet werden, sind sicherlich nicht grundsätzlich negativ. Durch
die vollzogene Komplexitätsreduktion werden bestimmte Themenbereiche für Schüler mit
eingeschränktem Vorwissen leichter zugänglich und der Einstieg in manche Fächer wird
erleichtert. Ein Beispiel hierfür ist der Chemieunterricht, in dem verschiedene
Bindungsformen zwischen Atomen bzw. Molekülen zunächst stark vereinfacht, später
jedoch differenzierter dargestellt werden. Das langsame Heranführen an komplexe
Zusammenhänge in der Schule ist als didaktisches Element ebenso sinnvoll wie es auch
die Verwendung von vereinfachten Konzepten im Alltag (wie in Frage zwei
angesprochen) ist. Allerdings finde ich es jeweils wichtig, von vornherein klarzustellen,
dass es sich bei der Darstellung um eine Vereinfachung handelt, da es häufig als
Bevormundung empfunden wird, wenn man im Nachhinein erfährt, dass Konzepte, mit
denen man lange gearbeitet hat, eigentlich falsch sind.
•
Wie in Frage 1 bereits angemerkt, müssen Fehlkonzepte durchaus nicht immer negativ
sein. Da sich Wissenserwerb immer an vorhandenem Vorwissen orientiert, und nur durch
Vorwissen möglich gemacht wird, müssen komplizierte Phänomene in unterschiedlich
vereinfachter Form dargestellt werden können. Interessant ist dabei meiner Meinung nach
der Moment, in dem einem Schüler/ Lernenden die Diskrepanz zwischen den eigenen
(Fehl-) Konzepten und den wissenschaftlichen Erklärungen bewusst wird. Diese
Diskrepanz wird in der Regel Erstaunen hervorrufen, kann Neugierde anregen und einen
Lernanreiz darstellen.
•
Ich finde, es gibt mehrere Argumente, die [gegen] eine generell negative Bewertung von
Fehlkonzepten sprechen:
In der wissenschaftlichen Forschung werden Fehlkonzepte meist nach und nach widerlegt
50
und durch neuere, eher der Empirie entsprechende Konzepte ersetzt (z.B. "die Erde ist
eine Scheibe"). Diese Annährung an die "Wahrheit" kann sich zyklisch mehrmals
wiederholen. Erst widersprüchliche Erfahrungen helfen, Fehlkonzepte aufzudecken.
Hinzu kommt, dass Fehlkonzepte ihren Inhabern zunächst nicht bewußt sind. Meiner
Meinung nach sollte man in der wissenschaftlichen Forschung dem entsprechend (fast)
jedes Faktum und jede Hypothese als ein potentielles Fehlkonzept betrachten und
systematisch nach widersprüchlichen Informationen suchen. Nur so ist Fortschritt
möglich. Aus diesem Grund haben Fehlkonzepte in der Forschung einen großen
heuristischen Stellenwert.
Aber auch bei jeglicher Art der Bildung spielen Fehlkonzepte eine große Rolle. Zum
einen dienen sie der Komplexitätsreduktion bei der Vermittlung komplexer Inhalte und
zeigen die Wissenschaftsgeschichte bestimmter Domänen auf. Zum anderen - und das ist
meiner Meinung nach eine ebenso wichtige Funktion - weisen sie auf die Relativität von
Wissen hin. Nur dadurch kann eine Einstellung entstehen, die der wissenschaftlichen
Forschung zuträglich ist: nämlich, dass es potentiell viele Fehlkonzepte gibt und es
wichtig ist, diese systematisch zu widerlegen (s.o.). Auch die individuellen Fehlkonzepte
bieten in der Lehre eine fruchtbare Chance: Durch explizite Besprechung und
Widerlegung können sie korrigiert werden. Leider habe ich diese Art der Lehre in meiner
Schullaufbahn selten genießen dürfen ...
Meine Schlussfolgerung ist: Es wird immer Fehlkonzepte geben (nicht nur in der
Forschung, sondern besonders auch in der Allgemeinheit, die schließlich nicht in allen
Domänen auf dem neusten Stand sein kann). Daher ist es wichtig, sie nicht negativ zu
bewerten, sondern produktiv (in Lehre und Forschung) mit ihnen umzugehen.
•
Die Vereinfachung komplexer Sachverhalte ist insbesondere für Lerner mit geringem
Vorwissen in einer Domäne sinnvoll und didaktisch erforderlich. Ein prominentes
Beispiel für dieses Vorgehen stellt die Verwendung des Planetenmodells für den Aufbau
von Atomen dar. Für ein grundlegendes Verständnis des Atomaufbaus und die daraus
resultierenden Bindungseigenschaften der chemischen Elemente ist das vereinfachte
Planetenmodell hervorragend geeignet. Aus der aktuell in der wissenschaftlichen Physik
vorherrschenden quantentheoretischen Perspektive handelt es sich allerdings um ein
Fehlkonzept. Hierzu lässt sich zum einen anmerken, dass ein komplexes Verständnis der
Quantenmechanik nicht zu den Lernzielen des Chemie-Unterrichts, die
Komplexitätsreduktion also lernzielangemessen ist. Zum anderen ist zu fragen, ob die
Quantenmechanik ohne das Wissen um das fehlerhafte Planetenmodell überhaupt
erfolgreich vermittelt werden kann. Eine schrittweise Anhebung der Komplexität in der
Wissensvermittlung unter bewusster Inkaufnahme von Fehlkonzepten stellt
möglicherweise eine geeignete Methode zum didaktischen Umgang mit dem Lernparadox
dar (Lernparadox: die Aneignung von Wissen setzt bereits Wissen voraus, das aber
eigentlich erworben werden soll).
Eine grundsätzliche Klassifikation von Fehlkonzepten als positiv oder negativ halte ich für
wenig sinnvoll. Obwohl der Begriff „Fehlkonzept“ zumeist negativ konnotiert ist, stellen
doch Fehlkonzepte und naive Theorien subjektive Erklärungsversuche dar, die sich im
alttäglichen Leben als durchaus adaptiv erweisen können. Im Lehr-Lern-Kontext hingegen
ist das Aufdecken und Modifizieren von Fehlkonzepten von Lernern wie Lehrenden eine
wesentliche Vorraussetzung für den Wissenserwerb.
51
•
Meiner Ansicht nach gilt es bei Fehlkonzepten zu differenzieren: Werden bei Schülern
vorhandene Fehlkonzepte zur Schaffung eines Common Grounds aufgegriffen und
anschließend differenziert bzw. berichtigt, können sie ein adäquates didaktisches Mittel
darstellen. Ebenso legitim kann ein Fehlkonzept im Sinne eines vereinfachenden Modells
sein, das zu einem späteren Zeitpunkt verfeinert wird. Ein Beispiel könnte das Lernen von
Vergangenheitszeiten beim Sprachlernen darstellen: Zuerst beschäftigt man sich mit einer
einfach zu bildenden Zeit, verwendet diese in Gesprächen/ Aufsätzen pauschal für
jegliche Art von Vergangenheit und lernt anschließend differenziertere
Anwendungsregeln der verschiedenen Zeiten.
Allerdings wird an diesem Beispiel auch schon eine potentielle Gefahr von Fehlkonzepten
deutlich. Sie können sehr änderungsresistent sein, zu Fehlern führen oder Transfer
verhindern. Ein weiteres Problem kann die Bildung oder Unterstützung falscher
epistemologischer Überzeugungen sein, die durch eine „fehlkonzeptionelle“
Vereinfachung entstehen oder aufrechterhalten werden. So vertreten Schüler im
Mathematikunterricht häufig die Meinung, dass es für die Lösung einer Aufgabe nur eine
einzige Lösungsmöglichkeit gibt – eine Überzeugung, die durch das Präsentieren nur
eines Lösungsweges (= Vereinfachung durch Komplexitätsreduktion) vielleicht noch
fälschlicherweise gestützt wird. Aufgrund dieser Nachteile gibt es auch Ansätze, die diese
Übervereinfachungen gerade vermeiden wollen und Komplexität bzw. Irregularität in den
Lernprozess einbeziehen wollen (vgl. Cognitive Flexibility Theory, Spiro et al., 1987).
Fehlkonzepte sind somit weder grundsätzlich als positiv oder negativ einzustufen,
vielmehr gilt es im Einzelfall den Einsatz zu überprüfen. Bei der Verwendung von
Fehlkonzepten im Unterricht sollte man daher explizit darauf aufmerksam machen, dass
diese den Charakter einer Vereinfachung haben bzw. ein vorläufiges Konzept darstellen,
um erwähnte Nachteile zu vermeiden.
•
Als grundsätzlich negativ würde auch ich Fehlkonzepte nicht einstufen. Neben der von
euch genannten Funktion der Komplexitätsreduzierung, können Fehlkonzepte auch einen
weiteren Vorteil aufweisen:
Es ist offensichtlich nicht einfach, Fehlkonzepte aufzudecken und durch angemessene
Konzepte zu ersetzen, weil sie oftmals tief verhaftet sind. Aber gerade dieser Prozess des
Ersetzens von tief verwurzelten Fehlkonzepten durch angemessene Konzepte führt meiner
Meinung nach dazu, dass sich diese neuen, korrekten Konzepte sehr einprägen. Diese so
genannten Aha-Effekte können sehr wirksam sein.
Ist es sinnvoll, Fehlkonzepte rein objektiv zu definieren?
Welche Rolle spielt es im Alltag, dass die Zeit keine Konstante ist? Das Konzept einer immer
und überall gleich schnell ablaufenden Zeit ist funktional und wesentlich geeigneter, meine
erfahrbare Welt zu erklären, als die Relativitätstheorie.
Zusammenfassung der Diskussion: Die drei Beträge zu dieser Frage waren sehr
heterogen. Sie behandeln die Frage aus einer wissenschaftlichen, gesellschaftlichen und einer
52
eher individuellen Perspektive. Allen gemeinsam ist der Versuch, eine Grenze zwischen
„guten“ und „schlechten“ Fehlkonzepten zu definieren.
Im Folgenden werden die Diskussionsbeiträge der Seminarteilnehmer zu dieser Frage
präsentiert:
•
Ich denke, dass Fehlkonzepte im Alltag durchaus funktional sein und den Umgang mit
den betreffenden Phänomenen erleichtern können. Wenn sie das nicht könnten, würden sie
wohl auch nicht existieren. Kritisch wird es dann erst, wenn man mit diesem Fehlkonzept
mal so richtig "an die Wand fährt". Erst dann ist - und das bestätigt meines Wissens auch
die Conceptual-Change-Literatur - eine hohe Wahrscheinlichkeit gegeben, dass die
fehlerhaften Alltagskonzepte durch wissenschaftliche Konzeptualisierungen ersetzt
werden.
Dennoch denke ich aus einer normativen Perspektive heraus, dass es einige Fehlkonzepte
gibt, die gravierender sind als andere und deren Veränderungen daher eher Gegenstand
instruktionaler Interventionen sein sollten als andere. Zum Beispiel gibt es Studien, in
denen gezeigt wurde, dass die Überzeugungen von Schülern darüber, wie
wissenschaftliche Erklärungen aussehen sollen, häufig nicht den Einbezug von Evidenzen
oder das Aufstellen von kausalen Beziehungen zwischen einzelnen Faktoren beinhalten
(Sadoval, in Druck). Meines Erachtens handelt es sich hierbei um ein Fehlkonzept, das
zwar auf einer anderen Ebene als die in Eurem Überblick enthaltenen meist
naturwissenschaftlichen Fehlkonzepte liegt. Dennoch würde ich vermuten, dass ein
derartiges Fehlkonzept häufig die Quelle für das Entstehen von neuen Fehlkonzepten auf
einer stärker phänomenologischen Ebene sein kann - werden etwa Befunde zur Frage der
Reichweite von Lichtstrahlen nicht adäquat im Sinne von Ursache-WirkungsZusammenhängen diskutiert, steigt auch die Wahrscheinlichkeit, am Ende einem
Fehlkonzept aufzusitzen.
Kurz gesagt: ich bin der Ansicht, dass Fehlkonzepte "höherer Ordnung" (etwa wie die
beschriebene Überzeugung, wissenschaftliche Erklärungen müssten keine Evidenzen und
keine Ursache-Wirkungs-Aussagen beinhalten) gravierender sind und dringender
instruktionaler Interventionen bedürfen als viele Fehlkonzepte auf einer
phänomenologischen Ebene.
Literatur:
Sandoval, W. A. (in press). Conceptual and epistemic aspects of students' scientific
explanations. Journal of the Learning Sciences.
•
Ein anderer Aspekt von Fehlkonzepten, der auch in Frage 2 mitschwingt, betrifft die Frage
danach, ob sie in der nichtwissenschaftlichen Öffentlichkeit unbedingt aufgeklärt oder
verhindert werden müssen. Dies hängt mit Sicherheit von dem Bereich ab, für den
Fehlkonzepte bestehen. Die in den Annotationen beschriebenen Fehlkonzepte unter
griechischen und britischen Schülern über die Ozonschicht beinhalten auch falsche
Vorstellungen darüber, wodurch sie zerstört wird. Um im eigenen Verhalten aber nicht zu
der Zerstörung der Ozonschicht beizutragen, sollte man die Auslöser kennen. In diesem
Fall wäre eine Aufklärung über die Fehlkonzepte und eine Aneignung der
wissenschaftlichen Konzepte durchaus sinnvoll und wichtig. Ich stimme Gruppe D
allerdings zu, dass es mich in meinem Alltag nicht beeinträchtigt, Fehlkonzepte über die
Zeit zu besitzen und im Gegenteil eher nützlich für ein Zurechtfinden in der Welt ist. So
53
hängt die Notwendigkeit der Abkehr von Fehlkonzepten bedeutend von ihrer Rolle für
den menschlichen Alltag ab.
•
Ich denke, dass es eine Frage der Funktionalität ist und bleibt. Denn welche Fehlkonzepte
uns in unserem Alltag und auch bei unserer Arbeit anleiten, ist uns gar nicht zugänglich.
Ich möchte in diesem Zusammenhang auf die Persuasionsforschung verweisen und eine
Parallele ziehen zwischen heuristischer und systematischer Verarbeitung von
Informationen. Heuristiken sind (analog zu Fehlkonzeptionen), stark vereinfachte
Schemata mit denen wir einen großen Teil an Information verarbeiten und für uns
funktional einordnen können. Kommen wir jedoch an einen Punkt, an dem sich eine hohe
persönliche Relevanz, Diskrepanzen zwischen den verfügbaren Informationen oder andere
Hinweisreize verdichten, verwenden wir mehr Aufmerksamkeit und Recherchieren
genauer um uns ein Urteil zu bilden. Ich denke diese Theorie lässt sich auch auf einen
Umgang mit Fehlkonzepten übertragen. Sobald wir feststellen, dass bestimmte
Konzeptionen die wir verwenden, unter Umständen Fehlkonzeptionen sind, und uns daher
nicht weiterhelfen, uns fehlleiten oder aber wir beginnen uns für etwas genauer zu
interessieren, sollte eine Überprüfung der leitenden Konzepte und das Hinterfragen
derselben beginnen.
Weitere Beiträge
Sind
Euch
im
Rahmen
eurer
Literaturrecherche
besondere
methodische
Vorgehensweisen zur Erfassung von Fehlkonzepten aufgefallen?
•
Eine besondere Vorgehensweise im Sinne von einzigartig oder besonders innovativ ist uns
nicht aufgefallen.
Vielmehr gibt es das typische Vorgehen: Man nehme sich Schüler (es werden fast immer
Schüler untersucht; mit Vorliebe im Grundschulalter) und konfrontiere sie mit
physikalischen Phänomenen (entweder real oder durch Beschreibungen).
Die Probanden sollen dann diese Phänomene erklären. Diese Erklärung der Phänomene
findet überlicherweise in einem semi-strukturierten Interview statt, d.h. der Interviewer
klappert einzelene Themenbereiche ab, bietet auch schon mal Analogien zum erklären an
und hakt gezielt nach.
Diese Interviews werden dann bezüglich der Fehlkonzepte kategorisiert.
54
Dozentenrückmeldung und -ergänzung
•
Aufbauend auf der sehr differenziert geführten Diskussion zum Wert und Unwert von
Fehlkonzepten möchte ich nur noch einige kleinere Punkte ergänzen.
Ich glaube, das wichtigste didaktische Ziel für die „Lernenden“ ist, zu verstehen, dass alle
Vorstellungen, die wir uns von den Dingen und Abläufen machen, nur Annäherungen an
die Wirklichkeit sind. Das gilt nicht nur für unsere Alltagsvorstellungen sondern auch für
ihre wissenschaftlichen Erklärungen. Damit ist aber nicht einem „Anything goes.“ das
Wort geredet, sondern eher „Nothing is perfect.“
Für die Lehrenden ist entscheidend
(a) bewerten zu können, in welchen Aspekten das „Fehlkonzept“, ich würde lieber von
Modell sprechen, die Wirklichkeit korrekt wiedergibt, und in welchen das Modell nicht
weiterhilft oder sogar zu falschen Vorhersagen führt.
(b) ein korrektes Modell des Modell des Lernenden zu haben, um die Instruktion gezielt
darauf auszurichten, welches Modell des Lernenden durch ein besseres,
wissenschaftlicheres, ersetzt werden soll.
Hier wird es auch für die Psychologie interessant. Während die Entwicklung der Modelle
erster Ordnung – das sind die Modelle über die Wirklichkeit – Gegenstand der
verschiedenen Disziplinen, wie Physik, Chemie usw. ist, ist die Analyse der Modelle in
den Köpfen, also der mentalen Modelle Gegenstand der Psychologie und
Pädagogik/Didaktik.
Das Schönste wären korrekte Modelle der mentalen Modelle, die selbst immer bessere
Modelle der Wirklichkeit sein sollten.
2.2.
Gruppe E: Unanschaulichkeiten in der Psychologie
(S. 77 - 128)
Auf den Seiten 77 bis 128 des Buchs „Kritik des gesunden Menschenverstandes – Unser
Hindernislauf zur Erkenntnis“ präsentiert der Autor Ernst Peter Fischer einige
wissenschaftshistorisch interessante Probleme bei dem Versuch, naturwissenschaftliches
Wissen anschaulich zu machen. Zum Beispiel wurde in der Atomphysik versucht, die
Atomstruktur mittels eines Planetenmodells zu repräsentieren, obwohl dieses Modell letztlich
falsch und damit unanschaulich war. Aufgabe der Gruppe E war es, Beispiele für ähnliche
Unanschaulichkeiten innerhalb der Psychologie zu finden und auf der Grundlage dieser
Beispiele drei Fragen bzw. Thesen zu entwickeln, die aus dem genannten Kapitel von Fischer
abgeleitet werden können.
Dieses Kapitel beinhaltet demzufolge zwei Teile. Zum ersten werden Beispiele für
Unanschaulichkeiten innerhalb der Psychologie geordnet nach Themen bzw. Subdisziplinen
präsentiert. Im Anschluss daran werden die von Gruppe E (auf)gestellten drei Fragen/Thesen
sowie die Antworten der Seminarteilnehmer aufgeführt.
55
2.2.1.
Beispiele für Unanschaulichkeiten innerhalb der
Psychologie
Fischer beschreibt eine wissenschaftliche Erfahrung als eine Erfahrung, die dem
Erwarteten, also von dem, was wir uns mittels des gesunden Menschenverstandes herleiten
können, widerspricht. Wissenschaftliche Erkenntnis ist dieser Auffassung nach meist
unanschaulich. Zur Verdeutlichung solcher Unanschaulichkeiten innerhalb der Psychologie
haben wir einige verbreitete Beispiele für Fehlkonzepte und Unanschaulichkeiten der
Psychologie zusammengetragen. Diese Zusammenstellung stützt sich zum einen auf Befunde
aus der Literatur, zum anderen auf eigene Erfahrungen im Studium, Prüfungen und
Lehrveranstaltungen. Im Gegensatz zu naturwissenschaftlichen Fehlkonzepten sind
Fehlkonzepte innerhalb der Psychologie bisher nur sehr vereinzelt erforscht worden.
Genetische Einflüsse in der Psychologie
Die Wirkweise von Genen auf Verhalten und Erleben von Menschen ist in hohem Maße
unanschaulich. So werden z.B. genetische Einflüsse auf die Vererbung psychischer Störungen
oder Persönlichkeitseigenschaften häufig im Sinne eines genetischen Determinismus
missverstanden (vgl. Plomin & Walker, 2003). Eine kausale Determiniertheit liegt aber
bestenfalls bei monogenetischen Vererbungsgängen vor. Bei weitem die meisten genetischen
Einflüsse auf die menschliche Persönlichkeit sind allerdings von multiplen Genen beeinflusst.
Genetische Einflüsse stehen dabei stets im Wechselspiel mit Umwelteinflüssen. Selbst für
monogenetisch vererbte Störungen wie PKU (eine Stoffwechselstörung, die zu mentalen
Retardierungen führen kann) können Umwelteinflüsse nachgewiesen werden.
Ein weiteres Fehlkonzept aus dem Bereich Genetik bezieht sich auf die in der
Entwicklungspsychologie gängige Methode der Zwillings- und Adoptionsstudien. Mittels
dieser Methoden lassen bestimmte Anteile der Populationsvarianz psychologischer Variablen
auf genetische oder umweltbedingte Unterschiede zurückführen. Diese Varianzanteile werden
häufig als Anteile von Eigenschaften missverstanden, die genetisch oder durch
Umwelteinflüsse verursacht sind (Sternberg & Grigorenko, 1999). Ferner führt die verbreitete
Verwendung von Erblichkeitskoeffizienten zu der Fehleinschätzung, es gebe einen wahren
Wert der Erblichkeit einer Eigenschaft. Da der Erblichkeitskoeffizient allerdings Ergebnis der
Abschätzung von genetisch und umweltbedingten Varianzanteilen ist, verändert er sich in
Abhängigkeit
der
vorhandenen
Umweltvarianz.
Es
gibt
folglich
keinen
wahren
Erblichkeitsanteil. Erblichkeitskoeffizienten sind daher stets nur innerhalb einer Population
56
mit einer bestimmten Umweltvarianz interpretierbar. Eine Extrapolation auf andere
Populationen oder gar das Heranziehen von Erblichkeitskoeffizienten zur Erklärung von
Unterschieden zwischen Populationen ist somit nicht zulässig. Es spricht für die generelle
Unanschaulichkeit der verwendeten Forschungsmethodologie, dass Fehlkonzepte und
Fehlinterpretationen hinsichtlich der Erblichkeit von Persönlichkeitseigenschaften dennoch so
weit verbreitet sind. Ein prominentes Beispiel ist die Kontroverse um Unterschiede zwischen
den Intelligenztestresultaten verschiedener ethnischer Gruppen. So zeugt der Rückschluss von
dem geringeren Durchschnitts-IQs schwarzer Amerikaner im Vergleich zu weißen auf
genetisch bedingte Unterschiede zwischen diesen ethnischen Gruppen (z. B. Jensen) von einer
grundlegenden Fehlinterpretation des für Intelligenz ermittelten Erblichkeitskoeffizienten.
Darüber hinaus legt die Methodologie der Anlage-Umwelt-Forschung den Fehlschluss
nahe, Anlage- und Umwelteinflüsse seien vollständig separierbar. Beobachtbar ist allerdings
stets nur das Ergebnis einer Interaktion zwischen genetischen und umweltbedingten Faktoren
(vgl. Scarrs drei Typen der Genotyp-Umwelt-Interaktion „passiv“, „reaktiv“, „aktiv“).
Schon an diesen wenigen Beispielen wird deutlich, dass die Anlage-Umwelt-Forschung
ein gutes Feld zur Verdeutlichung von Unanschaulichkeiten innerhalb der Psychologie
darstellt. Bei Sternberg und Grigorenko (1999) werden weitere Mythen im Rahmen der
Anlage-Umwelt-Debatte aufgeführt.
http://bscw.vgk.de/bscw/bscw.cgi/d300705/Sternberg%20%26%20Grigorenko.pdf
Fehlkonzepte aus dem Bereich Entwicklungspsychologie
Neben den oben aufgeführten Beispielen aus der Anlage-Umwelt-Debatte gibt es in der
Entwicklungspsychologie zahlreiche historische Fehlkonzepte hinsichtlich der kindlichen
Entwicklung, z. B. die Sicht des Kindes als „kleiner Erwachsener“ oder die Unterschätzung
kindlicher Operationen vor Piaget. Die Einschätzung der Entwicklung kognitiver Funktionen
im Alter unterliegt ebenfalls Fehlkonzeptionen (vgl. Thornton, 2003). So herrscht in der
öffentlichen Diskussion zumeist eine reine Abbau-Hypothese vor, während sich in der
wissenschaftlichen Betrachtung das Konzept des lebenslangen Lernens und die Auffassung
einer (zumindest bedingten) Kompensierbarkeit von Abbauprozessen im Bereich der fluiden
Intelligenzleistung durch kristallines Wissen durchgesetzt hat.
57
Fehlkonzepte bzgl. des Operanten Konditionierens
Es kommt häufig zur Verwechslung von negativer Verstärkung und Bestrafung im
Paradigma des Operanten Konditionierens (Shields & Gredler, 2003). Dies mag mit dem
kontraintuitiven Gebrauch des Wortes „negativ“ zusammenhängen. Die Unterscheidung
„positiv“ vs. „negativ“ bezieht sich im Paradigma des Operanten Konditionierens lediglich
auf die Darbietung (pos.) oder den Entzug (neg.) von Reizen. Damit wird – anders als im
alltagssprachlichen Gebrauch – nichts über die Valenz der Reize selbst ausgesagt.
Ein kleines Beispiel hierzu aus einem Forum für Hundeerziehung: In der Anfrage
werden negative Verstärkung und Bestrafung gleichgesetzt, es wird allgemein von negativem
vs. positivem Konditionieren gesprochen. http://www.versatiledogs.com/ask/ret43.html
Eine Inhaltsanalyse von Psychologie-Lehrbüchern von Sheldon (2002) gibt erste
Hinweise darauf, dass missverständliche oder unvollständige Lehrtexte maßgeblichen Anteil
an Fehlkonzepten über das Operante Konditionieren haben könnten.
Fehlkonzepte über die Wirkweise von Affekt / Emotion
Affekt und Emotion werden häufig als Gegenpole kognitiver Prozesse missverstanden.
So besteht z.B. das Fehlkonzept, dass jedwede Art von Affekt Denkprozesse verzerrt oder
unterbricht. Emotion im Ganzen wird häufig als irrational und dysfunktional aufgefasst (Zhu
& Thagard, 2002). Das wissenschaftliche Konzept der Emotion als komplexes
Reaktionsmuster bestehend aus kognitiven, behavioralen, physiologischen und affektiven
Komponenten ist hingegen im Alltagswissen wenig verbreitet. Es ist zu vermuten, dass
Untersuchungsbefunde, die den Einfluss kognitiver (z.B. Schachter-Singer-Experiment,
Schachter & Singer, 1962) oder behavioraler Komponenten (z.B. facial feedback Hypothese)
auf das affektive Erleben belegen, bei den meisten Nicht-Psychologen zunächst Überraschung
hervorrufen.
Fehlkonzepte über die Unkontrollierbarkeit und Stabilität von Emotionen stellen zudem
einen wesentlichen aufrechterhaltenden Faktor bei einer Vielzahl psychischer Störungen dar.
So ist die Vermittlung des Zusammenhangs zwischen Emotion und der kognitiven Bewertung
potenzieller
Auslösesituationen
Bestandteil
der
meisten
kognitiv-behavioralen
Therapieansätze (vgl. Wilken, 1998).
58
Kontraintuitive Befunde aus der Sozialpsychologie
Ross (1977) führte den Begriff des „fundamentalen Attributionsfehlers“ in die
Sozialpsychologie ein, dem zufolge Menschen dazu neigen, eher sich selbst als Ursache von
Ereignissen wahrzunehmen als sie umgebende situative Verhaltensdeterminanten (d.h. eher
internal als external zu attribuieren), selbst wenn „objektiv“ ein externaler Faktor das Ereignis
verursacht hatte.
Aus der Theorie der kognitiven Dissonanz ist der so genannte „fait accompli“-Effekt
bekannt.
Im Mittelpunkt dieses Effekts steht, welchen Einfluss auf die Zufriedenheit mit einer
eigenen Entscheidung plötzlich und unerwartet auftretende negative Konsequenzen dieser
Entscheidung haben. Brehm (1959) hat dazu festgestellt, dass sich bei unerwartet auftretenden
negativen Konsequenzen einer Entscheidung die Attraktivität dieser Alternative erhöht, sofern
sich die Personen für die negativen Konsequenzen verantwortlich fühlen. Dagegen führen
negative Konsequenzen, die zufällig auftreten oder die Personen external attribuieren können,
zu keiner Änderung der Attraktivität der Entscheidung oder Handlung. Frey und Gaska (1993)
bezeichnen dies als „paradoxes, aber durch die Dissonanztheorie vorhersagbares Ergebnis“
(S. 287), was demnach als ein Beispiel für einen dem „gesunden Menschenverstand“
entgegenstehenden Befund gewertet werden kann.
Ein
weiterer
kontraintuitiver
oder
zumindest
verblüffender
Effekt
aus
der
Sozialpsychologie stammt aus der Theorie der sozialen Vergleichsprozesse: der
autokinetische Effekt. In einer Untersuchung von Rohrer, Baron, Hoffmann und Swander
(1954) trainierten die Probanden zunächst in Einzelsitzungen ihre Fähigkeit, die Bewegungen
eines Lichtpunkts auf einer Wand mit Hilfe eines relevanten Bezugssystems zu beurteilen.
Während der folgenden Gruppenuntersuchung, in der die anderen Gruppenmitglieder
Verbündete des Versuchsleiters waren und sich absichtlich verschätzten, stand dieses
Bezugssystem (objektives Kriterium) jedoch nicht mehr zur Verfügung. Trotz des Trainings
konnte nachgewiesen werden, dass sich der Konformitätsdruck (soziales Kriterium) auf die
Urteile auswirkte. Den Effekt des Konformitätsdrucks konnte man sogar ein Jahr später noch
nachweisen, was auf eine stabile Meinungsänderung hindeutet (vgl. Frey, Dauenheimer,
Parge & Haisch., 1993).
Im Rahmen der Forschung zum Elaboration Likelihood Modell von Petty und Cacioppo
(1986) wurden einige Befunde zum biased information processing erbracht, die nicht nur
59
psychologische Laien erstaunen. Beispielsweise konnten Petty, Wells, Heesacker, Brock und
Cacioppo (1983) nachweisen, dass Personen, die liegen, zu einer tieferen Verarbeitung von
Botschaften neigen als Personen, die sitzen oder stehen. Ferner ging in einer Studie von
Cacioppo
(1979)
eine
hohe
Herzschlagfrequenz
mit
einer
intensiveren
Informationsverarbeitung einher.
Fehlkonzepte zum Intelligenzbegriff
Schlinger (2003) vertritt die Position, dass die Spearmansche Konzeption von general
intelligence logische Fehler beinhalte und somit ein Mythos sei. Durch den sog. g-Faktor (für
„general intelligence“) wird Intelligenz als eine qualitativ einzigartige Fähigkeit mit einer
relativ festen Quantität gesehen, die Individuen besitzen und die mit konventionellen
Intelligenztests getestet werden kann. Schlinger wirft dieser und ähnlichen Konzeptionen von
Intelligenz einen sog. Essentialismus vor, der vor allen Dingen zwei logische Fehler begeht:
zum einen wird dadurch das Konstrukt „Intelligenz“ unzulässig verdinglicht (reification
error), zum anderen wird bei der Konzeptualisierung und Messung des Konstrukts ein
Zirkelschluss begangen, der so aussieht, dass die einzige Evidenz für die Erklärung eines
Phänomens das Phänomen selbst ist. Im Falle Spearman’s bestand die einzige Evidenz für g
aus den positiven Korrelationen zwischen Leistungen seiner Probanden in unterschiedlichen
Aufgaben – dadurch sei g nicht mehr als ein „statistisches Extrakt“ oder ein „Konstrukt, das
individuelle Unterschiede bzgl. der Leistungen auf multiplen kognitiven Maßen
repräsentiert“. Somit seien die positiven Interkorrelationen der Faktorenanalysen ihrer
Testscores ihrerseits weit entfernt vom Verhalten eines Individuums in der Testsituation und
noch mehr in jedem anderen möglichen Kontext.
Zwei schöne Zitate hierzu:
Zur Frage, wie der Mythos „Intelligenz“ sich so lange aufrecht erhielt:
„Whereas the other sciences have developed technical vocabularies distinct from the primitive ones
used by early philosophers, the vocabulary of psychology, with some exceptions, is still mired in early
animistic-like philosophies that place many of the causes of human behaviour inside the individual in
terms of mind, will, and so forth.” (Schlinger, 2003, p.28)
Dazu ein Zitat von Howe (1990; zit. nach Schlinger, 2003, S. 29):
“Psychology is a difficult scientific discipline for the unusual reason that we come to it already
furnished with firm habits of thought that have been acquired from daily exposure to folklore and the
unscientific (and sometimes illogical) “commonsense” psychological thinking that permeates
everyday life” (p.490)
60
Fehlkonzepte über die Aussagekraft statistischer Methoden
Gliner, Leech und Morgan (2002) thematisieren zwei gängige Fehlkonzepte im
Zusammenhang mit statistischen Signifikanztests. Sowohl Forscher als auch Studenten
tendieren dazu, eine geringe Irrtumswahrscheinlichkeit im Sinne eines großen Effektes zu
interpretieren. Ein verwandtes Fehlkonzept besteht in der Gleichsetzung von statistischer
Signifikanz mit praktischer Relevanz. Eine weitere Studie dazu lieferten Haller und Krauss
(2002), welche hier abrufbar ist:
http://www.uni-landau.de/~agmunde/mpr/issue16/art1/haller.pdf
Der Fehlschluss von korrelativen Daten auf kausale Zusammenhänge stellt ebenfalls
eine weit verbreitete Fehlkonzeption im Bereich Statistik dar (zur Interpretation korrelativer
Daten vgl. Cliff, 1983).
Fehlkonzepte aus dem Bereich Wahrnehmung
Menschliche Wahrnehmung wird meist fälschlich als Abbildung von Realität
aufgefasst. Der Einfluss von Top-Down- und Rekonstruktionsprozessen wird von
psychologischen Laien oft vernachlässigt. Nicht zuletzt deshalb ruft die Demonstration dieser
Einflüsse sei es in Vorlesungen oder im Bekanntenkreis großes Interesse und z. T.
Verblüffung hervor. Recht beeindruckend ist z. B., dass die Ponzo-Täuschung oder die
Horizontal-Vertikal-Täuschung selbst bei Psychologen, die um den Effekt wissen, zu
Verschätzungen führen. Offensichtlich sind die Top-Down-Einflüsse in der Wahrnehmung so
stark, dass wir zur Auflösung optischer Täuschungen auf externe Hilfsmittel wie das Lineal
angewiesen sind. Verzerrungen in der menschlichen Wahrnehmung scheinen zutiefst
unanschaulich zu sein, da wir unsere Wahrnehmungen meist mit der Realität gleichsetzen.
Fischer unterscheidet in diesem Zusammenhang zwischen Wirklichkeit (wahrgenommene
Realität) und Realität (tatsächliche Realität).
Wer sich selbst einmal verschätzen möchte, tut dies hier und zwar unter dem Punkt
optische Täuschungen.
http://www.regiosurf.net/supplement/wahrn/wahrn/wahrne.htm
Historische Fehlkonzepte
Ähnlich wie von Fischer für die Wissenschaftsentwicklung in der Physik beschrieben,
zeigen sich auch in der Geschichte der Psychologie einige (mehr oder weniger spektakuläre)
Fehlkonzepte. Ein in der psychologischen Diagnostik prominentes Beispiel stellt hier die
61
Phrenologie Galls dar (vgl. Jäger & Petermann, 1999), der in seiner Lehre die Diagnostik von
Persönlichkeitseigenschaften anhand der Schädelform propagierte. In eine ähnliche Richtung
gehen
die
Typologien
Kretschmers
und
Sheldons.
Der
Grundgedanke,
dass
Persönlichkeitsmerkmale an der äußeren Erscheinung von Personen abzulesen sind, liegt auch
dem Ansatz Galtons zum typischen Kriminellen zugrunde. Galton glaubte, durch das
Übereinanderprojizieren zahlreicher Porträtfotos von Kriminellen ein Abbild des typischen
Kriminellen erstellen zu können, das in der polizeilichen Ermittlungsarbeit eingesetzt werden
könnte (vgl. Bruce & Young, 1998).
Als weitere historische Fehlkonzeption sei die Annahme der vollständigen
Determiniertheit menschlichen Verhaltens und menschlicher Entwicklung durch externe
Reize im radikalen Behaviorismus genannt (vgl. z.B. Watsons berühmtes Zitat: „Gebt mir ein
Dutzend gesunde, gut gebaute Kinder und meine eigene spezifizierte Welt, um sie darin
großzuziehen, und ich garantiere, dass ich irgendeines aufs Geratewohl herausnehme und es
so erziehe, dass es irgendein beliebiger Spezialist wird, zu dem ich es erwählen könnte – Arzt,
Jurist, Künstler, Kaufmann, ja sogar Bettler und Dieb, ungeachtet seiner Talente, Neigungen,
Absichten, Fähigkeiten und Herkunft seiner Vorfahren.“).
Analogien und Metaphern bei der Beschreibung von psychologischen
Sachverhalten
Die Verwendung von Forschungsmetaphern birgt häufig die Gefahr einer zu stark
vereinfachten Rezeption durch die Öffentlichkeit wie auch durch die entsprechende
wissenschaftliche
Community.
Fischer
führt
hierzu
das
Dampfkessel-Modell
der
psychoanalytischen Persönlichkeitstheorie oder die Metapher von planetenähnlichen
Elektronen, die um einen Atomkern kreisen, an. Ein weiteres Beispiel aus der Psychologie ist
die Verwendung der Computer-Metapher als Modell menschlicher Kognition.
Verbreitung und Veränderbarkeit von Fehlkonzepten und Mythen
Abschließend sei noch ein Ergebnis zur Verbreitung von Fehlkonzepten und Mythen in
der Psychologie erwähnt. Standing und Huber (1999) untersuchten College-Studenten
hinsichtlich ihres Glaubens an Mythen aus dem Bereich Psychologie. Obwohl alle Teilnehmer
mindestens einen Psychologie-Kurs besucht hatten und die Mehrheit Psychologie im
Hauptfach studierte, lag die Zustimmungsrate zu den aufgeführten Mythen bei 71%. Der
verwendete Fragebogen gibt einen guten Überblick über verbreitete Mythen und
Fehlkonzepte innerhalb der Psychologie. Hier nur eine kleine Auswahl:
•
Menschen nutzen nur 10 % ihrer Hirnkapazität
62
•
Eine homosexuelle Person kann durch Psychotherapie heterosexuell gemacht werden
•
Bei Vollmond begehen Menschen häufiger Verbrechen und verhalten sich generell
abnormaler als sonst.
•
Es gibt Menschen, die per Geisteskraft beeinflussen können, welche Zahl sie würfeln
werden.
•
Wenn zwei Sachen hoch korrelieren, heißt das dass das eine das andere verursacht
Der vollständige Fragebogen findet sich im Anhang der Studie unter
http://bscw.vgk.de/bscw/bscw.cgi/d300702/Standing%20%26%20Huber.pdf.
Es zeigte sich, dass die Zustimmung zu psychologischen Mythen mit steigender Anzahl
von Psychologiekursen, mit steigendem Lebensalter und höheren Abschlüssen abnahm.
Zudem zeigten Hauptfachstudierende und Teilnehmer eines fortgeschrittenen Methodenkurses
geringere Zustimmungsraten. Die Autoren ziehen den Schluss, dass Universitätskurse
methodologischen Skeptizismus fördern und auf diese Weise zur Ablehnung der Mythen
beitragen.
Abschließende Bemerkungen
Die vorgestellten Beispiele für Unanschaulichkeiten aus der Psychologie adressieren u.
E. mindestens drei Themenbereiche, die eine tiefer gehende Diskussion lohnen könnten. Zum
ersten scheint die Psychologie in einem größeren Ausmaß als die Naturwissenschaften dazu
zu tendieren, abstrakte und konstrukthafte Erklärungen für die von ihr untersuchten
Phänomene zu generieren. Dies könnte möglicherweise mit der Tatsache zusammenhängen,
dass diese Phänomene selbst häufig abstrakter (d.h. nicht ohne Weiteres beobachtbarer) Natur
sind und somit schwerlich so zu beschreiben und zu messen sind, dass dies dem „gesunden
Menschenverstand“ angemessen ist. Als Beispiel hierfür seien die oben genannten Probleme
genannt, die Individuen beim Verstehen der Wirkweise von Emotion und Kognition häufig
haben.
Zweitens werden in der Psychologie häufig Analogien zu alltagsweltlichen
Sachverhalten gezogen, um das Verständnis komplexer psychologischer Zusammenhänge
leichter fassbar zu machen. Häufig geschieht dies auch subtiler, indem auf kulturell
vorhandenem und weitgehend geteiltem (und eben auch häufig falschem) Wissen und
Vokabular aufgebaut wird, um Phänomene vermeintlich wissenschaftlich zu erklären. Dies ist
zum Beispiel bei dem beschriebenen Ansatz Galtons der Fall, der versucht hatte, durch das
63
Übereinanderprojizieren zahlreicher Porträtfotos von Kriminellen ein Abbild des typischen
Kriminellen erstellen zu können. Eine solche Konzeption scheint sich nicht zuletzt auch
deswegen entwickelt zu haben, weil in der Kultur ein gewisser Konsens darüber vorzuliegen
schien (und vielleicht auch immer noch vorliegt), einen Verbrecher könne man „an der Nase
erkennen“.
Der dritte Punkt, den es zu diskutieren lohnt, stellt in gewisser Weise einen Kontrapunkt
zu dem zuletzt genannten Aspekt dar: Wie eingangs erwähnt, vertritt Fischer die Auffassung,
dass sich wissenschaftliche Erfahrung dadurch auszeichne, dass sie der alltagsweltlichen
Erfahrung entgegenstehe. In diesem Sinne wäre ein zu starker Rückgriff auf alltagsweltliche
Erfahrungen und Begrifflichkeiten (wie dies im Ansatz Galtons, aber auch in der Diskussion
um genetische Einflüsse in der Psychologie der Fall ist) im Kern als ein Hindernis auf dem
Weg zu wissenschaftlicher Erkenntnis zu bewerten. Auf der anderen Seite kann jedoch
argumentiert werden, dass eine vollkommene Abhebung wissenschaftlicher Erkenntnis und
wissenschaftlichen Vokabulars von alltagsweltlichen Diskussionsnormen ein Hindernis für
das Verstehen wissenschaftlicher Erkenntnisse sein könnte. Es ist daher zu diskutieren, (a) ob
die Definition wissenschaftlicher Erfahrung, wie Fischer sie vorschlägt, zu halten ist und (b)
wenn ja, inwiefern eine solche Auffassung wissenschaftlicher Erfahrung die Konsequenz
hätte, wiederum Unanschaulichkeiten in der Psychologie zu produzieren.
64
2.2.2.
Diskussion des Grundlagentexts durch die
Seminarteilnehmer
These: „Die Psychologie hat per se einen indirekteren Zugang zu den von ihr untersuchten
Phänomenen. Zum Beispiel sind kognitive Prozesse einer direkten Beobachtung
unzugänglich. Stattdessen müssen Messinstrumente entwickelt werden, deren Design
wiederum auf theoretischen Konstrukten beruht, die die postulierten kognitiven Prozesse nicht
notwendigerweise so abbilden, wie sie „tatsächlich“ ablaufen. Daher sind psychologische
Theorien grundsätzlich abstrakter und konstrukthafter als dies zum Beispiel bei
naturwissenschaftlichen Theorien der Fall ist.“
Gegenthese: „Es besteht kein grundlegender Unterschied zwischen psychologischen und
naturwissenschaftlichen Theorien. In der Psychologie wie in den Naturwissenschaften ist
wissenschaftliche Erkenntnis in gleicher Weise gebunden an die vorherrschenden
Paradigmen, Theorien und Messmethoden. Ein gutes Beispiel zur Verdeutlichung des
vorläufigen und konstrukthaften Charakters naturwissenschaftlicher Theorien stellt der
Paradigmenwechsel vom Newton'schen Weltbild zur Quantenphysik dar. Diese Abkehr von
Newtons Paradigma erfolgte trotz augenscheinlich elaborierter Messmethoden, die das
Paradigma stützten, und trotz eines hohen Ausmaßes an Beobachtbarkeit der zu erklärenden
Phänomene.“
Zusammenfassung der Diskussion: In der Diskussion zu diesem Thesenpaar wurde im
Allgemeinen eher die „Gegenthese“ favorisiert: Es wurde angezweifelt, dass es einen
grundlegenden Unterschied zwischen der Psychologie und den Naturwissenschaften im
Hinblick auf die Theorie- und Methodenabhängigkeit von vorherrschenden Paradigmen gebe.
Es wurde angesprochen, dass es in der Psychologie eine gewisse Variabilität in der Direktheit
des Zugangs zu verschiedenen Phänomenen gibt, sodass einige Phänomene direkter
beobachtbar sein als andere und daher andere Methoden erforderlich machen. Ferner wurde
diskutiert, dass ein wesentlicher Unterschied zwischen Psychologie und den „traditionellen“
Naturwissenschaften wie der Physik das Problem Selbstreferentialität in der Psychologie sei:
Die Psychologie habe deswegen eine Sonderstellung inne, weil sie dieselben Prozesse
benötigt, die sie beschreiben und erklären will.
65
Im Folgenden werden die Diskussionsbeiträge der Seminarteilnehmer zu diesem
Thesenpaar präsentiert:
•
Das (die erste These) hört sich im ersten Moment sehr plausibel an, hält aber der
Überprüfung nicht stand. Ich glaube, ein (Quanten-)Physiker würde diese These genau mit
umgekehrten Vorzeichen formulieren. Wer die Berichte über die Positionsbestimmungen
von
Elektronen
oder
Quarks
kennt
(wen
es
interessiert,
z.B.:
http://www.desy.de/f/hera/germ/), wird feststellen, dass dort auch nur von indirekten
Messungen gesprochen wird und die Messungen in einer, für psychologische Verhältnisse
schon inakzeptable Weise, die Ergebnisse beeinflussen.
Im Gegensatz dazu hat auch die Psychologie einige Phänomene zu bieten, die mit einem
"N=1" untersucht werden können (man denke nur an Wahrnehmungspsychologie;
Optische Täuschungen). Wie man vielleicht gemerkt hat, stehe ich auf der Seite der
Gegenthese! ;-)
•
Newell (1982) (The knowledge level, Artificial Intelligence, 18, 87-127) trifft eine
Unterscheidung
von
mehreren
Ebenen,
auf
die
sich
Aussagen
zur
Informationsverarbeitung beziehen können, die für Frage 1 von Interesse ist. Er
unterscheidet bei KI Programmen, auch solchen der kognitiven Modellierung, eine
Wissensebene, eine Programmebene (die Softwareebene) und eine physikalische Ebene
(die Hardwareebenen). Je nachdem, auf welcher Ebene man sich bewegt, hat man einen
unterschiedlich direkten Zugang zu den Phänomenen und andere Möglichkeiten,
interessierende Fragen zu beantworten. In ähnlicher Weise kann man den Gegenstand der
Psychologie auf unterschiedlichen Ebenen ansiedeln, einer untersten, der
Neurowissenschaftlichen, einer auf der mentale Repräsentationen betrachtet werden usw.
Von der Ebene hängt die Direktheit des Beobachtbaren ab, aber auch die Brauchbarkeit
der Erklärung und Prognose von Vorgängen. So wie die Hardwareebene nicht die beste
Ebene ist, um logische Abläufe zu beschreiben, muss die biologische Ebene nicht die
Beste sein, um Kognitionen und Emotionen zu beschreiben.
•
Meiner Meinung nach besteht der grundlegendste Unterschied zwischen psychologischen
und naturwissenschaftlichen Theorien darin, dass in der Psychologie der Mensch selbst
Gegenstand der Forschung ist. Mit dem eigenen Verstand, den eigenen Emotionen etc.
sollen eben diese erforscht werden. Dies stellt in viel höherem Maße Anforderungen an
die Forschung und Theorienbildung als bei Naturwissenschaften. Natürlich besteht die
Problematik der Verzerrung durch Beobachtung, also durch die Involvierung des
Menschen selbst, ebenfalls bei naturwissenschaftlicher Forschung. So war z.B. im
Mittelalter die Beschäftigung mit der Astronomie Anlass für den arabischen
Naturwissenschaftler Alhazen, menschliche Wahrnehmung zu untersuchen. Er entdeckte
dabei eine Reihe von visuellen Wahrnehmungsphänomenen, die bei der
Sternenbeobachtung zu Verzerrungen führen können (vgl. Howard, 1996).
Jedoch liegt der fundamentale Unterschied zwischen der Psychologie und den
Naturwissenschaften darin, dass in der Regel bei letzteren zwischen dem Menschen als
Beobachter und dem Gegenstand der Untersuchung klarer getrennt werden kann. Dass
psychologische Theorien häufig abstrakter sind, ist mit bedingt durch die „Vermengung“
von Messinstrument und Gegenstand.
66
•
Wenn davon ausgegangen wird, dass sich die Psychologie mit der Erforschung von
„Gedanken und Empfindungen“ des Menschens beschäftigt, würde ich der These
zustimmen, dass die Psychologie im Vergleich zu anderen Naturwissenschaften lediglich
einen indirekten Zugang zu den relevanten Phänomenen hat. Im Vergleich dazu
beschäftigt sich beispielsweise die Physik überwiegend mit „dinglichen“
Forschungsobjekten. Sicherlich gibt es in den genannten Wissenschaften auch
Ausnahmen. So untersucht die Psychologie mitunter Phänomene, die direkt beobachtbar
sind wie z.B. die menschliche Interaktion. Auf der anderen Seite gibt es aber auch in den
„dinglichen“ Forschungsgebieten anderer Wissenschaften Bereiche, deren Prozesse nicht
so dargestellt werden können, wie sie tatsächlich ablaufen (siehe Quantenphysik). Diese
Ausnahmen ändern jedoch nichts an den grundlegenden Unterschieden zwischen der
Psychologie und anderen Naturwissenschaften.
Was jedoch die Frage der Vorläufigkeit der wissenschaftlichen Erkenntnisse angeht sowie
die Gebundenheit der Erkenntnisse an die vorherrschenden Paradigmen und Messtheorien,
so denke ich, dass dieses Phänomen nicht nur für die Psychologie zutrifft. Dies gilt
genauso für andere Naturwissenschaften sowie die Wissenschaft generell.
Frage/These 2:
„Die Verwendung von Analogien und Metaphern zur Erklärung und Veranschaulichung
psychologischer
Sachverhalte
verfolgt
offensichtlich
den
Zweck,
die
bestimmten
Phänomenen zugrunde liegenden Mechanismen leichter verständlich und anschaulicher zu
machen. Inwiefern glaubt ihr, dass Analogien und Metaphern diesen Zweck tatsächlich
erfüllen? Gibt es auch Beispiele dafür, in denen diese Analogienbildung eher die Gefahr birgt,
Fehlkonzeptionen auf Seiten der Rezipienten psychologischer Erkenntnisse zu verursachen,
die auf der Anpassung der Analogien an den "gesunden Menschenverstand" beruhen?"
Zusammenfassung der Diskussion: In der Diskussion zu dieser Frage wurden auf
vielfältige Weise die Vor- und Nachteile einer Nutzung von Analogien zur Erklärung
psychologischer Phänomene diskutiert. Dabei wurde die Auffassung vertreten, dass die
Verwendung von Analogien zwar ein sinnvolles Mittel sein kann, um komplizierte
Sachverhalte anschaulich und mit dem Vorwissen der Lernenden kompatibel zu machen,
andererseits aber auch zum Aufbau fehlerhafter mentaler Modelle beitragen kann, wenn die
Analogien das Phänomen nicht angemessen abbilden. Zudem wurde einige Beispiele aus der
psychologischen Forschung und Theorie genannt, in denen die Verwendung von Analogien
zur Veranschaulichung psychologischer Phänomene sich nach und nach als unangemessen
erwies (z. B. Dampfkesselmodell in der Psychoanalyse).
Die Kommentare im Einzelnen:
•
Metaphern und Analogien sind durch das Anknüpfen an das Vorwissen der Rezipienten
ein mächtiges Mittel zur Verdeutlichung von Mechanismen. Da die Analogien häufig aus
67
Alltagserfahrung entlehnt werden, können damit vor allem heterogene Gruppen
"gegroundet" werden. Für diese Zwecke sind Analogien und Metaphern also bestens
geeignet. Leider fällt mir ad hoc kein Beispiel ein, bei dem ich sagen könnte, dass die
Fehlkonzeptionen "auf der Anpassung der Analogien an den 'gesunden Menschenverstand'
beruhen". Aber im Allgemeinen scheint bei Analogien die Gefahr zu bestehen, dass die
Rezipienten durch antizipierendes Schließen auch Teile der Analogie auf die Psychologie
übertragen, die nicht mehr übertragbar sind.
•
Ich denke, dass Metaphern und Analogien durch das Anknüpfen an das Vorwissen der
Rezipienten wichtige Möglichkeiten zur Verdeutlichung von schwierigen Sachverhalten
sind. Metaphern und Analogien tragen immer auch implizit Informationen die über das
reine Erklären hinausgehen (z.B. Vorerfahrungen, Stimmungen, Bezüge etc). Genau dies
ist jedoch nicht unproblematisch. Es kann passieren, dass gerade die implizit (und
individuell verschieden) wahrgenommen Informationen zwar Verständnis bewirken,
jedoch vielleicht nicht das beabsichtigte oder ein zu stark vereinfachtes. Da derjenige, der
die Metapher auswählt, dieses Bild mit seinem (Experten-)Fokus ausgewählt hat, während
der eines Laien vielleicht eine andere Komponente darin zu erkennen glaubt.
Folgendes Beispiel ist mir eingefallen (darin aktiviert eine Metapher/Analogie ein
bestimmtes Wissenschaftsbild und unterstützt möglicherweise
nicht den
Erkenntnisgewinn): Das "Information Sampling Model" wird Laien häufig in Analogie zu
einem Computer erklärt. Dies bewirkt unter Umständen bei Laien nicht die
Verdeutlichung dieses theoretischen Modells (als hilfreiche Möglichkeit weitere
Hypothesen zum Sammeln von Erkenntnissen über den Vorgang der
Informationsverarbeitung beim Menschen zu generieren), sondern vermittelt ein
mechanistisches Verständnis vom Menschen. Laien (die sich dann vielleicht selbst mit
einem Computer vergleichen) nehmen in dieser Analogie mit ihrem "gesunden
Menschenverstand" hauptsächlich das Bild vom Menschen als PC wahr, und erkennen
darin hauptsächlich eine zu stark reduktionistische Sichtweise der wissenschafltichen
Psychologie, anstatt daraus Erkenntnisse zu gewinnen.
•
Gerade weil Phänomene, die mit Hilfe von Analogien und Metaphern erklärt werden, so
anschaulich erscheinen, bergen sie meines Erachtens die große Gefahr, dass Plausibilität
an die Stelle einer systematischen und kritischen Auseinandersetzung rückt. Dass dieser
Gefahr sowohl Laien als auch Wissenschaftler ausgesetzt sind, sollen die beiden
folgenden Beispiele zeigen: Der Mensch als Dampfkessel: In der Psychoanalyse spielte
das Dampfkesselmodell eine zentrale Rolle. Auftretende Triebe, Bedürfnisse und
Emotionen drängen permanent nach Ausdruck und Befriedigung. Werden nicht genügend
Ventile geöffnet, staut sich der "Dampf" bis es schließlich unweigerlich zum völlig
unkontrollierten Ausbruch kommt. Eine aus diesem anschaulichen Modell resultierende
Empfehlung bestünde darin, Emotionen wie Ärger oder Traurigkeit nicht zu unterdrücken,
sondern "herauszulassen", konsequent auszuleben. Bisher jedoch gibt es keinen
wissenschaftlichen Beleg für die vermeintlich entlastende Wirkung von Tränen oder
Wutausbrüchen. Vielmehr konnte in verschiedenen Studien das Gegenteil gezeigt werden:
Wutanfälle führen eher noch zu einer Steigerung der Wut, Tränen verstärken das
Auftreten depressiver Symptome (Mallick & Candless, 1966; Travis, 1989).
Extramissionists: Bisweilen mögen auch anschauliche alltagssprachliche Wendungen an
der Entwicklung fehlerhafter Konzepte beteiligt sein. Diese Möglichkeit diskutiert Winer
68
et al. (2003), der sich in verschiedenen Studien dem Phänomen der "extramissionists"
widmete. Unter diesem Begriff beschreibt er Leute, die der fehlerhaften Auffassung sind,
dass beim Vorgang des Sehens Strahlen die Augen verlassen, die wir auf umliegende
Objekte richten, um diese sehen zu können. Sprachliche Wendungen wie "den Blick auf
etwas richten" oder "ein Auge auf etwas werfen" suggerieren eine Konzeptualisierung des
Sehens, als ein aktiver, nach außen gerichteter Prozess. Darüber, welchen Anteil derartige
sprachliche Wendungen wirklich an der Entwicklung von Fehlkonzepten haben, lässt sich
jedoch aktuell nur spekulieren. (Kontrollierte Studien sind schwer vorstellbar, müssten
aber wohl auf interkulturelle Vergleiche herauslaufen).
•
Selbstverständlich ist es für die Psychologie verlockend, anschauliche Bilder und
Analogien zur Erklärung von Befunden und Formulierung von Theorien heranzuziehen,
die oftmals komplexitätsreduzierend wirken. Als Beispiel einer solchen vereinfachenden
und gleichzeitig verzerrenden Analogie, die immer im historischen Kontext zu betrachten
ist, mag die Dampfmaschinenmetapher, mit der Freud menschliches Triebverhalten
erklärte, gelten. Auch der mit der kognitiven Wende verbundene Paradigmenwechsel vom
bahavioristischen zum kognitivistischen Menschenbild illustriert diesen Sachverhalt.
Verstanden die Behavioristen das kognitive System des Menschen noch als black box, so
wird seither dafür oftmals die Metapher des informationsverarbeitenden Systems
herangezogen. Diese Sicht ist zum einen komplexitätsreduzierend, da sie das kognitive
System beschreibbar macht, zum anderen ist sie aber auch verzerrend, da sie wichtige
Komponenten wie Emotionen und Motivationen ausgrenzt.
•
Meiner Meinung nach können Analogien oder Metaphern nur dann sinnvoll eingesetzt
werden, wenn sie den jeweiligen Inhaltsbereich 1:1 abbilden, also korrekt sind. Das ist
meist nur für einen Teilbereich des jeweiligen Phänomens gegeben. Problematisch ist,
dass teilweise auf den genauen Geltungsbereich einer Metapher oder Analogie nicht
explizit hingewiesen wird. Dann können Metaphern zu Fehlkonzepten führen. Dem
entsprechend liegt meiner Meinung nach das Problem nicht in der bloßen Verwendung
von Metaphern und Analogien, sondern vielmehr in ihrer Auswahl und der expliziten
Formulierung ihrer Grenzen.
Der Einfluss von Metaphern wird klar, wenn man zu einem Themenbereich
unterschiedliche Metaphern wählt und untersucht, in wie weit diese Metaphern
beispielsweise das Lernverhalten beeinflussen: Ein Hypertext gleicht einem "Buch" vs.
einem "Netzwerk"; Lernen erfolgt durch die "Übernahme der Lehrbuchinhalte in das
Gedächtnis" oder durch "aktive Verarbeitung und Umstrukturierung"; das kognitive
System gleicht einer "black box" vs. einem "Computer"…
•
Zur Frage 2 möchte ich an das anknüpfen, was ich zu den Fehlkonzepten bei der Gruppe
D geschrieben habe. Entscheidend beim Einsatz von Analogien und Metaphern ist, dass
dem, der sie nutzt, bewusst ist, in welchen Aspekten sie das, was beschrieben werden soll,
korrekt repräsentieren, und in welchen eine Analogie oder Metapher in die Irre führt. Ich
glaube auch, dass Analogien und Metaphern weniger wichtig in der Kommunikation
zwischen Experten sind – da würde ich exaktere Theorieformulierungen und
Modellierungen bevorzugen, als im Gespräch zwischen Experten und Novizen, um
anknüpfend an das, was der Novize weiß, einen brauchbaren Common Ground für die
Kommunikation zu haben.
69
Frage/These 3:
„Inwiefern kann die von Fischer angeführte Auffassung Bachelards, wonach sich
wissenschaftliche Erfahrung eben dadurch auszeichnet, dass sie alltagsweltlicher Erfahrung
entgegen steht (S. 79 unten), gehalten werden? Würde eine totale Abkehr von
alltagsweltlichem Wissen und alltagsrelevanten Begrifflichkeiten nicht dazu führen, dass die
Psychologie noch mehr Unanschaulichkeiten produziert?“
Zusammenfassung der Diskussion: Frage 3 wurde im Vergleich zu den anderen beiden
Themenkomplexen nur wenig diskutiert. Dabei wurde deutlich, dass die Auffassung
Bachelards im Allgemeinen auf Ablehnung stößt.
Die Kommentare im Einzelnen:
•
Die Aussage kann schon allein deswegen nicht gehalten werden, da sie absolutistisch
formuliert ist. Würde man dieser Ansicht bis in die letzte Konsequenz folgen, könnte man
alltagsweltlich-konforme Erfahrungen nicht zur Bildungen von Theorien heranziehen.
Z.B. Die Alltagserfahrung "Wer länger lernt, lernt mehr" hätte keinen Platz in
wissenschaftlichen Theorien zum Lernen. Wissenschaft zeichnet sich eher dadurch aus,
das Erfahrungen nicht übergeneralisiert werden und genauer definiert wird, wann/wie/wo
etwas zutrifft bzw. nicht zutrifft.
•
Zur Frage 3 stimme ich mit dem völlig überein, was dazu in dieser Diskussion gesagt
wurde. Die Auffassung von Bachelards bietet einen interessanten Denkanstoß, ist aber zu
Ende gedacht unsinnig. Trotzdem ist die psychologische Forschung gut beraten, auch
danach zu forschen, was alltagsweltlicher Erfahrung entgegensteht, um für Jeden
erkennbar zu machen, dass ihre Erkenntnisse über das hinausgehen, was auch die „Oma“
schon wusste.
70
3.
Glossar
John B.S: Haldane
John Burdon Sanderson Haldane (1892-1964) war Genforscher und ein
Mitbegründer der Populationsgenetik und trug zur Popularisierung der
Wissenschaften bei. Er war mit Aldous Huxley befreundet, dessen Buch „Brave
new world“, von seinen Visionen mitbeinflusst war.
Siehe z.B. http://en.wikipedia.org/wiki/J._B._S._Haldane
Daedalus
oder
die
Wissenschaft
der
Zukunft
siehe
unter
http://cscs.umich.edu/~crshalizi/Daedalus.html
Zurück in den Text
Bertrand Russell
Bertrand Russell (1872-1970) war Mathematiker, Logiker und Philosoph. Neben
seinen mathematischen Studien veröffentlichte er noch viele weitere
gesellschaftskritische und philosophische Schriften u.a. zum Frauenwahlrecht. Im
Jahre 1950 erhielt er den Literaturnobelpreis.
Siehe z.B. http://en.wikipedia.org/wiki/Bertrand_Russell
Ikarus
oder
die
Zukunft
der
Wissenschaft
siehe
unter
http://cscs.umich.edu/~crshalizi/Icarus.html
Zurück in den Text
Häretiker:
Häresie bedeutet "Heterodoxie" (Andersglaube) im Gegensatz zu "Orthodoxie" (Rechtgläubigkeit). Als
solches kann eine Lehre im Prinzip nur von ihren orthodoxen Gegnern als häretisch bezeichnet
werden. Eine modernere Bezeichnung dieses Begriffes ist z.B. Abweichler oder Dissident. Häresie
bezeichnet somit auch den Vorgang der Abspaltung von der Majorität selbst. Des Weiteren hat sich
der Begriff Häretiker als allgemein verwendete Überbezeichnung für bestimmte christliche
Bewegungen des Mittelalters durchgesetzt
Zurück in den Text
Daedalus:
Griechischer Künstler und Baumeister aus Athen, Vater des Ikarus. Im Auftrag des Minos erbaute er
das Labyrinth für den Minotauros auf Kreta. Dort wurde er zusammen mit seinem Sohn von Minos
eingesperrt, weil er Ariadne zu dem Wollknäuel für Theseus geraten hatte. Aus Wachs und Federn
fertigte er Flügel, mit denen sie aus dem Labyrinth entfliehen konnten. Sein Sohn stürzte jedoch ab
(vgl. unten), während Daedalus bis nach Sizilien kam.
Zurück in den Text
71
Ikarus:
Daedalus baute sich und seinem Sohn Ikarus aus Federn und Wachs Flügel, um dem Gefängnis zu
entfliehen. Er warnte seinen Sohn, nicht zu nah an die Sonne oder das Wasser heranzufliegen, da die
Flügel Feuer fangen könnten oder durch das Wasser zu schwer werden würden. Er solle den
Mittelweg wählen. Und so flogen sie los, Daedalus vorne und Ikarus hinterher. Plötzlich packte den
jungen Ikarus der Übermut: Er flog zu weit zur Sonne, das Wachs seiner Flügel schmolz dahin. Noch
ehe sein Vater das Unglück bemerkte, war Ikarus ins Meer gestürzt...
Zurück in den Text
Yaron Ezrahi
ist Professor für Politikwissenschaften an der Hebrew Universität von Jerusalem (Siehe unter
http://www.idi.org.il/english/article.php/?id=521
oder
http://micro5.mscc.huji.ac.il/~politics/faculty/Ezrahi/Ezrahi.html)
Zurück in den Text (Kapt. 5)
Zurück in den Text (Kapt. 6)
Niklas Luhmann
(1927-1998) war Jurist und Soziologe und gilt als Begründer der Systemtheorie.(Siehe unter
http://www.uni-essen.de/literaturwissenschaftaktiv/Vorlesungen/methoden/luhmann.htm )
Zurück in den Text
Albert O. Hirschman
ist Ökonom und als Vertreter der Theorie des "ungleichgewichtigen Wachstums" und als kritischer
Beobachter von Entwicklungsprojekten bekannt geworden. Später hat er als "Grenzüberschreiter" in
Richtung Politikwissenschaft, Soziologie und Geschichte mit den Begriffspaaren "Exit - Voice" und
"Passions - Interests" bahnbrechende Beiträge zur Analyse der raum-zeitlichen Einbettung von
wirtschaftlichen Prozessen in die gesellschaftlichen Bedingungen geleistet. Weitere Informationen zu
Hirschmann finden sich unter http://www.dse.de/zeitschr/ez100-7.htm
Zurück in den Text
Historisch-Kritische Annotationen (Pieschl / Ründal)
Helga Nowotny:
emeritierte Professorin für Wissenschaftsphilosophie und Wissenschaftsforschung; seit
2002 Leiterin des Collegium Helveticum an der ETH Zürich; in Wien geboren,
studierte an der Universität Wien mit Abschluss Dr. iur., an der Columbia University,
N.Y., mit einem Ph.D. In Soziologie; Lehr- und Forschungsaufenthalte in Wien,
Cambridge, Berlin, Paris, Bielefeld und Zürich.
72
Es könnte auch anders sein (S. 66-83):
Seite 72:
Obwohl sie im Schatten des werdenden Nationalstaates aufgewachsen sind und
von diesem sowohl beschützt als auch bevormundet wurden, haben die Sozialund Humanwissenschaften die relative Gewichtsverlagerung vom Staat zum
Markt hin erstaunlich schnell mitvollzogen.
1. Der werdende Nationalstaat
Der
Nationalstaat
ist
ein
sozio-kulturelles
Konstrukt
des
Bürgertums.
Die
großbürgerlich-romantische Idee der Nation (gemeinsame Abstammung, Wohngebiet,
Sprache, Kultur, Geschichte, Religion, Recht, etc.) wurde mit den politischen Grundsätzen der
Volkssouveränität und der Selbstbestimmung - Überbleibsel der Französischen Revolution verbunden und zum Nationalstaatsprinzip erhoben. Der Staat war somit nicht mehr das
Ergebnis einer (absolutistischen) Territorialpolitik, sondern er wurde durch die sich in ihm
organisierende Nation legitimiert. Dieses Prinzip ist seit dem frühen 19. Jahrhundert ein
wirkungsvolles politisches Postulat, das auch als Rechtfertigung für die Gründung neuer
Staaten (z.B. Italien, BRD, aber auch die Wiederherstellung Polens) diente.
Literatur:
Eric J. Hobsbawm, Nations and Nationalism since 1780 (Cambridge University Press 1990).
2. Sozial- und Humanwissenschaften
Der Begriff Humanwissenschaften bezeichnet im eigentlichen Sinne die Gesamtheit der
wissenschaftlichen Disziplinen, die sich mit dem Menschen beschäftigen, vor allem
Psychologie,
Soziologie,
Pädagogik
sowie
unter
anderem
auch
Anthropologie,
Humanbiologie und Humanmedizin (vgl. auch Brockhaus oder Meyer). Die Formulierung
Sozial- und Humanwissenschaften wird im deutschsprachigen Raum - vor allem in Österreich
und in der Schweiz - erst seit gut einem Jahrzehnt benutzt und ist aus dem angloamerikanischen Sprachgebrauch, Social Sciences and Humanities, entlehnt. Hier bezeichnet
Humanities allerdings das, was bei uns als Geisteswissenschaften beziehungsweise auch als
Geistes- und Kulturwissenschaften fungiert(e). Eine Google-Suche nach Sozial- und
Humanwissenschaften brachte diese Woche (im Januar 2004) etwas weniger als 500, nach
Geistes-, Kultur- und Sozialwissenschaften (GKS) etwas mehr als 10.000 Ergebnisse.
73
3. Geschichte der Geistes-, Kultur- und Sozialwissenschaften
In der Soziologie ist es allgemein üblich, die Entstehung des eigenen Faches von drei
historischen Faktoren abhängig zu sehen: 1. der Aufklärung, 2. der Französische Revolution
und 3. der Industrialisierung. Eine eigenständige wissenschaftliche Disziplin wurde die
Soziologie aber erst Ende des 19. Jahrhunderts, auch wenn schon Auguste Comte in seinen
Vorlesungen ab 1837 von Soziologie als Wissenschaft spricht, die sich "auf das positive
Studium der sämtlichen, den sozialen Erscheinungen zugrunde liegenden Gesetze bezieht".
Im Jahre 1887 wurde für Emile Durkheim in Bordeaux der erste soziologische Lehrstuhl
eingerichtet; eigene, disziplinäre Fachbereiche gibt es allerdings erst seit den 1950er Jahren.
Auch die Psychologie war bis ins 19. Jahrhundert ein Teilgebiet der Philosophie. Philosophie
und Geschichtswissenschaft sehen sich als Wissenschaften seit den "Alten Griechen"; die
Politikwissenschaft wurde hingegen erst nach dem Zweiten Weltkrieg begründet. Sicherlich
wurden einzelne Historiker vom "werdenden Nationalstaat" beschützt, wie z.B. das Beispiel
des Historikerstreits zwischen Leopold Ranke und Georg G. Gervinus (in den 1850er und
1860er Jahren) zeigt. Jedoch stand Ranke dem preußischen Staat und seinem politischem
Streben von vornherein positiv gegenüber. Der militärische Sieg 1870/71 über Frankreich hat
dem Geschichtsverständnis Rankes nachträglich recht gegeben, und Gervinus für die meisten
aus der Erinnerung verschwinden lassen. Ranke wollte in seiner Geschichtsschreibung zeigen,
"wie es wirklich gewesen" ist. Nicht wenige heutige deutsche Historiker sehen sich in der
Tradition von Leopold Ranke verankert, aber auch z.B. in der des griechischen
Geschichtsschreibers Thukydides (ca. 460-400 v.u.Z.). Es ist daher fraglich, ob man schreiben
kann, "die Sozial- und Humanwissenschaften" seien "im Schatten des werdenden
Nationalstaats aufgewachsen".
Literatur:
Ein Überblickswerk zur Geschichte der Geistes-, Kultur- und Sozialwissenschaften bzw. der
Sozial- und Humanwissenschaften wäre wünschenswert; bis dieses erscheint, muss man leider
mit historischer Detektivarbeit verschiedene Einführungswerke zu den einzelnen Fächern
nach "Geschichtliche Grundlagen des Faches" durchstöbern sowie Enzyklopädien (z.B.
Brockhaus) wälzen. Zu den einzelnen Historikern vgl. Rüdiger vom Bruch und Rainer A.
Müller (Hg.), Historikerlexikon. Von der Antike bis zur Gegenwart (2. Aufl. München: Beck,
2002).
74
Seite 83:
Heute, so schreibt Hans-Jörg Rheinberger, zweihundert Jahre nach Kant, ist die
Wissenschaftsforschung zu einer Unkantianischen Erkenntnis gelangt: dass
das, was wir als wissenschaftliches Wissen herstellen, immer nur in Form von
lokalem Wissen hergestellt werden kann - und dies niemals vollständig und
vorhersehbar und schon gar nicht bezogen auf die globalen Auswirkungen
unseres Tuns: "Der Traum der Aufklärung von einem vereinheitlichten Bild
einer allgemeinen Wissenschaft, die uns erlaubt, eine vereinheitlichte und
allgemeine Natur zu manipulieren und zu kontrollieren, scheint ausgeträumt.
Statt des einen privilegierten epistemischen Standpunkts, statt einer einzigen
und geradlinigen Richtung eines universalistisch gedachten Fortschritts,
müssen wir lernen, uns in einer Welt einzurichten, die vielfältig, komplex,
unordentlich und vom gleichzeitigen Nebeneinander multipler Zeiten geprägt
ist." [Fußnote 34: Rheinberger, Hans-Hörg: "Restructuring Science as a
Process". Paper presented at the Sociology of the Sciences Yearbook Editorial
Board Meeting, Stockholm, 6-7 June 1996. Ms.]
4. Kant - Aufklärung – Wissen
Mit dem Begriff Aufklärung wird allgemein eine politische, soziale und geistige
Bewegung im 18. Jahrhundert in Europa bezeichnet. Auch heute noch geht man davon aus,
dass wir seither "Licht in das Dunkel der Unvernunft bringen, den Nebel des Aberglaubens,
der Vorurteile und der geistigen Bevormundung vertreiben, eigene, klare, überprüfbare
Begriffe von allen Gegenständen entwickeln" (Stollberg-Rilinger, S. 11). Kants Definition
von 1784, dass Aufklärung "der Ausgang des Menschen aus seiner selbstverschuldeten
Unmündigkeit" sei, was den Mut voraussetze, "sich seines Verstandes ohne Leitung anderer
zu bedienen", ist wohl einer der meistzitierten Sätze überhaupt. Man darf jedoch nicht
vergessen, dass z.B. bereits 1637 Descartes seinen "Discours de la méthode" geschrieben
hatte (Grundlage des kartesischen Denkens) und Grenzen der Menschen- und Bürgerrechte
bis mindestens weit ins 19. Jahrhundert bestand hatten (Wahlrecht, Sklaverei). Die
Aufklärung ist also kein Ereignis mit festem Datum ("18. Jahrhundert"), sondern eine lange
Phase, die auch andere, gleichzeitige wie widerstrebende historische Phasen erlebte.
Weiterhin sollte nicht vergessen werden, dass auch die Aufklärer "Kinder ihrer Zeit" gewesen
sind, die sich zwar einerseits vom Zeitgeist - u.a. dem Glauben und Aberglauben - absetzen
wollten, andererseits aber in diesem Gedankengut vehaftet waren. Der Allmacht des
Glaubens, die v.a. die – römisch-katholische wie lutherisch-reformierte - Kirchen proklamiert
hatten, folgte so fast natürlich die Allmacht des (empirischen) Wissens. Allerdings könnte
man dieses auch als, im Sinne Max Webers, Idealtypus sehen. Idealtypen, die in der Realität
nicht existieren, gab es auch schon in der Vormoderne, wie etwa bei der Vier-Säfte-Lehre
75
oder bei der Theorie der Eingeschlechtlichkeit des Menschen. Auch wurde schon im 18.
Jahrhundert, durch die intensive Beschäftigung mit anderen Völkern und Kulturen, die eigene
europäische Kultur als relativ wahrgenommen, d.h. der Fortschrittsoptimismus konnte nicht
aufrecht erhalten werden. "Das 18. Jahrhundert erweist sich also als ambivalent: Es hat nicht
nur
das
eurozentristische
Konzept
der
Menschheitsgeschichte
als
fortschreitende
Vervollkommnung formuliert, sondern auch die ersten Ansätze dazu hervorgebracht, diese
Sicht zu kritisieren, das Fremde als etwas Eigenwertiges wahrzunehmen und sich um ein
Verständnis seiner Andersartigkeit zu bemühen." (Stollberg-Rilinger, S. 263) Woher die
Ansicht kommt, die Aufklärung sei nur in einer "geradlinigen Richtung eines universalistisch
gedachten Fortschritts" verhaftet, ist unklar. Es scheint auch möglich, dass eine Welt, die
"vielfältig, komplex, unordentlich und vom gleichzeitigen Nebeneinander multipler Zeiten
geprägt ist", keine postmoderne Erfindung ist, sondern ein erneutes Aufbrechen einer alten
Wunde, die vielleicht vom modernen (Aber-)Glauben über die Aufklärung lange Zeit
verdeckt wurde.
Literatur:
Barbara Stollberg-Rilinger, Europa im Jahrhundert der Aufklärung (Stuttgart: Reclam, 2000).
Stefan Jordan (Hg.), Lexikon Geschichtswissenschaft. Hundert Grundbegriffe (Stuttgart:
Reclam, 2002).
Bernd Neumeister, "Kritik und Aufklärung" in: Marcus S. Kleiner (Hg.), Michel Foucault:
Eine Einführung in sein Denken (Frankfurt/M.: Campus, 2001).
Zurück in den Text
76
4.
Literatur
Boyes, E., Stanisstreet, M., & Papantoniou, V. S. (1999). The ideas of greek high school
students about the "ozone layer". Science Education, 83(6), 724-737.
Brehm, J. W. (1959). Increasing cognitive dissonance by a fait accompli. Journal of
Abnormal and Social Psychology, 52, 384-389.
Brody, M. J. (1996). An assessment of 4th-, 8th-, and 11th-grade students' environmental
science knowledge related to Oregon's marine resources. Journal of Environmental
Edu-cation,27(3), 21-27.
Bruce, V. & Young, A. (1998). In the eye of the beholder. The science of face perception.
Oxford University Press.
Bruch, R. vom & Müller, R.A. (Hrsg.) (2002). Historikerlexikon. Von der Antike bis zur
Gegenwart. München: Beck.
Cacioppo, J. T. (1979). The effects of exogenous changes in heart rate on the facilitation of
thought and resistance to persuasion. Journal of Personality and Social Psychology,
37, 487-496.
Chamot, E., & Perneger, T. V. (2001). Misconceptions about efficacy of mammography
screening: a public health dilemma. Journal of Epidemiological Community Health,
55, 799-803.
Cliff, N. (1983). Some cautions concerning the application of causal modelling methods.
Multivariate Behavioral Research, 18, 115-126.
Fleck, L. (1935/ 1980). Entstehung und Entwicklung einer wissenschaftlichen Tatsache.
Frankfurt: Suhrkamp.
Frey, D., Dauenheimer, D., Parge. O. & Haisch, J. (1993). Die Theorie sozialer
Vergleichsprozesse. In D. Frey & M. Irle (Hrsg.), Theorien der Sozialpsychologie,
Band I: Kognitive Theorien (S. 81-122). Bern: Huber.
Frey, D. & Gaska, A. (1993). Die Theorie der kognitiven Dissonanz. In. D. Frey & M. Irle
(Hrsg.), Theorien der Sozialpsychologie, Band I: Kognitive Theorien (S. 275-324).
Bern: Huber.
Gliner, J. A., Leech, N. L., & Morgan, G. A. (2002). Problems with null hypothesis
significance testing (NHST): What do the textbooks say? Journal of Experimental
Education, 71(1), 83-92.
Griffiths, A. K. & Thompson, J. (1993). Secondary school students' understanding of
scientific processes: an interview study. Research in Science & Technological
Education, 11(1), 15-27.
Haller, H., & Krauss, S. (2002). Misinterpretations of significance: A problem students share
with their teachers? Methods of Psychological Research, 7, 1-20.
Hewson, M. G. & Hamlyn, J. (1984). The influence of intellectual environment on
conceptions of heat. European Journal for Science Education, 6, 245-262.
Hobsbawm, Eric J. (1990). Nations and Nationalism since 1780. Cambridge: Cambridge
University Press.
Howard, I.P. (1996). Alhazen's neglected discoveries of visual phenomena. Perception, 25
(10), 1203-1217.
77
Jäger, R. S., & Petermann, F. (Hrsg.) (1999). Psychologische Diagnostik. Weinheim: BeltzPVU.
Jordan, S. (Hrsg.) (2002). Lexikon Geschichtswissenschaft. Hundert Grundbegriffe. Stuttgart:
Reclam.
Kikas, E. (2003). University students' conceptions of different physical phenomena. Journal
of Adult Development, 10(3), 139-150.
Lubben, F., Netshisaulu, T. & Campbell, B. (1998). Students’ use of cultural metaphors and
their scientific understandings related to heating. Culture and Comparative Studies,
761-774.
Mallick, S. K., & McCandless, B. R. (1966). A study of catharsis aggression. Journal of
Personality and Social Psychology, 4, 591-596.
Marques, L., & Thompson, D. (1997). Misconceptions and conceptual changes concerning
continental drift and plate tectonics among portuguese students aged 16-17. Research
in Science & Technological Education, 15(2), 195-222.
McElwee, P. (1991). Transition from personal to scientific understanding. Research in Science & Technological Education, 9(2), 139-156.
Neumeister, B. (2001) Kritik und Aufklärung. In M. S. Kleiner (Hg.), Michel Foucault: Eine
Einführung in sein Denken. Frankfurt/M.: Campus.
Newell, A. (1982). The knowledge level. Artificial Intelligence, 18(1), 87-127.
Ogawa, M. (ed.) (1997). Effects of traditional cosmology on science education. Report of an
international scientific research programme. Mito, Japan: Ibaraki University Faculty
of Education.
Palmer D.H. (1999). Exploring the link between students’ scientific and non-scientific
conceptions. Science Education, 83(6), 639-653.
Petty, R. E. & Cacioppo, J. T. (1986). The elaboration likelihood model of persuasion. In L.
Berkowitz (Ed.), Advances in experimental social psychology (Bd. 19, pp. 123.205).
New York: Academic Press.
Petty, R. E., Wells, G. L., Heesacker, M., Brock, T. & Cacioppo, J. T. (1983). Distraction can
enhance or reduce yielding to propaganda: Thought disruption versus effort
justification. Journal of Personality and Social Psychology, 34, 874-884.
Pfundt, H., & Duit, R. (1991). Bibliography of students’ alternative frameworks in science
education, 3rd ed. Kiel Germany.
Plomin, R., & Walker, S. O. (2003). Genetics and educational psychology. British Journal of
Educational Psychology, 73(1), 3-14.
Rohrer, J. H., Baron, S. H., Hoffmann, E. L. & Swander, D. (1954). The stability of
autokinetic judgments. Journal of Abnormal and Social Psychology, 49, 595-597.
Ross, L. (1977). The intuitive psychologist and his shortcomings: Distortions in the
attribution process. In L. Berkowitz (Ed.), Advances in experimental social psychology
(pp. 173-220). New York: Academic Press.
Sandoval, W. A. (in press). Conceptual and epistemic aspects of students' scientific
explanations. Journal of the Learning Sciences.
Schlinger, H. D. (2003). The myth of intelligence. The Psychological Report, 53, 15-32.
78
Schmidt, H.-J. (1995). Students' misconceptions - looking for a pattern. Science Education,
81, 231-135.
Sciutto, M. J., Terjesen, M. D., & Bender Frank, A. S. (2000). Teachers' knowledge and
misperceptions of attention-deficit/hyperactivity disorder. Psychology in the schools,
37(2), 115-122.
Sheldon, J. P. (2002). Operant conditioning concepts in introductory psychology textbooks
and their companion web sites. Teaching of Psychology, 29(4), 281-285.
Shields, C., & Gredler, M. (2003). A problem-solving approach to teaching operant
conditioning. Teaching of Psychology, 30(2), 114-116.
Sokal, A. & Bricmont, J. (Hrsg.). (1999). Eleganter Unsinn. Wie die Denker der Postmoderne
die Wissenschaften missbrauchen. München: Beck (Sokals Aufdeckerartikel aus
Lingua Franca ist im Netz in einer deutschen Übersetzung zu finden:
http://www.sicetnon.cogito.de/artikel/aktuelles/sokal.htm.)
Standing, L. G., & Huber, H. (2003). Do psychology courses reduce belief in psychological
myths? Social Behavior and Personality, 31(6), 585-592.
Sternberg, R. J., & Grigorenko, E. L. (1999). Myths in psychology and education regarding
the gene-environment debate. Teachers College Record, 100(3), 536-553.
Stollberg-Rilinger, B. (2000). Europa im Jahrhundert der Aufklärung. Stuttgart: Reclam.
Swift, T. L., & Wilson, S. L. (2001). Misconceptions about brain injury among the general
public and non-expert health professionals: an exploratory study. Brain Injury, 15(2),
149-165.
Thornton, J. E. (2002). Myths of aging or ageist stereotypes. Educational Gerontology, 28(4),
301-312.
Travis, C. (1989). Anger: The misunderstood emotion. New York: Touchstone Books.
Winer, G. A., Rader, A. W., & Cottrell, J. E. (2003). Testing different interpretations
for the mistaken belief that rays exit the eyes during vision. Journal of Psychology,
137(3), 243-261.
Wilken, B. (1998). Methoden der kognitiven Umstrukturierung. Ein Leitfaden für die
psychotherapeutische Praxis. Stuttgart: Kohlhammer/Urban.
Winer, G.A., Rader, A.W. & Cottrell, J.E. (2003). Testing different interpretations for the
mistaken belief that rays exit the eyes during vision. Journal of Psychology, 137(3),
243-261.
Zhu, J., & Thagard, P. (2002). Emotion and action. Philosophical Psychology, 15(1), 19-36.
Schönpflug, W. (2000). Geschichte und Systematik der Psychologie. Weinheim: Psychologie
Verlags Union.
79