Didaktik der Informatik - Möglichkeiten

Transcrição

Didaktik der Informatik - Möglichkeiten
GI-Edition
Gesellschaft für Informatik (GI)
publishes this series in order to make available to a broad public
recent findings in informatics (i.e. computer science and information systems), to document conferences that are organized in cooperation with GI and to publish the annual GI Award dissertation.
The volumes are published in German or English.
Information: http://www.gi-ev.de/service/publikationen/lni/
Ira Diethelm, Christina Dörge,
Claudia Hildebrandt,
Carsten Schulte (Hrsg.)
I. Diethelm, C. Dörge, C. Hildebrandt, C. Schulte (Hrsg.):
6.Workshop der GI-Fachgruppe Didaktik der Informatik, 2010
Broken down into the fields of
• Seminars
• Proceedings
• Dissertations
• Thematics
current topics are dealt with from the fields of research and
development, teaching and further training in theory and practice.
The Editorial Committee uses an intensive review process in order
to ensure the high level of the contributions.
Lecture Notes
in Informatics
Didaktik der Informatik
Möglichkeiten empirischer Forschungsmethoden und Perspektiven der Fachdidaktik
6. Workshop der GI-Fachgruppe DDI
16.-17.09.2010 in Oldenburg
ISSN 1617-5468
ISBN 978-3-88579-262-8
DDI workshops are covering a broad range of topics related to Computer Science Education Research.
This volume contains contributions accepted for the sixth workshop at the Carl
von Ossietzky University of Oldenburg, Germany, which focuses on scientific
methods, especially empirical research in informatics education.
168
Proceedings
Ira Diethelm, Christina Dörge,
Claudia Hildebrandt, Carsten Schulte (Hrsg.)
Didaktik der Informatik – Möglichkeiten
empirischer Forschungsmethoden und
Perspektiven der Fachdidaktik
6. Workshop der GI-Fachgruppe
„Didaktik der Informatik”
16. - 17. September 2010
in Oldenburg
Gesellschaft für Informatik e.V. (GI)
Lecture Notes in Informatics (LNI) - Proceedings
Series of the Gesellschaft für Informatik (GI)
Volume P-168
ISBN 3-88579-262-8
ISSN 1617-5468
Volume Editors
Prof. Dr. Ira Diethelm
Informatik in der Bildung, Universität Oldenburg
26111 Oldenburg, Email: [email protected]
Diplom Inform. Christina Dörge
Informatik in der Bildung, Universität Oldenburg
26111 Oldenburg, Email: [email protected]
Dr. Claudia Hildebrandt
Informatik in der Bildung, Universität Oldenburg
26111 Oldenburg, Email: [email protected]
Prof. Dr. Carsten Schulte
Didaktik der Informatik, Freie Universität Berlin
14195 Berlin, Email: [email protected]
Series Editorial Board
Heinrich C. Mayr, Universität Klagenfurt, Austria (Chairman, [email protected])
Hinrich Bonin, Leuphana-Universität Lüneburg, Germany
Dieter Fellner, Technische Universität Darmstadt, Germany
Ulrich Flegel, SAP Research, Germany
Ulrich Frank, Universität Duisburg-Essen, Germany
Johann-Christoph Freytag, Humboldt-Universität Berlin, Germany
Thomas Roth-Berghofer, DFKI
Michael Goedicke, Universität Duisburg-Essen
Ralf Hofestädt, Universität Bielefeld
Michael Koch, Universität der Bundeswehr, München, Germany
Axel Lehmann, Universität der Bundeswehr München, Germany
Ernst W. Mayr, Technische Universität München, Germany
Sigrid Schubert, Universität Siegen, Germany
Martin Warnke, Leuphana-Universität Lüneburg, Germany
Dissertations
Dorothea Wagner, Universität Karlsruhe, Germany
Seminars
Reinhard Wilhelm, Universität des Saarlandes, Germany
Thematics
Andreas Oberweis, Universität Karlsruhe (TH)
 Gesellschaft für Informatik, Bonn 2010
printed by Köllen Druck+Verlag GmbH, Bonn
Vorwort
Die Didaktik der Informatik mausert sich. Wie bereits in den Vorjahren auch bilden die
Beiträge auf dem diesjährigen, sechsten Workshop „Didaktik der Informatik – Möglichkeiten empirischer Forschungsmethoden und Perspektiven der Fachdidaktik“ einen
Querschnitt durch die aktuelle, deutschsprachige Diskussion in der Didaktik der Informatik.
Im Vergleich über die Jahre zeigt sich, wie auch im Titel zum Workshop angedeutet
wird, die zunehmende empirische Fundierung, die einhergeht mit einer Reflexion der
Möglichkeiten, Aufgaben und notwendigen zukünftigen Ausrichtung informatikdidaktischer Forschung.
Schwerpunkte des diesjährigen Workshops bilden die Themengebiete Aufgaben (Wettbewerbsaufgaben, Schwierigkeitsanalysen, Muster der Aufgabenbearbeitung),
Lernerperspektiven (Schülervorstellungen, subjektorientierte Forschung) und Lehrerbildung (Befragung, Perspektiven). Zudem werden im Anschluss an die Konferenz in einer
Begleitveranstaltung und einem Beitrag zu diesem Workshop Perspektiven des Ansatzes
"Informatik im Kontext" diskutiert. Hier sollen Forschungsrichtungen und Kooperationen von Forschergruppen zu diesem Thema erörtert werden.
Eine zweite Begleitveranstaltung weist ebenfalls in die Zukunft und verdeutlicht gleichzeitig die Entwicklung des Workshops: das Doktorandenforum. Ursprünglich war der
DDI-Workshop selbst als Forum für Doktoranden aus der Informatikdidaktik ins Leben
gerufen worden. Nun jedoch hat sich das Feld bereits so weit etabliert, dass wir eigenständige Forschungsbeiträge auf dem Workshop diskutieren und Fragen und Details zu
Promotionsprojekten im eigenen Forum für Doktoranden klären.
Wir freuen uns, dass wir als Inspiration für alle beteiligten Gruppen Prof. Dr. Barbara
Moschner als ausgewiesene Expertin für empirische Lern- und Lehr-Forschung für den
Hauptvortrag gewinnen konnten.
Wir wünschen allen Teilnehmenden und auch den Leserinnen und Lesern dieses Bandes
interessante Anregungen und Diskussionen.
Oldenburg und Berlin, im Juli 2010
Ira Diethelm
Carsten Schulte
-5-
Programmkomitee
Ira Diethelm (Universität Oldenburg)
Christina Dörge (Universität Oldenburg)
Claudia Hildebrandt (Universität Oldenburg)
Carsten Schulte (Freie Universität Berlin)
Gutachter
Norbert Breier (Universität Hamburg)
Michael Fothe (Universität Jena)
Peter Hubwieser (TU München)
Ludger Humbert (Universität Wuppertal)
Jochen Koubek (Universität Bayreuth)
Dennis Krannich (Universität Bremen)
Johannes Magenheim (Universität Paderborn)
Ralf Romeike (PH Schwäbisch Gmünd)
Sigrid Schubert (Universität Siegen)
Andreas Schwill (Universität Potsdam)
Albert Zündorf (Universität Kassel)
Organisationskomitee an der Universität Oldenburg
Christian Borowski
Ira Diethelm (Vorsitz)
Christina Dörge
Claudia Hildebrandt
Stefan Moll
-6-
Inhaltsverzeichnis
Teil 1: Facetten subjektorientierter Forschung
Eingeladener Beitrag:
Moschner, Barbara; Anschütz, Andrea
Kombination und Integration von qualitativen und quantitativen Forschungsmethoden
in einem interdisziplinären Forschungsprojekt …………………….………………….. 11
Knobelsdorf, Maria
Informatische Lern- und Bildungsprozesse im Fokus subjektorientierter Forschung … 21
Diethelm, Ira; Zumbrägel, Stefan
Wie funktioniert eigentlich das Internet? - Empirische Untersuchung von Schülervorstellungen ..……………………………………………………………………….… 33
Hubwieser, Peter; Mühling, Andreas; Brinda, Torsten
Erste Ergebnisse einer Lehrerbefragung zum bayerischen Schulfach Informatik .……. 45
Diethelm Ira; Hellmig, Lutz; Friedrich, Steffen; Breier, Norbert; Brinda, Torsten
Lehrerbildung Informatik - Was ist zu tun? …………………………………………… 57
Teil 2: Forschung zu Aufgaben und Problemlösestrategien
Schlüter, Kirsten
Eine Studie zu den Merkmalen der Aufgabenschwierigkeit am Beispiel eines
Informatik-Schülerwettbewerbs. Zweiter Teil: Empirische Aufgabenanalyse ………... 69
Meißner, Gabor
Aufgaben der ersten Runde des Bundeswettbewerbs Informatik – Kontinuität und
Wandel ...…………………………………………………………………………….… 81
Kiesmüller, Ulrich
Automatisierte, prozessbegleitende Identifizierung der Problemlösestrategien Lernender
unter Verwendung von Mustererkennungsmethoden ……………………………….… 93
Teil 3: Diskussionspapiere
Romeike, Ralf
Scratch2Greenfoot – Eine kreative Einführung in die Programmierung mit Scratch und
Greenfoot …………………………………………………………………………….. 107
-7-
Predoiu, Livia
Didaktik und Bewertung in längerfristigen Teamprojekten in der Hochschullehre …. 113
Engbring, Dieter; Pasternak, Arno
Einige Anmerkungen zum Begriff IniK …………………………………………...… 119
-8-
Teil 1
Facetten subjektorientierter Forschung
Kombination und Integration von qualitativen und
quantitativen Forschungsmethoden in einem
interdisziplinären Forschungsprojekt
Barbara Moschner, Andrea Anschütz
Institut für Pädagogik
Carl von Ossietzky Universität Oldenburg
26111 Oldenburg
[email protected]
[email protected]
Abstract: Vorteile der Kombination und Integration von qualitativen und
quantitativen Forschungsmethoden werden diskutiert und aufgezeigt. Basierend
auf einer begrifflichen Klärung der Konzepte „quantitativ“ und „qualitativ“ stellt
der Beitrag verschiedene Modelle der Methodenkombination theoretisch und
bezogen auf ein Interventionsprojekt aus der eigenen Forschungspraxis dar.
1 Qualitative und quantitative Forschung
Die Unterscheidung zwischen qualitativen und quantitativen Forschungsmethoden ist in
den Methodenhandbüchern sehr gebräuchlich [BD06], [HSE10], [Ke08]. Unterschiede
zwischen quantitativen und qualitativen Methoden bestehen dabei sowohl in der Form
der Datenerhebung als auch in den Auswertungs- oder Analysemethoden des
vorliegenden Datenmaterials. Entscheidungen für die eine oder die andere
Forschungsmethode sollten aufgrund der zentralen Untersuchungsfragen getroffen
werden, nicht selten spielen jedoch auch Forschungstraditionen oder
berufsbiographische Besonderheiten bei solchen Entscheidungen eine Rolle.
Quantitative Verfahren sind zumeist bei hypothesentestenden Forschungsfragen die
Methode der Wahl. Zur Entwicklung der Hypothesen werden Theorien und Modelle
oder bereits vorliegende empirische Untersuchungen zum interessierenden Themenkreis
herangezogen; die Hypothesen werden (deduktiv) aus diesen Theorien oder Modellen
abgeleitet. Beim quantitativen Ansatz werden standardisierte Verfahren der
Datenerhebung eingesetzt, Ziel ist eine möglichst objektive Form der Datenerhebung
und Analyse. Wesentliches Kennzeichen quantitativer Datenerhebungen ist das Messen
und Testen, Datenquellen sind beispielsweise Experimente, Fragebögen, Leistungstests,
Log-Files oder vorliegende Statistiken und Studien, die einer weiteren Analyse
unterzogen werden.
- 11 -
Die erhobenen Daten werden anschließend inferenzstatistisch ausgewertet (z.B. werden
Korrelationen, t-Tests, Varianzanalysen, Faktorenanalysen, Clusteranalysen oder
Strukturgleichungsmodelle berechnet), sodass die Ergebnisse Aufschluss darüber geben,
ob die postulierten Hypothesen - mit einer gewissen Wahrscheinlichkeit - Gültigkeit
haben oder verworfen werden müssen. Dabei können Statistikprogramme wie SPSS, R
oder Matlab hilfreich bei der Auswertung genutzt werden.
Demgegenüber werden qualitative Verfahren eher eingesetzt, wenn das Forschungsfeld
noch neu und wenig bearbeitet ist. Mit Hilfe von qualitativen Methoden soll ein neues
Forschungsthema erhellt werden. Die Ergebnisse qualitativer Forschung werden häufig
herangezogen, um Hypothesen (induktiv) zu generieren. Qualitative Formen der
Datenerhebung sind beispielsweise teilstandardisierte oder narrative Interviews,
teilnehmende Beobachtung, Aktionsforschung oder Gruppenbefragungen. Die Daten
qualitativer Studien werden meist explorativ ausgewertet, wobei es einige etablierte
Auswertungsmethoden gibt (z.B. die qualitative Inhaltsanalyse nach Mayring [Ma08]
oder eine Auswertungsmethode basierend auf der Grounded Theory von Glaser und
Strauss [GS05]). Computergestützte Auswertungsprogramme wie MAXQDA oder
Atlas.ti sind dabei wertvolle Hilfsmittel.
Nachdem lange Zeit quantitative und qualitative Forschung weitgehend unverbunden
nebeneinander Nutzung fanden und sich die verschiedenen „Lager“ fast feindselig
gegenüber standen, hat sich inzwischen die Position durchgesetzt, dass es große
Überschneidungsbereiche gibt und dass eine Kombination der verschiedenen
methodischen Ansätze sinnvoll und hilfreich ist [Fl00], [Fl08], [Ke08], [Ma01]. Immer
häufiger wird betont, dass qualitative und quantitative Forschungsansätze keinen
Gegensatz darstellen; es wird von einer „unsinnigen Dichotomie“ oder einer falschen
Gegenüberstellung gesprochen [Ma01].
2 Mixed Modells: die Kombination und Integration von qualitativen
und quantitativen Forschungsmethoden
Mayring [Ma01] systematisiert in seinem Artikel die Kombination und Integration von
qualitativen und quantitativen Methoden auf der Ebene der Forschungsdesigns. Er
unterscheidet dabei zwischen Vorstudienmodellen, Verallgemeinerungsmodellen,
Vertiefungsmodellen und Triangulationsmodellen.
2.1 Vorstudienmodell
Beim so genannten Vorstudienmodell dient eine qualitative Vorstudie zur Exploration
eines Forschungsfeldes über das nur keine oder nur wenig Erkenntnisse vorliegen. Die
Ergebnisse der qualitativen Vorstudie werden genutzt, um Hypothesen zu generieren.
Diese Hypothesen werden anschließend mit Hilfe einer quantitativen Untersuchung
getestet und überprüft. Zentral dargestellt werden die Ergebnisse der quantitativen
Studie.
- 12 -
2.2 Verallgemeinerungsmodell
Ziel des Verallgemeinerungsmodells ist ebenfalls die quantitative Überprüfung von
Datenmaterial. Allerdings wird in diesem Modell im ersten Forschungsschritt mehr
Gewicht auf die qualitativen Daten einer fallorientierten, deskriptiven Studie gelegt, die
sorgfältig ausgewertet wird. Im zweiten quantitativen Schritt wird dann anhand einer
repräsentativen Stichprobe überprüft, inwieweit die Ergebnisse der Fallstudie
verallgemeinert werden können.
2.3 Vertiefungsmodell
Im Rahmen des Vertiefungsmodells steht am Beginn des Forschungsprozesses eine
quantitative Studie an einer großen Stichprobe. Das Datenmaterial dieser Studie wird
quantitativ ausgewertet. Erst dann folgt eine qualitative Studie, mit deren Hilfe das
vorliegende quantitative Material besser interpretiert werden kann. Die qualitative Studie
dient der Vertiefung der erzielten Ergebnisse, sie liefert Material für die Interpretation
von erwarteten und unerwarteten Effekten und illustriert anhand von Fallbeispielen die
Ergebnisse der quantitativen Studie.
2.4 Triangulationsmodell
Beim Triangulationsansatz gehen quantitative und qualitative Methoden der
Datenerhebung bzw. Datenanalyse Hand in Hand. Eine Forschungsfrage wird
multiperspektivisch betrachtet, die Daten werden nahezu zeitgleich mit verschiedenen
Methoden erhoben oder ausgewertet. Die Studien sollen sich gegenseitig unterstützen
und die Erkenntnisse über den interessierenden Gegenstand so aus mehreren
Perspektiven zusammenführen. Flick [Fl08] plädiert für eine systematische
Perspektiven-Triangulation um die Stärken der jeweiligen Forschungsperspektiven
gegenseitig zu ergänzen und auch deren Schwächen wechselseitig aufzuzeigen und zu
kompensieren. Zudem beschreibt Flick verschiedene Konzeptionen von Triangulation
wie Daten-Triangulation, Investigator-Triangulation, Theorien-Triangulation und
Methoden-Triangulation, und zeigt dabei die wesentlichen Stärken und Schwächen der
Ansätze auf.
3 Ein Beispiel: Das Projekt “Feedback to Learn” (F2L)
Anhand eines Beispiels aus der eigenen Forschungspraxis soll an dieser Stelle gezeigt
werden, wie verschiedene quantitative und qualitative Methoden der Datenerhebung und
Datenanalyse sinnvoll miteinander verzahnt werden können. Bei dem hier vorgestellten
Projekt „Feedback to Learn“ (F2L) handelt es sich um eine interdisziplinäre Studie, bei
der pädagogisch-psychologische Forschungstraditionen mit neuropsychologischen,
chemiedidaktischen und informatikbezogenen Fragestellungen verbunden sind.
- 13 -
Das Projekt wurde zunächst im Rahmen einer Pilotstudie für ein Jahr, aktuell für die
Hauptstudie für drei Jahre vom Bundesministerium für Bildung und Forschung (BMBF)
gefördert1.Die folgenden Ausführungen beziehen sich auf einen zentralen Teilaspekt des
Projektes, in dessen Rahmen ein Teil der Schülerstichprobe an einem sogenannten
Reattributionstraining teilnahm.
Abbildung 1: Überblick über das Forschungsdesign
1
Pilotstudie „The influence of immediate feedback on subsequent learning in children“ (01GJ0602) mit den
Antragstellerinnen Prof. Dr. Christiane Thiel, Prof. Dr. Ilka Parchmann und Prof. Dr. Barbara Moschner;
Hauptstudie „Impact of affective and informative feedback on learning in children before and after a
reattribution training” (01GJ0805) mit den Antragsteller/innen/n Prof. Dr. Christiane Thiel, Prof. Dr. Ilka
Parchmann, Prof. Dr. Claus Möbus und Prof. Dr. Barbara Moschner
- 14 -
3.1 Pilotstudie
Fehlerrückmeldungen bei Lernaufgaben haben Auswirkungen auf den Lernprozess. Sie
sind einerseits notwendig, um effizientes Lernen zu ermöglichen, andererseits können
negative Emotionen, die durch bloßstellende Rückmeldungen ausgelöst werden, mit dem
folgenden Lernen interferieren. In der Pilotstudie wurde mit einem assoziativen
Lernexperiment, das aus Speicher-Abruf- Rückmeldungs-Trials besteht, die Rolle einer
direkten Fehlerrückmeldung auf nachfolgendes Lernen quantitativ bei 250 Schülerinnen
und Schülern der fünften und sechsten Klasse untersucht. Die Ergebnisse der Pilotstudie
lieferten wichtige Einsichten für die Planung der Hauptstudie. Es zeigte sich
beispielsweise, dass bei sinnvollem Lernmaterial der Lernerfolg stabiler ist als bei
sinnlosem Lernmaterial und dass die Operationalisierung von Feedback für die
Hauptstudie überarbeitet werden musste [MAÖ01].
3.2 Hauptstudie mit Intervention
Auch in der Hauptstudie stehen Fehlerrückmeldungen im Zentrum des Interesses. Es soll
geklärt werden, wie sich affektive und korrektive Komponenten von positivem und
negativem Feedback auf die Lernleistung auswirken. Um dies zu testen wurde je ein
Lernparadigma entwickelt, das affektives bzw. korrektives Feedback enthält.
Abbildung 2: Affektive und korrektive Feedbackbedingungen in den Lernparadigmen
Die verwendeten Lernparadigmen spiegeln in der Hauptstudie sinnvolles Lernmaterial
wider (Lernen im Chemieunterricht für Anfänger). Wir gehen davon aus, dass sich die
Ergebnisse auf alle Lernaufgaben übertragen lassen, in denen regelgeleitetes assoziatives
Lernen eine Rolle spielt. Zudem wird erkundet, ob die Effekte des affektiven bzw.
korrektiven Feedbacks in den Lernaufgaben im Zusammenhang mit interindividuellen
Unterschieden stehen und durch ein Reattributionstraining ([ZS01], Intervention)
beeinflusst werden können.
- 15 -
Abbildung 3: Beispielaufgaben verschiedener Schwierigkeitsstufen in den Lernparadigmen
Diese Intervention - in Form eines Reattributionstrainings - hat im Schulalltag statt
gefunden, in dem Lehrkräfte in ihrem Umgang mit Rückmeldungen nach Erfolgen und
Misserfolgen der Schülerinnen und Schüler trainiert wurden. Dabei standen individuelle
Zuschreibungen (Attribuierung) von Erfolgen und Misserfolgen auf verschiedene
externale (Aufgabenschwierigkeit, Zufall) aber auch internale Faktoren (Begabung,
Anstrengung) im Vordergrund. Die Lehrkräfte wurden trainiert den Kindern
Rückmeldungen zu geben, die günstige Attributionen enthalten und ungünstige
Attributionen vermeiden z.B. mehr Anstrengung nach einem Misserfolg zu investieren
anstatt diesen auf mangelnde Begabung zurückzuführen. Dabei sollten die Lehrkräfte
sowohl direkte mündliche Rückmeldungen im Unterrichtsgeschehen als auch indirekte
schriftliche Rückmeldungen unter Hausarbeiten, Tests und Klausuren etc. geben.
3.3 Quantitatives Prä- und Postdesign mit Interventions- und Kontrollgruppe
Als Kernstück unseres Forschungsprojektes kann die quantitative Testung von Kindern
der fünften und sechsten Klassenstufe vor und nach einem Reattributionstraining
angesehen werden. Die Kinder bearbeiteten das oben genannte Lernparadigma vor und
nach einer Interventionsphase (Reattributionstraining vs. Kontrollgruppe ohne
Intervention) und wurden sowohl vor als auch nach dieser Phase hinsichtlich
interindividueller
Unterschiede
(z.B.
Intelligenz,
Konzentrationsfähigkeit,
Gedächtniskapazität,
Zielorientierungen,
Selbstkonzept) mit
standardisierten
Messinstrumenten getestet.
Für das Reattributionstraining wurden fünf Lehrerinnen in mehrtägigen Workshops an
der Universität geschult. Ihre Aufgabe war es, das Training in ausgewählten Klassen 15
Wochen lang im regulären Schulunterricht anzuwenden. Dabei wurde sichergestellt, dass
diese Lehrpersonen nicht in den Kontrollklassen unterrichteten. Während der
Interventionsphase erhielten die Lehrerinnen einmalig ein Auffrischungstraining und
wurden direkt unterstützt, wenn sie um Hilfe baten.
- 16 -
Insgesamt liegen vollständige Datensätze von 418 Schülerinnen und Schüler (231
Mädchen und 187 Jungen) der fünften und sechsten Klassenstufe von zwei Gymnasien
in der Studie vor. 206 Schülerinnen und Schüler (110 Mädchen und 96 Jungen) waren
der Trainingsgruppe zugeordnet, 212 Versuchspersonen (121 Mädchen und 91 Jungen)
bildeten die Kontrollgruppe.
Die Lösungshäufigkeiten beim Lernparadigma im Bereich von 45 – 84% (je nach
Schwierigkeitsgrad der Aufgabe) zeigen, dass die Schülerinnen und Schüler sehr
erfolgreich mit den Lernaufgaben umgegangen sind. Dies ist insbesondere beachtlich vor
dem Hintergrund, dass vor der Lernumgebung keine Einführung in die Materie
stattgefunden hat und die Schülerinnen und Schüler bis zur Testung keinen
Chemieunterricht hatten. Zwischen den zwei Feedbackbedingungen affektives Feedback
und korrektives Feedback konnte in den Lernleistungen und Reaktionszeiten kein
Unterschied gefunden werden. Es zeigte sich aber in beiden Feedbackgruppen, dass die
Wahrscheinlichkeit ein Item richtig zu beantworten signifikant höher war, wenn das
vorherige Item auch richtig beantwortet wurde. Erste Auswertungen bezüglich des
Reattributionstrainings zeigen in den hoch affektiven Feedbackbedingungen (“besser als
die anderen” und “schlechter als die anderen) ein signifikanter Effekt auf die
nachfolgenden Reaktionszeiten der Kinder. Während die Kinder in der Trainingsgruppe
zum ersten Messzeit nach einem hoch affektivem Feedback viel langsamer antworteten
als die Kinder in der Kontrollgruppe, unterschieden sich die Reaktionszeiten der beiden
Gruppen zum zweiten Messzeitpunkt nicht mehr. Dieses Ergebnis weist darauf hin, dass
das Reattributionstraining einen Effekt auf die Verarbeitung des hoch affektiven
Feedbacks hat.
3.4 Begleitende Tagebuchstudie
Die fünf Lehrerinnen, die das Reattributionstraining durchführten, wurden gebeten am
Ende jeder Woche ein standardisiertes Tagebuch zum Training auszufüllen. Die
Lehrerinnen beklagten sich zwar über die zusätzliche Arbeit, die ihnen damit
aufgebürdet wurde, die Tagebücher geben uns jedoch - im Sinne des Vertiefungsmodells
- eine wertvolle Hilfe für die Interpretation der quantitativen Daten. Zudem können
durch diese Selbstauskünfte Faktoren identifiziert werden, die die Lehrerinnen als
förderlich oder schwierig bei der Umsetzung des Trainings empfanden.So zeigte sich,
dass die Lehrerinnen das Training nicht in allen Fächern und in allen Stunden zufrieden
stellend umsetzen konnten. Das Training fiel ihnen in den „weichen“ Fächern (z.B.
Musik oder Geschichte) leichter als in den „harten“ Fächern (z.B. Mathematik). Zudem
befürchteten sie, dass sie durch das Training den vorgeschriebenen Lernstoff nicht in der
vorgesehenen Zeit vermitteln könnten. Manche Lehrerinnen entwickelten im Laufe des
Trainings mehr Routinen, andere dagegen nicht. Die Tagebücher konnten auch Auskunft
darüber geben wie zufrieden die Lehrerinnen im zeitlichen Verlauf mit der Umsetzung
des Trainings waren. So konnten anfängliche Schwierigkeiten und zeitlich besonders
stressige und ausgefüllte Phasen wie Klausur- und Zeugnissituationen bei allen
Lehrerinnen als problematische Zeitpunkte und -verläufe herausgearbeitet werden. Alle
Lehrerinnen bevorzugten die schriftliche Feedbackvariante gegenüber mündlichen
Kommentaren.
- 17 -
3.5 Begleitende Beobachtungsstudie
Während der Interventionsstudie wurden studentische Projektmitarbeiterinnen in die
Schulen geschickt um systematisch das Unterrichtsgeschehen in den Trainingsklassen zu
beobachten und auch um durch ihre (sporadische) Anwesenheit sicherzustellen, dass das
Training nicht in Vergessenheit gerät. Die Kategorien für die Auswertung der
Beobachtungsprotokolle wurden deduktiv aus dem Trainingsmaterial heraus entwickelt
und induktiv bezogen auf die vorliegenden Beobachtungsprotokolle ergänzt.
Die studentischen Beobachterinnen berichteten, dass Erfolgssituationen im Unterricht
viel häufiger zu beobachten waren als Misserfolgssituationen und sich deshalb auch die
Kommentare der Lehrerinnen viel häufiger auf solche Erfolgssituationen bezogen. Die
Lehrerinnen waren froh über die studentischen Beobachtungen, da sie so
Rückmeldungen erhalten konnten, ob ihr Training angemessen durchgeführt wurde. Die
Kinder in den beobachteten Klassen begrüßten ebenfalls die Anwesenheit der
studentischen Beobachterinnen. Sie hatten den Eindruck, dass in solchen Stunden ihre
Lehrerinnen besonders freundlich waren.
3.6 Interviewstudie mit Schülerinnen und Schülern
Mit einzelnen Schülerinnen und Schülern (N=27) der Trainingsgruppen wurden im
Anschluss an die Intervention mit Hilfe eines halbstandardisierten Interviews
durchgeführt. Insgesamt zeigt sich, dass die schriftlichen Rückmeldungen der
Lehrerinnen in der Interventionsphase als hilfreich für die Kinder und auch für deren
Eltern wahrgenommen wurden. Die verbalen Rückmeldungen wurden im
Alltagsgeschäft meist gar nicht wahrgenommen. Die Kinder verglichen und bewerteten
ihre Noten im Vergleich zu ihren Klassenkameraden, Kommentare wurden dagegen als
etwas „Persönliches“ betrachtet und nicht mit den Klassenkameradinnen und
Klassenkameraden diskutiert.
3.7 Interviewstudie mit Lehrerinnen
Nach Abschluss der Interventionsphase wurden ebenfalls mit den fünf beteiligten
Lehrerinnen teilstrukturierte Interviews durchgeführt. Alle Lehrerinnen berichteten, dass
sie das Training nicht ununterbrochen in ihren Gruppen durchführen konnten, da
konkurrierende Dinge anstanden (Klassenarbeiten, Ferien, eigene Krankheiten usw.). Sie
berichteten weiterhin, dass die Eltern sich sehr für die schriftlichen Kommentare bei den
Klassenarbeiten interessierten und mit ihren Kindern darüber sprachen. Manche Eltern
erklärten, dass ihre Kinder nun motivierter seien. Bei manchen Kindern beobachteten die
Lehrerinnen deutliche positive Reaktionen auf das Training. Sie waren motivierter und
erzielten bessere Leistungsergebnisse. Keines der Kinder beklagte sich über die
Kommentare. Alle Lehrerinnen waren überzeugt, dass sie - ebenso wie ihre Schülerinnen
und Schüler - eine Menge gelernt hatten. In den Interviews konnten zudem Probleme
und Schwierigkeiten, aber auch Chancen, die in den Tagbüchern beschrieben wurden,
aufgegriffen, vertieft und diskutiert werden.
- 18 -
3.8 Parallelstudie Neuroimaging
In einer parallelen Neuroimaging-Studie wurde untersucht, welche Hirnaktivitäten mit
Feedback verbunden sind. Für diese Studie wurde ein Teil der Kinder (N= 63) aus der
Trainingsgruppe und der Kontrollgruppe mit funktioneller Magnetresonanztomographie
(fMRT)
untersucht.
Die
fMRT
ist
eine
Weiterentwicklung
der
Magnetresonanztomographie (MRT, auch Kernspintomographie), die vor allem in der
Forschung eingesetzt wird. Die Ergebnisse unserer Untersuchungen sollen einen
Einblick in diejenigen Hirnaktivitäten ermöglichen, die an der Verarbeitung und dem
Umgang mit affektiven Komponenten von Feedback und den Effekten von Feedback auf
Lernleistungen, beteiligt sind.
Erste Auswertungen der fMRT-Daten weisen auf die Wirksamkeit des
Reattributionstrainings hin. Für die Feedbackbedingung „schlechter als die anderen“
zeigte sich ein signifikanter Interaktionseffekt zwischen dem Messzeitpunkt und der
Trainingsgruppe u.a. in einem Areal (superior temporaler Gyrus), das zu einem
Netzwerk von Regionen gehört, die an der Erfassung von Gefühlen, Bedürfnissen,
Absichten und Meinungen anderer und an der Verarbeitung selbstrelevanter
Informationen im sozialen Kontext beteiligt ist. Somit weisen die Ergebnisse dieser
Teilstudie und der Verhaltensstudie darauf hin, dass die trainierten Kinder besser in der
Lage waren, selbstrelevante, affektiv stark beanspruchende Informationen lernförderlich
zu verarbeiten.
3.9 Follow-Up
Ein Jahr nach dem Ende der Interventionsstudie wurden alle Versuchspersonen noch
einmal gebeten, an einer Follow-Up-Studie teilzunehmen. Aufgrund von Umzügen,
Schulwechsel, Klassenwechsel oder Krankheiten konnten nicht mehr alle Schülerinnen
und Schüler erreicht werden, sodass sich die Stichprobe auf ca. 400 Schülerinnen und
Schüler reduziert von denen vollständige Datensätze vorliegen.
Die Follow-Up-Studie soll vor allen Dingen klären, inwieweit die Effekte des
Reattributionstrainings nicht nur kurzfristig, sondern auch längerfristig wirksam sind.
Die Follow-Up-Studie ist rein quantitativ angelegt und beinhaltet im Wesentlichen die
gleichen Testinstrumente (Fragebögen und Tests) wie die vorangegangenen
quantitativen Erhebungen. Momentan werden die Daten der Follow-Up-Studie zur
Datenauswertung aufbereitet.
- 19 -
4 Fazit und Ausblick
Gerade in anwendungsorientierten und auch in interdisziplinären Forschungsfeldern ist
eine Kombination von quantitativen und qualitativen Forschungsmethoden von großem
Wert. Die mehrperspektivische Sichtweise ermöglicht es, das Forschungsfeld besser
auszuleuchten und erwartete wie unerwartete Ergebnisse besser zu verstehen. Während
durch quantitative Studien theoriegeleitet Hypothesen geprüft werden können und
verallgemeinerbare Resultate erzielt werden, wird durch qualitative Studien die
Interpretation der Daten erleichtert und verbessert. Sie weisen häufig eine Tiefenschärfe
auf, die mit rein quantitativen Untersuchungsdesigns nicht erreicht werden kann,
besitzen aber demgegenüber nur einen geringen Verallgemeinerungscharakter.
Es lässt sich beobachten, dass sowohl in nationalen als auch in internationalen
Zeitschriften Publikationen zunehmen, die verschiedene Formen der Datenerhebung und
der Datenauswertung beinhalten. Gerade die computergestützten Programme zur
Auswertung qualitativer Daten haben die Analyse großer Datensätze spürbar erleichtert
und die Akzeptanz solcher Studien durch eine deutliche Systematisierung stark erhöht.
Literaturverzeichnis
[BD06] Bortz, J.; Döring, N.: Forschungsmethoden und Evaluation für Human
- und
Sozialwissenschaftler., 4., überarbeitete Auflage. Springer, Heidelberg, 2006.
[Fl00] Flick, U.: Triangulation in der qualitativen Forschung. In (Flick, U.; v. Kardorff; E.;
Steinke, I.; Hrsg.): Qualitative Forschung. Ein Handbuch. Rowohlt, Reinbek, 2000; S.
309-318.
[Fl08] Flick, U.: Triangulation. Eine Einführung. 2. Auflage. VS Verlag für
Sozialwissenschaften, Wiesbaden, 2008.
[GS05] Glaser, B. G.; Strauss, A. L.: Grounded Theory. Strategien qualitativer Forschung. 2.,
korrigierte Auflage. Bern, Huber. 2005
[HSE10] Hussy, W.; Schreier, M.;, Echterhoff, G.: Forschungsmethoden in Psychologie und
Sozialwissenschaften - für Bachelor. Springer, Heidelberg, 2010.
[Ke08] Kelle, U.: Die Integration qualitativer und quantitativer Methoden in der empirischen
Sozialforschung: Theoretische Grundlagen und methodologische Konzepte. 2. Auflage.
VS Verlag für Sozialwissenschaften, Wiesbaden, 2008.
[Ma01] Mayring, P.: Kombination und Integration qualitativer und quantitativer Analyse. Forum
Qualitative Sozialforschung, 2001, 2(1), Art. 6, http://nbn-resolving.de/urn:nbn:de:0114fqs010162.
[Ma08] Mayring, P.: Qualitative Inhaltsanalyse. Grundlagen und Techniken. 10. Auflage. Beltz,
Weinheim. 2008
[MAÖ01]Moschner, B.; Anschütz, A.; Özyurt, J.; Thiel, C.; Parchmann, I.: Fehlerrückmeldungen
bei Lernaufgaben: Erste Ergebnisse aus Untersuchungen mit 10- bis 13jährigen. In:
(Lankes; E.-M.; (Hrsg.): Pädagogische Professionalität als Gegenstand empirischer
Forschung .Waxmann, Münster, 2008; S. 165-176
[ZS01] Ziegler, A.; Schober, B.: Theoretische Grundlagen und praktische Anwendung von
Reattributionstrainings. Roderer, Regensburg, 2001.
- 20 -
Informatische Lern- und Bildungsprozesse im Fokus
subjektorientierter Forschung
Maria Knobelsdorf
Freie Universität Berlin
Königin-Luise-Str. 24-26
14195 Berlin
[email protected]
Abstract: Die Debatte um informatische Bildung knüpft an die Bildungstheorie an
und argumentierte für den allgemeinbildenden Wert der Informatik. Mit den Bildungsstandards ist zudem eine erste Konsolidierung verschiedener Strömungen erreicht worden. Insgesamt fokussiert die bisherige Diskussion und damit auch die sich daran anschließende Forschung auf die Inhalte und deren Umsetzung im Informatikunterricht,
während die Lernenden und ihre Subjektperspektive bisher nicht genug berücksichtigt
wurden. In diesem Artikel wird daher für Forschungsansätze plädiert, die die Lernenden und ihre individuellen Lern- und Bildungsprozesse ins Zentrum rücken. Als ein
möglicher, empirischer Zugang wird die qualitative Biographieforschung thematisiert,
wie sie z.B. in Bezug auf Schule in der Bildungsgangforschung umgesetzt wird. Bisherige Forschungsansätze werden vorgestellt.
1
Einführung
In den letzten 20 Jahren ist informatische Bildung ausgiebig diskutiert worden, wobei
verschiedene Definitionen und Ansätze vorgeschlagen entwickelt worden sind. Die Debatte knüpfte dabei an die Bildungstheorie an und argumentierte für den allgemeinbildenden Wert der Informatik. Mit den Bildungsstandards für einen Informatikunterricht
(IU) in der Sek. I ist dabei eine erste Konsolidierung verschiedener Strömungen erreicht
worden. Nun richtet sich der Fokus auf die Umsetzung: Aufgaben werden gefordert und
konkrete Umsetzungsmöglichkeiten im Unterricht diskutiert. Insgesamt lag und liegt der
bisherige Fokus dieser Diskussion jedoch auf den Inhalten und auf deren Umsetzung im
Unterricht, während die Lernenden und ihre Subjektperspektive bisher nicht stark genug
berücksichtigt worden. Da die inhaltliche Begründung auf die Zielkategorie Bildung verweist, sollte daran erinnert werden, dass Bildung nicht verordnet werden kann, sondern
einen individuellen Prozess zwischen Subjekt, der Welt und seinen Handlungen darstellt.
Damit ist die Subjektperspektive nicht suspendierbar, sonst läuft die Argumentation Gefahr durch das Ausklammern der Lernenden die eigene Grundlage zu diskreditieren, auf
der sich informatische Bildung begründet.
In diesem Beitrag wird daher für die Notwendigkeit eines subjektorientierten Ansatzes
plädiert. Qualitative Biographieforschung stellt einen möglichen Zugang dar Lern- und
- 21 -
Bildungsprozesse zu rekonstruieren. Verschiedene Studien wurden dazu bereits erfolgreich durchgeführt und konnten erste Einblicke in Lern- und Bildungsprozesse von Personen verschiedener Kohorten aufzeigen. Im Bereich der Unterrichtsforschung fehlen bisher
biographische Forschungsansätze, hier bietet die Bildungsgangforschung theoretische und
methodologische Konzepte an.
2
Informatische Bildung
Die Frage, was unterrichtet werden sollte, ist eine der zentralen Fragestellungen der Didaktik. Die Festlegung von Auswahlkriterien hat normativen Charakter und bezieht sich
auf vorherrschende gesellschaftliche Werte, Norme und Ideale. In Deutschland ist dafür
bisher die Kategorie Bildung und die im Neuhumanismus begründete Bildungstheorie
maßgebend gewesen. Mit Bildung ist die Befähigung eines Menschen zu vernünftiger
Selbstbestimmung (im Sinne der Aufklärung), unabhängig seiner Herkunft und Stellung
gemeint. Als Bildungsprozess wird die individuelle Entwicklung eines Menschen im Medium objektiv-allgemeiner Inhaltlichkeit verstanden, aus deren dialektischer Beziehung
Individualität und Gemeinschaftlichkeit gleichermaßen sich gegenseitig konstituieren und
begrenzen (vgl. [Kla86]). Die bildungstheoretische und die sich daran fortsetzende kritischkonstruktive Didaktik verstehen Unterricht als Begegnung der Schülerinnen und Schüler
(SuS) mit didaktisch analysierten Bildungsinhalten. Mit der didaktischen Analyse, der kategorialen Bildung sowie den epochaltypischen Schlüsselproblemen wurden von Klafki Instrumente und Kategorien für die Bestimmung des Bildungswerts vorgelegt (vgl.
[Kla07]). Heymann hat diesen Bildungsbegriff auf die Mathematik und andere Fachgebiete ausdifferenziert und sieben Aufgaben der allgemeinbildenden Schule benannt (vgl.
[Hey96]). In der Diskussion um informatische Bildung und die Frage, was an der Informatik allgemeinbildend sei, wird an diesen theoretischen Bezugsrahmen angeknüpft (vgl.
[Wit03], S. 60). Ein Schwerpunkt der bisherigen Diskussion lag dabei an der Herausarbeitung gesamtgesellschaftlicher Frage- und Problemstellungen in der Informatik in Anlehnung an die epochaltypischen Schlüsselprobleme.
2.1
Bildungsstandards des Informatikunterrichts
Die Diskussion um informatische Bildung hat nach der ersten PISA-Studie eine neue Wendung genommen, als damit begonnen wurde Bildungsstandards der Informatik für die Sek.
I zu entwickeln. Mit Bezug auf die bisherige Debatte über den allgemeinbildenden Wert
der Informatik und orientiert an den Bildungsstandards der Mathematik, wurden die von
den SuS in einem IU der Sek. I zu erreichenden fachbezogenen Kompetenzen formuliert
(vgl. [Pu08]). Die Bildungsstandards definieren, welche Ziele SuS nach einer bestimmten Zeit erreicht haben sollten und bieten die Möglichkeit diese zu überprüfen und zu
evaluieren an. Zwar orientiert sich die inhaltliche Ausformulierung der Standards an dem
allgemeinbildenden Wert eines Fachs, in ihrer Substanz sind die Bildungsstandards Leis”
tungsstandards, sie sagen, was am Ende von gewissen Abschnitten von Bildungsgängen
- 22 -
erreicht werden soll“ (vgl. [Blu06], S. 15). Damit werden nicht mehr konkrete Inhalte in
Form von Lehrplänen vorgegeben, sondern Ziele, deren Erreichung jede Schule individuell
gestalten muss.
Die Informatikdidaktik fordert für die Umsetzung der Standards im nächsten Schritt konkrete Aufgaben und diskutiert ihre Umsetzungsmöglichkeiten im Unterricht. Was hier wie
auch schon in der früheren Diskussion um informatische Bildung fehlt, ist die Berücksichtigung der Lernenden und ihres Lern- und Bildungsprozesses. Bildungsstandards haben zwar das Wohl der Lernenden zum Ziel, tatsächlich findet aber eine rein fachinhaltliche Auseinandersetzung statt, der eine methodische im Hinblick auf Umsetzung und die
spätere Evaluation folgt, während die Lernenden geradezu im behavioristischen Sinne als
Objekte dieses Systems gesetzt sind. Hier wird auf eine maßvolle Umsetzung der Standards verwiesen, jedoch gibt die Bildungsforschung diese Aufgabe an die Schule und die
Lehrkräfte weiter. Inwiefern eine Lehrperson dann Unterricht gestaltet, der einen bildenden Wert hat oder mehr einem training to the test entspricht, bleibt zunächst offen.
Die Bildungsstandards können nur daher erfolgreich sein, wenn der darin gedachte Bildungsprozess der Lernenden auch tatsächlich im Mittelpunkt steht. Ein solcher Unterricht
muss sich jedoch daran orientieren, inwiefern er zur Förderung und Weiterentwicklung
von Kompetenzen beigetragen hat: Die wichtige Frage ist nicht ’Was haben wird durch”
genommen?’, sondern ’Welche Vorstellungen, Fähigkeiten, und Einstellungen sind entwickelt worden?’“ (vgl. [Blu06], S. 17). Die Bildungstandards für den Sek. I IU befürworten
das, indem sie sich auf den Konstruktivismus als Lerntheorie beziehen und daher fordern:
Erfolgreicher Informatikunterricht setzt also voraus, dass die Lehrenden verstehen, was für die Lernenden von Bedeutung und Interesse ist, um dies als
Ausgangs- und Anknüpfungspunkt zu benutzen (vgl. [Pu08], S. 5).
Diese Forderung zieht viele Fragen nach sich, die sich letztlich alle auf die individuellen
Lern- und Bildungsprozesse der Lernenden beziehen: Wie nähern sich Lernende dem Gegenstand Informatik, seinen Inhalten und Artefakten an? Was interessiert und motiviert
Lernende an informatischen Themen? Womit identifizieren sie sich besonders stark? Wie
entwickeln sie fachspezifische Kompetenzen im Bereich informatischer Bildung? Welche
Schwierigkeiten haben sie dabei und wie gehen sie damit um? All das sind Fragen die sich
auf den informatischen Lern- und Bildungsprozess eines Menschen in Bezug auf seine
Lebenswelt beziehen und die für einen gelingenden IU zentral sind.
2.2
Bisherige Forschung der DDI
Die Forschung der Informatikdidaktik befindet sich im Vergleich zu den etablierten Disziplinen wie beispielsweise der Mathematik- oder Physikdidaktikforschung noch im Aufbau. Dennoch wurden bereits viele Forschungsvorhaben umgesetzt und zahlreiche Dissertationen vorgelegt, so dass erste thematische und methodische Ausdifferenzierungen
erkennbar kann (vgl. [Hum09]).
- 23 -
Insgesamt1 kann beobachtet werden, dass die bisherige Forschung der Informatikdidaktik sich den vielfältigen Herausforderungen eines nach wie vor wenig erforschten Gebiets
stellt. Thematisch lag der bisherige Fokus hauptsächlich auf der Frage nach dem allgemein
bildenden Wert der Informatik und damit seiner Legitimation als Schulfach. Dazu wurden unterschiedliche Themen der Informatik didaktisch analysiert und für den Unterricht
ausgearbeitet, erprobt und evaluiert. Erste fachdidaktische Ansätze wurden ausgearbeitet,
darüber hinaus fand die Entwicklung von Lernumgebungen statt.
Empirische Lehr-Lern-Forschung, wie sie für die anderen Fachdidaktiken programmatisch
ist, wurde bisher nur in einem sehr engen Rahmen durchgeführt, was durch beschränkte
Ressourcen erklärbar ist. Hier findet hauptsächlich theoriegeleitete Entwicklung und empirische Prüfung von Unterrichtsbeispielen oder Konzepten statt. Die wissenschaftliche
Güte der durchgeführten empirischen Studien ist dabei sehr durchwachsen. Es wurden sowohl qualitative als auch quantitative Ansätze umgesetzt, allerdings war ihr Zweck nicht
immer nachvollziehbar. Einige Arbeiten haben Vorstudiencharakter, während andere sich
an wissenschaftlichen Methoden und Theorien der empirischen Sozialforschung und Psychologie orientieren und den jeweiligen epistemologischen Forschungskontext beachten.
Eine breit angelegte Unterrichtsforschung und -evaluation, wie sie für die Fächer Mathematik und Naturwissenschaften umgesetzt wird, fehlt jedoch noch, genauso wie die systematische Erforschung von Lernprozessen insbesondere aus der Subjektperspektive (vgl.
[RU09]).
Die Forschung der Informatikdidaktik wird im Hinblick auf Förderung von Forschungsprojekten vor allem an den Standards empirischer Lehr-Lern- und Bildungsforschung gemessen werden und muss sich daher einer Herausforderung stellen, für die die etablierten
Fachdidaktiken Zeit und Personal hatten hineinzuwachsen. Insgesamt ist jedoch eine deutliche Tendenz erkennbar hier anzuschließen. Es ist daher erforderlich eine Diskussion zu
führen, wie die Informatikdidaktik zukünftig ihre Forschung gestalten will und innerhalb
welcher Forschungstraditionen sie sich verortet.
Die hier vorgelegte Arbeit möchte auf die noch zu wenig berücksichtigte Subjektperspektive der Individuen (sowohl Lernende als auch Lehrende) in der Auseinandersetzung mit
den hingegen vielfach diskutierten und weiterentwickelten inhaltlichen Festlegungen hinweisen. Im Folgenden soll die qualitative Biographieforschung als möglicher empirischer
Ansatz zur Erforschung von Lern- und Bildungsprozessen vorgestellt werden. Im Anschluss erfolgt eine kurze Einführung in die Bildungsgangforschung, die die Tradition der
bildungskritischen Didaktik mit empirischer Lehr-Lern-Forschung verknüpft und einen
Ansatz für biographische Unterrichtsforschung anbietet.
3
Empirische Zugänglichkeit von Lern- und Bildungsprozessen
Lernen wird heutzutage konstruktivistisch verstanden: die lernende Person setzt sich aktiv
mit dem Lerngegenstand auseinander. Sie konstruiert ihr eigenes Verständnis, indem sie
den Lerngegenstand mit eigenen Vorerfahrungen und Vorkenntnissen sinnhaft verknüpft.
1 Aus
Platzmangel ist es leider nicht möglich detailliert auf die verschiedenen Arbeiten einzugehen.
- 24 -
Lernen wird außerdem als ein Prozess verstanden, der situativ ist, d.h. in fachliche, soziale
und kulturelle Kontexte eingebettet ist. Der situative Kontext, in dem Lernen stattfindet,
bedingt und wirkt auf den Lernprozess und damit auf die Person selbst zurück. Es setzt
sich daher immer mehr die Erkenntnis durch, dass Lernprozesse ganzheitlich in ihrem
situativen Kontext untersucht werden müssen, um sie didaktisch besser zu unterstützen.
Lernprozesse können auch als Teil von Bildungsprozessen verstanden werden. In Lernprozessen erwerben wir konkrete Kompetenzen oder Wissen, bildlich gesprochen halten wir
dann ein Werkzeug in der Hand. Der Bildungsprozess als Ganzes fokussiert aber vor allem
auf die Frage, wie der Erwerb eines solchen Werkzeugs auf das Individuum zurückwirkt,
seine Welt- und Selbstsicht im Handlungskontext des Werkzeugs verändert. Damit hängen
Lern- und Bildungsprozesse zusammen. Sie verlaufen jedoch nicht nur im Rahmen von
Bildungsinstitutionen (auch wenn diese daran angelehnt so heißen), sondern setzen sich
im Alltag außerhalb der Schule oder Hochschule fort, diese zu erforschen erfordert einen
ganzheitlichen Forschungsansatz, wie ihn z.B. die qualitative Biographieforschung anbietet. Insbesondere im Bereich der Unterrichtsforschung fehlen bisher biographische Forschungsansätze, hier bietet die Bildungsgangforschung theoretische und methodologische
Konzepte an. Beide Ansätze sollen nun kurz vorgestellt werden.
3.1
Qualitative Biographieforschung
Wie können wir Lern- und Bildungsprozesse empirisch erfassen und untersuchen? Die erziehungswissenschaftliche Biographieforschung geht dieser Frage nach und versteht Lernund Bildungsprozesse als Welt- und Selbstkonstruktionen im Sinne des Sozialkonstruktivismus nach Schütz und Luckmann, was der Selbst- und Welterschließung des neuhumanistischen Bildungsbegriffs entspricht (vgl. [Mar05], S. 181). Nun wird im phänomenologischen Sinne argumentiert, dass der eigene Lern- und Bildungsprozess erst durch die
bewusste Rückschau auf Erlebtes sowohl dem Individuum als auch den Forscherinnen und
Forschern zugänglich wird. Indem der Lernende bisher Erlebtes aus der autobiographischen Perspektive reflektiert, wird der bisherige Bildungsprozess sichtbar und der eigene
Lernprozess reflektiert.
Autobiographien oder generell autobiographisches Material sind zunächst Konstruktionen der eigenen Lebensgeschichte. Die dabei geschilderten Erfahrungen und Erlebnisse
des eigenen Lebens werden durch Sinn- und Bedeutungsherstellung in einen Zusammenhang gebracht. Das Verfassen der eigenen Biographie ist ein retrospektiver Prozess, bei
dem bedeutungsordnende, sinnherstellende Konstruktionen des eigenen Lebens sichtbar
gemacht werden: die Biographie als Träger von impliziten Orientierungen und Sinnkonstruktionen: Die Erinnerungen, die jemand von seinem Leben noch aktualisieren kann,
”
sind jene, die ihm bedeutungsvoll in einem Gesamtzusammenhang erscheinen, durch die
er sein Leben strukturiert“”(vgl. [Mar05], S. 179). Der Mensch entwirft in einem Prozess der Biographisierung nicht nur sich selbst ständig neu, sondern auch die Welt aus der
Perspektive einer bestimmten, individuellen Sichtweise. In biographischen Lernverläufen
schichten sich Erfahrungen aufeinander, werden subjektiv in Beziehung gesetzt und gedeutet, sodass (implizite, und zum Teil auch unbewusste) Orientierungen in Form von
- 25 -
Selbst- und Weltbildern entstehen. Veränderungen im Selbst- und Weltbild entstehen langsam und sprunghaft. Sichtbar werden sie erst retrospektiv in der Darstellung der eigenen
Biographie (vgl. [Eca06]).
Unter biographischem Lernen werden Lernprozesse als Teil der eigenen Biographie verstanden, als zentrale Tätigkeit des Lebens an sich. Biographisches Lernen ist längerfristig
und komplex, inhaltlich bestimmt und bezieht sich auf bestimmte soziokulturelle und
historisch bedingte Inhalte und Probleme. Dabei werden Lernbedingungen wichtiger als
Lernmechanismen. Der eigene biographische Lernprozess ist eingebunden in kollektive
Lernprozesse, im Sinne soziokultureller Entfaltung der menschlichen Gattung. Lernprozesse gewinnen eine biographische Bedeutung durch die Auseinandersetzung zwischen Individuum und einem Lernfeld, das nicht nur durch subjektive Bedeutungszuschreibungen
und die Interessen des Individuums bestimmt wird, sondern auch Angebote, Widerstände
und Vorgaben der Umwelt einschließt. Eine autobiographische Erzählung kann mehrere,
auch miteinander konkurrierende Lernfelder beinhalten, die entweder nur vorübergehend
in Erscheinung treten oder zentral werden (vgl. [Sch05], S. 44-47).
Gepaart wird dieser Forschungsansatz mit empirischen Methoden zur Datenerhebung und
Analyse aus der qualitativen Sozialforschung. Qualitative Biographieforschung nimmt eine retrospektive Perspektive in der Datenerhebung an. Es werden Daten erhoben, die
die retrospektiv reflektierte eigene Lebensgeschichte widerspiegeln. Der Fokus liegt also auf der Reflexion, auf der persönlichen Sicht des Subjekts auf das von ihm erlebte (vgl.
[Mar05]). Reaktive Verfahren zur Datengewinnung sind hauptsächlich Interviewverfahren (narrativ oder Leitfaden gestützt) und ethnographische Verfahren (teilnehmende Beobachtung). Nichtreaktive Verfahren basieren auf autobiographischem Material wie z.B.
Briefen, Tagebüchern, Bild- oder Tonaufnahmen (vgl. [Mar06], S. 115ff). Die Datenanalyse biographischer Forschung ist je nach Forschungsschwerpunkt und Datenmaterial unterschiedlich. Inhaltlich geht es zunächst um die Einzelfallrekonstruktion der Biographie
einer Person. Die biographisch erworbenen Erfahrungen, die das Welt- und Selbstbild konstituieren, werden rekonstruiert und in deskriptiver Weise festgehalten. Im zweiten interpretativen Schritt geht es darum aus der Perspektive des Subjekts seine Handlungs- und
Verhaltensweisen nachzuvollziehen und ihre Sinnhaftigkeit interpretatorisch herauszuarbeiten (vgl. [Mar06], S. 120-121).
3.2
Die Bildungsgangforschung
Mit Bildungsgang ist im traditionellen Sinne der zeitliche Gang“ durch ein institutiona”
lisiertes Bildungssystem gemeint, der durch Rahmenstundentafeln, Curricula, Fächer und
Prüfungen einem Lernenden den vorab festgelegten Weg weist“. Die jeweilige Bildungs”
institution setzt dabei Lernende voraus, deren Eingangsvoraussetzungen und Abschlussaspirationen homogen sind (siehe Schularten, Jahrgangsstufen, Abschlüsse). Bildung entsteht dann als Produkt des Lehrerhandelns an den SuS. Andererseits wird den Schulen
der gesellschaftliche Auftrag übertragen, die zukünftigen Generationen auf ein produktivpartizipatives Leben in der Gesellschaft vorzubereiten. Dem Zwang der Schulpflicht wird
die schulische Selbstverpflichtung die Lernenden zur Freiheit und Selbstbestimmung zu
- 26 -
erziehen und zu bilden gegenübergestellt. Das wirkt widersprüchlich, denn Schulen sollen
bilden, aber Bildungsprozesse können nicht verordnet werden: Die Förderung von Bil”
dung bedarf daher einer Kultur, die nicht nur die Reproduktion der Gesellschaft sichert,
sondern zugleich gesellschaftliche Transformation ermöglicht“ (vgl. [Mey05], S. 18). Hier
knüpft die Bildungsgangforschung2 an die bildungstheoretische und kritisch-konstruktive
Didaktik und die kategoriale Bildung an. Dabei geht sie über die Frage der inhaltlichen
Schulbildung als idealen Endzustand hinaus und bezieht sich auf den Entwicklungsprozess des Einzelnen.
Dem durch die Institution vorgegebenen objektiven Bildungsgang wird ein gedachter subjektiver Bildungsgang entgegengesetzt, der sich im Bildungsprozess eines Lernenden vollzieht. Damit rückt der Humboldt’sche Bildungsbegriff, als Entfaltung individueller Anlagen in der wechselseitigen Auseinandersetzung zwischen Subjekt und Welt wieder in den
Fokus. Forschungsfragen werden relevant, die sich damit auseinander setzen, wie Lernende die Vorgaben einer Bildungsinstitution für sich umsetzen und im konstruktivistischen
Sinne mit ihren Vorerfahrungen und Vorkenntnissen verknüpfen. Die Bildungsgangforschung geht dabei noch weiter und setzt den subjektiven Bildungsgang eines Einzelnen
ins Verhältnis zum biographischen Kontext, da sie Lern- und Bildungsprozesse als Sozialisationsprozesse versteht, die sich immer in einem situativen Kontext abspielen.
Aus der Perspektive der Gesamtbiographie ist die Auseinandersetzung mit dem eigenen
Bildungsgang nur ein Teilaspekt. Kinder und Jugendliche beschäftigen sich während ihrer Schulzeit mit vielen anderen Themen und erkennen in ihrer Biographie verschiedene
Anforderungen, die sich jedoch auch überschneiden können. Um auch diesen pädagogisch
wichtigen Bereich zu erfassen, arbeiten die Bildungsgangforschung und ihre Didaktik hier
mit dem Konzept der Entwicklungsaufgaben nach Havighurst. Entwicklungsaufgaben versuchen das Spannungsfeld zwischen subjektiven Bedürfnissen und gesellschaftlichen Ansprüchen, von denen die Schule nur einen Bereich darstellt, zu erfassen. Entwicklungsaufgaben ziehen sich dabei durch den gesamten Lebenslauf. In den 1980er Jahren wurden
von Dreher und Dreher die von Havighurst definierten Entwicklungsaufgaben empirisch
überprüft und erweitert. Der innovative Gedanke der Entwicklungsaufgabe besteht darin, die Bildungsanforderungen der Schule auf die gesamte Persönlichkeitsentwicklung zu
erweitern, womit der individuelle Prozesscharakter des Humboldt’schen Bildungsbegriffs
stärker berücksichtigt wird als in den Curriculardebatten (vgl. [Tra04]).
Bildungsgangforschung geht davon aus, dass Lernen immer situiert ist und diese Situiertheit durch den eigenen Lebenslauf, die darin enthaltenen Entwicklungsaufgaben oder
-themen, sowie durch die subjektive Struktur des Bildungsgangs bestimmt wird. Bildungsgangforschung macht es sich zur Aufgabe die subjektiven Bildungsgänge von Lernenden
2 Historisch betrachtet ist die Bildungsgangforschung in den 1970er Jahren aus der wissenschaftlichen Begleitung des nordrhein-westfälischen Kollegschulversuchs hervorgegangen (vgl. [Bla86]). Mit Bildungsgang waren
die verschiedenen studiums- und berufsvorbereitenden Varianten der Kollegschulklassen gemeint. In Fokus standen die SuS als Subjekte und Gestalter ihrer eigenen Bildungsgänge, sowie die Überzeugung, dass nur aus dieser
Subjektperspektive sowohl die Wirkung institutionalisierter Bildungsgänge, als auch Unterricht selbst angemessen beschrieben, evaluiert und gestaltet werden kann. Daraus ging die Unterscheidung in einen objektiven und
subjektiven Bildungsgang hervor, die das curriculare Lehr-Lern-Programm ins Verhältnis individueller Deutung
und Aneignung der Lernenden setzt (vgl. [Lec08], S. 15ff). Eine wissenschaftliche Weiterentwicklung und Etablierung erfolgte durch das DFG-Graduiertenkolleg Bildungsgangforschung an der Universität Hamburg von
2002 bis 2008 (vgl. [Mey09], S. 108 ff.), (vgl. [Her08], S. 61ff).
- 27 -
und Lehrenden zu rekonstruieren und wie sich diese im konkreten Unterricht strukturell
niederschlagen. Damit wird sie zur empirischen Lehr-Lern-Forschung, die sich an die
erziehungswissenschaftliche Biographieforschung und ihre Methodologie anlehnt (vgl.
[Kol05]). Konkret werden biographische Lernprozesse von SuS als auch von Lehrpersonen in unterschiedlichen Fachstrukturen wie z.B. dem Physik- oder Mathematikunterricht
untersucht (vgl. [Lec08]). Der Fokus liegt auf Interesse, Sinnkonstruktion, individueller
Kompetenzentwicklung, und Alltagsvorstellungen im Rahmen des jeweiligen Fachunterrichts.
4
Biographische Ansätze in der DDI
Qualitative Biographieforschung ist bisher nur im Ansatz im thematischen Fokus der Informatik durchgeführt worden. Dazu zählt u.a. die Untersuchung von Weltbildern von InformatiklehrerInnen in Bezug auf den Computer (vgl. [Ber01]), sowie Einzelfallrekonstruktionen von Berufsbiographien von InformatikerInnen (vgl. [BH08]). Ferner wurden aus
der Genderperspektive Einzelfallrekonstruktionen von weiblichen Jugendlichen im Hinblick auf ihren Umgang mit und ihr Interesse für Computer biographisch untersucht (vgl.
[Rit94]).
Im Forschungsprojekt Computernutzungsbiographien an der Freien Universität Berlin untersuchen wir mit einem biographischen Ansatz Welt- und Selbstbilder im Handlungskontext der Computernutzung (vgl. [KS07, SK07]). Sowohl SuS als auch InformstudienanfängerInnen haben ein sehr einseitiges Bild der Informatik, das sich vor allem im
Hinblick auf den Studienabbruch und die Lernmotivation gravierend auswirkt. Für sie
ist Informatik eine Computerwissenschaft, deren Inhalte sich um Computer, deren Nutzung und Wartung drehen. Aus dem eigenen Interesse für Computer und ihre Nutzung
wird auf ein Interesse für Informatik, aus der eigenen Computernutzungskompetenz auf
die Befähigung zum Informatikunterricht/-studium geschlossen. So ist es nicht wirklich
verwunderlich, dass fast die Hälfte aller Studienanfänger das Informatikstudium vorzeitig
abbricht, bei vielen mit der Begründung sich darunter etwas anderes vorgestellt zu haben.
Es wird vermutet, dass die heimische Computernutzung und der IU dieses Bild maßgeblich
beeinflussen und prägen. Auf der anderen Seite, hat die heutige Generation von Jugendlichen und jungen Erwachsenen nicht nur fast uneingeschränkten Zugang zu Computern
und digitalen Artefakten, sondern verfügt auch über gute Computernutzungskompetenzen,
die jedoch hauptsächlich außerhalb der Schule erworben werden. Es scheint, dass trotz gewisser Vertrautheit mit digitalen Artefakten, die Lernenden unterschiedliche Erfahrungen
im Verlauf ihrer Schulzeit machen. Möglicherweise haben viele Lernende, besonders am
Anfang, ähnliche Erlebnisse, die sie jedoch unterschiedlich verarbeiten, deuten und interpretieren. Es scheint also, dass für manche die eigene Computernutzung einen Weg in die
Informatik ebnet, während sie für andere möglicherweise in einer Sackgasse endet. Welche
Rolle der IU dabei spielt, ob er gewisse Erlebnisse oder Vorstellungen und Erwartungen
bestärkt oder neue Erfahrungen hinzufügt, ist unklar und bedarf weiter Klärung.
Studien, die zu diesem Thema bisher durchgeführt wurden, haben unterschiedliche Ein-
- 28 -
zelfaktoren wie z.B. Geschlecht und rollenspezifisches Verhalten, Mathematik- oder Programmiervorkenntnisse, Selbsteinschätzung der eigenen Fähigkeiten erforscht. In unserem
Forschungsprojekt verfolgen wir eine ganzheitliche Sicht, die als Schwerpunkt die vorgefassten Meinungen eines einzelnen, dessen konzeptionelles Bezugssystem zum Fach sowie
dessen Entwicklung verstehen will. Das Ziel ist jedoch nicht zu beweisen, welche Faktoren nun ausschlaggebend sind, sondern zu erforschen, wie die biographische Entwicklung
eines Menschen ein kohärentes Bezugssystem zwischen all diesen Einzelfaktoren bildet.
Die Welt- und Selbstkonstruktionen, die hier interessieren, werden aus der Perspektive
der Informatik und da insbesondere in Bezug auf die Computernutzung betrachtet. Die in
diesem Zusammenhang stehenden Forschungsfragen sind:
∙ Welche biographischen Lernprozesse und damit zusammenhängende Bildungsprozesse entwickeln sich im Lernfeld der Computernutzung?
∙ Welche Erfahrungen machen Lernende mit der Computernutzung und im IU?
∙ Gibt es über die Computernutzung mögliche Wege in die Informatik und wenn ja,
welche? Welche Rolle spielt dabei der IU?
Um diese Fragen zu beantworten, wird ein reaktives Datenerhebungsinstrument verwendet, bei dem TeilnehmerInnen gebeten werden, ihre persönlichen bisher gemachten Erfahrungen und Erlebnisse mit dem Computer in Form ihrer eigenen Autobiographie zu rekonstruieren und aufzuschreiben. Mit der Schreibaufforderung werden den TeilnehmerInnen
kurze Textauszüge aus anderen Biographien vorgelegt, die den eigenen Schreibprozess
anregen (vgl. [KS06]).
Diese Form der Datenerhebung ist anders als ein narratives Interview, denn es fehlt die interaktive Bezugnahme der ForscherInnen. Die schreibende Person ist in ihrem retrospektiven Reflexionsprozess alleine und ungestört und kann sich so möglicherweise mehr öffnen
und Einblicke gewähren, als in einem Interview. Der Schreibprozess wirkt anregend und
fördert eine gewisse Notwendigkeit die ganze“ Geschichte zu erzählen. Zusätzlich wer”
den solche biographischen Elemente notiert, die immer noch so wichtig und präsent sind,
dass sie spontan erinnert werden können. Auch wenn die Computerbiographie damit nie
vollständig alle Erlebnisse und Fakten schildert, so stellt sie doch eine Auswahl der wichtigsten Momente dar. Man kann also annehmen, dass fehlende Elemente sich entweder
nicht ereignet haben, oder vergessen wurden. Dieser Umstand ist jedoch vernachlässigbar,
da es nicht darum geht die tatsächlichen Fakten eines Lebenslaufs zusammenzutragen,
sondern die Subjektperspektive im Handlungskontext der Computernutzung zu rekonstruieren.
In unserem Forschungsprojekt wurden mehrere Studien mit diesem Dateninstrument durchgeführt. Hierbei wurden Computerbiographien von InformatikstudienanfängerInnen erhoben ausführlich untersucht und mit Biographien von Studierenden im Studiengang Deutsch
auf Lehramt sowie Psychologie verglichen (vgl. [KS06, KS07, SK07, KR08]). In der aktuellen Hauptstudie wurden 7 InformatikstudienanfängerInnen drei Monate nach Studienbeginn und nach Erhebung der Computerbiographie in einem Leitfaden gestützten Interview
nochmal ausführlich zu ihrer Biographie der Computernutzung und ihrem Weg in die Informatik befragt. Alle bisherigen Ergebnisse stützen die Vermutung, dass für manche Ler- 29 -
nenden die Computernutzung einen Weg in die Informatik darstellt. Dazu muss die Person
jedoch eine Reihe verschiedener Tätigkeiten am Computer durchlaufen, die idealtypisch
als ein vierstufiger Prozess verstanden werden können, der den Übergang zwischen dem
Nutzen und Gestalten von Computeranwendungen markiert:
1. Einfaches erstes Bedienen von Anwendungen, wie sie für NutzerInnen zum bedienen vorgesehen sind
2. Komplexere Bedienvorgänge, die auch die Metaebene“, d.h. die Computeradminis”
tration umfassen - z.B. Einstellungen, Konfigurationen oder Wiederherstellen von
Funktionalität
3. Einfaches Gestalten, bei dem vorgegebene Elemente einer Anwendung in ihrer Struktur verändert werden - z.B. das Erstellen einer Webseite, ein kleines Skript etc.
4. Gestalterische Tätigkeiten, bei denen eigene Anwendungen selbst entwickelt werden - z.B. das entwickeln und programmieren eines Spiels.
Umfasst der biographische Lernprozess einer Person Erfahrungen auf diesen verschiedenen Ebenen des Nutzens und Gestaltens, erschließt sich ihr damit ein Welt- und Selbstbild
der Informatik, das Anknüpfungspunkte für weitere informatische Bildung sowohl im IU
als auch in einem Informatikstudium ermöglicht. Erst wenn eine Person den Unterschied
zwischen Nutzen und Gestalten informatischer Artefakte erlebt und verstanden hat, kann
sie gestalterische Kompetenzen wie z.B. das Programmieren im IU für sich als sinnvoll
deuten - erst dann wird eine solche Kompetenz Teil des informatischen Bildungsprozesses.
5
Ausblick
In diesem Artikel wurde argumentiert, dass die bisherige Debatte um informatische Bildung und die sich daran anschließende Forschung hauptsächlich auf Inhalte und Methodik
fokussiert. Doch gerade weil durch die Bildungsstandards eine erste Konsolidierung dieser inhaltlichen Auseinandersetzung erfolgt ist, muss nun verstärkt das Individuum informatischer Lehr-Lern- und Bildungsprozesse in den Blickpunkt genommen werden. Wenn
wir die Vorgeschichte, die bisher gemachten Erfahrungen, Kenntnisse, Vorstellungen, also
Welt- und Selbstbilder der Lehrenden und Lernenden nicht kennen, werden fachdidaktische Ansätze in ihrer Wirksamkeit begrenzt bleiben. Die Qualitative Biographieforschung
bietet dazu verschiedene Anknüpfungspunkte an. Vor allem Untersuchungen im Bereich
der Unterrichtsforschung fehlen. Hier kann auf theoretische und methodologische Konzepte der Bildungsgangforschung angeknüpft werden. Diese hat eine Reihe von Unterrichtsstudien z.B. zu Interessensentwicklung und individueller Sinnkonstruktion von SuS
im Physik- und Mathematikunterricht durchgeführt. Solche Studien wären auch für den
Informatikunterricht wichtig, da die SuS sich vielfach wie im Physik- und Mathematikunterricht schwer tun, Interesse zu entwickeln und Anknüpfungspunkte zwischen ihrer
persönlichen Lebenswelt und informatischer Bildung zu sehen.
- 30 -
Literatur
[Ber01]
Peter Berger. Computer und Weltbild. VS Verlag für Sozialwissenschaften, Wiesbaden,
2001.
[BH08]
Gila Brandt-Herrmann. Typische Biographien untypischer Informatiker: Bildungsprozesse in Berufsbiographien von Informatikern. Waxmann, 2008.
[Bla86]
Herwig Blankertz. Lernen und Kompetenzentwicklung in der Sekundarstufe II: Abschlußbericht der wissenschaftlichen Begleitung Kollegstufe NW. Curriculumentwicklung in
Nordrhein-Westfalen. Soester Verl.-Kontor, Soest, 1986.
[Blu06]
Werner Blum. Die Bildungsstandards Mathematik: Einführung. In Werner Blum, Christina Drüke-Noe, Ralph Hartung und Olaf Köller, Hrsg., Bildungsstandards Mathematik:
konkret: Sekundarstufe I: Aufgabenbeispiele, Unterrichtsanregungen, Fortbildungsideen,
Seiten 14–32. Cornelsen Scriptor, Berlin, 2006.
[Eca06]
Jutta Ecarius. Biographieforschung und Lemen. In Heinz-Hermann Krüger und Winfried Marotzki, Hrsg., Handbuch erziehungswissenschaftliche Biographieforschung, Seiten 91–108. VS Verlag für Sozialwissenschaften, Wiesbaden, 2006.
[Her08]
Uwe Hericks. Bildungsgangforschung und die Professionalisierung des Lehrerberufs –
Perspektiven für die Allgemeine Didaktik. In Meinert A Meyer, Stephanie Hellekamps
und Manfred Prenzel, Hrsg., Perspektiven der Didaktik, Jgg. 9 of Zeitschrift für Erziehungswissenschaft: Sonderheft, Seiten 61–75. VS Verlag für Sozialwissenschaften, Wiesbaden, 2008.
[Hey96] Hans Werner Heymann. Allgemeinbildung und Mathematik. Beltz Verlag, Weinheim und
Basel, 1996.
[Hum09] Ludger Humbert. Informatikdidaktik - Einschätzung der Landschaft. In Bernhard Koerber, Hrsg., 13. GI-Fachtagung Informatik und Schule (INFOS): Zukunft braucht Herkunft
- 25 Jahre INFOS, Lecture Notes in Informatics. Köllen Druck+Verlag, 2009.
[Kla86]
Wolfgang Klafki. Die Bedeutung der klassischen Bildungstheorien für ein zeitgemäßes
Konzept allgemeiner Bildung. Zeitschrift für Pädagogik, 32(4):455–476, 1986.
[Kla07]
Wolfgang Klafki. Neue Studien zur Bildungstheorie und Didaktik: Zeitgemäße Allgemeinbildung und kritisch-konstruktive Didaktik. Beltz Verlag, Weinheim, 6. auflage. Auflage,
2007.
[Kol05]
Hans-Christoph Koller. Bildung und Biographie. Zur Bedeutung der bildungstheoretisch fundierten Biographieforschung für die Bildungsgangforschung. In Barbara Schenk,
Hrsg., Bausteine einer Bildungsgangtheorie, Jgg. 6 of Studien zur Bildungsgangforschung, Seiten 47–66. VS Verlag für Sozialwissenschaften, Wiesbaden, 2005.
[KR08]
Maria Knobelsdorf und Ralf Romeike. Creativity as a pathway to computer science. In
ITiCSE ’08: Proceedings of the 13th annual conference on Innovation and Technology in
Computer Science Education, Seiten 286–290. ACM, 2008.
[KS06]
Maria Knobelsdorf und Carsten Schulte. Computer Biographies - A Biographical Research Perspective on Computer Usage and Attitudes Towards Informatics. In Tapio Salakoski, Tomi Mätylä und Mikko Laakso, Hrsg., Proceedings of the 5th Baltic Sea Conference on Computer Science Education: Koli 2005, Jgg. 41. TUCS General Publication,
2006.
- 31 -
[KS07]
Maria Knobelsdorf und Carsten Schulte. Das informatische Weltbild von Studierenden.
In Sigrid Schubert, Hrsg., 12. GI-Fachtagung Informatik und Schule (INFOS) 2007: Didaktik der Informatik in Theorie und Praxis, Lecture Notes in Informatics, Seiten 69–79.
Köllen Druck+Verlag, 2007.
[Lec08]
Mari-Annukka Lechte. Sinnbezüge, Interesse und Physik: Eine empirische Untersuchung
zum Erleben von Physik aus Sicht von Schülerinnen und Schülern, Jgg. 23 of Studien zur
Bildungsgangforschung. Verlag Barbara Budrich, Opladen&Farmington Hills, 2008.
[Mar05] Winifred Marotzki. Qualitative Biographieforschung. In Uwe Flick, Ernst von Kardoff
und Ines Steinke, Hrsg., Qualitative Forschung: Ein Handbuch, Seiten 175–186. Rowohlt,
Reinbek bei Hamburg, 2005.
[Mar06] Winfried Marotzki. Forschungsmethoden und -methodologie der Erziehungswissenschaftlichen Biographieforschung. In Heinz-Hermann Krüger und Winfried Marotzki,
Hrsg., Handbuch erziehungswissenschaftliche Biographieforschung, Seiten 111–135. VS
Verlag für Sozialwissenschaften, Wiesbaden, 2006.
[Mey05] Meinert A. Meyer. Die Bildungsgangforschung und die allgemeine Didaktik. In Barbara
Schenk, Hrsg., Bausteine einer Bildungsgangtheorie, Jgg. 6 of Studien zur Bildungsgangforschung, Seiten 17–46. VS Verlag für Sozialwissenschaften, Wiesbaden, 2005.
[Mey09] Meinert A. Meyer. Abschlussbericht des DFG-Graduiertenkollegs 821: Bildungsgangforschung: http://www.epb.uni-hamburg.de/files/Abschlussbericht GRK-.pdf. Universität
Hamburg, 2009.
[Pu08]
Hermann Puhlmann und u.a. Grundsätze und Standards für die Informatik in der Schule:
Bildungsstandards Informatik für die Sekundarstufe I: Empfehlungen der Gesellschaft für
Informatik e. V. erarbeitet vom Arbeitskreis ≫Bildungsstandards≪. Beilage zu LOG IN,
28(150/151), 2008.
[Rit94]
Martina Ritter. Computer oder Stöckelschuh? Eine empirische Untersuchung über
Mädchen am Computer. Campus Verlag, Frankfurt a. M., 1994.
[RU09]
Kristina Reiss und Stefan Ufer. Fachdidaktische Forschung im Rahmen der Bildungsforschung: Eine Diskussion wesentlicher Aspekte am Beispiel der Mathematikdidaktik.
In Rudolf Tippelt, Hrsg., Handbuch Bildungsforschung, Seiten 199–213. VS Verlag für
Sozialwissenschaften, Wiesbaden, 2009.
[Sch05]
Theodor Schulze. Strukturen und Modalitäten biographischen Lernens. Zeitschrift für
qualitative Bildungs-, Beratungs- und Sozialforschung, 6(1):43–64, 2005.
[SK07]
Carsten Schulte und Maria Knobelsdorf. Attitudes towards Computer Science - Computing Experiences as a Starting Point and Barrier to Computer Science. In ICER ’07:
Proceedings of the 3rd Workshop on International Computing Education Research, Seiten
27–38. ACM, 2007.
[Tra04]
Matthias Trautmann. Entwicklungsaufgaben bei Havighurst. In Matthias Trautmann,
Hrsg., Entwicklungsaufgaben im Bildungsgang, Jgg. 5 of Studien zur Bildungsgangforschung, Seiten 19–40. VS Verlag für Sozialwissenschaften, Wiesbaden, 2004.
[Wit03]
H. Witten. Allgemeinbildender Informatikunterricht? Ein neuer Blick auf H. W. Heymanns Aufgaben allgemeinbildender Schulen. In Peter Hubwieser, Hrsg., 10. GIFachtagung Informatik und Schule (INFOS) 2003: Informatische Fachkonzepte im Unterricht, Jgg. 32 of Lecture Notes in Informatics, Seiten 59–75. Köllen Druck+Verlag,
2003.
- 32 -
Wie funktioniert eigentlich das Internet? Empirische Untersuchung von Schülervorstellungen
Ira Diethelm, Stefan Zumbrägel
Universität Oldenburg
Department für Informatik
Abteilung Informatik in der Bildung
26111 Oldenburg
[ira.diethelm|stefan.zumbraegel]@uni-oldenburg.de
Abstract: Für viele Jugendliche ist das Internet ein wichtiger Teil ihres Lebens, doch
bisher ist unerforscht, wie sie sich das Internet vorstellen und wie man diese Vorstellungen gewinnbringend für den Informatikunterricht einsetzen kann. Aus medienpädagogischen Studien und den Bildungsstandards Informatik der Gesellschaft für
Informatik ergeben sich erste Hinweise auf die konkrete Nutzung des Internets durch
Kinder und Jugendliche und auf eine mögliche Einbettung in den Informatikunterricht.
Dieses Papier gibt einen Überblick über eine empirische, qualitative Untersuchung von
Schülervorstellungen zur Funktionsweise des Internets. Dafür wurden Schülerinnen
und Schüler der 7. und 8. Klasse mit einem Leitfaden gestützten Interview über EMail, Chat und Videostreaming befragt und mithilfe der qualitativen Inhaltsanalyse
ausgewertet. Es zeigte sich, dass die Vorstellungen der Schüler von der wissenschaftlichen Sicht abweichen, es aber durchaus einige Modelle gibt, die in den Schülervorstellungen häufiger auftreten. Der Verlauf dieser Studie und einige prägnante Ergebnisse
werden hier dargestellt.
1
Einleitung
Die Darstellung informatischer Sachverhalte in Schulbüchern, sofern sie vorhanden sind,
orientieren sich oft sehr stark an der wissenschaftlichen Literatur. In unserer Unterrichtserfahrung haben wir aber festgestellt, dass Schüler häufig Schwierigkeiten haben, die Themen aus solchen Büchern zu verstehen, sie aber mit eigenen Worten durchaus beschreiben
können. In diesen Beschreibungen werden häufig interessante Bilder oder Beispiele genutzt, die oft auch anderen Schülern helfen können.
Das Modell der didaktischen Rekonstruktion (vgl. z. B. [KRGK97]) greift dies auf und
bindet die Schülervorstellungen mit in die Konstruktion des Unterrichts ein, gleichwertig
zu den wissenschaftlichen Aussagen. Um dieses Modell auch in der Didaktik der Informatik nutzen zu können, ist es notwendig, die Schülervorstellungen zu Themenbereichen der
Informatik zu kennen und somit zu untersuchen.
Die Auswahl des Themas Internet begründet sich auf zwei Studien des Medienpädagogischen Forschungsverbundes Südwest zur Nutzung des Internets von Kindern und Jugendlichen (KIM und JIM, vgl. [MPFS08b, MPFS08a]), sowie den Bildungsstandards der
- 33 -
Gesellschaft für Informatik, [GI08]. Auf Grundlage dieser Papiere wurden Schüler der
Klassen 7 und 8 mit Hilfe eines Leitfaden gestützten Interviews dazu befragt, wie sie sich
die Funktionsweise des Internets vorstellen, insbesondere von ihnen stark genutzte Dienste
wie E-Mail, Chat oder Videostreaming.
Untersuchungen zu Schülervorstellungen bezüglich der Funktionsweise des Internets liegen bisher nicht vor. Das Ziel unseres Forschungsprojekt war es daher, zu erfahren, wie
Schülervorstellungen aussehen und ob sie sich ggf. zu wenigen Modellen zusammenführen
lassen, um diese später für die Konstruktion von Informatikunterricht nutzen zu können.
In unserer Untersuchung wird deutlich, dass Schüler bestimmte Vorstellungen von der
Funktionsweise des Internets haben und diese nutzen, um verschiedene Dienste zu beschreiben. Ebenso wird deutlich, dass diese Vorstellungen, zum Teil erheblich, von der
wissenschaftlichen Beschreibung abweichen.
Dieser Artikel basiert auf der Masterarbeit [Zu10] und teilt sich wie folgt in sechs Kapitel: In Kapitel 2 wird die Auswahl der Zielgruppe und des Themas näher dargestellt
und daraus das Ziel unserer Untersuchung abgeleitet. Kapitel 3 beschreibt den Aufbau
der Befragung. Unter anderem wird hier die Entscheidung für ein Leitfaden gestütztes
Interview, sowie der Interviewleitfaden, die Erkenntnisse aus dem Pretest und die konkrete Durchführung beschrieben. In Kapitel 4 werden die durch die qualitative Inhaltsanalyse der Interviews erhaltenen Schülervorstellungen zur Funktionsweise des Internets
vorgestellt. Einige prägnante Ergebnisse der Untersuchung werden in Kapitel 5 zusammengefasst. Wir schließen mit einer Reflektion und einem Ausblick auf mögliche weitere
Schritte.
2
Kinder und Internet
Das Internet prägt im aktuellen Informationszeitalter das tägliche Leben vieler Schülerinnen und Schüler. Dies belegen zwei Studien des Medienpädagogischen Forschungsverbund Südwest (MPFS) Kinder + Medien, Computer + Internet“ (KIM08) und Jugend,
”
”
Information, (Multi-)Media“ (JIM08). Sie zeigen, dass das Thema Internet bei Kindern im
Alter von 10 und 11 Jahren stark an Bedeutung gewinnt (vgl. [MPFS08b], S. 38) und im
Alter von 13 bereits 93% aller Jugendlichen das Internet nutzen (vgl. [MPFS08a], S. 46).
Schwerpunktmäßig werden dabei nach den Studien die Dienste E-Mail, Instant Messaging
und Musik hören bzw. Videos ansehen genutzt.
Diese Themenfelder finden sich auch in den Standards der GI in verschiedenen Themenbereichen wie zum Beispiel Informatiksysteme oder Sprachen und Algorithmen. Dabei ist
eine eindeutige Zuordnung in die dort gebildeten Kategorien Jahrgangsstufe 5 bis 7“ und
”
Jahrgangsstufe 8 bis 10“ nicht immer eindeutig möglich ([GI08], S. 13 ff). Es kann eher
”
davon gesprochen werden, dass sich diese Themen in der Schnittmenge der beiden Kategorien befinden. Dadurch wird deutlich, dass die Standards in diesem Punkt sehr nah an
der Lebenswelt der Kinder und Jugendlichen orientiert sind.
Bei der Untersuchung von Schülervorstellungen ist es notwendig, dass die Schüler zu dem
Thema, das untersucht werden soll, bereits Vorstellungen entwickelt haben bzw. sich in
- 34 -
einer Phase befinden in der sie diese entwickeln. Dazu muss dass Thema so gewählt werden, dass es in der zu befragenden Altersgruppe einen hohen Praxisbezug aufweist. Dies
scheint mit ca. 13 Jahren bei den genannten Diensten gegeben zu sein.
Somit ergeben sich für uns folgende Forschungsfragen:
1. Welche Vorstellungen von der Funktionsweise (für sie relevanter Dienste) des Internets haben Schülerinnen und Schüler dieser Altersgruppe?
2. Inwiefern nutzen die Schülerinnen und Schüler Modelle, evtl. aus dem Alltagsgeschehen, um die Abläufe im Internet zu erklären?
Leu untersuchte bereits in den 1980er Jahren den Umgang verschieden alter Kinder mit
Computern qualitativ, vgl. [Le93] S. 105ff. Darin stellt er große Unterschiede in der Altersgruppe ab 13 Jahre fest, wie Kinder den Computer beschreiben und erklären. Einige
Kinder bleiben auf der gegenständlichen Ebene, einige Kinder nutzen eine funktionale
Beschreibung. Diejenigen Schüler, die den Computer relativ häufig zum Spielen nutzten,
waren bei der Erklärung des Computers denjenigen, die nur sehr wenig am Computer machen, keineswegs überlegen. Insgesamt findet er aber wesentlich konsistentere Beschreibungen bei Schülern, die schon Informatikunterricht hatten. Dies ist aus entwicklungsund kognitionspsychologischer Sicht nicht verwunderlich, aber dennoch für die Wahl der
Stichprobe relevant.
Zur Beantwortung unserer Forschungsfragen wurden somit 13- und 14-jährige Schülerinnen und Schüler zweier Schulen der Klassen 7 und 8 befragt. Um eine möglichst heterogene Gruppe der Befragten zu bilden und um möglichst vielfältige Antworten zu erhalten,
stammen sie zum Teil aus einer ehrer stadtnahen Haupt- und Realschule sowie einer eher
ländlichen Realschule. Dies sollte unterschiedliche Alltagserfahrungen und daraus resultierende Erklärungsmodelle aus der Natur oder dem Stadtleben in unsere Studie einbeziehen. Ein weiteres Auswahlkriterium für die befragten Schülerinnen und Schüler war eine
ausgewogene Mischung von Mädchen und Jungen aus Klassen mit und ohne Informatikunterricht. Die Häufigkeit der Nutzung des Internets wurde vor der Auswahl nicht erhoben
und spielte bei der Zusammenstellung der Stichprobe keine Rolle.
Selbstverständlich nahmen die Jugendlichen freiwillig mit Erlaubnis ihrer Eltern und Genehmigung der zuständigen Landesschulbehörde und der Schulleiter an der Befragung
teil.
3
Erhebung der Schülervorstellungen
Diese Untersuchung ist unseres Wissens nach die erste, die sich mit Schülervorstellungen
zur Funktionsweise des Internets beschäftigt. Der Stand der Forschung ist dementsprechend auch noch nicht so weit entwickelt, dass man hierfür in der Literatur ein zu erwartendes Modell1 finden könnte, dem die gefundenen Schülervorstellungen zugeordnet
1 Modellbegriff nach Stachowiak: Ein Modell ist ein von einem Subjekt zu einem bestimmten Zweck durch
Abstraktion konstruiertes vereinfachtes Abbild eines Originals, vgl. z. B. [St92].
- 35 -
werden könnten. Nach Bortz & Döring ([BD06]) handelt es sich bei unserer Hypothese
daher um eine unspezifische Hypothese“.
”
Demnach ist das Ziel, Modelle aufzuspüren und zu untersuchen, die bisher noch nicht bekannt sind. Hierfür eignet sich vor allem ein leitfadengestütztes Interview. Diese Form der
Befragung bietet durch die im Leitfaden festgelegten Themen ein vergleichbares Gerüst
für die anschließende Auswertung. Gleichzeitig bleibt aber ausreichend Raum, aus der
Interviewsituation heraus neue Fragen oder Themen mit einzubeziehen, vgl. [BD06], S.
314). Dadurch ist es möglich auch auf Modelle zu reagieren oder überhaupt Modelle zu
finden, die nicht erwartet wurden. In einem standardisierten Fragebogen zum Beispiel wäre
dagegen eine solche Reaktion auf die Situation nicht möglich.
Die Interviews fanden im Rahmen einer Feldforschung direkt in der jeweiligen Schule
statt. Neben einem organisatorischen Vorteil bietet diese Methode vor allem eine hohe externe Validität (vgl. [BD06], S. 56). Dadurch, dass die Schüler sich in einer gewohnten
Umgebung befanden, konnten sie sich ganz auf das Interview konzentrieren und wurden
nicht durch externe Faktoren abgelenkt. Der Verlust an interner Validität, der dadurch entsteht, dass nicht alle Faktoren in der Schule beeinflussbar sind, kann dabei bewusst hingenommen werden. Dieser Verlust wird durch die zufällige2 Zusammensetzung der Gruppe
zudem in weiten Teilen ausgeglichen.
Die Untersuchung war mit 15 Interviews mit jeweils zwei Schülern geplant. Die Doppelinterviews wurden gewählt, um den Schülern auf der einen Seite Sicherheit zu geben, da
auf jeden Fall eine bekannte Person mit dabei ist. Zudem bestand so die Möglichkeit, dass
die Schüler sich gegenseitig motivieren und sie die Ideen des Interviewpartners aufnehmen
und als Denkanstoß nutzen. Um die Kreativität der Schülerinnen und Schüler zu fördern,
sollten verschiedene Materialien wie etwa Legosteine, Knete oder Papier und Stifte zur
Verfügung gestellt werden, mit denen sie ihre Ausführungen ggf. erläutern konnten.
3.1
Aufbau des Interviewleitfadens
Der entwickelte Leitfaden (vollständig in [Zu10]) besteht aus insgesamt fünf Frageblöcken,
die eine unterschiedliche Anzahl an Fragen beinhalten. Er spiegelt die drei Bereiche EMail, Chat und Streaming wider. Zusätzlich gibt es einen Einleitungs- sowie einen Abschlussblock. Die beiden letztgenannten Blöcke haben im Interview einen festen Platz.
Die anderen drei Blöcke können, je nach Gesprächsverlauf, in der Reihenfolge variiert
werden. Auch Sprünge von einem Bereich zum nächsten und wieder zurück sind denkbar,
sollen aber möglichst vermieden werden. Dieser Aufbau soll den Schülern möglichst viel
Raum geben, eigene Vorstellungen zur Erklärung zu nutzen oder spontan solche zu entwickeln. Für den ersten und den letzten Block waren jeweils 5 Minuten und für die Blöcke
dazwischen jeweils 10 Minuten geplant.
Der Einleitungsblock hat den Zweck die Gesprächsatmosphäre zu lockern und eine Vertrauensbasis mit den Schülern zu schaffen. Durch Fragen, bei denen die Schüler aus ihrem
Alltag erzählen, sollen die Schüler in einen ersten Redefluss kommen und evtl. Hemmun2 innerhalb
der ausgewählten Klassen
- 36 -
gen abbauen, z. B. mit Was macht ihr mit dem Internet, wenn ihr es nutzt?“. Bei den
”
Fragen in diesem Block geht es zudem darum, mehr über das Nutzungsverhalten der Interviewten zu erfahren und das folgende Interview darauf aufzubauen. So kann das Interview
direkt an die Erfahrungen der Schülerinnen und Schüler anknüpfen.
Im Abschlussblock werden die Vorerfahrungen und das allgemeine Interesse der Schülerinnen und Schüler am Themenbereich Informatik ermittelt. Dies dient vor allem dazu,
die vorher getätigten Aussagen unter Berücksichtigung der Vorerfahrungen zu beurteilen.
Diese Angaben bilden eine Art Sozialstatistik, die nach Bortz und Döring ([BD06], S. 315)
am Ende eines qualitativen Interviews erfasst werden.
Die drei weiteren Blöcke bilden den Hauptteil des Interviews. Sie dienen vor allem dazu,
die o.g. Forschungsfragen zu beantworten. Dabei sind die Fragen so aufgestellt, dass jeder
Block für sich abgeschlossen und die Reihenfolge variabel ist. Auch die Reihenfolge der
Fragen innerhalb eines Blocks ist weitestgehend variabel.
Diese drei mittleren Blöcke sind untereinander ähnlich aufgebaut. Zu Anfang wird ein
Bezug zu der im Einstieg von den Schülern beschriebenen Situation hergestellt und für
den entsprechenden Bereich weiter vertieft. Anschließend stellen die Schüler dar, wie der
entsprechende Bereich nach ihrer Vorstellung funktioniert. Wieder am Beispiel IM sollen
die Schülerinnen und Schüler dann anhand der von ihnen genutzten Programme beschreiben, wie sie glauben, dass das System Chat bzw. Instant Messaging funktioniert, z. B.
Beschreibt, wie eine Nachricht von einem Computer zum anderen kommt.“
”
3.2
Durchführung der Befragung
In einem Pretest mit 5 Interviews wurde deutlich, dass Einzelinterviews zu Problemen
führen können, da bei Einzelinterviews ohne gegenseitige Inspiration die Antworten deutlich kürzer waren. Die Materialien wie Legofiguren und -steine sowie Knete wurden im
Pretest gar nicht oder nur sehr selten genutzt. Zudem meldeten einige Teilnehmer zurück,
dass die Menge, der zur Verfügung gestellten Materialien, eher verwirrt, als dass Sie hilft.
Lediglich die Möglichkeit, die eigenen Gedanken oder Erläuterungen durch eine Zeichnung zu unterstützen wurde häufig genutzt und auch von den Schülern für hilfreich befunden. Also wurden Doppelinterviews ohne weitere Materialien wie Knete etc. angestrebt.
Nach der Kontaktaufnahme mit den Schulleitern, den Lehrern und den Genehmigungen
erhielten wir die Möglichkeit unser Anliegen in den Klassen vorzustellen. Dabei war es
wichtig, das Thema Internet in der Vorstellung nicht zu nennen, damit sich nicht einzelne
Schüler bis zum Interview über den Themenbereich informieren. Sie bekamen lediglich
die Information, dass es sich um eine Untersuchung von Schülervorstellungen handelt und
das es sich bei dem Thema um ein ihnen sehr bekanntes handelt.
Anschließend bekamen die interessierten Schülerinnen und Schüler ein Schreiben für die
Eltern, auf dem diese unterschreiben konnten, dass sie mit dem Interview und dem Mitschnitt einverstanden sind. Beim Lehrer wurde eine Liste mit Terminen hinterlegt, in der
sich die Schüler für die Interviews eintragen sollten. Dieses System funktionierte sehr gut,
auch aufgrund der sehr guten Unterstützung von Seiten der Lehrer. Die Interviews fanden
- 37 -
dann in der Regel in einem Raum in der Schule statt.
4
Auswertung der Interviews
Insgesamt gingen 11 Interviews mit 23 Schülerinnen und Schülern in die Auswertung ein.
Bei den anderen vier geplanten Interviews kam es zu unterschiedlichen Problemen wie
Krankheit der Schüler oder einer defekten Audiodatei.
Die Interviews wurden während des Gesprächs mithilfe eines Diktiergerätes als mp3-Datei
aufgezeichnet und anschließend transkribiert. Für dieses Forschungsvorhaben wurde die
von Kuckartz beschriebene transkriptbasierte Analyse angewendet. Bei dieser Variante
der Transkription werden die Interviews vollständig verschriftlicht (vgl. [Ku08], S. 39).
Hierfür ist ein Regelwerk notwendig, das genau festlegt, wie die gesprochene Sprache
in eine schriftliche Form übertragen wird. Die dabei auftretenden Informationsverluste
sind nicht vermeidbar. Da es in dieser Untersuchung vordergründig um den Inhalt des
Gesprochenen und nicht um Emotionen geht, ist dieser Verlust akzeptabel (vgl. ebd., S.
41). Da es keinen Transkriptionsstandard gibt, wurde für diese Untersuchung ein eigenes
Transkriptionssystem festgelegt. Dieses orientiert sich an den von Kuckartz et al. (ebd., S.
27) aufgestellten Regeln.
Die Auswertung der Transkripte erfolgte nach der qualitativen Datenanalyse von Mayring,
vgl. [Ma08], unter Einsatz von maxQDA. Für die Auswertung der Daten haben wir die zusammenfassende Datenanalyse gewählt. Sie lässt sich nach Mayring für eine induktive
”
Kategorienbildung einsetzen“ (ebd., S. 74) bei der die Kategorien direkt aus dem Material abgeleitet werden. Dies geschieht in einem Verallgemeinerungsprozess und muss sich
demnach nicht auf vorab formulierte Theoriekonzepte beziehen. Dies ist notwendig, da es,
wie bereits beschrieben, keine Voruntersuchungen gibt, die als theoretische Grundlage für
ein Kategoriensystem genutzt werden könnten.
Die Kategorienbildung erfolgte gemäß [Ma08] in mehreren Schritten. Als Ergebnis der
ersten Schritte sind einzelne Kategorien mit zum Teil sehr vielen zugeordneten Textstellen entstanden. Zur besseren Auswertung der Kategorien wurden die Textstellen innerhalb
einer Kategorie thematisch zusammengefasst. Die dadurch entstandenen Unterkategorien
enthalten Textstellen, die einen speziellen Bereich der Hauptkategorie darstellen. So wurde zum Beispiel die Kategorie Adressierung unterteilt in die Unterkategorien Wohnort,
Kennwörter, Adressen des Rechners / Routers, Einmaligkeit der Namen, E-Mail-Adressen
und eigener Name. Diese stellen spezielle Eigenschaften oder Ausprägungen der jeweiligen Hauptkategorie dar. Das endgültige Kategoriensystem ist durch die weitere thematische Zusammenfassung der Kategorien entstanden und umfasst fünf Bereiche, die im
Folgenden näher erläutert werden. Die dabei angegebenen Prozentzahlen beziehen sich
auf den Anteil der Schüler in unseren Interviews und sind nicht repräsentativ aufzufassen.
Für die vollständige Auswertung und ausführliche Liste der gefundenen Modelle sei auf
die Masterarbeit [Zu10] verwiesen.
- 38 -
4.1
Vorstellungen zur Übertragungstechnik
Hier wird dargestellt, wie die Schüler sich vorstellen, wie Daten bzw. Informationen im
Internet von einem Rechner zum anderen gelangen. Zusätzlich hat sich aus dem Interviewmaterial ergeben, wie sich Schüler die Übertragung von Daten auf Ebene der Bitübertragungsschicht vorstellen. Dieser Bereich unterteilt sich in folgende Unterbereiche:
Adressierung: Aus den hier gebildeten Kategorien wurde deutlich, dass die Schüler ein
Gefühl dafür haben, dass es eine einmalige Adresse geben muss, damit Daten und Informationen im Internet versendet werden können. Knapp 40% der befragten Schüler gaben
ein System an, dass dem der IP-Adressen sehr nahe kommt. Viele Schüler haben angegeben, dass die Adressierung über einen einmaligen, eigenen Namen, die E-Mail-Adresse
oder den Wohnort, der z. B. bei der Einrichtung der E-Mail-Adresse angegeben werden
muss, geschieht.
Geschwindingkeit: In den Interviews wurde den Schülern häufiger die Frage gestellt,
woran es liegt, dass Daten, Nachrichten oder Videos einige Zeit brauchen, um übertragen
zu werden und warum es mal schneller und mal langsamer geht. Die meisten Schüler
(ca. 40%) erklären vor allem unterschiedliche Geschwindigkeiten damit, dass ein zentraler Rechner nur eine begrenzte Kapazität hat und er bei zu vielen Anfragen nicht alle
auf einmal abarbeiten kann. Wenig überraschend dabei ist, dass die gleiche Anzahl von
Schülern in dem später noch darzustellenden Bereich Aufbau von einem zentralen Rechner im Internet spricht. Häufiger angegeben wurde zudem, dass durch ein dickes Kabel
mehr Daten gesendet werden können als durch ein dünnes. In den Antworten beschrieben die Schüler, dass bei größeren Paketen, womit größere Dateien und umfangreichere
Texte gemeint sind, die Übertragung länger dauert. Hieraus ergibt sich auch, das diese
Schüler davon ausgehen, dass Dateien oder Texte immer als Ganzes übertragen werden.
Im nächsten Bereich wird sich zeigen, dass diese Vorstellung häufiger vorkommt.
Paktetierung: Diese Kategorie ergibt ein sehr gemischtes Bild. Die Zahl der Schüler, die
ein System beschreiben, in dem Daten unterteilt in einzelne Pakete verschickt werden, ist
nahezu identisch mit der Zahl, die keine Teilung in Datenpakete beschreiben. Interessant
ist, dass dieselben Schüler dies in unterschiedlichen Bereichen durchaus unterschiedlich
sehen. So beschreibt ein Schüler für Texte, dass die Übertragung in einzelnen, unterschiedlichen Wellen geschieht, die am Ende wieder als Text ausgelesen werden können. Für Videos beschreibt er allerdings, dass diese am ganzen Stück durch die Leitung geschoben“
”
werden. Insgesamt kann man sagen, dass die wenigsten der Schüler eine Paketierung, wie
sie im TCP/IP-Protokoll vorkommt, beschrieben haben.
Physikalische Übertragung: Die Kategorien zeigen ein Gesamtbild, das darauf schließen lässt, dass die Schüler keine ausgeprägten Vorstellungen haben, wie die Übertragung
zwischen den Rechnern abläuft. Lediglich 40% der interviewten Schüler äußern die Form
Leitung oder Funkübertragung“. Es gab keine Schüler, die eine Kombination aus beidem
”
erwähnt haben. Lediglich 3 von 23 befragten Schülern haben die Umwandlung von Text
in irgendeine Art von Code zur Übertragung genannt.
- 39 -
4.2
Vorstellungen zum Aufbau des Internets
Auffällig ist hier, dass etwa 40% der befragten Schüler sich einen zentralen Rechner vorstellen, über den das Internet läuft. Knapp 50% hingegen denken, dass es mehrere zentrale
Rechner gibt. Dabei ist allerdings zu beachten, dass auch hier die Aussagen einiger Schüler
widersprüchlich sind. So beschreibt etwa ein Schüler am Beginn des ersten Interviews,
dass es einen Hauptcomputer bzw. ein Hauptgerät gibt, durch das alles durchgeht. Im weiteren Verlauf des Interviews stellt er dann selbst fest, dass dieses Modell nicht 100%ig
passt. Daraufhin merkt er an, dass es sicherlich mehrere Hauptcomputer gibt. Ähnliches
zeigt sich auch in anderen Interviews.
4.3
Vorstellungen zu Internetdiensten
Chat und IM: In diesem Bereich fällt als erstes auf, dass ca. 50% dieser Schüler das
Schreiben von Nachrichten auf Pinnwänden oder in Gästebüchern wie etwa bei StudiVZ
als Chatten bezeichnen. Da lediglich ein Schüler zwischen Chat und Instant Messaging
unterscheidet, können die beiden Systeme für die Analyse gleichgesetzt werden. Von den
Schülern werden aber beide Prinzipien genannt. So beschreiben 13,04%, dass die Verbindung bzw. die Kommunikation über den Server läuft, was dem System des Chats entspricht. Dagegen sind die 34,78%, die eine Direktverbindung zwischen den Computern
beschreiben, dem System des Instant Messaging sehr nahe. 34,78% der Schüler beschreiben, dass man sich bei Chat bzw. Instant Messaging Systemen in einem eigenen Bereiche
bzw. Netzwerk bewegt.
Streaming: In diesem Bereich stehen sich zwei sehr unterschiedliche Konzepte gegenüber.
Während die 34,78% angaben, dass das Video auf dem eigenen PC läuft, was der Theorie
sehr nahe kommt, beschreiben 26,08%, dass das Video im Internet läuft. Hierbei gibt es
sehr unterschiedliche Ideen. So wurde zum Beispiel genannt, dass das Video auf einem
Server abgespielt wird und man selbst etwa, wie im Kino, auf die Leinwand schaut. Interessant ist auch die Aussage von zwei Schülern, die in der Zeit, in der das Video geladen
wird, nicht davon ausgehen, dass Daten vom Server auf den Rechner geladen werden.
Nach ihrer Aussage sendet der eigene Rechner Signale aus, damit der Server weiß, welches Video angezeigt werden soll. Interessant ist auch, dass ca. 9% der Schüler angegeben,
dass das Video, nachdem man es abgespielt hat, nicht gelöscht wird, sondern wieder an
den Server zurückgesendet wird.
4.4
Nutzung von Modellen
Bis auf das Modell der Post, das sehr häufig als Beispiel für E-Mail genannt wurde, zeichnen sich nur sehr wenige Modelle ab, die häufiger genannt wurden. Aufgrund der Vielzahl der unterschiedlichen Modelle möchten wir uns an dieser Stelle auch nicht auf jedes
einzelne eingehen, sondern diejenigen näher betrachten, die entweder häufiger genannt
- 40 -
wurden oder die wir besonders erwähnenswert finden.
Im Bereich Adressierung ist das Modell Fächer in der Schule“ interessant. Dabei geht es
”
nicht um Unterrichtsfächer, sondern um persönliche Fächer in denen eigene Unterlagen
abgelegt werden können. Dieses Modell wurde zum einen für Adressierung ( Woher weiß
”
die Nachricht, wo sie hin muss?“) genutzt um zu erklären, wie der Sender das Ziel findet,
als auch für den Bereich E-Mail um zu erklären, wie E-Mails versendet werden und der
Benutzer an seine E-Mails kommt, ohne die der anderen zu lesen.
Zwei Modelle stechen im Bereich der physikalischen Übertragung hervor. Auf der einen
Seite steht das Modell, dass kleine Männchen in den Leitungen herumlaufen, die die Daten
von einem Ort zum anderen tragen. In einem anderen Modell beschreiben die Schüler die
Daten wie Schlangen, die sich durch die Leitung bewegen. Wenn dort ein Engpass ist,
wollen zu viele Schlangen gleichzeitig durch. Wenn eine Schlange zu dick ist, z. B. weil
die Datei nicht in eins durch die Leitung passt, wird sie in die Länge gedrückt.
Auch im Bereich Aufbau des Internets gibt es zwei erwähnenswerte Modelle. Gut nachvollziehen lässt sich das Modell zweier Schüler die das Internet wie eine Straße mit vielen
Kreuzungen beschrieben haben. An den Kreuzungen standen immer Wegweiser, die zeigten, wohin man als nächstes muss. An den Straßen standen Häuser mit Adressen, an die
etwas geschickt werden kann. Ebenso interessant ist die Darstellung dreier Schüler in unterschiedlichen Interviews, die angaben, dass im Internet an verschiedenen Stellen Personen arbeiten und Daten sortieren, E-Mails weiterleiten oder andere Aufgaben übernehmen.
Das Modell, Chat durch Telefon zu beschreiben ist ebenfalls ein interessanter Ansatz. Dabei geht es vor allem darum, dass die Verbindung zwischen zwei Chatpartnern wie früher
bei der Vermittlung im Telefonbereich funktioniert, dass also die Leitungen zusammen”
gesteckt“ werden.
Beim Streaming gibt es drei Modelle: Am naheliegendsten ist das Modell der Videothek,
bei der man Videos ausleihen kann, warten muss, bis die Verkäuferin das Video geholt
hat und anschließend nur so weit den Film wiedergeben kann, wie der DVD-Player ihn
schon abgespielt hat. Das Modell des Vorlesens hingegen wurde in diesem Bereich von
den Schülern am häufigsten genannt. Hier wird Streaming mit Vorlesen von Briefen oder
Büchern verglichen. Die Tatsache, dass man selbst immer nur so weit Dinge wiedergeben
kann, wie man sie vorgelesen bekommen hat, beschreibt die Übertragung des Videos und
auch damit zusammenhängende Wartezeiten, wenn das Video noch nicht weit genug geladen wurde. Das Verschwinden des Videos, wenn der Browser geschlossen wird, wurde
damit erklärt, dass man sich als Mensch auch nicht alles merken kann. Ein drittes sehr
interessantes Modell ist das Blätter legen“. Dabei werden einzelne Buchstaben jeweils
”
auf ein Blatt geschrieben und diese Blätter auf einem Stapel liegen. Bei der Übertragung
wird jeweils ein Blatt vom einen auf den anderen Stapel gelegt. Ist der Vorgang des Legens
schneller als der neue Zettel zu schreiben, muss mit dem Weiterlegen gewartet werden.
Für E-Mail wurde am häufigsten das Modell Post verwendet.
- 41 -
4.5
Anwendung von Modellen
Etwas mehr als die Hälfte der befragten Schüler haben versucht, mit ihrem im Interview
genannten Modell auch im weiteren Verlauf des Interviews andere Funktionen zu erklären.
Dieser Ansatz war in nahezu allen Interviews zu erkennen. Lediglich in einem Interview
wurde dies nicht genannt. Daraus schließen wir, dass die Schüler ein Modell, dass sie im
Kopf haben, auch benutzen, um andere Dinge zu erklären. Dies ist aus kognitionspsychologischer Sicht auch zu erwarten gewesen.
5
Zusammenfassung der Ergebnisse
Aus der oben beschriebenen Kategorisierung der Schülerantworten lassen sich folgende
Ergebnisse in Bezug auf Schülervorstellungen und genutzte Erklärungsmodelle zum Internet zusammenfassen.
Ergebnis 1: Vorstellungen können nicht mit einem oder wenigen Modellen dargestellt
werden.
Das zentrale Ergebnis dieser Untersuchung ist, dass es nicht möglich ist, die Schülervorstellungen zu diesem Themengebiet mit einem oder wenigen Modellen darzustellen. Die
Kategorien, die im Rahmen der Auswertung gefunden wurden, zeigen viele unterschiedliche Ansätze, wie sich Schüler vorstellen, dass Dienste wie E-Mail oder Chat funktionieren. Im Bereich Aufbau des Internets“ beispielsweise geben etwa 40% der befrag”
ten Schüler an, dass sie sich das Internet als einen zentralen Rechner vorstellen. Ca.
die Hälfte der Schüler beschreibt dagegen den Aufbau mit mehreren zentralen Rechnern. In anderen Bereichen, wie etwa der Adressierung, zeigt sich eine große Nähe der
Schülervorstellungen zu den wissenschaftlichen Darstellungen. Demgegenüber wird aber
z. B. bei der physikalischen Datenübertragung sehr deutlich, dass sich viele Schüler bis
dato noch keine Gedanken gemacht haben was bei der Übertragung passiert.
Ergebnis 2: Schüler nutzen Modelle
Die Frage ob Schülerinnen und Schüler überhaupt Modelle nutzen, um ihre Vorstellungen
über die Funktion des Internets darzustellen, kann hingegen eindeutig mit Ja beantwortet
werden. Sie haben Ideen und bringen ihre Alltagserfahrungen mit ein. Das auffallendste
Modell ist das Modell der Post, das auch bereits häufig im Unterricht verwendet wird.
Es wurde von den Schülern sehr häufig für E-Mail aber zum Beispiel auch für Adressierung allgemein genannt, was durch die verhältnismäßig vielen Parallelen zu erklären ist.
Auch wird das Internet oft als . Es gibt aber auch andere interessante Modelle wie etwa
das Blätterweiterlegen und/oder Vorlesen für Streaming, bei dem es darum ging, dass
Blätter von A nach B gelegt werden und es nur möglich ist, die Blätter zu lesen, die schon
übertragen“ wurden. Ein anderes ist, dass ein Online-Film als eine dicke Schlange be”
schrieben wird, die länger wird, wenn sie durch eine dünne Leitung gepresst wird. Auch,
dass kleine Männchen in den Leitungen herumlaufen, die die Daten von einem Ort zum
- 42 -
anderen tragen3 , wird häufig genannt. Zusätzlich sind auch viele einzelne überraschende
Vorstellungen zu erkennen, z. B. dass im Internet Personen sitzen, die die E-Mails verteilen. Gerade aus solchen, relativ abwegigen Fällen schließen wir, dass die Schüler in
diesem Alter die Entwicklung ihrer Modelle noch nicht abgeschlossen haben.
Ergebnis 3: Modelle werden wiederverwendet
Etwa die Hälfte der Schülerinnen und Schüler haben konkret versucht, mit ihrem im Interview genannten Modell auch im weiteren Verlauf des Interviews andere Funktionen zu
erklären. Dieser Ansatz war in nahezu allen Interviews zu erkennen. Daraus schließen wir,
dass die Schüler ein Modell, dass sie für einen Sachverhalt haben, auch zur Erklärung
anderer Dinge benutzen.
Ergebnis 4: Das Sprechen über eigene Vorstellungen motiviert die Schülerinnen und
Schüler
Eher eine Randerscheinung aber dennoch wichtige Beobachtung ist, dass viele Schüler im
Anschluss an die Interviews viele Fragen über das Thema stellten. Sie bezogen sich vor
allem darauf, wie das Internet denn nun wirklich funktioniert. Durch die Interviews wurde
demnach ein großes Interesse an der Thematik des Interviews geweckt oder zumindest
gestärkt. Dies kann also für Unterrichtsplanungen in diesem Bereich genutzt werden.
6
Reflektion und Ausblick
Zusammenfassend hat sich gezeigt, dass es viele unterschiedliche Modelle gibt, die von
den verschiedensten Schülern genutzt werden. Die Vorstellung der Schülerinnen und Schüler weichen dabei zum Teil in einem erheblichen Maße von der wissenschaftlichen Sicht
ab. Die Beobachtungen lassen aber auch den Schluss zu, dass viele Schüler vermutlich erst
im Laufe des Interviews solche Modelle entwickeln.
Die Auswahl der Thematik und der entsprechenden Zielgruppe hat sich als sinnvoll erwiesen. Nahezu alle Schüler verwenden die ausgewählten Dienste oder wussten zumindest,
worum es dabei geht, obwohl unsere Befragten nicht in einem so hohen Anteil wie in der
JIM-Studie der MPFS E-Mail nutzen. Da der Modellbildungsprozess bei den Schülerinnen
und Schülern dieses Alters noch nicht abgeschlossen scheint, und nach unserern Beobachtungen gerade für einige Schüler der siebten Jahrgangsstufe das Abstraktionsniveau
grenzwertig war, sind weitere Untersuchungen mit älteren Schülern erstrebenswert.
Den Nutzen, für Lehrkräfte in der Informatik, an den Ergebnissen dieser Untersuchung
sehen wir vor allem in zwei Bereichen, insbesondere für die Sekundarstufe I:
Schülervorstellungen als Grundlage für die Unterrichtsplanung Ähnlich zu den Interviews kann auch der Unterricht auf Grundlage der Vorstellungen der Schülerinnen
und Schüler geplant werden. Die können für den Unterrichtseinstieg oder zur bildlichen Darstellung von Unterrichtsinhalten genutzt werden und zur wissenschaftlichen Sichtweise in Beziehung gesetzt werden.
3 Parallele
zur Sachgeschichte Wie funktioniert das Internet?“, vgl. [WDR99]
”
- 43 -
Schülervorstellungen als Hintergrundwissen Lehrer, die mögliche Schülervorstellungen kennen, können im Unterricht oder in Prüfungssituationen auf entsprechende
Aussagen besser reagieren und so Lernprozesse besser fördern.
Als Weiterführung dieser Untersuchung sind verschiedene weitere Schritte möglich. Sinnvoll wäre eine Folgestudie, die sich mit einzelnen Aspekten oder Kategorien noch intensiver auseinandersetzt und so das Kategoriensystem verfeinert. Weitere Befragungen von
Schülern unterschiedlicher Altersstufen können verglichen werden, um Hinweise auf eine
zeitliche Entwicklung der Schülervorstellungen zu erhalten. In jedem Fall aber sollten die
Erkenntnisse in die Praxis übertragen und Unterrichtsbeispiele entwickelt und evaluiert
werden.
Literatur
[BD06]
Bortz, J., Döring, N.: Forschungsmethoden und Evaluation für Human- und Sozialwissenschaftler, 3. überarbeitete Auflage, Springer, Berlin/Heidelberg, 2006.
[GI08]
Gesellschaft für Informatik: Grundsätze und Standards für die Informatik in der
Schule, 2008. Abgerufen am 02. März 2010 von http://www.sn.schule.de/
˜istandard/bildungsstandards_2008.pdf
[Ku08]
Kuckartz, U., Dresing, T., Stefer, C., Rädiker, S.: Qualitative Evaluation - Der Einstieg
in die PraxiS. Wiesbaden: VS Verl. für Sozialwiss. 2007.
[KRGK97] Kattmann, U., Reinders, D., Gropengießer, H., & Komorek, M.: Das Modell der Didaktischen Rekonstruktion - Ein Rahmen für naturwissenschaftsdidaktische Forschung und
Entwicklung, Zeitschrift für Didaktik der Naturwissenschaften, 1997, S. 3-18.
[Le93]
Leu, H. R.: Wie Kinder mit Computern umgehen - Studie zur Entzauberung einer neuen
Technologie in der Familie, DJI Verlag, München, 1993.
[Ma08]
Mayring, P.: Qualitative Inhaltsanalyse - Grundlagen und Techniken, 10. Auflage, Beltz
Verlag, Weinheim und Basel, 2008.
[MPFS08a] MPFS - Medienpädagogischer Forschungsverbund Südwest - JIM-Studie, 2008. Abgerufen am 12. 03 2010 von http://www.mpfs.de/fileadmin/JIM-pdf08/
JIM-Studie_2008.pdf
[MPFS08b] MPFS - Medienpädagogischer Forschungsverbund Südwest - KIM-Studie, 2008. Abgerufen am 12. 03 2010 von http://www.mpfs.de/fileadmin/KIM-pdf08/
KIM2008.pdf
[St92]
Stachowiak, H.: Modell, In: H.Seiffert u. R. Radnitzky (Hrsg.): Handlexikon zur Wissenschaftstheorie, (S.219-223), dtv Verlag, München, 1992
[WDR99]
WDR: Die Sendung mit der Maus. Sachgeschichten: Wie funktioniert das Internet?;
zuletzt besucht 10.04.2010, http://www.wdrmaus.de/sachgeschichten
[Zu10]
Zumbrägel, S.: Empirische Erhebung von Schülervorstellungen zur Funktionsweise des
Internets, Masterarbeit, Univeristät Oldenburg, 2010.
- 44 -
Erste Ergebnisse einer Lehrerbefragung zum bayerischen
Schulfach Informatik
Peter Hubwieser
[email protected]
Andreas Mühling
[email protected]
Torsten Brinda
[email protected]
Abstract: Im Herbst 2004 begann für die 6. Klassen aller bayerischen Gymnasien
der neu konzipierte Pflichtunterricht in Informatik. Die Autoren haben dazu im Herbst
2009 eine erste Umfrage unter den bayerischen Informatiklehrerinnen und -lehrern
durchgeführt. Unter anderem wollten wir damit auch herausfinden, inwieweit fachliche Vertrautheit mit den Unterrichtsthemen Einfluss auf die Einstellung gegenüber
dem Fach Informatik hat. Mithilfe einer latenten Klassenanalyse konnten wir vier verschiedene Profile von Lehrkräften ermitteln und diese anhand ihrer Personenmerkmale charakterisieren. Die Ergebnisse liefern Ausgangspunkte für weitergehende empirische Untersuchungen, mit der Absicht, die Zufriedenheit von Lehrkräften und die
Qualität des Schulunterrichts in Informatik festzustellen und ggf. zu verbessern.
1
Informatikunterricht an bayerischen Gymnasien
An den 405 bayerischen Gymnasien begann im Schuljahr 2004/2005 für die Schülerinnen
und Schüler der 6. Jahrgangsstufe mit der Umstellung auf die 8-jährige Form des Gymnasiums (kurz G8) auch das neu konzipierte Pflichtfach Informatik [Hub07] [Hub05]. Dieser
Jahrgang beendete im Juli 2009 die Mittelstufe mit dem Abschluss der 10. Klasse.
In den Jahrgangsstufen 6 und 7 wurde das neue Pflichtfach mit Physik und Biologie
zum Fächerverbund Natur und Technik“ (NuT) zusammengefasst. Die Schülerinnen und
”
Schüler beschäftigen sich hier vor allem mit der objektorientierten Sicht auf grundlegende Datenstrukturen von Standardsoftwaresystemen. Nach der Einführung der Begriffe Objekt, Klasse, Attribut, Methode anhand von Grafiken lernen sie an Texten, Ordnern, Präsentationen und Hypertexten typische Beziehungen zwischen Objekten wie Aggregation oder Referenzierung kennen. Den Abschluss des Unterstufenkurses bildet eine Einführung in die Algorithmik unter Verwendung von virtuellen oder realen Robotersystemen (z.B. Karol). Im Schuljahr 2007/08 besuchten 47.434 in der 6. Jahrgangsstufe
bzw. 44.752 Schülerinnen und Schüler in der 7. Jgst. diesen neuen Informatikunterricht
[ISB09].
Der weiterführende Informatikunterricht startete im Schuljahr 2007/2008 in Form eines
neuen Vorrückungsfaches Informatik in den Jahrgangsstufen 9 und 10 des naturwissenschaftlich-technologischen Zweigs, der im Schuljahr 2007/08 von 49,3% aller Schülerinnen
und Schüler gewählt wurde. Inhaltlich beschäftigen sich die Schülerinnen und Schüler hier
- 45 -
mit der Modellierung von Systemen aus ihrer Erfahrungswelt. Die Modelle werden unter Verwendung geeigneter Softwaresysteme und Programmierwerkzeuge implementiert
und simuliert. In der 9. Jgst. erstellen die Schülerinnen und Schüler zunächst Datenflussdiagramme und simulieren diese mit einem Tabellenkalkulationssystem; darauf folgt ERDatenmodellierung und Simulation der Modelle auf einem relationalen Datenbanksystem.
In der 10. Jgst. entwerfen und implementieren sie Algorithmen sowie Zustandsmodelle und objektorientierte Modelle, die sie in einer objektorientierten Programmiersprache
implementieren. Im Schuljahr 2007/08 nahmen in der 9. Jgst. 17327 bzw. in der 10. Jahrgangsstufe 16611 Schülerinnen und Schüler an diesem Pflichtfach teil [ISB09].
Mit der Einführung des G8 wurde auch die gymnasiale Oberstufe völlig neu konzipiert.
Anstatt der bisherigen Unterscheidung zwischen Grund- und Leistungskursen verpflichtet
man jetzt alle Schülerinnen und Schüler zur durchgehenden Belegung der Pflichtfächer
Deutsch, Mathematik, Geschichte/Sozialkunde und Sport. Im Wahlpflichtbereich wird gefordert: eine fortgeführte Fremdsprache, eine (erste) Naturwissenschaft (Biologie, Chemie
oder Physik), eine zweite Naturwissenschaft oder fortgeführte Informatik oder eine zweite Fremdsprache, Geographie oder Wirtschaft/Recht sowie Kunst oder Musik. Informatik
kann in der 12. Jgst. fortgeführt und dann auch als schriftliches oder als mündliches Abiturfach gewählt werden. Auf der Grundlage dieser Erhebung erwarten wir im Schuljahr
2009/10 ca. 2600 Schülerinnen und Schüler in den Informatikkursen der 11. Jgst.
Der Informatikkurs der Oberstufe bietet in der Jgst. 11 die Inhalte rekursive Datenstrukturen (Listen, Bäume) mit zugehörigen Algorithmen, Planung und Organisation kooperativer Arbeitsabläufe sowie Konzepte der praktischen Softwareentwicklung. In der Jgst. 12
arbeiten die Schülerinnen und Schüler mit formalen Sprachen (Alphabete, Syntax und
Semantik, Grammatiken, endliche Automaten), lernen die Funktionsweise eines Rechners (Aufbau eines Computersystems, Registermaschine, Anweisungen auf Maschinenebene), prinzipielle bzw. effizienzbedingte Grenzen der Berechenbarkeit sowie Prinzipien
der Kommunikation bzw. Synchronisation von Prozessen kennen.
2
Die Zielsetzung der Umfrage
Ende Juli 2009 hatten die ersten Schülerinnen und Schülern die Unter- und Mittelstufe des
neuen Pflichtfaches Informatik vollständig durchlaufen. Dieser Anlass legte es nahe, mit
der Untersuchung des Erfolgs und der Qualität dieses neuen Faches zu beginnen. Die Autoren waren neben der Entwicklung des neuen Faches auch seit dem Jahr 2001 maßgeblich
an der einschlägigen Fortbildung der Lehrkräfte dazu beteiligt. Dieses Angebot nahmen
z.B. an der TUM in den letzten beiden Jahren 2009 und 2010 ca. 300 Lehrerinnen und
Lehrer wahr. In vielen Gesprächen mit aktiven Lehrkräften während dieser Fortbildungsveranstaltungen wurden gegenüber den Autoren zum Teil völlig gegensätzliche Meinungen zur neuen Schulinformatik geäußert. Vor allem um diese punktuellen Meinungsbilder
auf einer breiten Basis zu überprüfen, haben wir uns daher im Dezember 2009 an alle
Lehrerinnen und Lehrer gewandt, die in Bayern Informatik unterrichten. Auf der Basis der
Anzahl der bayerischen Gymnasien (ca. 400) und der groben Annahme (begründet durch
Erfahrungen aus den Lehrerfortbildungen), dass je Schule durchschnittlich ca. 4 Lehrkräfte
- 46 -
im Informatikunterricht eingesetzt werden, schätzen wir den Umfang der Zielgruppe auf
etwa 1600 Personen.
Daneben verfolgten wir noch weitere Ziele mit dieser Umfrage. Erstens wollten wir rein
deskriptiv Informationen zu folgenden Aspekten sammeln:
• Zusammensetzung der Zielgruppe nach Alter, Geschlecht, Diensterfahrung, Dienstverhältnis,
• Art und Alter der fachlichen Hochschulausbildung in Informatik (grundständiges
Lehramtsstudium, Nachqualifikation, Diplom/Master als Quereinsteiger, kein Abschluss),
• Zufriedenheit der Lehrkräfte mit dem Lehrplan und ihrem eigenen Unterricht,
• Art und Angemessenheit der im Unterricht eingesetzten Softwarewerkzeuge,
• Fortbildungsbesuch bzw. -bedarf zu den einzelnen Lehrplankapiteln,
• Bereitschaft der fachfremden Lehrkräfte zum Nachholen des Staatsexamens in Informatik über spezielle Nachqualifikationsmaßnahmen wie FLIEG [Spo09],
• Reaktionen der Schülerinnen und Schüler sowie der Eltern auf das neue Fach aus
Sicht der Lehrkräfte.
Zweitens wollten wir eine umfassende explorative Analyse der Daten durchführen, um
ggf. Korrelationen zwischen Personenmerkmalen der Lehrkräfte wie Alter, Berufserfahrung, Geschlecht, Art des Hochschulabschlusses etc. mit ihrer Zufriedenheit mit dem neuen Fach bzw. mit der Rückmeldung ihrer Schülerinnen und Schüler aufzuspüren. Unser
besonderes Interesse galt dabei eventuellen Korrelationen zwischen der Art der fachlichen Hochschulausbildung in Informatik mit nahezu allen anderen Items. Dieses Interesse
hat den folgenden Hintergrund: Prinzipiell dürfen sowohl innerhalb des Fächerverbunds
Natur und Technik der Unterstufe als auch im regulären Pflichtfach der Mittelstufe nur
Lehrkräfte mit entsprechender Fakultas das Fach Informatik unterrichten. Aus den Studierendenzahlen der bayerischen Universitäten können wir ableiten, dass derzeit ca. 450
Lehrkräfte über einen Universitätsabschluss in Informatik verfügen. Offensichtlich besteht
also noch ein erheblicher Mangel von rund 1000 Lehrerinnen und Lehrern mit diesem Abschluß, so dass hier oft auch fachfremde Lehrkräfte zum Einsatz kommen. Andererseits
zeigte u.a. die COACTIV-Studie für das Fach Mathematik [BKB+ 10], [BK06], dass dem
reinen Fachwissen der Lehrkräfte in vielerlei Hinsicht große Bedeutung zukommt. Es steht
also zu vermuten, dass dies in ähnlicher Weise auch in der Informatik der Fall sein wird.
Natürich trifft die Kritik von [BK06] an der (distalen) Indikation von Fachwissen über rein
formale Qualifikationen auch unsere o.g. Diagnose über die Art des Hochschulabschlusses. Daher wollten wir drittens die Struktur des Fachwissens der Lehrkräfte zu den einzelnen Lehrplanpunkten über ihre Selbsteinschätzung näher untersuchen. Hier hofften wir,
durch eine latente Klassenanalyse (vgl. z.B. [Ros04]) eine Klassifizierung nach dem Profil
des (selbsteingeschätzten) Fachwissens aufzuspüren und eventuell die Zugehörigkeit zu
- 47 -
diesen Klassen mit der Art und dem Alter des Hochschulabschlussess und evtl. auch weiteren Personenmerkmalen korrelieren zu können. Angesichts der typischen und oft sehr
kontroversen Sichten auf die informatische Bildung (wie z.B. Programmieren vs. Anwendungen vs. Modellieren, siehe z.B. [Mic08]) waren wir zuversichtlich, auch hier typische
Muster zu finden.
3
Durchführung der Umfrage
Die Umfrage wurde als Online-Fragebogen konzipiert, wobei wir das quelloffene Limesurvey verwendet haben. Die Lehrkräfte wurden per e-Mail (mit freundlicher Unterstützung
des Arbeitskreises Lehrerbildung Informatik in Bayern auch über deren Verteiler) zur Teilnahme eingeladen und gebeten, diese Einladung auch an andere Kolleginnen und Kollegen
weiterzugeben, die im Informatikunterricht eingesetzt werden oder wurden. Zielgruppe
waren somit alle Lehrkräfte, die im Rahmen der Pflichtfächer Natur und Technik bzw.
Informatik Unterricht erteilen oder erteilt haben.
Der Fragebogen war im Dezember 2009 für vier Wochen verfügbar. In dieser Zeit nahmen 448 Personen an der Befragung teil. Zunächst stellt sich daher die Frage nach der
Repräsentativität der Umfrage. Die Auswahl der Stichprobe erfolgte nicht zufällig, daher kann nicht automatisch von einem repräsentativen Ergebnis ausgegangen werden.
Tatsächlich muss davon ausgegangen werden, dass bei der Art der Umfragedurchführung
(Selbstauswahl), tendenziell eher Personen mit einer ausgeprägten positiven oder negativen Meinung zum Informatikunterricht zur Teilnahme motiviert sind. Wir gehen aus den
folgenden Gründen allerdings trotzdem davon aus, dass die Ergebnisse der Umfrage ein
repräsentatives Bild der Population zeichnen:
Im Folgenden präsentieren wir ausgewählte Ergebnisse der bisherigen Auswertung. Es sei
noch angemerkt, dass das Hauptaugenmerk der Studie auf den Jahrgangsstufen 6 bis 10
lag, da zum Zeitpunkt der Durchführung lediglich diese Jahrgangsstufen bereits ein- oder
mehrmals unterrichtet wurden.
4
4.1
Ausgewählte Ergebnisse
Mitarbeit, Einstellung und Leistung der Schülerinnen und Schüler
Die teilnehmenden Lehrkräfte wurden gefragt, wie der Notenspiegel von Stegreifaugaben
in Informatik ausfällt. Diese stellen in Informatik die einzigen schriftlichen Leistungserhebungen dar. Insbesondere ging es darum, ob der Notenspiegel eher die typische, unimodale Glockenform oder eine bimodale Kamelhöckerform“ hat. Vortests mit ausgewählten
”
Lehrkräften ließen erwarten, dass in Informatik hier eine Besonderheit vorherrscht. Abbildung 1 zeigt das Ergebnis. Tatsächlich scheint in der 10. Jgst. häufig die bimodale Form
aufzutreten. Auch wenn wir bisher dafür keine gesicherte Erklärung anbieten können, wäre
- 48 -
Form der Notenspiegel
100
0
50
Anzahl
100
0
50
Anzahl
150
7. Jgst.
150
6. Jgst.
eher unimodal
eher bimodal kann ich nicht beurteilen
eher unimodal
100
0
50
Anzahl
100
0
50
Anzahl
150
10. Jgst.
150
9. Jgst.
eher bimodal kann ich nicht beurteilen
eher unimodal
eher bimodal kann ich nicht beurteilen
eher unimodal
eher bimodal kann ich nicht beurteilen
Abbildung 1: Form der Notenspiegel von Stegreifaufgaben in Informatik
eine Möglichkeit, dass die motivationalen Voraussetzungen der Schülerinnen und Schüler
hierauf Einfluss haben. Eine weitere mögliche Ursache könnte in der Thematik der 10.
Jgst. (Objektorientierte Modellierung und Programmierung) liegen, die möglicherweise
inhärent eine sehr hohe Trennschärfe“ bei den Lernzielkontrollen verursacht, oder auch
”
in der fachlichen Unsicherheit relativ vieler Lehrkräfte zu dieser Thematik (siehe unten).
Die Lehrkräfte wurden darüberhinaus danach gefragt, ob sie hinsichtlich der Noten einen
Unterschied zwischen den Geschlechtern erkennen können. Die Ergebnisse sind in Bild
2 zu sehen. Offensichtlich besteht für den Anfangsunterricht kein nennenswerter Unterschied zwischen den Geschlechtern. Lediglich bei den Themen der 10. Jahrgangsstufe
gibt es Hinweise darauf, dass die Jungen besser in Informatik abschneiden. Die Auswertung der Hypothese Jungen und Mädchen sind gleich gut im Informatikunterricht“ liefert
”
das Folgende Ergebnis: Nimmt man eine (fiktive) diskretisierte Verteilung, die normalverteilt um den Wert gleich gut“ schwankt an, muss die Hypothese für die 6. und 10. Jahr”
gangsstufe auf dem 1 % Niveau abgelehnt werden (χ2 = 15.24, bzw. χ2 = 39.79). Für
die beiden anderen Jahrgangsstufen kann die Hypothese dagegen angenommen werden.
Darüberhinaus unterscheiden sich die Verteilungen der Antworten aller Jahrgangsstufen
signifkant auf dem 1 % Niveau von den Antworten zu allen anderen Jahrgangsstufen. Es
scheint also jahrgangsspezifische Unterschiede hinsichtlich des Einflusses des Geschlechts
auf die Leistung in Informatik zu geben. Diese Ergebnisse zu untermauern und nach Ursachen zu suchen ist Aufgabe der zukünftigen Forschung.
- 49 -
Unterschied Jungen/Mädchen
150
100
Anzahl
0
50
100
0
50
Anzahl
150
200
7. Jgst.
200
6. Jgst.
Mädchen besser
Jungen besser
gleich gut
Mädchen besser
200
150
0
50
100
Anzahl
150
100
0
50
Anzahl
gleich gut
10. Jgst.
200
9. Jgst.
Jungen besser
Mädchen besser
Jungen besser
gleich gut
Mädchen besser
Jungen besser
gleich gut
Abbildung 2: Wenn Sie die Noten der Schülerinnen und Schüler in Informatik miteinander verglei”
chen, sind dann die Mädchen oder die Jungen besser?“, getrennt gefragt für jede Jahrgangsstufe.
Die Ergebnisse hinsichtlich der Beteiligung der Schülerinnen und Schüler am Unterricht
zeichnen ein ziemlich klares Bild. Der Verlauf geht von einer sehr positiven Bewertung in
den ersten beiden Jahrgangsstufen zu einer eher neutralen Bewertung in den Jahrgangsstufen 9 und 10. Abbildung 3 zeigt die Ergebnisse hinsichtlich der Mitarbeit der Schülerinnen
und Schüler im Informatikunterricht. Die Mediane liegen für die Jgst. 6, 7 und 9 jeweils
bei überwiegend zufrieden, für die 10. Jgst. bei einigermaßen zufrieden.
Die Lehrkräfte wurden auch gebeten, eine Einschätzung darüber abzugeben, wie die Schülerinnen und Schüler zum neuen Unterrichtsfach Informatik stehen. Hier wurde, analog zu
den anderen Fragen, für jede Jahrgangsstufe getrennt gefragt. Das Ergebnis stellt natürlich
lediglich einen Hinweis auf die tatsächliche Einstellung der Schülerinnen und Schüler
dar, nichtsdestotrotz ist es es interessant anzumerken, dass der Verlauf der Antworten hier
denselben Verlauf wie die Frage nach der Mitarbeit zeigt. Der Anfangsunterricht macht
demnach den Schülern allgemein viel Spaß“ während die 10. Klasse den Schülern im
”
Mittel keinen Spaß“ mehr zu machen scheint. Hieraus ergibt sich ein Ansatz für weitere
”
Forschungsarbeit, der diese Annahmen durch geeignete Tests mit Schülern validiert. Generell wäre es interessant, die Antworten zu den motivationalen Voraussetzungen mit den
Ergebnissen für andere Fächer in derselben Jgst. zu vergleichen.
- 50 -
Zufriedenheit mit Mitarbeit
100
0
3
4
5
6
1
2
3
4
Zufriedenheit
Zufriedenheit
9. Jgst.
10. Jgst.
5
6
5
6
100
50
0
0
50
Anzahl
100
150
2
150
1
Anzahl
50
Anzahl
100
50
0
Anzahl
150
7. Jgst.
150
6. Jgst.
1
2
3
4
5
6
1
Zufriedenheit
2
3
4
Zufriedenheit
Abbildung 3: Wie zufrieden sind Sie mit der Mitarbeit der Schülerinnen und Schüler im Informa”
tikunterricht?“, getrennt gefragt für jede Jahrgangsstufe. Die Antwortskala ist bei allen Fragen: 1 =
sehr zufrieden, 2 = überwiegend zufrieden, 3 = einigermaßen zufrieden, 4 = eher unzufrieden, 5 =
einigermaßen unzufrieden, 6 = sehr unzufrieden
4.2
Fachliche Voraussetzungen bei den Lehrkräften
Aufgrund des relativ geringen Alters des neuen Faches herrscht in Bayern noch immer ein
Mangel an qualifizierten Informatiklehrkräften. Grundsätzlich unterrichten derzeit Lehrerinnen und -lehrer, die entweder
• die Fakultas in Informatik durch ein grundständiges Lehramtsstudium oder
• über den Quereinstieg mit einem anderen Informatik-Abschluss (z.B. als Dipl. Inf.)
oder
• über spezielle Nachqualifizierungsmaßnahmen (wie z.B. SIGNAL oder FLIEG [Spo09])
erworben haben, oder
• Informatik fachfremd unterrichten, oder
• als zeitweilige Aushilfskräfte eingestellt sind (z.B. Informatikstudierende).
Diese große Bandbreite in der fachlichen und didaktischen Vorbildung bietet ein sehr interessantes Umfeld für Forschungsfragen. Da die Auswertungen in diesem Bereich noch
- 51 -
1
2
4
2
1
3
4
2
1
3
4
2
4
2
4
2
4
2
4
2
4
2
1
3
1
3
1
1
3
1
3
3
1
4
4
4
4
2
1
4
4
2
1
4
2
1
2
2
2
1
3
1
2
1
2
2
1
1
1
1
1
3
4
4
2
2
3
3
4
4
4
3
3
3
5
3
3
3
3
3
3
Inf 12.4
Inf 12.3
Inf 12.2
Inf 12.1
Inf 11.2
Inf 11.1
Inf 10.3
Inf 10.2
Inf 10.1
Inf 9.2
Inf 9.1
NT 7.2.3
NT 7.2.2
NT 7.2.1
NT 6.2.5
NT 6.2.4
NT 6.2.3
NT 6.2.2
NT 6.2.1
6
Abbildung 4: Wie sicher fühlen Sie sich rein fachlich in den folgenden Lehrplanpunkten?“, Ant”
wortskala für alle Punkte 1 = sehr gut bis 6 ungenügend. Die Zahlen stellen den jeweiligen Mittelwert
der Antworten der entsprechenden Klasse dar. Die gestrichelte Linie stellt den Mittelwert über alle
Anworten dar
nicht abgeschlossen sind, können wir zunächst nur einige vorläufige Resultate präsentieren.
Einige dieser Aspekte werden in [MHB10] behandelt, allerdings unter anderen, eigenständigen Gesichtspunkten. Abbildung 4 zeigt das Ergebnis einer latenten Klassenanalyse.
Gefragt war nach der Selbsteinschätzung hinsichtlich der fachlichen Sicherheit in den einzelnen Lehrplanpunkten. Die Überschriften der jeweiligen Lehrplanpunkte lauten:
NT 6.2.1 Information und ihre Darstellung
NT 6.2.2 Informationsdarstellung mit Graphikdokumenten - Graphiksoftware
NT 6.2.3 Informationsdarstellung mit Textdokumenten - Textverarbeitungssoftware
NT 6.2.4 Informationsdarstellung mit einfachen Multimediadokumenten - Präsentationssoftware
NT 6.2.5 Hierarchische Informationsstrukturen Dateisystem
NT 7.2.1 Vernetzte Informationsstrukturen - Internet
NT 7.2.2 Austausch von Information E-Mail
NT 7.2.3 Beschreibung von Abläufen durch Algorithmen
Inf 9.1 Funktionen und Datenflüsse; Tabellenkalkulationssysteme
Inf 9.2 Datenmodellierung und Datenbanksysteme
Inf 10.1 Objekte und Abläufe
Inf 10.2 Generalisierung und Spezialisierung
Inf 10.3 Komplexeres Anwendungsbeispiel
Inf 11.1 Rekursive Datenstrukturen
Inf 11.2 Softwaretechnik
Inf 12.1 Formale Sprachen
- 52 -
Inf 12.2 Kommunikation und Synchronisation von Prozessen
Inf 12.3 Funktionsweise eines Rechners
Inf 12.4 Grenzen der Berechenbarkeit
Die Klassenanalyse (durchgeführt mit dem Package MClust [FR07] in GNU-R) findet anhand des BIC-Kriteriums ein möglichst gut passendes Gaussian Mixture Modell für die
Daten. Dabei werden verschiedene Modellklassen und auch verschiedene Clusteranzahlen berücksichtigt. Hierfür wurden zunächst solche Antworten entfernt, die die entsprechende Frage nicht oder nur teilweise beantwortet haben, es verblieben 216 Antworten
für die Analyse. Als Ergebnis erhält man eine Wahrscheinlichkeitsverteilung über die Zugehörigkeit einer Antwort zu einer der gefundenen Klassen. Durch Wahl der jeweils maximalen Wahrscheinlichkeit erzeugt man schließlich eine feste Zuordnung einer Antwort
zu einer der Klassen. Das Ergebnis stellt, aufgrund des verwendeten Verfahrens, nur eine
lokal optimale Lösung dar. Nichtsdestotrotz lassen sich daran interessante Beobachtungen
durchführen. Einzig anhand der Klassenanalyse lässt sich bereits folgende Charakterisierung treffen:
Klasse 1 Dieses Klasse zeigt einen dem Durchschnitt entsprechenden Verlauf, allerdings
schätzen sich die Personen durchwegs unterdurchschnittlich ein. Die fachliche Sicherheit ist bis zur 10. Jgst. gut, danach befriedigend oder ausreichend. Von den 216
Lehrkräften wurden 55 dieser Klasse 1 zugeordnet.
Klasse 2 Mit 95 von 216 die größte Klasse mit einem tendenziellen Verlauf ähnlich dem
der Klasse 1, allerdings stets darüber: Sehr sicher bei den Themen der Jgst. 6 und
7, danach ein stetiger Abfall, allerdings insgesamt immer noch mindestens befriedigende fachliche Sicherheit.
Klasse 3 Die mit 28 Personen kleinste aber auch auffälligste Klasse: Sicherheit bei den
Themen des Anfangsunterrichts in 6. und 7. Jgst., danach höchstens noch ausreichende fachliche Sicherheit.
Klasse 4 Fühlt sich fachlich in allen Themen (sehr) sicher. Lediglich bei den Jgst. 11
und 12 (die sie zu diesem Zeitpunkt noch nie unterrichtet haben können) ist der
Mittelwert schlechter als 1,5. Dieses Klasse umfasst 38 von 216 Personen.
Als Nächstes wurden nun solche Fragen identifiziert, bei denen sich die Personen zweier
Klassen signifikant unterscheiden. Dazu wurde jede Frage, außer die in der Klassenanalyse verwendete, auf die Hypothese hin untersucht, dass die Stichproben der Antworten
von Personen aus Klasse i bzw. aus Klasse j nicht derselben Verteilung entspringen. Je
nach der Art von Frage und Antwortskala wurden entsprechend geeignete Tests dafür ausgewählt und angewandt. Auf diese Weise werden versteckte Zusammenhänge zwischen
den Personen einer Klasse aufgedeckt. Im vorliegenden Fall ergeben sich unter anderem
die folgenden Resultate (die vollständigen Fragen mit Antwortskalen können aus Platzgründen hier leider nicht wiedergegeben werden. Als Signifikanzniveau wurde für alle
Tests α = 0, 99 verwendet):
- 53 -
• Klasse 4 unterscheidet sich von allen anderen Klassen hinsichtlich des Antwortverhaltens zur Frage Wie zufrieden sind Sie mit dem neuen Unterrichtsfach Informatik
”
insgesamt?“ bezogen auf die Jahrgangsstufen 6, 7, 9, 10 (nur diese wurden gefragt).
Die Antwortskala war wie in Abbildung 3. Der Median der Antworten aus Klasse 4
war für die Jgst. 6, 7 und 10 jeweils sehr zufrieden“, für die 9. Jgst. überwiegend
”
”
zufrieden“ und damit stets um mindestens eine Stufe besser als bei den Personen
aus den anderen Klassen. Am unzufriedensten waren die Personen aus Klasse 3, bei
denen die Mediane für die Jgst. 6, 7 und 10 einigermaßen zufrieden“ und für die 9.
”
Jgst. eher unzufrieden“ sind.
”
• Klasse 3 unterscheidet sich von allen anderen Klassen bezüglich der Antwort auf die
(dichotome) Frage Ich habe als Teilnehmer seit 2002 an Fortbildungsveranstaltun”
gen zum Schulfach Informatik teilgenommen“, bezogen auf die 10. Jahrgangsstufe.
Die Personen aus Klasse 3 haben signifkant öfter nicht an einer Fortbildung zu den
Themen der 10. Jgst. teilgenommen. Darüberhinaus unterscheiden sich die Personen
aus Klasse 3 ebenfalls von allen anderen Klassen hinsichtlich der Frage nach dem 1.
Staatsexamen in Informatik. Die Lehrkräfte in Klasse 3 haben signifikant öfter kein
1. Staatsexamen in Informatik. Interessanterweise liefert die Analyse für die allgemeinere Frage nach einem Hochschulabschluss in Informatik keine signifikaten
Unterschiede zu den anderen Klassen.
• Klasse 3 unterscheidet sich von allen anderen Klassen bezüglich der in der 10. Jgst.
eingesetzten Werkzeuge. Die Personen in Klasse 3 setzen signifikant öfter kein Java
und kein BlueJ ein (das Antwortformat war eine Merfachauswahl aus einer Liste
von Werkzeugen und Sprachen).
• Klasse 1 und 2 unterscheiden sich in praktisch keiner interessanten Eigenschaft.
Die unterschiedliche Eingruppierung hängt also möglicherweise lediglich daran,
wie überzeugt die jeweilige Person vom eigenen Wissen war.
Mithilfe dieser Ergebnisse lassen sich die Klassen hinsichtlich ihrer (typischen) Personenmerkmale charakterisieren. So sind z.B. die der Klasse 3 zugeordneten Lehrkräfte (im
Durchschnitt) Informatikabsolventen, die kein 1. Staatsexamen haben (also Quereinsteiger oder Aushilfslehrer), die sich fachlich mit den Themen der 10. Jgst. nicht sicher fühlen
und noch keine Fortbildung dazu besucht haben. Klasse 1 hingegen besteht typischerweise aus Personen die sich sicher mit den Themen des Unterrichts fühlen und auch mit dem
Unterrichtsfach allgemein (sehr) zufrieden sind.
5
Zusammenfassung und Ausblick
Die Ergebnisse unserer Umfrage eröffnen spannende, fachdidaktische Fragestellungen.
Ein sicherer fachlicher Umgang mit den Themen des Informatikunterrichts scheint eine
Voraussetzung für eine allgemeine Zufriedenheit mit dem Fach zu sein. Wie kann man diese Sicherheit der Lehrkräfte fördern? In der weiteren Auswertung wird insbesondere auch
die Einstellung gegenüber dem Lehrplan in Abhängigkeit vom vorhandenen Vorwissen
- 54 -
(siehe dazu auch [MHB10]) eine interessante Fragestellung sein, die hoffentlich weitere
Einblicke in die unterschiedlichen fachlichen Voraussetzungen von Lehrkräften und die
Folgen daraus für den Unterricht bietet. Erste Ergebnisse hinsichtlich dieser Einstellung
zeigen, dass sich dort mit einer ähnlichen Auswertung ebenfalls verschiedene Profile von
Lehrkräften finden lassen. Es ist allerdings noch offen, inwieweit diese mit den hier vorgestellten korrelieren. Bezüglich der Schüler bietet der Aspekt der bimodalen Verteilung
Material für weitere Forschungsvorhaben. Inwieweit ist dieses Eigenschaft von Lehrkraft,
Unterricht und Art der Leistungserhebung abhängig, inwieweit ist dies eine spezielle Eigenheit des Faches Informatik?
Literatur
[BK06]
Jürgen Baumert und Mareike Kunter. Stichwort: Professionelle Kompetenz von Lehrkräften. Zeitschrift für Erziehungswissenschaft, 9(4):469–520, 2006.
[BKB+ 10] Jurgen Baumert, Mareike Kunter, Werner Blum, Martin Brunner, Thamar Voss, Alexander Jordan, Uta Klusmann, Stefan Krauss, Michael Neubrand und Yi-Miau Tsai. Teachers’ Mathematical Knowledge, Cognitive Activation in the Classroom, and Student
Progress – Baumert et al. 47 (1): 133 –180. American Educational Research Journal,
47(1):133–, 2010.
[FR07]
Chris Fraley und Adrian E. Raftery. MCLUST version 3 for R: Normal mixture modeling and model-based clustering. Bericht 504, Department of Statistics University of
Washington, Seattle, WA 98195-4322 USA, 2007.
[Hub05]
Peter Hubwieser. Von der Funktion zum Objekt - Informatik für die Sekundarstufe
1 (Hauptvortrag INFOS 2005). In Friedrich S. (Hrsg.): Unterrichtskonzepte für die
informatische Bildung. INFOS 2005 - 11. GI-Fachtagung Informatik und Schule, 28.30.9.2005 in Dresden, GI-Edition Lecture Notes in Informatics. P-60, Seiten 27–41,
2005.
[Hub07]
Peter Hubwieser. Informatische Bildung in Bayern. LOG IN Nr. 145, Seiten 6–8, 2007.
[ISB09]
Staatsinstitut für Schulqualität und Bildungsforschung. Bildungsbericht Bayern, 2009.
[MHB10]
Andreas Mühling, Peter Hubwieser und Torsten Brinda. Exploring Teachers Attitudes
Towards Object Oriented Modelling and Programming in Secondary Schools - eingereicht und akzeptiert. In Proceedings of the 6th International Computing Education
Research Workshop (ICER), 9-10 August in Aarhus. ACM-SIGCSE, 2010.
[Mic08]
Peter Micheuz. Harmonization of Informatics Education - Science Fiction or Prospective Reality? In Roland T. Mittermeir und Maciej M. Syslo, Hrsg., Informatics Education
- Supporting Computational Thinking, Third International Conference on Informatics in
Secondary Schools - Evolution and Perspectives, ISSEP 2008, Torun, Poland, July 1-4,
2008, Proceedings, Jgg. 5090 of Lecture notes in computer science, Seiten 317–326.
Springer, 2008.
[Ros04]
Jürgen Rost. Lehrbuch Testtheorie - Testkonstruktion. Psychologie Lehrbuch. Huber,
Bern, 2., vollst. überarb. und erw. aufl.. Auflage, 2004.
[Spo09]
Matthias Spohrer. Konzeption und Analyse neuer Maßnahmen in der Fort- und Weiterbildung von Informatiklehrkräften., 2009.
- 55 -
Lehrerbildung Informatik - Was ist zu tun?
Ira Diethelm, Lutz Hellmig, Steffen Friedrich, Norbert Breier, Torsten Brinda
sowie
Dirk Drews, Andreas Gramm, Alexander Hug, Tino Hempel, Henry Herper,
Ludger Humbert, Mirko König, Barbara Linck, Matthias Makowsky, Peter
Micheuz, Paul Miotti, Dorothee Müller, Jürgen Poloczek, Detlef Rick, Ralf
Romeike, Gabriele Rosner, Sandra Wienck
Abstract: Auf der INFOS 2009 fanden sich in einem Workshop mit dem Titel dieses Papiers Interessierte zusammen, die einen Arbeitskreis des Fachbereiches IAD der
GI zu Belangen der Lehrerbildung Informatik initiieren möchten. In vier Teilgruppen
wurden zunächst Problemfelder beschrieben, die die nachfolgende Arbeit des Arbeitskreises strukturieren sollen. Dieses Papier fasst die Ergebnisse des Workshops zusammen und möchte damit die Diskussion zum Thema Lehrerbildung Informatik sowohl
für die Forschung als auch für die Praxis eröffnen.
1
Wo drückt der Schuh?
In der Bundesrepublik Deutschland ist die Lehrerbildung Informatik in allen Bundesländern etabliert. Vor dem Hintergrund wachsenden Bedarfs für qualifizierte Informatiklehrkräfte und gleichzeitiger Abnahme der Zahl der im Dienst befindlichen Kolleginnen und
Kollegen (wegen altersbedingten Ausscheidens, vgl. z. B. [Die09]) ist eine Erhöhung der
Kapazitäten und der Werbung für den Beruf der Informatiklehrkraft für alle Schulformen
und Schulstufen angezeigt. Attraktive Studiengänge, die auf wissenschaftlicher Basis und
unter sinnvoller Einbindung praktischer Anteile eine optimale Vorbereitung auf den Lehrerberuf bieten, sind ein zentrales Element für die Gewinnung von Studierenden.
Strukturelle Fragen der gesamten Lehramtsausbildung wirken sich schon auf die Gewinnung von Studierenden für das Lehramt Informatik aus. Im Zuge der konsekutiven Gestaltung der Lehrerbildung in vielen Bundesländern wurden vormalige Drittfachregelungen
obsolet. Dies schadet der Informatiklehrerbildung, da viele Kolleginnen und Kollegen Informatik als drittes Unterrichtsfach erworben haben.
Die Ursachen, warum im Lehramt Informatik Studierende ihr Studium vorzeitig ohne Abschluss beenden, sind sicher vielfältiger Natur. Unabhängig von einem gewissen Anteil
von Studierenden, die den Anforderungen des Studiums generell nicht gewachsen sind, ist
zu hinterfragen, inwiefern unklare Vorstellungen zur Informatik zu einer falschen Studienwahl geführt haben – bzw. auch eine Entscheidung für ein Informatiklehrerstudium verhindert haben. Bei den Angeboten der Hochschulen zeigen sich deutliche qualitative und
quantitative Unterschiede. Gängige Praxis – auch bedingt durch die geringen Studieren- 57 -
denzahlen – ist, dass Lehramtsstudierende Vorlesungen hören, die nicht für sie konzipiert
wurden.
Wenn die Studierenden einen Masterabschluss bzw. das erste Staatsexamen erlangen, ist
es sehr vom Bundesland abhängig, wie schnell sie in den Vorbereitungsdienst eintreten und wie dieser organisiert ist. In der Vergangenheit ergaben sich in einigen Bundesländern durch Zugangsbeschränkungen für den Vorbereitungsdienst oder schlecht koordinierte Bewerbungs- und Einstellungstermine zum Teil erhebliche Wartezeiten, obwohl
Lehrer in Informatik und verwandten Fächern gesucht werden.
Da in vielen Bundesländern Quereinsteiger zum Vorbereitungsdienst zugelassen werden,
ergeben sich für diese Phase der Ausbildung weitere Probleme. Quereinsteiger bringen
meist nur für einen Teilbereich des professionellen Wissens und Könnens von Lehrern
entsprechende Qualifikationen mit, für andere Bereiche – meist im fach- und allgemeindidaktischen Bereich – fehlen hier die Grundlagen einer universitären Lehrerausbildung. Im
Bereich des berufsbildenden Lehramts ist dieses Problem noch ausgeprägter.
Die Wirksamkeit bundesweiter und regionaler Bestrebungen, die Kommunikation zwischen den Ausbildungsphasen zu verbessern und zu etablieren1 , wird noch zu oft von
lokalen Gegebenheiten und administrativen Hürden torpediert und muss darum insgesamt
als verbesserungswürdig eingestuft werden.
Etliche Bundesländer bieten Weiterbildungsprogramme an, die durch virtuelle oder regelmäßige Präsenzveranstaltungen ermöglichen, eine Lehrbefähigung für Informatik parallel zum täglichen Schuldienst zu erwerben. Je nach Bundesland werden dafür Entlastungsstunden bereitgestellt oder nicht. Und je nach Bundesland und Lehramt unterscheiden sich auch sowohl die Inhalte als auch die Leistungen, die hierfür erbracht werden
müssen: So verlangen einige Länder, den vollen Umfang eines Schulfaches zu studieren (ca. 70 Semesterwochenstunden), andere vergeben für ca. 20 SWS eine Qualifikation als sogenanntes Beifach. Wieder andere Stellen vergeben losgelöst von staatlichen
Prüfungsanforderungen Zertifikate für die Bedienung bestimmter Softwarepakete, die von
ihren Herstellern angeboten werden. Zudem werden vielerorts die Mittel für Fortbildungen
gestrichen. Dies zeigt, dass auf politischer Ebene die Notwendigkeit einer fachlich und didaktisch fundierten Ausbildung von Informatiklehrern oftmals nicht gesehen wird. Nicht
überall ist es bisher gelungen, die Gleichwertigkeit der Informatik zu anderen Fächern –
auch im Bereich der Anerkennung von Fort- und Weiterbildungsaktivitäten – herzustellen.
Die KMK [KMK08] hat im Jahre 2008 inhaltliche Richtlinien zur Lehrerbildung im Fach
Informatik herausgegeben. Da diese aber in einem sehr kurzen Zeitraum von einer kleinen
Autorengruppe verfasst und einem unzureichenden Diskussionsprozess unterzogen wurden, besteht Handlungsbedarf zur Formulierung allgemein anerkannter Grundsätze zur
Lehrerausbildung Informatik, um deren Qualität erhöhen zu können.
Diese Zusammenfassung der Beobachtungen macht deutlich, dass die Lehrerbildung in
Informatik viele Probleme begleiten. Die Breite der Probleme zeigt auch das Tafelbild in
Abbildung 1, auf dem wir im Workshop versuchten, die Problemlandschaft zu skizzieren. Darin wurden vier Hauptproblemfelder identifiziert, die in den folgenden Abschnitten
näher ausgeführt werden. Diese gliedern sich in die
1 z.B.
anlässlich der regelmäßigen Bundestreffen der Informatikfachleitungen
- 58 -
Abbildung 1: Tafelbild der Problemlage
• Universitäre Ausbildung von Informatiklehrern
• Praxisphase der Lehrerausbildung
• Weiterbildung
• Informatik für alle Lehrer
2
Universitäre Ausbildung von Informatiklehrern
Für die universitäre Ausbildung von Informatiklehrern wurden 3 Problemfelder identifiziert. Dies sind zum ersten die Ausbildung im Fach Informatik, zum zweiten die Inhalte
und die Form der (theoretischen) fachdidaktischen Ausbildung und zum dritten die Gestaltung praktischer fachdidaktischer Ausbildungsanteile im universitären Rahmen.
- 59 -
2.1
Fachliche Ausbildung
Informatische Bildung in Schulen als Beitrag zur Allgemeinbildung unterscheidet sich
strukturell von den Gegebenheiten der Fachwissenschaft Informatik. Das klassische Informatikstudium ist – nach einer grundlegenden Ausbildung mit oft hohen mathematischen
Anteilen – auf die Vermittlung von Spezialwissen ausgerichtet. Den Erfordernissen des
Lehrerberufs, sowohl eine große inhaltliche Breite abzudecken und für diese Inhalte verschiedene Zugänge zu finden, kann so nicht gerecht werden.
Aus verschiedenen Beweggründen heraus wurden Zusatzkurse für Lehramtsstudierende
angeregt. Nachhilfe“ oder auch eine didaktische Begleitung“ von regulären Lehrveran”
”
staltung führen jedoch entweder zu einer zeitlichen Mehrbelastung von Lehramtsstudierenden oder zu einer Streichung anderer Inhalte, die der angestrebten Breite der fachlichen
Ausbildung widerspricht.
Als ideal werden separate, speziell für Lehramtsstudierende konzipierte Lehrveranstaltungen, in jedem Fall aber eine deutliche Trennung der Studiengänge angesehen. Dies wird
sich in den meisten Fällen aus organisatorischen und kapazitiven Gründen schwer realisieren lassen. Es sind Konzepte gefragt, wie dieses Dilemma überwunden werden kann.
Bei der Konzeption der fachlichen Ausbildung von Informatiklehrerstudierende sollte gesichert sein, dass auch die Bereiche der Grundsätze und Standards [GI08] für den Informatikunterricht durch das Studium vollständig abgedeckt sind.
2.2
Fachdidaktische Ausbildung
Bislang existiert kein umfassender Überblick, welche Inhalte und Methoden die DidaktikAusbildung an den verschiedenen Universitäten bestimmen. Die Schwerpunkte der fachdidaktischen Ausbildung beinhalten je nach Ausbildungsort Aspekte der allgemeinen Didaktik, Inhalte der Fachdidaktik des Informatikunterrichts, gegebenenfalls einhergehend
mit einer fachlichen Vertiefung ausgewählter informatischer Inhalte und/oder bundeslandund sogar schulbezogene Themen.
Ungeklärt ist weiterhin die zeitliche Einordnung des Beginns der fachdidaktischen Ausbildung. Für einen frühen Beginn sprechen vor allem motivationale Faktoren, die für die
Studierenden einen Bezug ihres Studiums zu ihrem späteren Beruf herstellen. Kontraproduktiv sind die zumeist unzureichenden fachlichen Grundlagen in früheren Semestern, die
das inhaltliche Spektrum der fachdidaktischen Ausbildung einschränken. Im Mittel beginnt die fachdidaktische Ausbildung derzeit etwa im 5. Semester.
2.3
Praxisanteile in der ersten Phase der Lehrerausbildung
Praktische Anteile im Rahmen der universitären Lehrerausbildung gehören noch nicht
überall zum Standard. Und wenn praxisbezogene Elemente Bestandteil der ersten Phase
- 60 -
sind, so verbirgt sich dahinter eine große Breite sowohl etablierter als auch experimenteller
Ausbildungsformen.
Gebräuchliche methodische Großformen in der praxisbezogenen, fachdidaktischen Lehrerausbildung sind beispielsweise schulpraktische Übungen (SPÜ), integrierte, meist mehrwöchige Schulpraktika oder ein Praxissemester. Die Tätigkeiten der Studierenden während
der praktischen Phasen umfassen Unterrichtsbeobachtungen, die Begleitung von unterrichtenden Lehrern als Zweitlehrer und die eigenverantwortliche Erteilung von Unterricht.
Idealerweise sollte in allen genannten Formen eine fachdidaktische Begleitung durch die
Universität gewährleistet sein, die die Vorbereitung, Durchführung und Auswertung des
Unterrichts betrifft. Dieses Kriterium wird für alle Großformen jedoch in sehr unterschiedlichem Maße und oft unzureichend an den verschiedenen Ausbildungsstandorten erfüllt.
Auch wenn ein hoher Grad der selbstständigen Arbeit der Studierenden anzustreben ist,
sollte dies die Universität nicht von der Verantwortung für die Betreuung der Studierenden
entbinden. Inwieweit die selbstständige Arbeit von Studierenden dazu führen darf, dass sie
sogar allein ohne Anwesenheit zumindest eines Fachlehrers unterrichten, ist aus didaktischen und juristischen Gründen zu hinterfragen. Die Beantwortung dieser Frage wird mit
der Forderung nach einer Erhöhung der Praxisanteile und einer stärkeren Verzahnung der
ersten und zweiten Ausbildungsphase nicht trivial sein.
Um zu einer dauerhaften Verbesserung der praktischen Ausbildungsanteile der ersten Phase zu kommen, ist zunächst eine gemeinsame Reflexion und Kommunikation bisher gewonnener Erfahrungen nötig.
3
Praxisphase der Lehrerausbildung
Die praktische Phase der Ausbildung – synonym auch zweite Phase/Vorbereitungsdienst –
umfasste in Deutschland bislang meist einen Zeitraum von 2 Jahren und lag in der Verantwortung der Landesinstitute. Die zu erwartenden strukturellen Änderungen in der zweiten
Phase beeinflussen maßgeblich die Diskussion zu damit verbundenen Themen wie dem
Einsatz der Referendare oder zu curricularen Inhalten.
3.1
Strukturelle Änderungen
Seit jüngstem wird in mehreren Bundesländern von politischer Seite eine Verkürzung der
zweiten Phase der Lehrerausbildung auf einen Zeitraum von ein bis eineinhalb Jahren und
die Verlagerung von praktischen Inhalten in die erste Phase angestrebt. Kaum beantwortet
sind die Fragen nach den dafür benötigten Ressourcen und Rahmenbedingungen, d.h. nach
dem wer“, wann“, was“, wie“ und wie oft“.
”
”
”
”
”
Eine Verkürzung der zweiten Phase kann ohne einen Qualitätsverlust nur dann realisiert
werden, wenn die Schnittstellen zur ersten Phase genau – möglicherweise durch fachdidaktische Standards – beschrieben werden. Für die zweite Phase werden beispielsweise
- 61 -
Plan- und Planungssicherheit der Studierenden für die Tätigkeit im Vorbereitungsdienst
vorausgesetzt.
Die Formen der Kompetenzvermittlung stehen mit den strukturellen Veränderungen der
zweiten Phase ebenfalls zur Disposition. Kann etwa durch eine Modularisierung der Ausbildung – analog zur ersten Phase – deren Qualität verbessert oder diese zumindest effizienter gestaltet werden? Kollidiert das modulare System mit der Staatsexamensprüfung?
Ist die Modularisierung und die permanente Bewertung sinnvoll, gerade unter dem Aspekt
einer klaren Trennung von Lern- und Leistungssituationen?
3.2
Einsatz der Referendare
Ein weiteres Problem ist die unklare Situation des Einsatzes der Referendare an den Schulen, die oft nicht adäquat zur angestrebten Ausbildung erfolgt. Die Forderungen der Arbeitsgruppe beziehen sich somit auf einen fach- und jahrgangsstufengerechten Einsatz, bei
dem die Zahl der zu unterrichtenden Stunden in gleichem Maße auf die gewählten Fächer
erfolgt. Die Empfehlungen der Seminarleiter sollten bei der Einsatzplanung für die Referendare Berücksichtigung finden. Insbesondere darf der Einsatz im Vorbereitungsdienst
nicht mit der Maßgabe des Abdeckens von Lücken in der Unterrichtsversorgung – zu Lasten der Ausbildung – erfolgen.
Mit Besorgnis muss darum auch die Entwicklung in einigen Bundesländern gesehen werden, in denen eigenverantwortliches Unterrichten im Vorbereitungsdienst anstelle einer
fachbezogenen, schulpraktischen Ausbildung für die Referendare tritt.
3.3
Curriculare Standards
Schon im Zusammenhang mit der Verzahnung der ersten und zweiten Phase wurde die
Frage nach curricularen Standards für die zweite Phase der Lehrerausbildung gestellt.
Vertiefend ist zu diskutieren, ob landeseinheitliche Standards unter Berücksichtigung der
konkreten Rahmenbedingungen oder bundeseinheitliche Standards, die entsprechend allgemeiner gehalten sein müssten, anzustreben sind.
Die Klärung dieser Fragen erfordert den Erhalt und den Ausbau der Vernetzung der Seminarleiter.
4
Weiterbildung
Für den Bedarf an Weiterbildungen wurden 3 Zielgruppen von Lehrern identifiziert.
- 62 -
4.1
Quereinsteiger in den Lehrerberuf – Ziel: Informatiklehrer
Diese Kolleginnen und Kollegen haben bereits ein Studium der Informatik absolviert und
verfügen über vertiefte Kenntnisse in einem oder mehreren Teilgebieten der Informatik.
Neben dem Erwerb allgemeiner schul-pädagogischer und -psychologischer Kompetenzen wird für die fachdidaktische Qualifikation eine qualifizierte Beratung und Betreuung
im schulischen Umfeld als sinnvoll angesehen. Eine Erweiterung bestimmter fachlicher
Kenntnisse sollte unter dem Aspekt der Vermittlung im Unterricht erfolgen. Dies ist beispielsweise durch die Vorgabe von Impulsbeispielen und der anschließenden Anpassung
auf andere Inhalte und/oder Schülergruppen möglich.
4.2
Quereinsteiger in die Informatik – Ziel: Informatiklehrer
Diese Kolleginnen und Kollegen besitzen einen pädagogischen Abschluss und sind bereits im Schuldienst mit einer Lehrbefähigung in anderen Unterrichtsfächern tätig. Eine
Affinität“ zur Informatik und das Interesse am Lösen von Problemen mit Methoden der
”
Informatik sollte vorausgesetzt werden. Als nicht zwingend wird eine Lehrbefähigung in
Mathematik angesehen, um die Beziehung der informatischen Bildung für alle Wissenschaftsbereiche zu dokumentieren. Die Weiterbildung sollte in Form eines speziell auf diese Zielgruppe zugeschnittenen Studiengangs erfolgen, der anzustrebende Abschluss sollte
idealerweise das Staatsexamen sein. Die Studienorganisation sollte an die personalen und
schulischen Bedürfnisse angepasst sein. Von der Schulleitung und der Schulaufsicht wird
eine ideelle und materielle Anerkennung des Studiums als Teil der Berufsausübung erwartet.
4.3
Alle Lehrer im Schuldienst – Ziel: informatisch gebildete Lehrer
Informatik als Teil der Allgemeinbildung darf gerade die Gruppe der Lehrer aller Fächer
nicht ausnehmen. Auch unabhängig von einer Lehrbefähigung für dieses Fach sollte jeder
Kollege grundlegende Kompetenzen auf informatischem Gebiet besitzen. Die Überlegungen zum Umfang der Kompetenzaneignung lassen die Forderungen der Bildungsstandards
[GI08] als naheliegendes Kriterium erscheinen – gleichwohl bestehen Bedenken, ob wirklich alle Teile der Bildungsstandards für Lehrer gleichermaßen relevant sind. Gestützt werden diese Bedenken dadurch, dass auch Teile von Inhalten anderer Schulfächer weit nach
Abschluss der Schulzeit nicht von jedem – auch nicht von jedem Lehrer – beherrscht werden.
Eine offene Frage bleibt die Art und Weise der Qualifikation aller Kolleginnen und Kollegen. Neben der Überwindung subjektiver Widerstände bei den Lehrern ist zu klären,
wo und durch wen diese Weiterbildung erfolgen soll. Das Spektrum möglicher Antworten reicht von universitären Kursen bis zu Schulungen im Lehrerteam durch bereitwillige
Kolleginnen und Kollegen.
- 63 -
5
Informatik für alle Lehrer
Die Forderung nach informatischer Bildung für Studierende aller Lehrämter verschiedener
nicht-informatischer Fachrichtungen führt zunächst zur Diskussion, was computer literacy
für Lehrer umfasst. Auch hier ist naheliegend, sich auf die Forderungen der Bildungsstandards für die Klassen 5-10 [GI08] zu beziehen und unter computer literacy Grundkonzepte
der informatischen Bildung auf Basis der Bildungsstandards zu verstehen. Da derzeit nicht
davon ausgegangen werden kann, dass die geforderten Mindeststandards durch die Schule
erfüllt werden, und somit auch die Kolleginnen und Kollegen, die sich jetzt in der Ausbildung oder schon in der Schule befinden, diese geforderte Allgemeinbildung nicht besitzen,
müssen durch das Lehramtsstudium und Fortbildungen entsprechende Kompensationsleistungen erbracht werden.
Angestrebt wird eine exemplarische Aneignung von Kompetenzen, die den entsprechenden Fachrichtungen der Ausbildung (naturwissenschaftlich, geisteswissenschaftlich, künstlerisch-musisch bzw. sprachlich) zuzuordnen ist. Dabei muss kein unmittelbarer Unterrichts- oder Lehrplanbezug erfolgen. Die konkrete Umsetzung für das Unterrichtsfach
kann dann beispielsweise für die erste Phase innerhalb der Didaktikausbildung, für die
zweite Phase in den Seminaren zur Lehrerausbildung erfolgen. Diese Form der informatischen Bildung im Rahmen des Lehramtsstudiums soll aber nicht zum Unterricht im Fach
Informatik berechtigen. Die daraus resultierende Problematik der Inhalte für die Informatiklehrerausbildung führt wieder zur Thematik der ersten Arbeitsgruppe in Abschnitt 2
zurück.
6
Ausblick
Dieser Artikel entstand in Auswertung eines Workshops anlässlich der Infos 2009. Viele der hier genannten Darstellungen und Thesen bedürfen einer genauen Verifikation, es
existieren nur in Ansätzen verlässliche Daten zur Situation der Lehrerausbildung im Fach
Informatik. Hier besteht also großer Klärungsbedarf. Ebenfalls wird zu diskutieren sein,
inwieweit die vorliegende Bilanz und Agenda vollständig ist.
Es ist die Intention der Verfasser, mit dieser vorläufigen Bestandsaufnahme einen Diskussions- und Entwicklungsprozess anzuregen, der auf lange Sicht die Situation der Informatiklehrerausbildung verbessert. Dies kann z. B. durch die Veröffentlichung von BestPractice-Beispielen und (hochschul-)didaktische, empirische Forschung geschehen.
Außerdem sind viele der angeschnittenen Bereiche nicht fachspezifische Probleme der
Informatik, sondern struktureller Natur und in der Lehrerbildung allgemein verankert. Hier
ist zu klären, welche Teilbereiche informatikspezifisch sind, welchen Beitrag einerseits die
Erfahrungen aus anderen Fächern für uns leisten können und wo unsere Sicht umgekehrt
für die Lehrerbildung allgemein förderlich wäre.
- 64 -
Literatur
[Die09]
I. Diethelm: Informatische Bildung in Niedersachsen, Log In, 29(156), 2009.
[GI08]
Gesellschaft für Informatik (GI) e. V.: Grundsätze und Standards für die Informatik
in der Schule – Bildungsstandards Informatik für die Sekundarstufe I. In: LOG IN,
28(2008)150/151
[KMK08] Kultusministerkonferenz: Ländergemeinsame inhaltliche Anforderungen für
die Fachwissenschaften und Fachdidaktiken in der Lehrerbildung, http:
//www.kmk.org/fileadmin/veroeffentlichungen_beschluesse/
2008/2008_10_16-Fachprofile.pdf, 2008, zuletzt besucht: 30.06.2009
- 65 -
Teil 2
Forschung zu Aufgaben und Problemlösestrategien
Eine Studie zu den Merkmalen der Aufgabenschwierigkeit
am Beispiel eines Informatik-Schülerwettbewerbs
Zweiter Teil: Empirische Aufgabenanalyse
Kirsten Schlüter
Didaktik der Informatik
Universität Erlangen-Nürnberg
Martensstraße 3, 91058 Erlangen
[email protected]
Zusammenfassung: Als Fortsetzung einer Studie zu den Schwierigkeitsmerkmalen von Informatikaufgaben wird in diesem Artikel die empirische Aufgabenanalyse anhand der Bearbeitungsdaten eines Informatik-Schülerwettbewerbs für
die Sekundarstufe dargestellt. Die Wettbewerbsaufgaben wurden vorangehend bereits nach den vermuteten Kriterien der Aufgabenschwierigkeit klassifiziert. Auf
der Basis der Ergebnisse dieser Aufgabenklassifizierung (Teil 1) und der empirischen Analyse (Teil 2), die die Schwierigkeit und die Trennschärfe der Aufgaben
liefert, werden noch folgend die relevanten Schwierigkeitsmerkmale ausgewählt
und die Dimensionen des Kompetenzanspruchs untersucht (Teil 3).
1 Zielsetzung
Mit dem Ziel, den Kompetenzanspruch von Informatikaufgaben zu modellieren, wird
eine dreiteilige Studie durchgeführt, der die Teilnahmedaten des Online-Schülerwettbewerbs Informatik-Biber zu Grunde liegen. Zur Operationalisierung der spezifischen
Kompetenzanforderungen von Informatikaufgaben soll ein Kriterienschema entwickelt
werden, das es ermöglicht, Informatikaufgaben fundiert bezüglich ihrer Schwierigkeit
einzuschätzen und in ein Modell des Kompetenzanspruchs einzuordnen. Das Schema
soll sich an bewährten Taxonomien orientieren, auf den Aufgabenbestand anwendbar
und im Alltag, nicht nur in der didaktischen Forschung, handhabbar sein, damit eine
direkte Evaluation der Lernvoraussetzungen und Unterrichtserfolge im Schulfach Informatik durchgeführt werden kann. In diesem Artikel wird ausschließlich über den zweiten
Teil der Studie, die empirische Aufgabenanalyse, berichtet. Auf die bereits abgeschlossene Klassifizierung der Aufgaben nach den Kriterien und die geplanten statistischen
Analysen der Effekte der Aufgabenmerkmale und der Dimensionalität der Aufgabenschwierigkeit wird nur Bezug genommen, soweit es zur Einbettung der hier beschriebenen Untersuchungen erforderlich ist. Abbildung 1 zeigt die Arbeitsschritte der Studie
in einem Schaubild.
- 69 -
Teil 3
Theorie:
Merkmale der
Schwierigkeit
InformatikWettbewerb:
Aufgaben
Bearbeitung
der Aufgaben
durch Schüler
Erklärungsmodelle
Teil 1
Experteneinschätzung
Teil 2
Häufigkeiten
analysieren
Aufgabenklassifizierung
Personenparameter
Aufgabenparameter
•Relevante Merkmale
(Varianzanalyse)
•Prognose
(Regressionsanalyse)
•Dimensionen
(Faktorenanalyse)
•Diagnose
(Clusteranalyse)
Abbildung 1: Methodik
Teil 1
Im bereits abgeschlossenen ersten Teil wurde aufgrund von Experteneinschätzungen die
Klassifizierung der Wettbewerbsaufgaben nach charakterisierenden Merkmalen, die die
Schwierigkeit und damit die spezifischen Kompetenzanforderungen bestimmen, vorgenommen. Als Schwierigkeitskriterien wurden zehn Merkmale begründet und untersucht:
Inhaltsbereich, Erfahrungsweltnähe, Abstraktionsgrad, Komplexität, Formalisierungsgrad, Redundanz, Anforderungsbereich, Prozessbereich, kognitive Lernzielstufe und Art
des Wissens [Sc09] 1. Zu den abgedruckten Aufgabenbeispielen sind in den Bildunterschriften auch die Klassifizierungsergebnisse aufgeführt (Abbildungen 2, 6, 9 und 10).
Teil 2
In diesem Artikel wird über den zweiten Teil der Studie berichtet, die empirische Aufgabenanalyse, bei der anhand der anonymisierten Bearbeitungsresultate der 20.000 Schüler
und Schülerinnen der Sekundarstufe, die 2007 am Informatikwettbewerb teilgenommen
haben, Schwierigkeitsparameter der Aufgaben und Personenparameter der Teilnehmer
berechnet werden.
Teil 3
Erst im Abgleich der Teilstudienergebnisse, der Merkmalsklassifizierung (Teil 1) mit
den Aufgabenparametern (Teil 2), kann der Zusammenhang der Merkmale mit der Aufgabenschwierigkeit überprüft werden. Dieses wird erst im dritten Teil durchgeführt, in
dem Erklärungsmodelle betrachtet werden, die den Effekt der Schwierigkeitsmerkmale
beschreiben. Erfolgversprechend sind Varianzanalysen zur Beurteilung der Relevanz der
Merkmale, Faktorenanalysen zur Exploration der Dimensionalität des Kompetenzanspruchs, Regressionsanalysen zur Prognose der Aufgabenschwierigkeit, und schließlich
Clusteranalysen zur Abgrenzung homogener Schülergruppen.
1
Unter http://ddi.informatik.uni-erlangen.de/research/kompetenzmodell/ stehen die versendeten Unterlagen
sowie die Ergebnisse der Experteneinschätzung als Häufigkeitsverteilungen zur Verfügung.
- 70 -
2 Aufgabenanalyse: Datengrundlage
In der empirischen Aufgabenanalyse werden die Wettbewerbsaufgaben des OnlineSchülerwettbewerbs Informatik-Biber untersucht. Der Biber ist das Einstiegsangebot des
Bundeswettbewerbs Informatik, ein Projekt der Gesellschaft für Informatik (GI) und des
Fraunhofer-Verbunds IuK-Technologie, gefördert vom Bundesministerium für Bildung
und Forschung. Der Wettbewerb wird seit 2006 jährlich ausgerichtet und ist an Schüler
der Jahrgangsstufen 5 bis 13 adressiert. Die Aufgaben sind kurz und erfordern eine informatische Denkweise und Problembearbeitung, aber keine Vorkenntnisse in Informatik [Po09] 2. Abbildung 2 zeigt die Beispielaufgabe Binärbaum.
Der Wettbewerb wurde im Jahr 2007 in drei Altersgruppen durchgeführt: 5. bis 7., 8. bis
10., ab 11. Jahrgangsstufe. Jeder Altersgruppe lagen 15 der insgesamt 29 Aufgaben zur
Bearbeitung vor. Wie in Tabelle 1 angedeutet, wurde für jeden der 20.000 Teilnehmer je
Aufgabe erfasst, ob der Teilnehmer die Aufgabe korrekt (1) oder nicht korrekt gelöst (0)
oder nicht bearbeitet hat (-). Die Zeilensummen entsprechen der Anzahl gelöster Aufgaben und geben einen Hinweis auf die Fähigkeit eines Teilnehmers, die Wettbewerbsaufgaben zu lösen. Die Spaltensummen entsprechen der Anzahl der Teilnehmer, die eine
Aufgabe gelöst haben, und dienen als Ausgangswerte für die Schätzung der Aufgabenparameter Schwierigkeit und Trennschärfe aus den Wettbewerbsdaten.
Teilnehmer- JahrgangsID
stufe
1
5 bis 7
2
5 bis 7
3
8 bis 10
4
8 bis 10
5
ab 11
…
…
Spaltensumme
Aufgabe
1
1
1
1
0
…
13555
Aufgabe
2
0
1
0
0
…
6418
…
…
…
…
…
…
…
…
Aufgabe
15
0
0
0
1
1
…
11765
Zeilensumme
8
8
5
13
9
…
Tabelle 1: Datenauszug mit Zeilen- und Spaltensummen, Informatik-Biber 2007
Anzumerken ist, dass es sich bei dem Aufgabensatz nicht um einen psychometrischen
Test handelt, der nach den Regeln der klassischen oder probabilistischen Testtheorie
konstruiert wurde, wie etwa die Schulleistungsuntersuchungen der OECD PISA-Studie
[OE06]. Vielmehr ist der Informatik-Biber 2007 ein informeller Leistungstest, der nur
erlaubt, die Teilnehmer bezüglich ihrer Testergebnisses zu vergleichen. Sollen weitergehende Rückschlüsse auf Eigenschaften und Fähigkeiten der Teilnehmer gezogen werden,
ist der Aufgabensatz auf Reliabilität und Validität zu überprüfen, sowie Durchführung
und Auswertung des Wettbewerbs auf ihre Objektivität. Die Fragestellung dieser Studie
betrifft aber zunächst nicht die Wettbewerbsteilnehmer, sondern die Aufgaben. Welche
Merkmale sind es, die ihre Schwierigkeit beeinflussen und wie wirken sie zusammen?
Die Beantwortung erfordert zum einen die aus dem ersten Teil bereits vorliegende Klassifizierung der Aufgaben nach den postulierten Schwierigkeitsmerkmalen [Sc09] und
2
Die Webseite des Informatik-Bibers ist unter http://www.informatik-biber.de zu finden. Im Archiv stehen die
Aufgaben der Wettbewerbe 2007 bis 2009 zur Verfügung.
- 71 -
zum anderen die hier beschriebene Analyse der Aufgaben im Hinblick auf Aufgabenparameter wie Schwierigkeit und Trennschärfe. Erst wenn die Teilergebnisse zusammengeführt und Effekte der Merkmale nachgewiesen wurden, richtet sich das Augenmerk auf die individuellen Wettbewerbsprofile der Teilnehmer.
Dies ist ein Beispiel für einen Binärbaum. Ein Binärbaum hat eine Wurzel
(die ist oben – hier „A“), von der maximal zwei Äste abgehen. Am Ende
eines Astes ist immer genau ein Knoten (hier „B“ bis „G“). Von jedem
Knoten gehen wiederum maximal zwei Äste ab. Der Binärbaum rechts
wird auch durch folgende Zeichenkette beschrieben:
(A(B(C))(D(E(F))(G)))
A
B
C
D
E
G
F
Welcher der unten gezeigten Binärbäume wird durch folgende Zeichenkette beschrieben?
(
A)
(
)(
(
)(
)) )
B)
C)
D)
Abbildung 2: Aufgabe Binärbaum, Informatik-Biber 2007, Jahrgangsstufe 8 bis 10. Inhaltsbereich
Information und Daten (Graphen), erfahrungsweltfern, konkret, mittel komplex, formal, nicht
redundant, Anforderungsbereich Anwendung, Prozessbereich Darstellen und Interpretieren, Lernzielstufen Anwenden und Analysieren, Wissensart Konzepte.
3 Aufgabenanalyse: Kennzahlen
Unter der Schwierigkeit einer Aufgabe soll die empirische Schwierigkeit verstanden
werden, das ist der Anteil der Personen, die die Aufgabe korrekt lösen. Unter der Trennschärfe soll der Grad verstanden werden, in dem eine Aufgabe zwischen den Testpersonen differenziert, das heißt, Personen mit hoher Leistung im Gesamttest lösen die
Aufgabe deutlich öfter als Personen mit geringer Gesamtleistung. Während die Aufgabenschwierigkeit als Zielvariable in die statistischen Analysen eingeht, dient die
Trennschärfe als Maß für die Aufgabengüte und als Kriterium, welche Aufgaben in die
Interpretation der statistischen Ergebnisse einbezogen werden.
3.1 Aufgabenschwierigkeit
Der einfachste Schwierigkeitsindex ist der prozentuale Anteil der Personen, die eine
Aufgabe lösen, P = NR / N * 100 (NR ist die Anzahl der Personen, die die betreffende
Aufgabe gelöst haben – das ist die Spaltensumme in Tabelle 1. N ist die Anzahl der Personen, denen die Aufgabe vorlag). Hier wird zur Messung der Aufgabenschwierigkeit
ein Schwierigkeitsindex mit Inangriffnahmekorrektur verwendet, PIK = NR / NB * 100
(NR wie oben, NB ist die Anzahl der Personen, die die betreffende Aufgabe bearbeitet
haben [Bü06]). Die Variante mit zusätzlicher Inangriffnahmekorrektur, die berücksich-
- 72 -
tigt wie viele Personen eine Aufgabe tatsächlich bearbeitet haben, wurde wegen der
guten Passung zur Fragestellung gewählt. Systematische Vergleiche beider Varianten
und weiterer Indizes ergaben nur geringfügige und regelmäßige Verschiebungen der
Schwierigkeitswerte. In Tabelle 2 sind die Schwierigkeitswerte (Index) und deren Unterschiede zwischen den Jahrgangsstufen (Differenz) sowie die Trennschärfen (Koeffizient,
siehe Kapitel 3.2) vollständig aufgelistet.
Kennzahl:
Jahrgangsstufe:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
Biber am Fluss
Biber und Bisons
Bibers Geheimcode
Biberzahlen
Binärbaum
Computervirus
Dateisuche
Dino-Ordnung
Endlos-Schleife
Falschgeld
Fenster schließen
Labyrinth
Link
Links um!
Morse-Code
Netzwerkkabel
Platzwechsel
POP und PUSH
Primärschlüssel
Private E-Mail
Schnitzeljagd
Sicheres Passwort
Umparken
Ungeschützter PC
Verschlüsselung
Verwandlung
Wertetausch
Wetter
Zahlenreihe
Mittelwert:
Standardabweichung:
Index der
Schwierigkeit (%)
5-7 8-10 11+
(I)
(II) (III)
84,3
69,7 79,3
39,9 56,1
30,1 46,3
59,6
55,5 67,3 77,8
47,5
20,0
47,7 66,1
39,1 58,7
92,9
48,9
77,4
68,8
25,7
51,4 67,3
82,4
51,7
31,7 50,6
47,4
35,3 42,4 57,4
69,5 68,9
62,5 77,2
21,7
24,7
31,5 39,4
43,4
35,9
23,9
33,5 46,9
54,3 51,1 51,5
24,5 15,0 16,7
Differenz
(Δ Index)
Koeffizient der
Trennschärfe (%)
5-7 8-10 11+
I, II II, III
(I)
(II) (III)
46,5
9,6
39,4 36,9
16,2
49,7 48,8
16,2
40,8 46,8
46,0
11,8 10,5 42,5 38,4 35,4
43,8
42,7
18,4
39,6 46,8
19,6
43,6 51,6
37,2
36,7
47,4
51,4
39,1
15,9
50,4 48,4
46,2
48,0
18,9
37,1 45,6
39,9
7,1 15,0 39,0 47,5 46,9
-0,6
38,9 28,4
14,7
52,7 49,1
Δ I, III: 3,0 26,7
27,1
7,9
36,4 35,7
51,5
46,5
34,9
13,4
47,5 47,6
10,4 14,7 43,2 42,2 24,9
6,2
4,3
6,9
6,1
7,2
Tabelle 2: Aufgabenkennzahlen. In den Jahrgangsstufen 5-7, 8-10, 11+ wurden jeweils 15 der
insgesamt 29 Wettbewerbsaufgaben gestellt. Der Schwierigkeitsindex bezieht sich auf die Stufe,
so dass es für mehrfach verwendete Aufgaben mehrere Schwierigkeitswerte gibt.
- 73 -
Zur übersichtlichen Darstellung in allen folgenden Diagrammen können die Aufgaben
nach der Schwierigkeit in den Jahrgangsstufen geordnet werden. Die Werte reichen von
20 % für Dino-Ordnung (d. h. 20 % korrekte Lösungen, also vergleichsweise schwierig)
bis 92,9 % für Fenster schließen (d. h. 92,9 % korrekte Lösungen, also eine sehr leichte
Aufgabe). Werden die stufenübergreifend gestellten Aufgaben zur Verankerung genutzt,
gelingt es bis auf wenige Konflikte sogar, eine gemeinsame Ordnung aller Aufgaben
herzustellen. Abbildung 3 zeigt die geordneten Schwierigkeitswerte aller Aufgaben,
mehrfach verwendete Aufgaben werden durch verbundene Punkte dargestellt.
Abbildung 3: Anordnung der Aufgaben nach ihrer Schwierigkeit in der Stufe 5-7.
Konflikte ergeben sich nur vereinzelt bei Aufgaben, deren Schwierigkeitsunterschied
zwischen den Jahrgangsstufen um mehr als eine Standardabweichung von der mittleren
Differenz abweicht (Δ I/II, Δ II/III, Tabelle 2). So verletzt die Einordnung der Aufgabe
Schnitzeljagd (Abbildung 10) gemäß Index I die Ordnung in den Stufen II und III. Solchen Aufgaben kommt besondere Aufmerksamkeit zu, weil sie Anhaltspunkte liefern,
welche Merkmale die Aufgabenschwierigkeit in einer Altersgruppe beeinflussen.
3.2 Trennschärfe
Mögliche Maße für die Trennschärfe von Aufgaben sind der Korrelationskoeffizient
zwischen Aufgabenergebnis und Gesamttestergebnis (z. B. Punkt-biseriale Korrelation
[BD05], Korrigierte Item-Skala-Interkorrelation [Bü06]) oder die Schwierigkeitsdifferenz zwischen den beiden Extremgruppen, den 25 % besten und den 25 % schlechtesten
Testteilnehmern (z. B. Index of Discrimination [EF91]). Die Trennschärfe bemisst also,
in welchem Grad die Aufgabe den Gesamttest repräsentiert. Eine trennscharfe Aufgabe
wird häufiger von im Testsinne guten Schülern korrekt gelöst als von schlechten.
- 74 -
Vergleiche verschiedener Trennschärfe-Kennzahlen ergaben für die Wettbewerbsaufgaben lediglich Verhältnisunterschiede, keine Rangunterschiede. Für die Studie wurde
die Korrelation zwischen dem Aufgabenergebnis und dem Personenparameter „Anzahl
gelöster Aufgaben“ gewählt – das ist die Zeilensumme in Tabelle 1. Der Vorteil des
Korrelationskoeffizienten besteht darin, dass die Variable, die als Testergebnis herangezogen wird, mit geringem Aufwand durch alternative Variablen ersetzt werden kann,
etwa durch die Punktzahl, die im Wettbewerb vergeben wurde, und die auf theoretischen
Schwierigkeitseinschätzungen der Aufgabensteller beruht. In Tabelle 2 sind neben den
Schwierigkeitswerten die Trennschärfe-Koeffizienten aller Aufgaben aufgelistet.
Die Diagramme in Abbildung 4 vermitteln einen Überblick über die Schwierigkeit und
Trennschärfe der Aufgaben in den drei Altersgruppen. Die Schwierigkeit der Aufgaben
(schwarz durchgezogene Linie) streut in der ersten Gruppe am stärksten, von 20 % bis
92,9 %, in den anderen beiden Gruppen nur von 30,1 % bis 77,2 % beziehungsweise von
25,7 % bis 79,3 %, siehe auch Tabelle 2. Erwartungsgemäß weisen Aufgaben mittlerer
Schwierigkeit höhere Trennschärfen auf als leichte und schwierige Aufgaben, die von
allzu vielen Personen beziehungsweise nur von sehr wenigen Personen gelöst werden.
Dies wird durch den Discrimination-Index (grau gestrichelte Linie) stärker betont als
durch den Trennschärfe-Koeffizienten (schwarz gepunktete Linie). Korrelationstypisch
gelten Werte im Bereich von 30 % bis 50 % (graue Bezugslinie) als mittlere, oberhalb
davon als hohe Trennschärfen.
Abbildung 4: Schwierigkeitsindex (schwarz durchgezogene Linie), Trennschärfekoeffizient
(schwarz gepunktet), Index of Discrimination (grau gestrichelt), 50 %-Bezugslinie (grau).
3.3 Ergebnisse
Das Hauptergebnis der Aufgabenanalyse ist die empirische Schwierigkeit, Index I-III in
Tabelle 2, die als Aufgabenparameter für die Berechnung der statistischen Erklärungsmodelle benötigt wird. Die Kennzahlen erschließen darüber hinaus bei geeigneter Darstellung das Aufgabenmaterial. Mit ihrer Hilfe lassen sich Aufgaben identifizieren, die
zur Interpretation der statistischen Resultate beitragen. Das können die schwierigen
Aufgaben sein, deren Merkmalsprofile eventuell Auffälligkeiten zeigen. Das können
auch die Aufgaben sein, deren Schwierigkeitsentwicklung zwischen den Jahrgangsstufen
Unregelmäßigkeiten aufweist. Und das können die Aufgaben mit hoher Trennschärfe
sein, deren Anforderungsprofile die im Wettbewerb erfolgreichen Schüler besonders
deutlich von den anderen Teilnehmern unterscheiden.
- 75 -
In den folgenden Streudiagrammen werden Aufgabenschwierigkeit und Trennschärfe der
Wettbewerbsaufgaben miteinander verknüpft. Die Symbole enthalten die Information, in
welchen der drei Altersgruppen eine Aufgabe verwendet wurde. Die „Verwendung“
zeigt lediglich an, ob die Datenlage einen stufenübergreifenden Vergleich ermöglicht.
Sie ist nicht als Aufgabenmerkmal „Eignung“ zu verstehen, weil eine Aufgabe nicht
unbedingt in jeder Altersgruppe verwendet wurde, für die sie geeignet erscheint (Abbildungen 5, 7 und 8).
Abbildung 5: Aufgabenkennzahlen für die Gruppe I, Jahrgangsstufe 5-7
In der Altersgruppe I, 5. bis 7. Jahrgangsstufe, fällt auf dass beide Aufgaben zum Thema
Logisches Schließen, Dino-Ordnung und Wetter (Abbildung 6) einen besonders hohen
Schwierigkeitsgrad aufweisen. Es stellt sich die Frage, inwieweit diese Schwierigkeit
durch den Inhaltsbereich, Schlussfolgern, erzeugt wird.
Angenommen, das Wetter folge der Regel:
“Wenn an einem Tag die Sonne scheint, dann scheint auch am
folgenden Tag die Sonne.”
Wenn heute die Sonne scheint, was kannst du daraus folgern?
A) Die Sonne schien bisher jeden Tag und
wird auch jeden weiteren Tag scheinen.
B) Gestern schien die Sonne.
C) Die Sonne wird nie wieder scheinen.
D) Von heute an wird jeden Tag die Sonne
scheinen.
Abbildung 6: Aufgabe Wetter, Informatik-Biber 2007, 5. bis 7. Jahrgangsstufe. Inhaltsbereich
Automaten und Sprachen (Logisches Schließen als formales Kalkül), erfahrungsweltnah, konkret,
einfach, informell, nicht redundant, Anforderungsbereich Anwendung, Prozessbereiche Begründen
und Bewerten sowie Strukturieren und Vernetzen, Lernzielstufen Verstehen und Anwenden, Wissensart Konzepte.
- 76 -
Abbildung 7: Aufgabenkennzahlen für die Gruppe II, Jahrgangsstufe 8-10
Ebenso besitzt die Aufgabe Ungeschützter Computer einen hohen Schwierigkeitsgrad, in
der Gruppe I wie auch in der Gruppe III, ab 11. Jahrgangsstufe. Da Anwenderwissen
erfragt wird, das in der 11. Jahrgangsstufe auch ohne schulischen Informatikunterricht
vorhanden sein sollte, wird vermutet, dass die Schwierigkeit auf Gründe zurückgeht, die
nicht Bestandteil dieser Untersuchung sind, etwa die missverständliche Formulierung der
Antwortalternativen. Aufgaben wie diese werden mit entsprechendem Vorbehalt in den
Analysen berücksichtigt.
Abbildung 8: Aufgabenkennzahlen für die Gruppe III, Jahrgangsstufe 11+
Der Themenbereich Codierung stellt einige der schwierigsten Aufgaben in den Gruppen
II und III, Biberzahlen und Verschlüsselung in der Jahrgangsstufe 8-10, Morse-Code in
der Stufe 11+. Das gibt Anlass, die Aufgaben aus diesem Bereich auf spezifische
Schwierigkeitsmerkmale zu untersuchen.
- 77 -
Umparken, mit dem Inhalt Datenstrukturen, und Links um!, aus dem Bereich Algorithmen (Abbildung 9), sind die trennschärfsten Aufgaben in der Gruppe I. Umparken wurde
auch in der Altersgruppe II gestellt, wiederum mit hoher Trennschärfe, aber mit geringer
Schwierigkeit. Ähnlich verhält es sich mit der Aufgabe Netzwerkkabel, Thema Graphen.
Sie weist die höchste Trennschärfe in Stufe II auf und rangiert auch in Stufe III unter den
Aufgaben mit guter Trennschärfe, bei geringerer Schwierigkeit. Die höchste Trennschärfe besitzt in Stufe III ebenfalls eine Graphen-Aufgabe, Verwandlung, neben einer
Algorithmen-Aufgabe, Falschgeld.
Du hast einen Spielzeugroboter, der folgende Befehle auf Zuruf ausführen kann:
Befehl
Vor!
Rechts!
Bedeutung
Der Roboter fährt 10 cm nach vorne.
Der Roboter dreht sich nach rechts (um 90 Grad, also einen Viertelkreis).
Du möchtest nun den Roboter so bewegen, dass er am Ende um 90 Grad (einen Viertelkreis)
nach links gedreht ist.
Mit welcher Befehlsfolge kannst du das erreichen?
A) Vor! Vor!
B) Rechts! Rechts!
C) Rechts! Rechts! Rechts!
D) Vor! Rechts! Vor!
Abbildung 9: Aufgabe Links um!, Informatik-Biber 2007, Jahrgangsstufe 5-7. Inhaltsbereich Algorithmen, mittel entfernt von der Erfahrungswelt, konkret, einfach, informell, nicht redundant,
Anforderungsbereich Anwendung, Prozessbereich Modellieren und Implementieren, Lernzielstufe
Anwenden. Die Wissensart konnte nicht übereinstimmend zugeordnet werden.
Die Aufgaben Computervirus, zum Thema Benutzerverhalten, und Schnitzeljagd, zum
Thema Automaten (Abbildung 10), wurden in allen drei Altersgruppen eingesetzt und
erwiesen sich als exemplarische Aufgaben mittlerer Schwierigkeit, die in der untersten
Jahrgangsstufe am schwierigsten, in der oberen Jahrgangsstufe am leichtesten gelöst
werden, und deren Trennschärfe im mittleren Schwierigkeitsbereich am deutlichsten
ausgeprägt ist.
Auf seinem Weg vom Start zum Ziel folgt Florian den Pfeilen, beliebig lange. Jedes Mal, wenn er
einen Pfeil entlang gegangen ist, sammelt er den zugehörigen Buchstaben ein. Und verlängert
damit eine Kette der gesammelten Buchstaben. Bei einigen Pfeilen kann er keinen Buchstaben
einsammeln.
b
a
Welche der folgenden Buchstabenketten
1
2
kann Florian auf seinem Weg vom Start
a
START
b
zum Ziel nicht einsammeln?
a
ZIEL
A) abaabba
C) abaaab
3
4
B) ba
D) aab
b
a
Abbildung 10: Aufgabe Schnitzeljagd, Informatik-Biber 2007, Jahrgangsstufen 5-7, 8-10, ab 11.
Inhaltsbereich Sprachen und Automaten, erfahrungsweltfern, konkret, mittel komplex, formal,
nicht redundant, Anforderungsbereich Anwendung, Lernzielstufen Anwenden und Analysieren,
Wissensart Prozeduren. Der Prozessbereich konnte nicht übereinstimmend zugeordnet werden.
- 78 -
3 Ausblick
Die 29 Wettbewerbsaufgaben wurden anhand der Bearbeitungsdaten von 20.000 Teilnehmern auf ihre Schwierigkeit und Trennschärfe untersucht. Diese Aufgabenparameter
sowie Personenparameter, wie Anzahl und Merkmalsausprägung der gelösten Aufgaben,
bilden gemeinsam mit der Aufgabenklassifizierung aus dem ersten Teil die nun vervollständigte Ausgangsbasis für den nächsten Schritt, die Erklärung des Kompetenzanspruchs durch charakteristische Aufgabenmerkmale. Dazu sind statistische Analysen zur
Prüfung verschiedener Erklärungsmodelle geplant, zum Beispiel Regressionsanalysen,
um die Aufgabenschwierigkeit aus den Kriterien vorherzusagen.
Einen rechnerischen Hinweis darauf, dass das durch die Aufgabenschwierigkeit erfasste
Konstrukt nicht eindimensional ist, liefert die geringe Homogenität der Aufgaben: die
Item-Interkorrelation beträgt in allen Altersgruppen weniger als 20 %. Weitere Untersuchungen zur Dimensionalität sind erforderlich und werden im abschließenden dritten
Teil der Studie durchgeführt. Es wird erwartet, mittels Faktorenanalysen eine mehrdimensionale Struktur der Aufgabenschwierigkeit und damit des Kompetenzanspruchs
herausarbeiten zu können.
In die erste, visuelle Bestandsaufnahme der Aufgabenkennzahlen Schwierigkeit und
Trennschärfe wurde bereits der Inhaltsbereich informell mit einbezogen. Das Merkmal
Inhaltsbereich und die weiteren Aufgabenmerkmale Erfahrungsweltnähe, Abstraktionsgrad, Komplexität, Formalisierungsgrad, Redundanz, Anforderungsbereich, Prozessbereich, kognitive Lernzielstufe und Art des Wissens gehen systematisch in die Analyse
und Interpretation der Ergebnisse ein.
In dem Fall dass die Faktorenanalyse nicht zu den gewünschten Faktoren führt, die als
Dimensionen des Merkmalsraums interpretierbar sind, ist ein weiterer erfolgversprechender Ansatz zur Exploration des Schwierigkeitsgefüges, die Schülerinnen und
Schüler mittels Clusteranalysen zu „ähnlichen“ Gruppen zusammenzufassen. Dabei
bedeutet „ähnlich“, die Schüler haben Aufgaben gleichen Schwierigkeitsgrades bzw.
Aufgaben mit den gleichen Schwierigkeitsmerkmalen gleich gut gelöst oder nicht gelöst.
Von Interesse ist, ob typische Merkmalsprofile identifiziert werden können.
Weitere Indizien zur Interpretation können aus den Ergebnissen der Informatik-BiberWettbewerbe 2008 und 2009 gewonnen werden, die mittlerweile vorliegen. Einige Aufgaben aus 2007 wurden wieder verwendet, gegebenenfalls in anderen Altersgruppen,
etwa die Aufgabe Wetter, die 2007 in Stufe 5-7 als besonders schwierig auffiel und 2008
in Stufe 11+ erneut gestellt wurde.
Danksagung
Vielen Dank an Dr. Wolfgang Pohl, Geschäftsführer des Bundeswettbewerbs Informatik,
für die freundliche Erlaubnis, die anonymisierten Wettbewerbsdaten des InformatikBibers 2007 für die Studie zu verwenden.
- 79 -
Literaturverzeichnis
[BD05] Bortz, J.; Döring, N.: Forschungsmethoden und Evaluation. Springer Medizin Verlag,
Heidelberg, 2005.
[Bü06] Bühner, M: Einführung in die Test- und Fragebogenkonstruktion. Pearson Studium,
München, 2006.
[EF91] Ebel, R. L.; Frisbie, D. A.: Essentials of Educational Measurement. Prentice Hall, Englewood Cliffs, N. J., 1991.
[OE06] (OECD Hrsg.): Assessing Scientific, Reading and Mathematical Literacy. A Framework
for PISA 2006. OECDpublishing, 2006; ISBN 978-92-64-02639-1.
[Po09] Pohl, W. et al.: Informatik-Biber: Informatik-Einstieg und mehr. In (Koerber, B. Hrsg.):
Zukunft braucht Herkunft. 25 Jahre „INFOS – Informatik und Schule“. 13. GIFachtagung Informatik und Schule 2009 in Berlin. Bonn, Köllen, 2009; S. 38-49
[Sc08] Schlüter, K.: Eine Studie zu den Merkmalen der Aufgabenschwierigkeit am Beispiel
eines Informatik-Schülerwettbewerbs. Erster Teil: Aufgabenklassifizierung. In (Koerber,
B. Hrsg.): Zukunft braucht Herkunft. 25 Jahre „INFOS – Informatik und Schule“. 13.
GI-Fachtagung Informatik und Schule 2009 in Berlin. Bonn, Köllen, 2009; S. 181-192.
- 80 -
Aufgaben der ersten Runde des Bundeswettbewerbs Informatik –
Kontinuität und Wandel
Gabor Meißner
Abteilung für Didaktik
Fakultät für Mathematik und Informatik
Friedrich-Schiller-Universität Jena
Ernst-Abbe-Platz 2
07743 Jena
[email protected]
Abstract: Seit 1985 werden innerhalb der ersten Runde des Bundeswettbewerbs
Informatik Aufgaben gestellt, die Schülerinnen und Schüler für die Informatik
motivieren sollen. Manche charakteristische Eigenschaften der Aufgaben sind in
den vergangenen 25 Jahren praktisch unverändert. Es sind jedoch auch
Wandlungen festzustellen, die auf die Entwicklung des Unterrichtsfachs
Informatik an allgemeinbildenden Schulen reagieren und die die Anwendungsnähe
erhöhen.
1 Einleitung
Seit 25 Jahren wird der Bundeswettbewerb Informatik als Aufgabenwettbewerb
durchgeführt [Po05]. Aus diesem Anlass sollen im folgenden Beitrag die Aufgaben1 der
ersten Runde des Wettbewerbs genauer betrachtet werden. Dabei wird insbesondere der
Frage nachgegangen, welche Änderungen sich im Laufe der vergangenen 25 Jahre
ergeben haben. Untersucht werden die Aufgabeninhalte, die Methoden, die zur Lösung
der Aufgaben notwendig sind, sowie die Offenheit der Aufgaben. In diesem Beitrag wird
also die „Aufgabenkultur“ und nicht der Schwierigkeitsgrad der Aufgaben analysiert2.
Der Bundeswettbewerb Informatik hat sich zum Ziel gesetzt hat, Jugendliche zu fördern,
die Computer nicht nur bedienen, sondern auch beherrschen wollen [BI10]. Der
Bundeswettbewerb will also der Tatsache Rechnung tragen, dass junge Menschen zwar
Informatiksysteme als alltägliche Werkzeuge verwenden, aber häufig nicht verstehen,
wie diese Werkzeuge funktionieren, wie sie zu verändern und wie zu konstruieren sind.
Der Wettbewerb bietet Aufgaben an, die einen Blick auf die Funktionsweise von
Informatiksystemen ermöglichen, damit diese auch beherrscht werden können. Für die
Entwicklung der Aufgaben und die Festlegung des Bewertungsverfahrens ist ein
1
Die Probleme, die im Bundeswettbewerb Informatik gestellt werden, werden von deren Autoren als Aufgaben
bezeichnet. Dieser Bezeichnung schließt sich der Autor des Artikels an. Aufgrund des häufigen
Vorhandenseins von Barrieren, die eine routinemäßige Lösung verhindern, und wegen der Komplexität der
meisten Aufgaben könnten diese aber in Anlehnung an [Dö87] auch als Probleme bezeichnet werden.
2
Zur Untersuchung der Schwierigkeit von Aufgaben vgl. eine Arbeit von Schlüter [Sc09].
- 81 -
Aufgabenausschuss verantwortlich, der zurzeit von Peter Rossmanith (RWTH Aachen)
geleitet wird.
2 Vorgehen
Bei der Analyse werden alle 126 Aufgaben3 der ersten Runden von 1985 bis 2009
betrachtet. Die Aufgaben richten sich vor allem an Schülerinnen und Schüler der
Sekundarstufe II. Zum Wettbewerb sind jedoch auch jüngere Teilnehmer zugelassen.
Die Aufgabeninhalte und Methoden werden unter Heranziehung der Inhalts- und
Prozessbereiche der Empfehlungen der Gesellschaft für Informatik über Grundsätze und
Standards für die Informatik in der Schule [GI08] analysiert. Die GI-Empfehlungen
beziehen sich auf die Sekundarstufe I. Die Inhalts- und Prozessbereiche der GIEmpfehlungen können jedoch auch zur Strukturierung der Kompetenzen von
Bildungsstandards Informatik für die Sekundarstufe II genutzt werden [Fo08]. Für die
Einordnung einer Aufgabe und eines Kompetenzbereichs wird nachfolgend eine
vierstufige Skala genutzt. Hat der Bereich keine Bedeutung für die Aufgabe und deren
Lösung, so wird ihm eine 0 zugerechnet. Ist der Bereich von untergeordneter Bedeutung,
etwa nur in einer Programmausgabe (die stets Kompetenzen zur sachgerechten
Darstellung einer Lösung erfordert), wird die Aufgabe in Stufe 1 eingeordnet. Ist der
Bereich von größerer Bedeutung, wird die Stufe 2 verwendet. Das ist etwa dann der Fall,
wenn sich eine Aufgabe mit Kenntnissen und Fähigkeiten aus einem bestimmten
Bereich lösen lässt, es aber auch Möglichkeiten gibt, die Aufgabe ohne Kompetenzen
aus diesem Bereich zu bearbeiten. Eine Aufgabe wird einem Bereich mit der Stufe 3
zugeordnet, wenn es zwingend nötig ist, Kompetenzen aus diesem Bereich für die
Lösung der Aufgabe zu nutzen.
Der Prozessbereich Kommunizieren und Kooperieren ist immer dann von Bedeutung,
wenn Probleme im Team gelöst werden und dabei sachgerechte und angemessene
Kommunikation sowie Kooperation stattfinden und gemeinsame Entscheidungen zur
Lösung der Aufgabe auf Basis von informatischen Kompetenzen getroffen werden. Die
Aufgaben der ersten Runde des Bundeswettbewerbs Informatik können allein oder im
Team bearbeitet werden. Falls eine Bearbeitung im Team stattfindet, so wird der
Prozessbereich Kommunikation und Kooperation berührt. Zwingend ist Teamarbeit
jedoch nicht, so dass der Prozessbereich nachfolgend nicht weiter beachtet wird.
Eine Aufgabe kann als offen bzw. als geschlossen charakterisiert werden. Für die
Einordnung einer Aufgabe und eines Merkmals der Aufgabenoffenheit wird eine
dreistufige Skala verwendet. Merkmale geschlossener Aufgaben sind, dass bereits in der
Aufgabenstellung ein Lösungsweg vorgegeben wird oder dass es nur einen oder
höchstens wenige Lösungswege gibt. Bei offenen Aufgaben hingegen muss ein
Lösungsweg vom Wettbewerbsteilnehmer selbst erarbeitet oder zumindest gewählt
werden. Nachfolgend soll nach der Anzahl der verschiedenen Lösungswege (wenige,
einige oder viele) und nach der Art der Vorformulierung von Lösungsideen in der
3
Seit dem 23. Wettbewerb werden zusätzlich Junioraufgaben gestellt, die in dieser Arbeit allerdings nicht
analysiert werden.
- 82 -
Aufgabenstellung (explizit, implizit oder nicht vorgegeben) unterschieden werden.
Offene Aufgaben zeichnen sich auch dadurch aus, dass in der Aufgabenstellung nur
wenig Gegebenes und Gesuchtes explizit angegeben ist, sondern dass dies offen gelassen
wird [Dö87]. Ein weiteres Merkmal einer offenen Aufgabe ist das Vorhandensein einer
Barriere, die es der Wettbewerbsteilnehmerin oder dem Wettbewerbsteilnehmer
unmöglich macht, Standardverfahren anzuwenden. Stattdessen sind zahlreiche
Kombinationen bekannter Methoden oder neue Operationen erforderlich [Kl71].
Unter Modellierung ist in der folgenden Analyse der Aufgaben zu verstehen, dass ein
Modell in informatischer Notation und mit informatischen Methoden nachgebildet oder
konstruiert wird. Die Implementierung ist die Umsetzung des Modells in ein für den
Computer verständliches Konstrukt [Hu07].
Beim Modellieren kann entweder ein System (aus der Realität) durch eine vereinfachte
struktur- und verhaltenstreue Beschreibung eines realen Systems [Ba96] nachgebildet
oder ein hypothetisches (geplantes) Modell geschaffen werden [Hu07]. Modelle, die auf
Beschreibungen realer Systeme beruhen, werden in diesem Beitrag deskriptiv genannt.
Modelle, die Beschreibungen geplanter Systeme sind, werden als normativ bezeichnet.
Bei der Einschätzung von Aufgaben wird zwischen deskriptiver und normativer
Modellierung unterschieden. Deskriptives Modellieren erfordert vergleichsweise wenige
Entscheidungen; diese betreffen insbesondere die Auswahl von vorgegebenen
Modelleigenschaften. Normatives Modellieren erfordert hingegen vielfältigere
Entscheidungen; bei der Analyse von Aufgaben wird daher nach der Anzahl der
normativen Entscheidungen unterschieden („leicht normativ“ bzw. „stark normativ“).
Ein Beispiel für stark normative Entscheidungen ist eine gezielte Kundenwerbung, die
von Online-Versandhändlern durchgeführt wird und die auf Daten basiert, die der
Versandhändler über seine Kunden gespeichert hat (z. B. zu bisher gesichteten oder
gekauften Artikeln). Wegen der Vielzahl an Daten erfolgt eine Gewichtung der
Kriterien.
Dimension der
Offenheit
Anzahl der
Lösungswege
Vorgabe der
Lösungswege
Normativität
Stufe 0
Stufe 1
Stufe 2
wenige
einige
viele
explizit vorgegeben
implizit vorgegeben
nicht vorgegeben
deskriptiv, nicht
leicht normativ
stark normativ
normativ
Tabelle 1: Die betrachteten Dimensionen der Offenheit einer Aufgabe.
Die Merkmale der Aufgaben im Bundeswettbewerb Informatik werden mit einer
Ordinalskala ausgewertet, weil die Abstände zwischen den einzelnen Ausprägungen
nicht ohne weitere Untersuchungen als gleich angenommen werden können [We00].
Aufgaben, die aus mehreren Teilaufgaben bestehen, werden nur einmal bewertet. Der
- 83 -
Aufgabe als Ganzes werden alle relevanten Prozess- und Inhaltsbereiche zugeordnet4.
Die Analyse der Aufgaben wurde in zwei unabhängingen Durchläufen mit einem
zeitlichen Abstand von zwei Wochen vorgenommen. Wenn sich zwischen den
Durchläufen Unterschiede bei der Bewertung einer Aufgabe ergeben haben, wurde eine
weitere Analyse vorgenommen.
3 Charakterisierung der Aufgabe „Bunte Reihe“
Die Aufgabe „Bunte Reihe“ wurde im 15. Bundeswettbewerb 1996/ 97 gestellt [BI]. Sie
lautet wie folgt:
Ein Schiff soll mit Wimpeln geschmückt werden. Wir haben eine
bestimmte Anzahl verschiedener Farben und von jeder Farbe eine
bestimmte Anzahl von Wimpeln. Die Wimpel sollen so aufgehängt
werden, dass keine zwei benachbarten Wimpel dieselbe Farbe haben.
Aufgabe:
Lies zunächst die Anzahl verschiedener Farben und die Namen der Farben
ein und dann für jede Farbe die entsprechende Anzahl von Wimpeln. Gib
dann alle Möglichkeiten aus, wie die Wimpel entsprechend der Vorschrift
aufgehängt werden können. Falls es mehr als 10 Möglichkeiten gibt, gib
nur die Anzahl der Lösungen und drei Wimpelfolgen aus.
Neben der Entwicklung des eigentlichen Programms werden meist eine verbale
Beschreibung der Lösungsidee, eine Dokumentation und in der Regel auch
dokumentierte Ergebnisse von vorgegebenen oder selbstzuwählenden Testbeispielen
gefordert. Bei dieser Aufgabe waren Testfälle vorgegeben. Die Aufgabe kann in die
Inhaltsbereiche Daten und Information, Algorithmen sowie Automaten und Sprachen
eingeordnet werden. Der Inhaltsbereich Informatiksysteme ist nicht von Bedeutung, da
kein Verständnis über das Zusammenspiel der Komponenten Software, Hardware und
Netze notwendig ist. Es werden auch keine Kompetenzen zu Wechselwirkungen der
Informatik mit der Gesellschaft, mit Individuen oder eine Risikobewertung
vorausgesetzt, weshalb die Aufgabe nicht den Inhaltsbereich Informatik, Mensch und
Gesellschaft berührt [GI08].
Es ist möglich, für die Aufgabe einen Automaten und eine damit verbundene formale
Sprache zu entwerfen und auf diese Weise Teile der Aufgabe zu lösen. So könnte ein
gültiges Wort in dieser Sprache aus einer Folge von Wimpeln bestehen, wobei keine
zwei aufeinander folgenden Wimpel die gleiche Farbe haben. Der Inhaltsbereich
Information und Daten spielt ebenfalls eine Rolle. Die Daten, die dem Programm als
Eingabe übergeben werden, müssen interpretiert und an- bzw. umgeordnet werden. Dazu
ist je nach Lösungsweg eine angemessene Datenstruktur zu entwickeln. Eine
4
Das Herangehen unterscheidet sich von [Br09] und [Sc09]. Dort wird einer Aufgabe eine Menge geordneter
Paare (p, i) zugeordnet (p ist ein Prozessbereich, i ist ein Inhaltsbereich).
- 84 -
grundlegende Beherrschung verschiedener Datentypen ist eine Voraussetzung für das
Lösen der Aufgabe. Der Inhaltsbereich Algorithmen wird ebenfalls berührt. Die
Sortierung der Wimpel und das Finden von Lösungskonfigurationen entsprechen einem
algorithmischen Vorgehen.
Von den Prozessbereichen der GI-Empfehlungen ist der Bereich des Modellierens und
Implementierens von großer Bedeutung. Ein Problem wird analysiert, ein Modell für die
Lösung in Form eines Algorithmus und eventuell dazugehöriger Datenstrukturen werden
entworfen, das Modell wird implementiert und schließlich wird die Angemessenheit der
Lösung überprüft und eine Bewertung der erreichten Resultate vorgenommen. Auch der
Prozessbereich Begründen und Bewerten ist für die erfolgreiche Bearbeitung der
Aufgabe notwendig. So sind fundierte Annahmen zu treffen, ob sich das Problem nur
mittels eines Backtracking-Algorithmus lösen lässt oder ob es Möglichkeiten gibt, die zu
einer Reduzierung des Zeitaufwands führen.
Da die Aufgabe vergleichsweise komplex ist, ist es sinnvoll, sie in Teilen zu bearbeiten.
Damit finden eine Strukturierung und ein Bezug zu (außer-) informatischen
Sachverhalten statt. Trotzdem ist der Prozessbereich Strukturieren und Vernetzen nicht
von so großer Bedeutung wie der Prozessbereich Implementieren und Modellieren.
Kompetenzen aus dem Prozessbereich Darstellen und Interpretieren werden ebenfalls in
dieser Aufgabe benötigt. Sie sind eng mit dem Überführen einer Darstellungsform in
eine andere verknüpft oder mit dem Präsentieren der Lösung, also etwa der Ausgabe
eines Programms.
Aus der bisherigen Diskussion ergibt sich, dass der Hauptteil des Inhalts der Aufgabe
dem Inhaltsbereich Algorithmen zugeordnet werden kann. Nebenaspekte beziehen sich
auf die Inhaltsbereiche Automaten und Sprachen sowie Daten und Information. Von den
Prozessbereichen ist hauptsächlich Implementierung und Modellierung relevant. Für die
Lösung der „Bunten Reihe“-Aufgabe ist lediglich deskriptive Modellierung notwendig.
Die Aufgabe ist genau umrissen. Lösungswege wurden von den Autoren der Aufgabe
nicht vorgegeben. Zwar werden die Ein- und Ausgaben genau definiert, für die
Verarbeitung gibt es jedoch keine Vorgaben. Es bietet sich zum Beispiel der Einsatz
eines Backtracking-Algorithmus an, der Folgen findet und auf die Erfüllung der Regeln
untersucht. Für die Prüfung der Zugehörigkeit einer Folge zur Lösungsmenge könnte ein
deterministischer, endlicher Automat verwendet werden. Die Anzahl verschiedener
Lösungsansätze scheint recht klein zu sein.
4 Vergleich mit der Aufgabe „Kleingeld“
Bei der Aufgabe „Kleingeld“ aus dem 24. Bundeswettbewerb 2005/ 2006 [BI] geht es
darum, die Anzahl an Münzen im Portmonee zu minimieren. Dabei soll in der
Teilaufgabe 1 ein Programm entwickelt werden, welches bei einer bestimmten
„Startbelegung“ in der Geldbörse verschiedene Einkäufe und die Entwicklung der
Anzahl an Münzen simuliert. Mit der in der Aufgabenstellung vorgegebenen Strategie,
dass möglichst viele kleine Münzen bei der Bezahlung eingesetzt werden, damit man
möglichst wenige zurückbekommt, soll eine Minimierung erreicht werden. In der
- 85 -
Teilaufgabe 2 soll die durchschnittliche Anzahl an Cent-Münzen in „ausreichend vielen“
Einkäufen simuliert werden (zu Beginn befinden sich keine Cent-Münzen im
Portmonee). In der Teilaufgabe 3 soll nun eine bestimmte Münzart gefunden werden, die
besonders selten genutzt wird, und es soll diskutiert werden, ob es sinnvoll ist, auf diese
Münzart vollständig zu verzichten.
Der Gegenstand der Aufgabe knüpft an die Alltagswelt der Teilnehmerinnen und
Teilnehmer an und eine gute Strategie bei der Lösung könnte auch das reale Leben
erleichtern. In der Teilaufgabe 1 geht es inhaltlich wiederum schwerpunktmäßig um den
Inhaltsbereich Algorithmen. Die Inhaltsbereiche Daten und Information sowie Sprachen
und Automaten sind wie in der „Bunte Reihe“-Aufgabe von geringer Bedeutung. Nicht
angesprochen werden die Aspekte der Informatiksysteme sowie Informatik, Mensch und
Gesellschaft. Bei den Prozessbereichen ist das Modellieren und Implementieren wichtig.
Andere Prozessbereiche sind nachrangig. Die Teilaufgabe 2 stellt den Inhaltsbereich
Daten und Information in den Mittelpunkt, der wichtigste Prozessbereich ist Darstellen
und Interpretieren. Auch Begründen und Bewerten sowie Strukturieren und Vernetzen
sind von Bedeutung. In der Teilaufgabe 3 wird wiederum ein anderer Weg gegangen.
Dort sind Begründen und Bewerten sowie Darstellen und Interpretieren besonders
wichtig. Eine Diskussion über das Weglassen bestimmter Münzarten erfordert
Kompetenzen im Inhaltsbereich Daten und Information.
Die Offenheit der drei Teilaufgaben ist unterschiedlich. Während die Teilaufgabe 1 die
Lösungsstrategie bereits explizit vorgibt und nur noch eine Lösung zu implementieren
ist, erfordert die Teilaufgabe 2 eigene Entscheidungen mit leicht normativem Charakter.
Die Teilaufgabe 3 ist ebenfalls eher offen und hat leicht normativen Charakter. In der
Teilaufgabe 2 ist der Lösungsweg implizit vorgegeben, in der Teilaufgabe 3 ist er nicht
einmal angedeutet.
Die beiden diskutierten Aufgaben zeigen, dass im Bundeswettbewerb Informatik
unterschiedliche Aufgabentypen verwendet werden. Von reinen Programmieraufgaben,
die größtenteils Kompetenzen in den Inhaltsbereichen Algorithmen sowie Daten und
Information und im Prozessbereich Modellieren und Implementieren erfordern, bis hin
zu Aufgaben, bei denen vor allem auch Entscheidungen getroffen, begründet und
bewertet werden müssen oder bei denen Fähigkeiten und Fertigkeiten aus anderen
Fachgebieten mit informatischen Inhalten und Methoden vernetzt werden. Im Folgenden
wird untersucht, ob sich im Laufe der vergangenen Jahre die „Aufgabenkultur“
gewandelt hat und ob Aufgaben, die klassische Inhalte wie Algorithmen in den
Mittelpunkt stellen, in vergleichbarer Weise in ihrer Bedeutung abgenommen haben, wie
dies in den einheitlichen Prüfungsanforderungen Informatik in der Abiturprüfung der
Kultusministerkonferenz aus dem Jahr 2004 im Vergleich zu 1989 deutlich wird [Fo08].
Weiterhin wird untersucht, ob sich die Offenheit der Aufgaben geändert hat.
5 Ergebnisse der Untersuchung
In der ersten Runde des Bundeswettbewerbs Informatik werden fünf Aufgaben gestellt
(nur 1994 waren es sechs Aufgaben). Bei der Einschätzung einer Aufgabe wurde jedem
- 86 -
Inhalts- und jedem Prozessbereich ein Wert zwischen 0 und 3 und jeder Dimension der
Offenheit ein Wert zwischen 0 und 2 zugeordnet. In der Übersicht sind die Ergebnisse
für jeweils fünf Jahre zusammengefasst. Diese Zusammenfassung hat sich als sinnvoll
erwiesen, um Entwicklungen deutlich zu erkennen. Ein interessanter „Ausreißer“ aus
dem Jahr 2000 wird in Abschnitt 5.2 diskutiert.
Über den gesamten Zeitraum betrachtet, erkennt man generell, dass sich die
Inhaltsbereiche in drei Gruppen teilen lassen. Die Inhaltsbereiche Daten und Information
sowie Algorithmen sind in fast jeder Aufgabe von Bedeutung. Der Inhaltsbereich
Automaten und Sprachen ist eher für spezielle Aufgaben wichtig und die Inhaltsbereiche
Informatik, Mensch und Gesellschaft sowie Informatiksysteme sind selten gefragt. Dabei
zeichnen sich Trends ab.
5.1 Inhaltsbereiche Daten und Information sowie Algorithmen
Die beiden Inhaltsbereiche Daten und Information sowie Algorithmen haben auf hohem
Niveau unterschiedliche Entwicklungen genommen. Dem Inhaltsbereich Algorithmen
wurde in den meisten Aufgaben die Stufen 2 oder 3 zugeordnet. In den Jahren von 1985
bis 1989 dominierte die Stufe 3, in den beiden folgenden 5-Jahres-Zusammenfassungen
gab es mehr Aufgaben der Stufe 2 als der Stufe 3 (14:10 und 15:8). In nur wenigen
Aufgaben war der Inhaltsbereich Algorithmen von geringer Bedeutung. Nach dem Jahr
2000 wurden von den Autoren der Aufgaben wieder mehr Aufgaben gestellt, bei denen
der Inhaltsbereich Algorithmen dominiert. In den letzten fünf Jahren gab es vermehrt
Aufgaben, bei denen der Inhaltsbereich Algorithmen keine oder nur eine geringe
Bedeutung hat. Trotzdem kann man sagen, dass der Inhaltsbereich von herausragender
Wichtigkeit für die Aufgaben des Bundeswettbewerbs ist, auch wenn die Bedeutung im
Vergleich zu den ersten Jahren leicht gesunken ist, was vor allem an der größere Anzahl
von Aufgaben festzumachen ist, bei denen der Inhaltsbereich Algorithmen eine geringe
Bedeutung hat.
Auch der Inhaltsbereich Daten und Information hat große Bedeutung für den
Bundeswettbewerb. Den meisten Aufgaben wurde im Inhaltsbereich Daten und
Information die Stufe 2 zugeordnet, wobei es einige Aufgaben mit etwas geringerer oder
größerer Bedeutung gab. In den Jahren von 2005 bis 2009 stieg dessen Bedeutung und
die meisten Aufgaben wurden der Stufe 3 zugeordnet. Vor allem in den letzten fünf
Jahren hat die Wichtigkeit des Inhaltsbereichs zugenommen. Im gleichen Zeitraum
zeigte sich, dass der Inhaltsbereich Algorithmen in seiner Bedeutung abnahm. Ob dies
ein dauerhafter Trend sein wird, bleibt abzuwarten.
5.2 Andere Inhaltsbereiche
Der Inhaltsbereich Sprachen und Automaten hat in seiner Bedeutung abgenommen.
Meist waren es einzelne Aufgaben, die Kompetenzen aus diesem Bereich erforderten,
die nun seltener werden.
- 87 -
Dimension der
Offenheit
Algorithmen
Sprachen und Automaten
Informatiksysteme
Informatik, Mensch, Gesellschaft
Modellieren und Implementieren
Begründen und Bewerten
Strukturieren und Bewerten
Anzahl der Wege
Vorgabe der Wege
Normativität
1985 1989
0
1
2
3
0
3
15
7
0
1
9
15
4
11
9
1
23
2
0
0
25
0
0
0
0
0
1
24
0
15
10
0
0
14
11
0
0
20
5
0
11
14
0
9
15
1
20
5
0
1990 1994
0
1
2
3
0
8
16
2
0
0
14
12
0
22
3
1
26
0
0
0
26
0
0
0
0
0
1
25
0
11
14
1
0
17
9
0
0
13
11
2
4
20
2
12
10
4
22
4
0
1995 1999
0
1
2
3
0
6
15
4
0
2
17
6
0
15
9
1
23
1
1
0
25
0
0
0
0
0
4
21
0
13
10
2
0
20
4
1
0
16
9
0
1
23
1
12
12
1
20
5
0
2000 2004
0
1
2
3
0
3
14
8
0
1
8
16
2
12
10
1
23
1
1
0
20
1
2
2
0
1
0
24
0
3
14
8
0
16
7
2
0
10
13
2
2
23
0
5
17
3
17
6
2
Darstellen und Interpretieren
Information und Daten
Kommunizieren und Kooperieren
Prozessbereich
Stufe
Inhaltsbereich
0
0
4
13
0
1
13 23 23
0
0
0
0
1
5
9
0
1
2
3
15
4
25
17
8
1
2005 2009
7
5
3
2
0
1
12 10
11 0
4
4
2
17
14
0
0
1
22
10
0
10
3
Tabelle 2: Anzahl von Aufgaben, die innerhalb von fünf Jahren einer Stufe des
jeweiligen Kriteriums zugeordnet wurden.
- 88 -
Wie am Beispiel der „Bunte Wimpel“-Aufgabe deutlich wurde, konnten in späteren
Jahren vor allem Teile der Aufgaben mit Kompetenzen aus dem Inhaltsbereich Sprachen
und Automaten gelöst werden. In Zahlen ausgedrückt, sank der Anteil der Aufgaben,
denen Stufe 2 oder 3 zugeordnet wurde, leicht und in mehr Aufgaben spielte der
Inhaltsbereich gar keine Rolle.
Für den Inhaltsbereich Informatiksysteme ergibt sich eine geringe Bedeutung. So gab es
über den gesamten Zeitraum verteilt vereinzelte Aufgaben, die aus dem Bereich der
Computertechnik stammten. Diese waren aber stets über programmierte
Softwaremodelle zu lösen. Der Bundeswettbewerb Informatik hat in der ersten Runde
keinen oder nur einen geringen Bezug zu Fragen des Zusammenspiels von Soft-,
Hardware und Netzen. In den letzten Jahren haben jedoch Fragen zur Interaktion von
Rechnern zugenommen. Vielleicht könnten solche Aspekte in den nächsten Jahren für
einen Bedeutungszuwachs des Inhaltsbereichs Informatiksysteme im Bundeswettbewerb
sorgen. Fragen aus dem Bereich Informatik, Mensch und Gesellschaft wurden ebenfalls
selten gestellt. In den letzten Jahren kommen sie jedoch häufiger vor. Interessant ist die
Ausprägung im Jahr 2000, bei der in vielen Aufgaben Fragen über die Auswirkungen der
Ergebnisse für die Gesellschaft oder das Individuum gestellt wurden. Dies ließ sich in
den darauffolgenden Jahren aber nicht wieder beobachten. Stattdessen werden nur
vereinzelt derartige Fragen gestellt.
5.3 Prozessbereiche
Bei den Prozessbereichen wird zunächst die exponierte Stellung des Modellierens und
Implementierens deutlich. Dieser Bereich spielt für den Bundeswettbewerb Informatik
eine besondere Rolle und wird in fast allen Aufgaben thematisiert. Steigende Bedeutung
erfahren die Prozessbereiche Begründen und Bewerten sowie Darstellen und
Interpretieren. Der Prozessbereich Strukturieren und Vernetzen hat ebenfalls eine recht
hohe Bedeutung.
Der Prozessbereich Darstellen und Interpretieren ist eng mit dem Inhaltsbereich Daten
und Information verknüpft. So lässt sich der Bedeutungszuwachs des Prozessbereichs
durch den Zuwachs des Inhaltsbereichs miterklären (oder umgekehrt). Die zunehmende
Wichtigkeit des Prozessbereichs Begründen und Bewerten lässt sich durch eine Öffnung
der Aufgaben (siehe Abschnitt 5.4) und die Notwendigkeit der Begründung einzelner
Modellierungsaspekte erklären.
Wandlungen innerhalb des Prozessbereichs Modellieren und Implementieren lassen sich
mit Hilfe der Daten in dieser Analyse nicht erkennen. Dafür müsste untersucht werden,
wie sich das Verhältnis zwischen Implementierung und Modellierung wandelte. Es ist zu
vermuten, dass die Modellierung in ihrer Bedeutung zunimmt, während die Bedeutung
der Implementierung sinkt. Ein Indiz dafür könnte die zunehmende Offenheit der
Aufgaben sein (siehe Abschnitt 2 und 5.4).
- 89 -
Aufgaben, für die keine Implementierung notwendig war, waren selten (dreimal 1994
und je einmal 1995, 1996, 2003, 2007 und 2008). Aufgaben, bei denen kein eigenes
Modell bzw. die Umsetzung eines vorgegebenen Modells von Bedeutung waren, gab es
nur zwei. Die Aufgabe Babbel aus dem Jahr 2003 befasst sich mit dem Problem der
Übersetzung von einer natürlichen Sprache in eine andere und das Herausfinden von
fundamentalen Übersetzungsproblemen. Im Jahr 2007 sollten Fragen zu Daten aus
einem Diagramm gefunden und in zwei grafische Darstellungen überführt werden
(Aufgabe 3 „Winddiagramme“).
5.4 Aufgabenoffenheit
Die Offenheit der Aufgaben im Bundeswettbewerb hat sich aber im Laufe der 25 Jahre
geändert. Während in den ersten 15 Jahren gerade das Modellieren in gleich vielen
Aufgaben explizit wie implizit vorgegeben wurden, dominierten in den meisten
Aufgaben ab dem Jahr 2000 implizite Vorgaben. Keine Vorgaben wurden insgesamt
selten gemacht. Seit Anfang der 1990er Jahre nahm auch die Anzahl der möglichen
Lösungswege zu. Normative Modellierung spielt erst ab dem Jahr 2003 eine größere
Rolle. Festzustellen bleibt damit, dass die Aufgaben insgesamt in allen drei Teilaspekten
(Anzahl der Lösungswege, Vorgabe der Lösungswege und Normativität) etwas offener
geworden sind.
Durch den Bedeutungszuwachs der Modellierung kann auch eine höhere Offenheit der
Aufgaben erklärt werden, da beispielsweise vorgegebene Datenmodelle oder
Algorithmen die Implementierung deutlich vorzeichnen, während unterschiedliche
Datenstrukturen auch zu unterschiedlichen Implementierungen führen werden. Damit
kann der Autor der Einschätzung von Wegener aus dem Jahr 1997 [We97] nicht
zugestimmen, dass offene Fragestellungen in den ersten beiden Runden des
Bundeswettbewerbs Informatik ausgeschlossen sind. Er begründete dies mit der
Notwendigkeit einer knappen Formulierung und einer zum Teil standardisierten
Auswertung der Lösungen. Es ist anzunehmen, dass sich die Begriffe von Offenheit bei
Wegener und in diesem Artikel unterscheiden. Außerdem hat es in den Jahren nach 1997
weitere Wandlungen gegeben.
6 Fazit
Bei der Durchsicht der insgesamt 126 Aufgaben ergab sich der Gesamteindruck, dass
sich die Aufgaben des Bundeswettbewerbs Informatik von (umformulierten) klassischen
Problemstellungen vor allem der theoretischen Informatik zu anwendungsnahen
Problemen weiterentwickelt haben. Klassische algorithmische Probleme führten häufig
zu hohen Anforderungen bei der Findung der passenden Implementierung, während die
Modellierung teils durch die Aufgabenstellung schon vorgegeben war. Entsprechend
standen Algorithmen und der Entwurf sowie die Implementierung von Datenstrukturen
im Mittelpunkt. Die Entwicklung in Richtung Anwendungsnähe führte dazu, dass
klassische Problemfelder nicht einfach adaptiert werden konnten und so ein höheres Maß
an eigener Modellierungsleistung und komplexerer Adaption notwendig geworden ist.
Im Zuge dessen wurden die Aufgaben auch offener. Neben wenigen Aufgaben, in denen
in den letzten Jahren die Wechselwirkungen der Informatik mit Gesellschaft und
- 90 -
Individuum thematisiert wurde, nahm vor allem der Inhaltsbereich Daten und
Information an Bedeutung zu. Bei den Prozessbereichen wurden dementsprechend
Darstellen und Interpretieren sowie aufgrund der zunehmenden Offenheit auch das
Begründen und Bewerten wichtiger, ohne dass jedoch der Bereich der Modellierung und
Implementierung seine exponierte Stellung im Wettbewerb verloren hätte.
Die Wandlungen im Bundeswettbewerb Informatik zeichnen zum Teil Entwicklungen
der Fachdidaktik und des Informatikunterrichts nach (so z. B. zur
Algorithmenorientierung). Trotzdem hat der Wettbewerb eine eigene Charakteristik, so
dass auch nicht zu erwarten ist, dass sämtliche Trends aus dem Informatikunterricht oder
der Unterrichtsforschung mitgegangen werden. Im Mittelpunkt stehen „knifflige“ und
vergleichsweise anspruchsvolle Informatikprobleme, die mithilfe selbstentworfener
Modelle und selbstgeschriebener Programme simuliert und gelöst werden sollen. Mit der
ersten Runde des Bundeswettbewerbs sollen u. a. ein vielfältiger Einblick in die
Informatik ermöglicht und Jugendliche für das Fach begeistert werden [Po05]. Ein
vielfältiger Einblick in die Informatik gelingt vor allem auf der Ebene der Modellierung
und Implementierung von Algorithmen und Programmen, die ein breites und in jüngerer
Zeit auch recht anwendungsnahes Spektrum abdecken. Die Zuordnung von Aufgaben zu
Kompetenzbereichen hat gezeigt, dass nicht alle Aspekte, die von den GI-Empfehlungen
erfasst werden, gleichermaßen berücksichtigt werden. Insbesondere werden Themen aus
den Inhaltsbereichen Informatik, Mensch und Gesellschaft sowie Informatiksysteme
seltener aufgegriffen als die Inhaltsbereiche Algorithmen sowie Daten und Information.
Es ist sicher spannend darüber zu diskutieren, ob alle Inhaltsbereiche in gleicher oder
ähnlicher Weise in den Aufgaben des Bundeswettbewerbs Informatik repräsentiert sein
sollten. Es könnte das Bild von Informatik bei einigen jungen Menschen verändert
werden, wenn etwa Fragen über die Auswirkungen von Informatiksystemen auf
Individuum und Gesellschaft als Bestandteil von Modellierungen und Reflektionen
verstärkt in den Vordergrund gerückt werden würden. Andererseits hat der
Bundeswettbewerb Informatik keinen allgemein bildenden Auftrag und richtet sich im
Vergleich zu den GI-Empfehlungen nicht an alle Schülerinnen und Schüler. Daher sollte
der Bundeswettbewerb Informatik möglicherweise die „ungewöhnliche Breite“ [GI08]
des Fachs gar nicht abdecken, sondern ein eigenes Profil aufweisen. Eine Fokussierung
auf bestimmte Inhaltsbereiche und damit verbunden knapp formulierbare
Aufgabenstellungen erscheinen daher als möglich und sinnvoll.
Durch die teils implizite Untergliederung der meisten Aufgaben in eine
Modellierungsphase, die Reflexionen über ein bestimmtes Informatikproblem erfordert,
und eine Implementierungsphase werden unterschiedliche Prozessbereiche
angesprochen. Dies verdeutlicht, dass die Informatik sehr verschiedene methodische
Kompetenzen zur Problemlösung anbietet und notwendig macht, was einen Teil ihrer
Attraktivität ausmacht. Zusammenfassend lässt sich feststellen, dass der
Bundeswettbewerb seinen eigenen Zielstellungen damit weitgehend gerecht wird.
Aus dieser Untersuchung ergeben sich verschiedene Anschlussfragen. Interessant wäre
eine zusätzliche Betrachtung der Aufgabenschwierigkeit. Die Aufgaben der zweiten und
dritten Runde des Bundeswettbewerbs könnten ebenfalls analysiert werden. Für die
Aufgaben aller Runden wäre weiterhin von Interesse, welche Intentionen die Mitglieder
- 91 -
des Aufgabenausschusses des Bundeswettbewerbs verfolgen und wie die Lösungen
bewertet werden.
Literaturverzeichnis
[Ba96]
Baumann, R.: Didaktik der Informatik, 2. Aufl., Klett, Stuttgart et. al, 1996.
[Br09]
Brichzin, P.; Embacher, K.; Hölzel, M.; Hörmann, S.l: Aufgabensammlungen auf dem
Prüfstand. In: LOG IN, 29. Jg. (2009), Heft 154/ 155, S. 16-25.
[BI]
Bundeswettbewerb Informatik (Hrsg.): Der 4-28. Bundeswettbewerb Informatik. Das
Aufgabenblatt. 1985-2009.
[BI10]
Bundeswettbewerb Informatik (Hrsg.): Über den BWInf. http://bwinf.de [zuletzt geprüft
18.03.10].
[Dö87]
Dörner, D.: Problemlösen als Informationsverarbeitung. Kohlhammer Standards
Psychologie, 3. Aufl., Kohlhammer, Stuttgart, 1987.
[Fo08]
Fothe, M.: Bildungsstandards Informatik für die Sekundarstufe II – Vorüberlegungen zur
Entwicklung, in: Brinda, T. et al (Hrsg.): Didaktik der Informatik – Aktuelle
Forschungsergebnisse. 5. Workshop der GI-Fachgruppe „Didaktik der Informatik“. 24.25.09.2008 an der Universität Erlangen-Nürnberg, 2008, S. 107-118.
[GI08]
Gesellschaft für Informatik (Hrsg.): Grundsätze und Standards für die Informatik in der
Schule – Bildungsstandards Informatik für die Sekundarstufe I. Empfehlungen der
Gesellschaft für Informatik e.V. vom 24. Januar 2008. In: LOG IN, 28. Jg. (2008), Heft
150/ 151, Beilage.
[Hu07]
Hubwieser, P.: Didaktik der Informatik, 3. Aufl., Springer Verlag, Berlin; Heidelberg;
2007.
[Kl71]
Klix, F.: Information und Verhalten. Huber, Bern 1971.
[Po05]
Pohl, W.: Informatik-Wettbewerbe in Deutschland – Eine Übersicht, in: LOG IN, 25. Jg.
(2005), Heft 133, S. 10-22.
[Sc09]
Schlüter, K.: Eine Studie zu den Merkmalen der Aufgabenschwierigkeit am Beispiel
eines Informatik-Schülerwettbewerbs. Erster Teil: Aufgabenklassifizierung, in: Koerber,
B.: Zukunft braucht Herkunft: 25 Jahre "INFOS - Informatik und Schule", INFOS 2009,
13. GI-Fachtagung "Informatik und Schule", 21. bis 24. September 2009 an der Freien
Universität Berlin, 2009, S. 181-192.
[We97] Wegener, I.: Bundeswettbewerb Informatik – Die Aufgaben der Endrunde 1996 und
1997. In: LOG IN, 17. Jg. (1997), Heft 95, S. 29-34.
[We00] Wellenreuther, M.: Quantitative Forschungsmethoden in der Erziehungswissenschaft.
Eine Einführung, Juventa, Weinheim, 2000.
- 92 -
Automatisierte, prozessbegleitende Identifizierung der
Problemlösestrategien Lernender unter Verwendung von
Mustererkennungsmethoden
Ulrich Kiesmüller
Didaktik der Informatik
Friedrich-Alexander-Universität Erlangen Nürnberg
Martensstraße 3
91058 Erlangen
[email protected]
Abstract: Im Informatikunterricht eingesetzte Lern- und Programmierumgebungen
geben den Benutzenden Feedback in Form von Systemmeldungen, die durch Programmfehler ausgelöst und gesteuert werden und oft nur technische Hinweise enthalten ohne Bezug zum Problemlöseprozess der Lernenden. Um diese Rückmeldungen nicht nur an das Faktenwissen der Lernenden, sondern auch an ihr prozedurales
Wissen zu adaptieren, müssen deren Vorgehensweisen bei der Problemlösung automatisiert prozessbegleitend identifiziert werden. Dieser Artikel beschreibt einen Weg,
dieses Ziel unter Verwendung von Mustererkennungsmethoden zu erreichen. Die in
einer Studie von 65 Lernenden im Alter von 12 bis 13 Jahren erhobenen Daten werden
verwendet, um ein auf verborgenen Markow-Modellen basierendes Klassifikationssystem zu trainieren. Dieses System wird integriert in die Programmierumgebung und
ermöglicht somit die automatisierte Identifizierung der Vorgehensweise der Lernenden. In diesem Artikel werden die Funktionsweise der automatisierten prozessbegleitenden Identifizierung beschrieben und Ergebnisse aus den erhaltenen Daten diskutiert.
1
Motivation
Informatiklehrkräfte setzen oft visuelle Programmierung unterstützende Umgebungen ein,
wie zum Beispiel Scratch [Ma04] oder Kara [Re03]. In einigen Bundesländern (z. B.
Bayern) werden Grundlagen der Algorithmik bereits in der 7. Jahrgangsstufe gelehrt.
Während ihrer ersten Schritte im Bereich der Programmierung lösen Lernende kurze Aufgaben mit den eingesetzten Programmierumgebungen. Selbst wenn ihnen eine bestimmte
Vorgehensweise zur Lösungsfindung gelehrt wurde, können bei den Lernenden verschiedene Problemlösestrategien beobachtet werden. Aus konstruktivistischer Sicht sollen die
Lehrenden [Be98] das bestehende (prozedurale) Wissen der Lernenden nicht außer Acht
lassen, auf die individuellen Vorgehensweisen der Lernenden eingehen und sie unter deren Berücksichtigung bei einer selbstständigen Problemlösung unterstützen. Im Sinne von
[Dr04] ist die Gestaltung von glaubwürdigem motivationalem Feedback möglich, durch
das bei den Lernenden Motivation erzeugt, gehalten oder gar gesteigert wird.
- 93 -
Dieser Artikel ist wie folgt aufgebaut. In Kapitel 2 werden Vorüberlegungen bezüglich
Problemlösestrategien, Lern- und Programmierumgebung sowie Kategorisierung von Lerner-System-Interaktionen dargelegt. An die in Kapitel 3 folgende Beschreibung der bereits
mit Automaten-Kara aufgenommenen Daten schließt sich ein kurzer Überblick über die
beobachteten Problemlösestrategien an. Im Kapitel 4 wird die Mustererkennungsmethode
beschrieben, die zur automatisierten, prozessbegleitenden (d. h. bereits während die Lernenden mit dem System interagieren) Identifizierung eingesetzt wird. Eine Analyse der Ergebnisse des Einsatzes der vorgestellten Methode und erste Schlussfolgerungen schließen
sich im Kapitel 5 an. Abschluss bildet ein Ausblick auf zukünftige Arbeiten im Kapitel 6.
2
2.1
Vorüberlegungen
Problemlösestrategien
Problemlösen bedeutet aus psychologischer Sicht die Suche eines korrekten Weges durch
den Problemraum, der sich zwischen einem (unerwünschten) Ausgangszustand und einem
(erwünschten) Endzustand aufspannt [Ma92, CG85, NS72]. Wie in [Ki09] dargestellt, sind
bei Lernenden während der Lösung der gestellten Aufgaben verschiedene Problemlösestrategien zu beobachten. Diese lassen sich aufteilen in die (vor-)strukturierten Methoden
top down und bottom up sowie die Methoden hill climbing und trial and error, bei denen
die Lernenden jeweils nur einen einzelnen Schritt der Lösung betrachten.
Abbildung 1 zeigt die Grobstrukturierung des Gesamtproblems als Aufteilung in Teilprobleme, die innerhalb der Feinstrukturierung weiter in Unterprobleme zerlegt werden, bevor
sich letztendlich ohne weitere Verzweigungen die Teillösungen anschließen. Hierbei ergibt
sich eine baumähnliche Struktur, die von Lernenden, die eine top down-Strategie anwenden, Ebene für Ebene wie bei einer Breitensuche abgearbeitet wird (Pfeile in Abb. 1).
Somit ist eine (ebenenweise) sukzessive Annäherung an die Gesamtlösung gewährleistet.
Bei der bottom up-Strategie wird eine Tiefensuche durchgeführt (Abb. 2). Die Gesamtlö-
Abbildung 1: Überblick über den Lösungsablauf bei der top down-Strategie
- 94 -
Abbildung 2: Überblick über den Lösungsablauf bei der bottom up-Strategie
sung entsteht, wenn das letzte Teilproblem vollständig gelöst ist. Lernende mit einer hill
climbing-Strategie strukturieren weder das gesamte noch die Teilprobleme, haben aber
eine klare Vorstellung von der erwünschten Arbeitsweise des Programms. Sie kontrollieren
ihre Lösungsversuche aktiv durch wiederholte Programmausführungen. Hierfür benötigen
sie nicht unbedingt Systemfehlermeldungen der Programmierumgebung. Sie brechen den
Programmlauf bei unerwartetem Programmverhalten häufig ab ( Schleifen“ in Abb. 3).
”
Ihr Fokus liegt jeweils nur auf einem Schritt, dessen optimaler Lösung und der Suche nach
dem sinnvollsten nächsten Schritt. Durch ihre klare Vorstellungen vom Programmablauf,
ihre Suche nach dem jeweilig nächsten Schritt (Abb. 3: durchgezogene Pfeile – gestrichelt:
alternative Fortsetzungen) und anschließend dessen (optimierter) Lösung werden sie jeden
zur Lösung notwendigen Schritt durchlaufen und sich sukzessive in allen Teilzweigen an
die Teillösungen und somit an die Gesamtlösung der Aufgabenstellung annähern.
Im Gegensatz zu allen bisher beschriebenen Vorgehensweisen liegt bei der trial and errorStrategie (Abb. 4) keine systematische Annäherung an die Teillösungen vor. Die Gesamtlösung entsteht (wenn überhaupt) eher zufällig“. Die Aufmerksamkeit der Lernenden
”
liegt hier wiederum jeweils auf einem einzelnen Schritt. Sie warten bei dieser Vorgehensweise bei Testläufen stets so lange, bis sie eine Systemfehlermeldung erhalten und versuchen jeweils anschließend, den dafür ursächlichen Fehler zu beheben. In dieser Gruppe
von Lernenden tritt häufig die typische unerwünschte Situationen auf, dass die Lernen-
Abbildung 3: Überblick über den Lösungsablauf bei der hill climbing-Strategie
- 95 -
den behaupten, die Aufgabe gelöst zu haben (weil keine Systemfehlermeldungen mehr
auftreten), aber im Sinne der Aufgabenstellung keine Lösung vorliegt.
Abbildung 4: Überblick über den Lösungsablauf bei der trial and error-Strategie
2.2
Lern- und Programmierumgebung
In der Informatik ist Kreativität ein wichtiger Faktor, um bei Lernenden Interesse zu wecken, Motivation zu erzeugen und zu erhalten [Ro07]. In [Sh07] finden sich als Kriterien für kreativitätsfördernde Software u. a. Unterstützung hilfreichen Feedbacks, Zulassen
straffreien Experimentierens sowie visuellen Programmierens und Erlauben des schrittweisen Lösens der gestellten Aufgaben. Diese Bedingungen werden von Umgebungen wie
Kara in seiner automatenbasierten Version [Re03] erfüllt. Eine typische Aufgabe ( Kara
”
und die Blätter“), mit der die Lernenden (auch bei den unten beschriebenen Untersuchungen) konfrontiert werden, ist es, Kara auf seinem Weg zu einem Baum, der sich geradlinig vor ihm befindet, ein Muster aus Kleeblättern invertieren zu lassen. Das zugehörige
Programm muss unter Verwendung der Sensoren des Käfers mittels endlicher Automaten modelliert werden. Bei den hier beschriebenen Studien wurden die Lerner-SystemInteraktionen bei Automaten-Kara protokolliert und deren zeitliche Abfolge ausgewertet.
2.3
Kategorisierung der Lerner-System-Interaktionen
Bei den im Rahmen des hier beschriebenen Forschungsprojekts durchgeführten Studien
wird nur eine Auswahl von Lerner-System-Interaktionen (LSI) aufgezeichnet, nämlich für
den Problemlöseprozess relevante (Tab.1). Wie in [Ki09] erläutert, wird die Strukturierung
des Problems als solche durch die LSI Bearbeitung und Änderung des Automaten“ der
”
Kat. 0 zugeordnet. Die Feinstrukturierung des Problems in verschiedene Teilprobleme ist
gleichbedeutend mit den LSI Erzeugung“ und Bearbeitung bedingter Verzweigungen“
”
”
(Kat. 1, 2, und 3). Wiederholungen, Verzweigungen und Sequenzen von Befehlssequenzen rangieren zwischen Feinstrukturierung und Lösung eines Teilproblems. Sie werden
durch die Bearbeitung von Transitionen umgesetzt. Die Lösung eines Teilproblems wird
repräsentiert durch die Bearbeitung von Sequenzen (Kat. 4). Zusätzliche LSI sind Programmausführungen ( play“, Kat. 5) zur Überprüfung der Korrektheit von Programmen,
”
sowie deren Abbruch ( stop“, Kat. 6). Kat. 7 schließlich fasst alle Systemfehlermeldungen
”
zusammen, so dass sich insgesamt acht Kategorien von LSI ergeben.
- 96 -
Kat.
0
1
2
3
LSI
STATE ADDED
STATE REMOVED
TRANSITION TO CHANGED
TRANSITION ADDED
TRANSITION REMOVED
TRANSITION INPUT CHANGED
STATE SENSORS SET
Kat.
4
5
6
7
LSI
TRANSITION COMMAND ADDED
TRANSITION COMMAND REMOVED
PLAYING
STOPPED
AMBIGUOUS TRANSITION EXCEPTION
COMMAND EXCEPTION
NO TRANSITION EXCEPTION
NO START STATE EXCEPTION
Tabelle 1: Kategorisierung und Gruppierung der relevanten Lerner-System-Interaktionen (LSI).
3
3.1
Untersuchungsdaten
beobachtete individuelle Vorgehensweisen
Die oben eingeführte Automaten-Kara-Software wurde durch ein Modul erweitert, das alle LSI protokolliert und diese Daten entweder in einer Datei speichert oder direkt weiter
verwendet (Kap. 4.3, Abb. 12). Die bei an zwei bayerischen Gymnasien durchgeführten
Studien aufgenommenen Daten [Ki09] wurden als Ausgangsdaten für die hier beschriebenen Untersuchungen verwendet. Aus 188 Einzelsitzungen (je eine Aufgabe pro Lernendem) ergaben sich ca. 13000 protokollierte lösungsrelevante LSI. Unter Verwendung der
Protokoll-Dateien, automatisch protokollierten Bildschirmaufnahmen und zusätzlichen mittels der Methode des lauten Denkens“ und Interviews erhobenen Daten konnten die Vor”
gehensweisen der Lernenden in den einzelnen Sitzungen identifiziert werden. Wie sich
diese bei einer Aufgabenlösung mit Automaten-Kara darstellen, wird nun beschrieben.
Top down – Zuerst wird das Problem als Ganzes strukturiert. Hierbei fügen die Lernenden Zustände und Teilzweige (Bild 1 und 2 in Abbildung 5) hinzu und bearbeiten diese.
Anschließend stellen sie Karas Sensoren ein (Bild 3 in Abbildung 5), was einer Feinstrukturierung des Problems entspricht. Abschließend ergänzen sie die Befehle (Bild 4 in
Abbildung 5), um alle Teilprobleme und damit die gestellte Aufgabe insgesamt zu lösen.
Bottom up – Die Lernenden erzeugen und bearbeiten zuerst nur einen Teilzweig, in den
sie anschließend die Befehle einfügen, um dieses Teilproblem vor der Bearbeitung des
nächsten Teilzweiges zu lösen (Bild 1 in Abbildung 6). Diese Schritte werden so oft wie-
Abbildung 5: Screenshot-Folge (Ausschnitt) einer top down-Vorgehensweise
- 97 -
Abbildung 6: Screenshot-Folge (Ausschnitt) einer bottom up-Vorgehensweise
derholt (Bild 2 und 3 in Abbildung 6) bis das letzte Teilproblem (nicht mehr in Abbildung 6
enthalten) und somit die gesamte gestellte Aufgabe gelöst ist.
Hill climbing – Die Lernenden konzentrieren sich jeweils auf einen einzelnen Programmschritt. Sie haben eine klare Vorstellung vom gewünschten Programmablauf und starten die
Ausführung, um den aktuell von ihnen bearbeiteten Programmschritt zu überprüfen. Diese
brechen sie sofort ab, wenn sie erkennen können, ob das Programm an dieser Stelle korrekt
läuft oder nicht (z. B. viermaliger Programmlauf zwischen Bild 2 und 3 in Abbildung 7).
Gegebenenfalls korrigieren sie anschließend ihre Fehler (in der zu gehörigen log-Datei
zwischen Bild 2 und 3 vor erneuter Korrektheitsprüfung durch Programmtestlauf) oder suchen nach dem nächsten zu bearbeitenden Schritt. Diese Prozedur wird solange wiederholt
bis die Gesamtlösung der gestellten Aufgabe erreicht wurde. In manchen Fällen kommen
die Lernenden nicht dazu (wie z. B. zwischen Bild 3 und 4 in Abbildung 7) den Programmlauf wegen eines unerwünschten Effekts selbst abzubrechen, weil sofort im ersten Schritt
eine Systemfehlermeldung auftritt. Auf diese reagieren sie wie oben beschrieben mit der
Verbesserung und erneuten Überprüfung des aktuellen Programmschrittes.
Trial and error – Auch hier konzentrieren sich die Lernenden nur auf einen einzelnen
Programmschritt und führen nach jedem ihrer Programmier- oder Verbesserungsschritte
jeweils das Programm aus. Im Gegensatz zur gerade beschriebenen Vorgehensweise machen sie sich vorher keine klare Vorstellung vom erwünschten Programmablauf und brechen diesen selbst ab, sondern warten vielmehr bis bzw. ob das System den Programmlauf
mit einer Fehlermeldung abbricht. Den gemeldeten Fehler versuchen sie zu korrigieren
Abbildung 7: Screenshot-Folge (Ausschnitt) einer hill climbing-Vorgehensweise
- 98 -
und wiederholen den beschriebenen Prozess, um sich der korrekten Lösung anzunähern.
Zwischen den Bildern 3, 4 und 5 sowie 6 und 7 der Abbildung 8 werden jeweils Fehlermeldungen vom System ausgegeben. Auch direkt nach der Aufnahme des Screenshots 8 wird
der Lernende mit einer Systemrückmeldung konfrontiert. Im dargestellten Fall liegt sicher
nicht die trial and error-Variante des systematischen Ausprobierens aller Möglichkeiten
vor, denn die vom Lernenden jeweils geänderten Programmschritte sind, wie in den logDateien erkennbar, meist nicht diejenigen, an denen sich die Fehlerstelle befindet. Für den
Lernenden wird es somit sehr schwer, sich an eine korrekte Lösung anzunähern.
Abbildung 8: Screenshot-Folge (Ausschnitt) einer trial and error-Vorgehensweise
3.2
Datenaufbereitung
In den Protokoll-Dateien wurden bei der manuellen Aufbereitung alle Vorkommen der
die oben beschriebenen Vorgehensweisen repräsentierenden Muster mit XML-ähnlichen
Markierungen versehen. Abbildung 9 zeigt den Auszug aus einer log-Datei mit einem
markierten Muster der bottom up-Vorgehensweise. Die weiteren zu entnehmenden Daten
sind Zeitstempel, Bezeichnung der gestellten Aufgabe und jeweils gerade durchgeführte
LSI. Um eine Vollständigkeit der Labelung zu erreichen werden alle (Sequenzen von) LSI,
die keiner der vier aufgeführten Problemlösestrategien zugeordnet werden können, als
unidentifiziert“-Muster markiert. In einem nächsten Schritt werden anhand der Markie”
<HMMBU>
12:04:43
Kara und... (leicht)
12:04:43
Kara und... (leicht)
12:04:44
Kara und... (leicht)
12:04:45
Kara und... (leicht)
12:04:49
Kara und... (leicht)
</HMMBU>
TRANS
TRANS
TRANS
TRANS
TRANS
ADDED
INPUT CHANGED
INPUT CHANGED
INPUT CHANGED
COMMAND ADD
Abbildung 9: Auftreten eines XML-ähnlich markierten bottom up-Musters in einer log-Datei
- 99 -
2; 3; 3; 3;
3; 3; 4; 4; 4; 4; 4;
0; 2; 3; 3; 3; 4;
Abbildung 10: Beispielssequenzen von LSI für das bottom up-Muster
rungen und der LSI-Kodierung und -Gruppierung (Tab. 1) die Daten aus den log-Dateien
von einem speziell dafür entwickelten Softwaremodul in Sequenzen von LSI-Kodierungen
umgewandelt. Dies ist notwendige Voraussetzung für die Kapitel 4 beschriebene automatisierte Identifizierung der Muster. Abbildung 10 zeigt drei Instanzen des bottom up-Musters
mit verschiedener Länge und ähnlicher, aber an Einzelstellen unterschiedlicher Struktur.
3.3
Statistische Ergebnisse
Erstes Resultat ist die Möglichkeit, eine LSI-Sequenz einer von vier Problemlösestrategien
oder dem unidentifiziert“-Muster zuzuordnen. Des Weiteren ist bemerkenswert, dass Ler”
nende im Laufe der Lösungserstellung für eine Aufgabe gelegentlich die Vorgehensweise
wechseln und im Laufe der Zeit Kennzeichen verschiedener Problemlösetypen aufzeigen.
In [FS88] wird hierzu erläutert, dass es grundlegende Problemlösetypen gibt, aber bei Lernenden unterschiedliche individuelle Ausprägungen davon beobachtbar sind. Für die hier
beschriebenen Studien bedeutet dies, dass in der Chronologie der LSI eines Lernenden
bei der Lösung einer Aufgabe verschiedene Vorgehensmuster identifiziert werden können.
Die Wahrscheinlichkeit, zu welcher Vorgehensweise der Lernende jeweils wechselt, ist variabel. In Tabelle 2 sind als Wahrscheinlichkeiten für jeden möglichen Wechsel zwischen
zwei Mustern die relativen Häufigkeiten, die sich aus den aufgenommenen Daten ergaben,
aufgeführt. Das UI-Muster muss hierbei separat betrachtet werden, da es üblicherweise
als Übergang zwischen zwei Vorgehensmustern auftritt. Bemerkenswert ist, dass Lernende, deren Chronologie ein zu einer bestimmten Problemlösestrategie gehörendes Muster
enthält, mit sehr hoher Wahrscheinlichkeit dieses Vorgehensmuster mehr als einmal zeigen
(Diagonalenwerte in Tab. 2) – mit Ausnahme des top down-Musters, das nicht wiederholt,
sondern oft gewechselt wird zu bottom up (näheres dazu in Kap. 5). Zumindest wenn Lernende mit einem neuen Lösungsversuch beginnen, verwenden sie wieder die selbe Strategie wie beim ersten Ansatz, was auf die Existenz einer individuell bevorzugten Strategie
hindeutet.
start
TD
BU
HC
TE
UI
TD
0.127
0.017
0.016
0.011
0.003
0.007
BU
0.530
0.414
0.518
0.156
0.117
0.094
HC
0.052
0.103
0.069
0.218
0.075
0.169
TE
0.030
0.172
0.153
0.117
0.482
0.135
UI
0.261
0.275
0.216
0.413
0.270
0.397
Tabelle 2: Transitionsmatrix zwischen Vorgehensmustern (Transition von Reihe zu Spalte) – TD: top
down, BU: bottom up, HC: hill climbing, TE: trial and error, UI: unidentifiziert
- 100 -
4
Methode
4.1
Einführung
Die Analyse und manuelle Labelung der Daten bestätigt die Existenz der vier Strategien top down, bottom up, hill climbing und trial and error, die durch LSI-Sequenzen, in
denen die Kategorien mit den Ziffern 0 bis 7 kodiert werden, dargestellt werden können.
Um auch solche LSI-Sequenzen weiter verarbeiten zu können, die keiner dieser Strategien
zugeordnet werden können, wird ein Ausschuss-Muster“ eingeführt. Die automatisier”
te Identifizierung der von den Lernenden eingesetzten Problemlösestrategien in den LSIChronologien besitzt viele Gemeinsamkeiten zu im Bereich der Mustererkennung wohl
bekannten Problemen – insbesondere zur automatischen Spracherkennung. Dort muss der
Computer die Laute des Sprechenden erkennen, hier sind dies die von den Lernenden
eingesetzten Strategien. In der Spracherkennung stellen Lautäußerungen die Eingangsdaten dar, hier werden die beobachteten LSI-Sequenzen verwendet. Ähnlich zum oben
erwähnten unidentifiziert-Muster setzt die Spracherkennung eine Klasse Geräusch“ ein.
”
4.2
Einsatz verborgener Markow-Modelle
Im Gegensatz zum starren Mustervergleich berücksichtigt ein erfolgreiches Modell auch
Variationen in beobachteten Sequenzen. Dies ist in der Spracherkennung z. B. beim Sprecherwechsel notwendig; bei der Identifizierung von Problemlösestrategien können ähnliche, aber trotzdem verschiedene LSI-Sequenzen der selben Strategie zugeordnet sein.
Um dies zu bewältigen, hat sich in der Mustererkennung die Verwendung von Automaten, die ihre Zustände nach einer Wahrscheinlichkeitsverteilung ändern, bewährt. Die weiteste Verbreitung hierbei haben verborgene Markow-Modelle (hidden Markov models –
HMM) [Ch67], mit denen zeitliche statistische Abhängigkeiten modelliert werden. Im Gegensatz zum regulären Automaten, der für jedes Eingabesymbol festgelegte Transitionen
besitzt, sind die Übergänge im HMM abhängig von der Übergangswahrscheinlichkeit aij
von Zustand i zu Zustand j und den Ausgabewahrscheinlichkeiten bj (Ot ) dafür, dass das
Symbol Ot im Zustand j ausgegeben wird (Abb. 11). Zusätzlich kann das Modell Startwahrscheinlichkeiten statt eines definierten Startzustandes besitzen. Nach Vorgabe der Parameter und einer Beobachtungssequenz wird die Wahrscheinlichkeit berechnet, dass die
Abbildung 11: Links-Rechts-HMM (Übergangs- (a) und Ausgabewahrscheinlichkeiten (b(·))
- 101 -
Beobachtung gerade durch dieses Modell erzeugt wurde. Das Training der Modelle, insbesondere die Abschätzung der Übergangs- und Ausgabewahrscheinlichkeiten für ein bestimmtes Muster, wird mit Hilfe des iterativen Baum-Welch-Algorithmus [Ba70] durchgeführt. Für vorgegebene Trainingsfälle (bestimmten Problemlösestrategien zugeordnete
LSI-Sequenzen) werden die Parameterwerte schrittweise verbessert, so dass die Wahrscheinlichkeit gesteigert wird, dass das Model genau diesen Fall generiert. Ähnlich wie
es bei der Spracherkennung für jedes Wort und Geräusch“ ein Modell gibt, wird hier für
”
das unidentifiziert“-Muster sowie alle vier Vorgehensmuster je ein Modell benötigt. Der
”
Findungsprozess einer Folge von HMM in einer Beobachtungssequenz wird Dekodierung
genannt. Zuerst wird nach der HMM-Folge gesucht, die am wahrscheinlichsten zur gesamten LSI-Sequenz passt. Dieses Problem wird mit dem auf dynamischer Programmierung
basierenden Viterbi-Algorithmus [Vi67] gelöst, der aus einer Beobachtungssequenz und
gegebenen HMM die wahrscheinlichste Zustandsfolge errechnet. Zur Berücksichtigung
der zeitlichen Struktur der Problemlösestrategien werden hier nur sogenannte reine LinksRechts-Modelle (d. h. aij = 0 für i > j innerhalb der Strategiemodelle (Abb. 11)) zugelassen. Zur Dekodierung werden die fünf Modelle zu einem großen HMM kombiniert, wobei
hier zusätzliche Übergangswahrscheinlichkeiten am Beginn und Ende jedes Vorgehensmodells eingefügt werden, um mittels der Eingangswahrscheinlichkeiten zu ermöglichen,
dass die LSI-Folge mit jedem der Vorgehensmuster beginnen kann. Alle Wahrscheinlichkeiten wurden aus den in Tabelle 2 aufgeführten relativen Häufigkeiten als Initialwerten
automatisch errechnet. Für die LSI-Sequenzen errechnet der Viterbi-Algorithmus unter
Verwendung des kombinierten HMM diejenige Sequenz von Vorgehensmustern, die am
wahrscheinlichsten die gegebene LSI-Sequenz erzeugt. Diese Folgen von Vorgehensmustern lassen die von den Lernenden eingesetzte Problemlösestrategie erkennen.
4.3
Identifizierungsmodul
Die gesamte Softwarearchitektur wird in Abbildung 12 dargestellt. Die Programmierumgebung Automaten-Kara wird erweitert durch das TrackingKara-Modul, welches alle Interaktionen des Hauptprogramms unter Ausnutzung des Beobachtermusters protokolliert
Abbildung 12: Softwarearchitektur einschließlich Automaten-Kara, TrackingKara und IdentiKara
- 102 -
und sie an das ebenso integrierte IdentiKara-Modul weiterleitet. Dieses verwendet die Daten einmalig zum Training der HMM und während des anschließenden Einsatzes zur Bestimmung der aktuellen (und bisher eingesetzten) Problemlösestrategie(n).
5
Ergebnisse und Schlussfolgerungen
Die eingesetzten Mustererkennungsmethoden erlauben die automatisierte, prozessbegleitende Identifizierung der Problemlösestrategien von Lernenden. Nicht nur individuelle
Vorgehensmuster sondern auch deren Ausprägungen (LSI-Sequenzen), die typisch sind
für die jeweils eingesetzten Problemlösestrategien, können identifiziert werden (Kap. 3.2).
Die Wiederholung des top down-Musters in nur 1.7% aller Fälle (Tab. 2) erklärt sich durch
einen Vergleich der Musterstrukturen. Alle anderen Muster beschreiben einzelne Schritte
des Lösungsprozesses, von denen bis zur Gesamtlösung jeweils mehrere benötigt werden.
Die top down-Strategie dagegen muss dazu typischer Weise nur einmal eingesetzt werden.
Die hohe Wahrscheinlichkeit (41.4%) für den Wechsel von top down zu bottom up bestätigt
die Tatsache, dass diese Strategie selbst von Programmierexperten nur sehr schwer konsequent beibehalten werden kann [Ho90]. Ein weiteres Resultat ist, dass die meisten der
untersuchten Lernenden im Alter von 12 bis 13 Jahren die bottom up-Strategie bevorzugen.
Zur Erstellung von individualisierten Systemrückmeldungen wird außer den automatisiert
identifizierten Problemlösestrategien auch die jeweilige Lösungsqualität berücksichtigt,
die mit einem in die Untersuchungssoftware eingebetteten Assessment-Modul bestimmt
werden kann. Wie in [Dr04] dargestellt, kann durch die Gestaltung von Rückmeldungen
als geeignete Kombination von personen-, verhaltens- und leistungsbezogenem Feedback
die Motivation der Lernenden gefördert werden. Wird z. B. bei einem Lernenden während
der Lösung zu Kara und die Blätter“ die bottom up-Strategie identifiziert und es tritt
”
bei einem Programmtestlauf nach der Erstellung des vorletzten Teilzweiges ein Fehler auf
(angenommen: Vertauschung der Befehle Schritt“ und Blatt aufheben“), so könnte eine
”
”
Fehlermeldung lauten: Du hast Dein Programm gut strukturiert. Es fehlt Dir nur noch ein
”
Teilzweig. Im aktuellen Zweig versucht Kara ein Blatt von einem Feld nehmen, auf dem
keines liegt.“ Durch die Berücksichtigung der Vorgehensweise des Lernenden liegt der
Fokus des Feedback dort, wo auch die Aufmerksamkeit des Lernenden gebündelt wird, er
wird individuell angesprochen, motiviert und erhält Hinweise zur Lösungsfortsetzung. Der
letzte Rückmeldungsteil ist eine Umformulierung der bisherigen technischen Meldung.
Für alle Kombinationen von erreichter Qualität und eingesetzter Vorgehensweise wird im
hier vorgestellten Fall je eine individualisierte Meldung bereitgestellt, die die Lernenden
nicht nur im Fall eines Fehlers, sondern auch bei Bedarf auf Anforderung, erhalten können.
Durch die Anpassung an die Vorgehensweise der Lernenden, spricht sie sie besser an als
rein technische Meldungen und kann ihre Motivation halten oder gar steigern. Für die
Anwendung mit anderen Programmierumgebungen (z. B. auch aus dem Bereich der imperativen Programmierung) muss die Auswahl der relevanten LSI (Kap. 2.3) adaptiert werden. Eine vielversprechende Möglichkeit stellt hierzu die Verwendung der algorithmischen
Kontrollstrukturen Sequenz, Wiederholung, bedingte Verzweigung dar. Zusätzlich werden
die Programmausführungen sowie deren Abbruch und ggf. Systemfehlermeldungen protokolliert. Die Kategorien bleiben ebenso unverändert wie die HMM und insbesondere die
- 103 -
eingesetzten Mustererkennungsalgorithmen. Lediglich müssen die Modelle einmalig neu
trainiert (Kap. 4) und für das automatische Assessment die Testfälle neu gestaltet werden.
6
Ausblick
In den nächsten Schritten werden die individualisierten Systemrückmeldungen (Kap. 5)
kreiert und in die Software integriert. Die Programmierumgebung wird in diesem Zug so
erweitert, dass Systemmeldungen von den Lernenden auch auf Anforderung erhalten werden können. Des Weiteren wird das Identifizierungsmodul angepasst an Programmierumgebungen, bei denen Programmbausteine per drag-and-drop von den Lernenden zu einem
Gesamtprogramm zusammengestellt werden können (z. B. Scratch – [Ma04]).
Literatur
[Ba70]
[Be98]
[CG85]
[Ch67]
[Dr04]
[FS88]
[Ho90]
[Ki09]
[Ma04]
[Ma92]
[NS72]
[Re03]
[Ro07]
[Sh07]
[Vi67]
Baum, L. et al.: A maximization technique occurring in the statistical analysis of probabilistic functions of markov chains. Ann. Math. Statist., 41:164-171, 1970.
Ben-Ari, M.: Constructivism in computer science education. SIGCSE Bull. 30, 1 (Mar.
1998), 257-261, 1998.
Chi, M. T. H.; Glaser, R.: Problem solving ability. In Human Abilities: An InformationProcessing Approach. W. H. Freeman & Co, San Francisco, CA. 227-257, 1985.
Chung, K.: Markov Chains with Stationary Transition Probabilities. Springer, Berlin, 1967.
Dresel, M.: Motivationsförderung im schulischen Kontext. Diss., München, 2000
(Münchener Universitätsschriften) – Hogrefe-Verlag für Psychologie, Göttingen, 2004.
Felder, R. M.; Silverman, L. K.: Learning styles and teaching styles in engineering education. Engineering Education, 78(7), 674-681, 1988.
Hoc, J.-M.: Psychology of programming. Computers and people series. Academic, London, 1990.
Kiesmüller, U.: Diagnosing Learners’ Problem Solving Strategies Using Learning Environments with Algorithmic Problems in Secondary Education. In: Transactions of Computing Education, 9(3), ACM-Press, New York, NY, USA, 1-26, 2009.
Maloney, J. et al.: Scratch: A Sneak Preview. In Second International Conference on Creating, Connecting and Collaborating through Computing. (Keihanna-Plaza, Kyoto, Japan,
January 29-30, 2004) C5’04. IEEE Computer Society, Los Alamitos, CA, 104-109, 2004.
Mayer, R. E.: Thinking, problem solving, cognition (2nd edition). W. H. Freeman and
Company, New York, NY, 1992.
Newell, A.; Simon, H. A.: Human Problem Solving. Prentice-Hall, Englewood Cliffs, NJ,
1972.
Reichert, R.: Theory of Computation as a Vehicle for Teaching Fundamental Concepts of
Computer Science. Doctoral Thesis. No. 15035. ETH Zurich, 2003.
Romeike, R.: Kreativität im Informatikunterricht. Diss., Universität Potsdam, 2008.
Shneiderman, B.: Creativity Support Tools: Accelerating Discovery and Innovation. Commun. ACM, 50(12):20-32, 2007.
Viterbi, A.: Error Bounds for Convolutional Codes and an Asymptotically Optimum Decoding Algorithm. IEEE Transactions on Information Theory, 13:260-269, 1967.
- 104 -
Teil 3
Diskussionspapiere
Scratch2Greenfoot – Eine kreative Einführung in die
Programmierung mit Scratch und Greenfoot
Ralf Romeike
Institut für Mathematik und Informatik
Pädagogische Hochschule Schwäbisch Gmünd
Oberbettringer Str. 200
73525 Schwäbisch Gmünd
[email protected]
Abstract: Eine Einführung in die Programmierung für Lehramtsstudierende muss
auch besondere Ziele berücksichtigen: Sie sollte eine positive Einstellung zum Programmieren vermitteln und Ideen für den eigenen Unterricht liefern.
Scratch2Greenfoot ermöglicht eine sanfte Progression von Scratch zu Greenfoot,
während die Studierenden frühe Erfolge erzielen und Programmieren als kreatives
Gestalten wahrnehmen. Eine erste Erprobung mit Studierenden für das Haupt- und
Realschullehramt verlief erfolgreich.
1 Einleitung
Die Vermittlung grundlegender Progammierkenntnisse hat sich in der Informatikdidaktik
als eine große Herausforderung erwiesen. Falsche Vorstellungen, Ängste und mangelnde
Vorkenntnisse stellen regelmäßig Probleme dar, die nicht nur im „klassischen“ Informatikstudium, sondern oft noch gravierender in der Lehrerbildung auftreten: Lehrveranstaltungen zur Programmierung zählen zu den schwierigsten und weisen hohe Durchfallquoten auf. Damit können sie dafür mitverantwortlich gemacht werden, dass mancherorts
über 50% der Lehramtsstudierenden ihr Informatikstudium innerhalb der ersten zwei
Studienjahre wieder abbrechen (vgl. [RS06]).
Für angehende Informatiklehrer ist dieser, oft erste, Eindruck vom Programmieren besonders problematisch, sollen sie doch später selbst mit möglichst positiver Einstellung
das Thema unterrichten. Zusätzlich sind Studienabbrüche hinsichtlich der ohnehin geringen Studierendenzahlen für das Lehramt Informatik grundsätzlich problematisch. Die
häufig im Rahmen des „klassischen“ Informatikstudiums angebotenen und von Lehramtsstudierenden mitbelegten Lehrveranstaltungen führen überdies dazu, dass sich Studierende mit unterschiedlichen Zielen und damit auch Bedürfnissen in einer Lehrveranstaltung befinden. Insbesondere den Zielen und Bedürfnissen der Lehramtsstudierenden
wird hierbei regelmäßig nicht Rechnung getragen. An der hiesigen Hochschule hatten
wir im WS 2009/10 die Möglichkeit, eine eigenständige Lehrveranstaltung zur Programmierung für Studierende des Haupt- und Realschullehramts zu konzipieren und
anzubieten. Die zugrunde liegenden Überlegungen, Materialien und Erfahrungen werden
im Folgenden dargestellt. In Kapitel 2 werden die Hintergründe und Bedürfnisse der
Studierenden analysiert und damit die inhaltsübergreifenden Ziele der Lehrveranstaltung
- 107 -
präzisiert. In Kapitel 3 werden bekannte Forschungsergebnisse zur Problematik diskutiert. Kapitel 4 stellt gängige Ansätze zur Einführung in die Programmierung in Schule
und Studium gegenüber, aus welchen ein Ansatz entwickelt wird, wie mit Hilfe eines
kreativen Zugangs und der Erstellung von Animationen und Spielen die Studierenden
einen motivierten kreativen Einstieg in die Programmierung erfahren (Kapitel 5).
2 Ziele und Probleme der Programmierausbildung im LA-Studium
Ob Programmieren in der Schule unterrichtet werden sollte, ist Bestandteil teilweise
kontroverser Diskussionen (vgl. z. B. [GH10]). Es kann allerdings festgestellt werden,
dass eine Umsetzung der GI-Empfehlungen, vor allem im Bereich Algorithmen, ohne
Programmieren nicht sinnvoll möglich ist. Die Umstände und Ziele dabei haben sich in
den letzten Jahren deutlich geändert. Kinder wachsen heute in einer von Computern
geprägten Welt auf und werden deshalb auch als „Digital-Natives“ bezeichnet. Entsprechend sollte der Computer vermittelt werden als Medium des persönlichen Ausdrucks
und als Werkzeug, das nicht nur bei der Arbeit hilft, sondern auch zum Spaß und für
Hobbys genutzt wird (vgl. [Gu02]). Dennoch wird der Computer von den meisten Schülerinnen und Schülern überwiegend nur rezeptiv verwendet: zum chatten, mailen, spielen
und kommunizieren in sozialen Netzwerken. Die wenigsten erstellten aber selbst Spiele
und Animationen mit dem Werkzeug Computer. Es ist quasi, als ob sie lesen, aber nicht
schreiben können (vgl. [Re07]). Aufgabe eines modernen Informatikunterrichts sollte es
damit sein, die Schülerinnen und Schüler zu einem gestalterischen Umgang mit Informatiksystemen zu befähigen. Diese geänderte Sichtweise muss sich auch in der Lehrerbildung niederschlagen, regelmäßig greifen Lehrerinnen und Lehrer auf Mittel und Methoden zurück, wie sie auch selbst einen Inhalt erfahren haben. Diese Entwicklungen implizieren auch geänderte Ziele und Anforderungen für die Schülerinnen und Schüler: die
Gestaltung von Medien und Spielen zu eigenem Nutzen statt des Entwurfs und Implementierens fremdbestimmter Probleme und Softwaresysteme.
In der Praxis stellt sich das geringe Stundendeputat des Fachstudiums als problematisch
dar. So belegen Studierende des Lehramts für die Sekundarstufe I mitunter nur 6-8 SWS
im fachwissenschaftlichen Bereich. Komplexe Programmiererfahrungen sind hier gar
nicht möglich. Die GI-Empfehlungen selbst beschränken sich durchaus auf recht einfache und grundlegende Kompetenzen, die durch die Lehrerinnen und Lehrer zu vermitteln
sind und auch tatsächlich bleiben die in der Schule vermittelten Programmierkompetenzen relativ elementar. Offensichtlich ist bei der Wahl eines Werkzeugs/einer Programmiersprache zur Einführung in die Programmierung in der Sekundarstufe I nicht nur die
mögliche Komplexität, sondern auch das Potential, wie weitere Inhalts- und Prozesskompetenzen angesprochen werden können, zu berücksichtigen: Bspw. Begründen und
Bewerten, Strukturieren und Vernetzen, Kommunizieren und Kooperieren. Entsprechend
der genannten Probleme und Anforderungen sollte eine Lehrveranstaltung zur Programmierung neben inhaltlichen Schwerpunkten folgende inhaltsübergreifende Ziele verfolgen:
1.
Grundlegende und vielfältige Programmiererfahrungen ermöglichen
Die Studierenden sollten möglichst viele eigene Mini-Projekte im Semester verwirk- 108 -
lichen und ein größeres eigenständiges Programmierprojekt umsetzen.
Ideen vermitteln, wie Programmierung in der Schule eingeführt werden kann
Studierende tendieren dazu, Inhalte in der Schule so zu vermitteln, wie sie diese
selbst erfahren/erlernt haben. Entsprechend ist es wichtig, Methoden und Beispiele
aufzuzeigen, die so auch in der Schule verwendet werden können.
3. Eine positive Einstellung zum Programmieren herstellen und Berührungsängste abbauen/verhindern
Fast alle Studierenden äußerten zu Beginn Vorbehalte zur Lehrveranstaltung: Zu
hohes Tempo, Nichtverstehen u. ä. wurden befürchtet. Solche negative Einstellung
wird dann problematisch, wenn selbst Programmierung unterrichtet werden soll.
Im Kapitel 3 werden typische Probleme der Lehrveranstaltungen zur Programmierung
analysiert und anschließend ein Weg vorgestellt, wie versucht wurde, o. g. Ziele zu erreichen.
2.
3 Zur Einführung in die Programmierung an Hochschulen
Probleme und Erfolge beim Lehren und Lernen der Programmierung auf Hochschulniveau gehören zu den gut untersuchten Forschungsgebieten der Informatikdidaktik. Traditionelle Lehrmethoden führen regelmäßig dazu, dass Studierende nur ein oberflächliches
Programmierverständnis erreichen und Programmieraufgaben Zeile um Zeile lösen, statt
Programmstrukturen im größeren Kontext zu berücksichtigen [SS89]. Zwar besitzen
Studierende Wissen hinsichtlich Syntax und Semantik einzelner Befehle, allerdings
fehlt Wissen und Erfahrung, sie zu Programmen zusammenzusetzen (vgl. [Wi96]). Entsprechend sollte Konzeptwissen und dessen Anwendung frühzeitig im Lernprozess berücksichtigt werden. Eine weitere Hürde stellt die Syntax der verwendeten Sprache dar,
welche bei Programmieranfängern regelmäßig zu großen und frustrierenden Problemen
führt (vgl. [KP05]). Durch eine komplexe Syntax verschiebt sich der Fokus: Anfänger
bemühen sich mitunter derart darum, die Syntax richtig einzuhalten, dass der zugrunde
liegende Algorithmus nachrangig wird. Bei z. B. [MPS06] führte eine einfachere Syntax
auch zu weniger logischen Fehlern. Befürchtungen und Ängste hinsichtlich des Programmierens wirken sich unweigerlich auf die Motivation der Studierenden aus. Wird es
den Studierenden ermöglicht, eigene Probleme auszuwählen und die Ideen kreativ umzusetzen, können hierdurch Motivation und Interesse gesteigert werden (z.B. [MST97]).
Insbesondere für zukünftige Informatiklehrer scheint es angebracht zu sein, Programmieren als Mittel persönlichen kreativen Gestaltens einzuführen und zu motivieren. Nicht zu
letzt ist bekannt, dass Frauen ihre Informatikausbildung häufig abbrechen, weil sie in
Informatikkursen nicht genug Raum für individuelle Kreativität finden [Gu02]. Die
dokumentierten Lernschwierigkeiten schlagen sich in Ängsten und Befürchtungen der
Studierenden wieder. Studienanfänger befürchten, dass das Informatikstudium zu
schwierig für sie sein könnte und sie möglicherweise falsche Vorstellungen besitzen
könnten [RS06].
Vor diesem Hintergrund befragten wir die Studierenden des Kurses Objektorientierte
Modellierung und Programmierung nach ihren Vorstellungen, Wünschen und Befürchtungen hinsichtlich der Lehrveranstaltung. Diese spiegeln die informell transferierten
Erfahrungen anderer Studierenden und damit einhergehende Befürchtungen wieder,
- 109 -
äußern aber auch daraus resultierende Hoffnungen, wie der eigene Lernprozess entsprechend besser verlaufen könnte. Befürchtet wird, dass viele Sprachen nur oberflächlich
angesprochen werden, dass zu viele Vorkenntnisse vorausgesetzt werden, dass es im
Kurs zu schnell geht und dass die Studierenden mit dem Verständnis nicht mitkommen.
Die Studierenden wünschen sich durchaus, einen hinreichenden Einblick in die Programmierung zu erlangen, ja gar „als Programmierer den Kurs zu verlassen“. Konkret
wünschen sie sich mehr Praxis als Theorie und anwendungsorientiertes Lernen anhand
von Projekten und dass sie anschließend Programme für den privaten Gebrauch und die
Schule erstellen können. Um das Ziel zu erreichen, dass die Studierenden einen konzeptorientierten Einstieg in die Programmierung erfahren, der sie bei ihren geringen Vorerfahrungen abholt, früh Erfolgserlebnisse verschafft, Kreativität im Programmieren deutlich macht und zugleich analog in der Schule einsetzbar ist, geschieht der Einstieg in die
Programmierung mit Scratch analog einem erprobten und evaluierten Unterrichtsbeispiel
[Ro07]. Für die weiterführende Lehre bleiben nun verschiedene Möglichkeiten, den
Übergang zu einer komplexeren Programmiersprache zu gestalten.
4 Ansätze zu Einstieg und Fortführung der Programmierung
Lehrveranstaltungen zur Programmierung lassen sich losgelöst von einer konkreten
Programmiersprache (z. B. mit Hilfe von Pseudosprachen), anhand einer konkreten Programmiersprache oder mithilfe verschiedener, oft zahlreicher, Programmiersprachen
durchführen – alle Varianten sind an Schulen und Hochschulen zu finden. Die Verwendung eine Pseudosprache eignet sich für die Schulpraxis nicht, verhindert sie doch, Lerninhalte zu demonstrieren, Ideen umzusetzen und schnelle Erfolge zu erzielen. Damit ist
auch die Verwendung im Lehramtsstudium fraglich. Insbesondere an Schulen wird häufig versucht, innerhalb einer Sprachfamilie zu bleiben: Miniwelten eignen sich zum
motivierten Einstieg in die Programmierung, der Umstieg in eine „richtige“ Programmiersprache bleibt allerdings problematisch. Ansätze zur Lösung des Problems bieten
Miniwelten, die eine (ähnliche) Syntax der später intendierten Programmiersprache verwenden: z.B. Java-Hamster, Java-Kara oder Ruby-Kara. Problematisch bleibt bei diesen
Beispielen der Umstand, dass die Sprachen selbst beim Erlernen aufgrund der Syntax
und Komplexität Probleme bereiten und ein Verständnis der zugrundeliegenden Konzepte nur unzureichend unterstützt wird. Der Umstieg in die nächst höhere Programmiersprache erfolgt in einem großen Schritt: Die potentiellen Möglichkeiten der Programmiersprache vervielfachen sich, die tatsächlichen Möglichkeiten werden allerdings aufgrund des unzureichenden Vorwissens stark eingeschränkt: Die Möglichkeit wie bisher
in Miniwelten Figuren zu animieren entfällt, neue thematisierte Projekte entstammen
mitunter konträren und v. a. abstrakten Themen wie Berechnungen oder Sortieren.
Die Verwendung visueller Programmiersprachen ist ein gängiger Ansatz, die Einführung
in die Programmierung zu erleichtern. Vorteile ergeben sich vor allem aus der didaktisch
reduzierten Entwicklungsumgebung, dem Eliminieren der Möglichkeit, Syntaxfehler zu
machen und motivierenden Aufgabenstellungen (vgl. [Ko09]). Ist ein Verständnis für die
Programmierkonzepte erreicht worden, muss nur noch eine neue Syntax sowie der Umgang mit dieser erlernt werden. Die Gestaltung eines solchen Übergangs kann sich allerdings als schwierig gestalten. Beispielsweise sind für die weiterführende Lehre nach
- 110 -
Scratch noch keine Unterrichtskonzepte bzw. -erfahrungen dokumentiert. Greenfoot
eignet sich für die weiterführende Lehre nach einem Einstieg mit Scratch: Die Art und
Weise der Softwareentwicklung bleiben ähnlich (Animationen, Spiele und Simulationen), Greenfoot erweitert allerdings durch die Verwendung von Java die Möglichkeiten
um ein Vielfaches. Auch hier bleibt aber das Problem, die hinzugekommenen Möglichkeiten so zu verpacken, dass der Schritt des Umstiegs überschaubar und der Lernende
nicht „erschlagen“ wird. Ein Versuch, diesem Problem gerecht zu werden, stellt
Scratch2Greenfoot dar.
5. Scratch2Greenfoot
Scratch2Greenfoot1 besteht aus einem Template für Greenfoot, in welchem viele wesentliche Programmier-Bausteine von Scratch in Greenfoot nachmodelliert sind (z.B. turn x,
go to x y), verschiedenen Beispielen und einer Dokumentation. Hierdurch beschränkt
sich die Hürde des Umstiegs auf das Zurechtfinden in der neuen Entwicklungsumgebung
und der Verwendung von Java als Programmiersprache, welche die Einhaltung der Syntax nun konsequent erforderlich macht. Eine wesentliche Motivation zur Verwendung
von Greenfoot und damit zum Umstieg auf Java wird durch die Illustration dynamischer
Objekterzeugung anhand des Projekts „Springende Bälle“ verdeutlicht: War es in
Scratch noch mühsam, neue Bälle durch Kopieren einzeln hinzuzufügen, lassen sich in
Greenfoot relativ einfach zahlreiche Instanzen der Klasse Ball erzeugen. Entsprechend
erfolgt der Umstieg am Beispielprojekt Pong. Die Studierenden haben hierzu in Scratch
ein einfaches Pong-Spiel implementiert und übertragen nun diese Lösung nahezu eins zu
eins nach Greenfoot. Die in Scratch2Greenfoot nachmodellierten Scratch-Bausteine
lassen sich analog der Programmierung in Scratch verwenden, verdeutlichen aber
gleichzeitig ihre Verwendung in Greenfoot und damit ein Verständnis für die Programmiersprache Java. Vorteilhaft bei dieser Vorgehensweise ist, dass sich die Studierenden
vordergründig auf die Verwendung der Konzepte beschränken können unter Beibehaltung und Erweiterung ihres bis dahin erworbenen Programmierverständnisses, Brüche
werden vermieden.
In der weiteren Entwicklung eigener Projekte können die Studierenden auf ihrem Wissen
um Scratch aufbauen und Projekte analog implementieren. Die Dokumentation von
Scratch2Greenfoot verdeutlicht dabei, wie die Java-Syntax im Vergleich zu den ScratchBausteinen anzuwenden und wie nicht analog implementierte Konzepte zu handhaben
sind. Bei einer geschickten Steuerung des weiteren Unterrichtsverlaufs werden alle behandelten Konzepte spiralcurricular wiederholt im Greenfootkontext thematisiert und
neue Konzepte bei der Erstellung komplexerer Projekte sukzessive eingeführt. Greenfoot
motiviert dabei zusätzlich den Modellierungscharakter der Programmierung und die
damit verbundenen Konzepte wie Vererbung, Klasse vs. Objekt, Attribute und Methoden. Die Gewissheit, in Scratch bereits Erfolge erzielt zu haben und mit Greenfoot eine
leistungsfähigere Sprache zu benutzen, wirkt zusätzlich motivierend; ein „Verlorensein“
wird vermieden, indem immer wieder der Bezug zu vorherigen Erfahrungen hergestellt
1
Sprich: Scratch to Greenfoot (Von Scratch zu Greenfoot). http://greenroom.greenfoot.org/resources/8
- 111 -
wird. Als möglicherweise problematisch könnten sich die unterschiedlichen „Arbeitsweisen“ von Scratch und Greenfoot darstellen – während Scratch aktionsgesteuert ist,
müssen in Greenfoot alle Aktionen über eine „Act-Methode“ als Controller gesteuert
werden. In der Praxis hat sich dies allerdings als erstaunlich unproblematisch erwiesen.
6 Erprobung und Fazit
Eine erste Erprobung verlief erfolgreich, alle Studierenden machten frühzeitig positive
Erfahrungen mit Scratch und konnten die konstruktionistische und kreative Sichtweise
auf die Programmierung mit Greenfoot übertragen. Auch wenn die nun konsequent erforderliche Berücksichtigung der Syntax und die damit verbundene Notwendigkeit des
Debuggens die Studierenden extra Aufmerksamkeit und Nerven kostete, war die Aussicht auf ein gutes funktionierendes Programm motivierend. Das Ergebnis des insgesamt
nur 12 zweistündige Lehrveranstaltungen umfassenden Kurses war sehr zufriedenstellend: Alle Studierenden entwickelten mehrere Programme und als Abschlussprojekt ein
umfangreiches, selbstentwickeltes Spiel. Damit starten sie mit einem positiven Bild von
der Programmierung, guten Erfahrungen und Ideen, wie sie selbst Programmierung im
Unterricht umsetzen können, in den Lehrerberuf. Eine ausführliche Evaluation und Weiterentwicklung des Konzepts sind in Vorbereitung.
7 Literatur
[GH10] Gutknecht, J.; Hromkovic, J.: Plädoyer für den Programmierunterricht. In InformatikSpektrum 33(2), 2010; S. 230-238.
[Gu02] Guzdial, M.; Soloway, E.: Teaching the Nintendo generation to program. In Commun.
ACM 45(4), 2002; S. 17-21.
[KP05] Kelleher, C.; Pausch, R.: Lowering the barriers to programming. In ACM Computing
Surveys 37(2), 2005; S. 83-137.
[Ko09] Kohl, L.: Kompetenzorientierter Informatikunterricht in der Sekundarstufe I unter Verwendung der visuellen Programmiersprache Puck. Jena, 2009.
[MPS06] Mannila, L.; Peltomäki, M.; Salakoski, T.: What about a simple language? Analyzing the
difficulties in learning to program. In Computer Science Educ. 16(3), 2006; S. 211-227.
[MST97] Meisalo, V.; Sutinen, E.; Tarhio, J.: CLAP: teaching data structures in a creative way.
Proc. Proceedings of the 2nd conference on Integrating technology into computer science education, Uppsala, Sweden, 1997.
[Re07] Resnick, M.: Sowing the Seeds for a More Creative Society. Proc. Learning & Leading
with Technology, International Society for Technology in Education (ISTE), 2007.
[Ro07] Romeike, R.: Animationen und Spiele gestalten. Ein kreativer Einstieg in die Programmierung. In LOG IN 146/147, 2007; S. 36-44.
[RS06] Romeike, R.; Schwill, A.: "Das Studium könnte zu schwierig für mich sein" - Zwischenergebnisse einer Langzeitbefragung zur Studienwahl Informatik. Proc. HDI 2006: Hochschuldidaktik der Informatik, München, Lecture Notes in Informatics, 2006.
[SS89] Soloway, E.; Spohrer, J. C.: Studying the novice programmer. L. Erlbaum Associates
Inc. , Hillsdale, NJ, USA, 1989.
[Wi96] Winslow, L. E.: Programming pedagogy - a psychological overview. In SIGCSE Bull.
28(3), 1996; S. 17-22.
- 112 -
Didaktik und Bewertung in längerfristigen Teamprojekten
in der Hochschullehre
Livia Predoiu
Universität Mannheim,
Fakultät für Informatik
[email protected]
Abstract: Dieser Artikel präsentiert einen Ansatz, der die individualisierte Bewertung der einzelnen Teammitglieder eines Teams bei längerfristigen Teamprojekten
ermöglicht. Der Ansatz basiert auf einer Kombination des Portfolio- und des PeerAssessment-Konzepts. Neben der Möglichkeit, aus der Gesamtprojektleistung die Einzelleistungen herzuleiten, bietet der Ansatz auch vielversprechende didaktische Möglichkeiten zum Erlernen kooperativer Software-Entwicklung im Team.
1
Einleitung und Motivation
In der Mannheimer Lehre gibt es seit dem Wintersemester 2009 einen neuen MasterStudiengang Wirtschaftsinformatik, in dem unter anderem vorgesehen ist, dass ein Teamprojekt über den Zeitraum von 2 Semestern bearbeitet wird1 . Teamprojekte stellen eine
Herausforderung für die Bewertung in der Lehre dar, da die objektive Bewertung der einzelnen Mitglieder eines solchen Teams nicht mehr so einfach ist. Die Leistung des Einzelnen verschwimmt in der Leistung der Gruppe. Zudem sind die didaktischen Anforderungen an solche langfristigen Team-Projekte nicht zu unterschätzen. Die Studenten müssen
sowohl die inhaltlichen Aspekte des Projekts als auch die organisatorische Aspekte der
Teamarbeit bewältigen.
Die Teamprojekte an der Universität Mannheim sind Implementierungsprojekte. Diese
bieten sich im Bereich (Wirtschafts-)Informatik an, weil die Erstellung von Software eine
essentielle Kernkompetenz von Informatikern ist, die auch im Studium vermittelt werden
soll. Softwareentwicklung findet auch auch im Berufsleben im Team und über einen längeren Zeitraum statt. Längerfristige Teamprojekte bereiten die angehenden Informatiker
daher aufs Berufsleben vor. Dass dies jedoch in der Praxis nicht gut gelingt, zeigt eine
Studie aus dem Jahr 2009 (vgl. [Col09]). Diese Studie hat untersucht, auf welche Qualifikationen bei Absolventen im Bereich Software-Entwicklung an der Hochschule und in
der Industrie Wert gelegt wird. Anschließend ist die Industrie befragt worden, in welchem
Maß diese Qualifikationen bei Berufsanfängern vorhanden sind. Die aus Sicht der Hochschulen und der Industrie wichtigen Qualifikationen entsprechen sich weitgehend, werden
1 http://www.win.uni-mannheim.de/159.html
- 113 -
aber bei den Absolventen nur in sehr geringem Maß vorgefunden. Zu den mangelhaft vorgefundenen Qualifikationen gehören rein fachliche Qualifikationen wie z.B. Kenntnisse
zum umfangreichen Testen von Softwaresystemen, zur Fehlersuche in Softwaresystemen,
zum Refaktorisieren und zu komplexen Systemen im Allgemeinen, aber auch Fähigkeiten wie Teamarbeit, Kommunikation, Selbstorganisation und strukturiertes Denken sind
weitgehend vermisst worden. Das zeigt deutlich den Bedarf eines didaktischen Ansatzes
zur Vermittlung sämtlicher bei der Software-Entwicklung benötigten Qualifikationen in
der Informatik. Hierbei spielt auch die Bewertung und die Möglichkeit, die Leistung des
Teams auf die Einzelleistung eines Mitglieds herunterzubrechen, eine wichtige Rolle. Eine
gute und angemessene (individualisierte) Bewertung hat auch ein beträchtliches didaktisches Potential, da sie den Studenten zum einen Feedback zur erbrachten Leistung gibt
und sie zum anderen dazu motiviert, sich mehr anzustrengen [Pre10, Big03].
Unser Ansatz zur Didaktik und Bewertung von längerfristigen Teamprojekten besteht aus
einer Kombination des Portfolio- und Peer-Assessment-Konzepts. Er unterstützt die Studenten mit Hilfe einer individualisierten Bewertung und individualisiertem Peer-Feedback
dabei, alle für die Software-Entwicklung im Team erforderlichen Qualifikationen zu erwerben. Der Artikel ist inhaltlich wie folgt aufgebaut: In Kapitel 2 stellen wir das Portfoliound das Peer-Assessment-Konzept vor, auf denen unser Ansatz basiert. Dann stellen wir
in Kapitel 3 unseren Lehransatz vor. In Kapitel 4 schließen wir den Artikel mit Schlussfolgerungen und einer Diskussion.
2
Portfolios und Peer-Assessment
Unser Ansatz basiert auf einer Kombination des Portfolio- und des Peer-AssessmentKonzepts. Beide Konzepte haben sich in den letzten Jahren in der allgemeinen Hochschullehre etabliert und werden in verschiedenen Lehrkontexten eingesetzt. Eine allgemeine
Einführung gibt es in [Big03] und [MNTB09].
Portfolios sind Sammlungen von Artefakten. Ein Artefakt kann ein Text, eine Grafik, ein
Film usw. sein und soll eine wertvolle Fähigkeit/die Anwendung von wertvollem Wissen/eine wertvolle Zugangsweise/einen Lernfortschritt demonstrieren [MNTB09]. Portfolios haben auch eine Einleitung und ein Resümee. Portfolios sind in der Hochschuldidaktik
oft das Mittel der Wahl, wenn Studenten Aufgaben bearbeiten oder Probleme lösen sollen, zu denen es nicht eine einzige richtige Antwort oder Lösung, sondern viele richtige
Antwort- oder Lösungsmöglichkeiten gibt [DK08]. Hierbei stellt in der Regel ein Student
ein komplettes Portfolio zusammen.
Wenn den Studenten in der Hochschullehre die Möglichkeit gegeben werden soll, am Bewertungsprozess teilzunehmen, greift man gerne zu Selbst- und Peer-Assessment [RBS05].
Die Vorteile, die sich aus der Involvierung der Studenten in den Bewertungsprozess ergeben, sind eine größere Transparenz und Sicherheit der Studenten bezüglich der sie erwartenden Bewertung einerseits und die Konvergenz von Selbstbewertung mit Fremdbewertung andererseits. D.h. der Student lernt, seine Leistung besser einzuschätzen und in den
Fremdkontext zu setzen. Ein selbstbewusster und interaktiver Umgang mit der eigenen Be-
- 114 -
wertung macht auch den Umgang mit dem Lerninhalt bewusster. Beim Peer-Assessment
bewertet der Student nicht nur sich selbst, sondern auch andere Studenten. Wir setzen in
unserem Ansatz Peer-Assessment-Sitzungen mit einem Fragebogen ein, der eine Erweiterung des Fragebogens von [Hea99] ist2 . Tabelle 1 stellt den Bewertungsbogen vor, mit dem
wir die Studenten dazu anregen, die Leistungen der anderen Teammitglieder zu bewerten.
Fragegruppen
Regelmäßige Teilnahme an den Teamtreffen
Beitrag von Ideen zur Aufgabenstellung
Recherche, Analyse & Vorbereitung von Materialien
Beitrag zum kooperativen Gruppenprozess
Unterstützung und Ermutigung von Teamnmitgliedern
Beitrag zur kooperativen Prozessgestaltung
Aufgabenverteilung mitgestaltet und Verantwortung übernommen? Abhängigkeiten gut
gemeistert, d.h. rechtzeitig Verzögerungen kommuniziert und begründet? Bei Bedarf
Hilfe geleistet/um Hilfe gebeten, um die Deadline einhalten
Praktischer Beitrag zum Endprodukt
Summe
Mitglied 1
Pi1
...
Mitglied k
Pik
Tabelle 1: Bewertungsbogen zum Peer-Assessment. Weitere Details finden sich in [Pre10].
3
Umsetzung im längerfristigen Teamprojekt
Um die Teamarbeit anzuregen und den Arbeitsaufwand des Betreuers zu reduzieren, lassen
wir das Team gemeinsam ein Portfolio erstellen, anstatt - wie üblich - jedes Teammitglied
ein eigenes Portfolio erstellen zu lassen. Zunächst muss der Betreuer das Teamprojekt in
inhaltlich getrennte Projektphasen und dazugehörige Meilensteine aufteilen und dazu
Leistungsziele definieren, die jeweils durch das Team erreicht werden sollen. Die Aufteilung in Projektphasen und Meilensteine ist bei der Bearbeitung längerfristiger Projekte
allgemein üblich [Ker09]. Eine solche Vorgabe durch den Betreuer gibt dem Team einen
groben Rahmen, an dem es sich orientieren kann.
Zu jedem Meilenstein gibt es zwei Bewertungen. Zum einen muss in jeder Projektphase
durch jedes Teammitglied je ein Artefakt (für das gemeinsame Portfolio) erstellt werden,
das der Betreuer bewertet und mit Feedback versieht. Zum anderen wird zu jedem Meilenstein eine Peer-Assessment-Sitzung durchgeführt, in der jedes Teammitglied die Leistung
jedes anderen Teammitglieds mit dem in Tabelle 1 skizzierten Fragebogen bewertet. Im
Gegensatz zu [Hea99] soll das jeweils bewertete Teammitglied bei uns an diesen PeerAssessment-Sitzungen zwar teilnehmen und Stellung beziehen, darf sich aber nicht selbst
mitbewerten. Durch die unmittelbare Bewertung und das Feedback zu jedem Meilenstein
werden die Vorteile des formativen Assessments3 genutzt und eine stetige Verbesserung
sowohl der inhaltlichen als auch der sozialen, organisatorischen und prozessorientierten
Komponente der Leistung jedes einzelnen Teammitglieds von Arbeitsphase zu Arbeits2 Unsere Erweiterung bezieht sich auf die kooperative Prozessgestaltung, die bei [Hea99] unberücksichtigt
geblieben ist. Details dazu sind in der Tabelle 1 zu sehen.
3 Formatives Assessment bezeichnet die Bewertung im Verlauf einer Lehrveranstaltung anstatt nur am Ende.
Dadurch erhält der Lernende die Möglichkeit, seine Bewertung zu nutzen, um seine Leistung im Verlauf der
Lehrveranstaltung zu steigern (vgl. z.B. [Big03])
- 115 -
phase ermöglicht. Der Workflow der Projektarbeit mit Artefakt- und Peer-AssessmentBewertungen ist in Abbildung 1 dargestellt.
Abbildung 1: Teamprojekt-Bewertungsworkflow: Das Team besteht aus k Studenten, die im Team das Projekt
in n Projektphasen bearbeiten. Zu jedem Meilenstein erhält jeder Student eine Artefaktbewertung durch den
Betreuer sowie eine Peer-Assessment-Bewertung durch das Team.
Eine möglichst genaue Definition der Artefakte durch den Betreuer in den ersten Arbeitsphasen ist sehr wichtig. Alle Artefakte der gleichen Projektphase müssen intensiv miteinander verzahnt sein und die Studenten sollen sich im Rahmen des eigenen Artefaktes auch
auf den Inhalt der anderen Artefakte beziehen. So wird die Zusammenarbeit zusätzlich
motiviert und angeregt, denn die Leistung soll im Team erarbeitet werden und nur von
den Artefaktverantwortlichen festgehalten und dargestellt werden. Gerade bei Softwareentwicklungsprojekten können die ersten Projektphasen sehr gut im Voraus gestaltet und
definiert werden, da die Studenten ohnehin zunächst Requirements Engineering betreiben,
vergleichbare Systeme untersuchen oder sich in ein bestehendes und im Projekt zu erweiterndes System einarbeiten müssen. Ebenso müssen diverse Technologien untersucht und
Bibliotheken und Implementierungen dazu recherchiert und auf Einsetzbarkeit im eigenen
Softwareprojekt geprüft werden. Sobald es an den Architekturentwurf und die eigentliche
Implementierung geht, sind die Studenten dann durch die bereits bewerteten verzahnten
Artefakte und die bereits stattgefundenen Peer-Assessment-Sitzungen idealerweise ausreichend trainiert, um die Architektur eigenständig im Team in Module aufzuteilen und
sich im Team jeweils untereinander sowohl geeignete Artefakte als auch Implementierungsaufgaben zuzuweisen.
Mit dem Schreiben einer eigenen Einleitung und eines eigenen Resümees durch jedes
Teammitglied für das gemeinsam erstellte Portfolio, ergibt sich die Möglichkeit, das Projekt und das Gelernte noch einmal komplett Revue passieren zu lassen. Daher sollte das in
der letzten Projektphase stattfinden. Ebenfalls in der letzten Projektphase muss die Dokumentation der erstellten Software gemeinsam fertig gestellt werden. Idealerweise fangen
die jeweiligen Artefaktverantwortlichen für die Implementierungsphase(n) bereits zu Beginn der Implementierung an, parallel die Dokumentation vorzubereiten.
Die Bewertungen zu den Meilensteinen sind gewichtete Bewertungen gemäß [Hea99]. Die
Artefaktbewertung durch den Betreuer wird mit der Peer-Bewertung durch das Team gewichtet. Sei A11 die Artefakt- und P11 die Peer-Bewertung eines Studenten in der ersten
Arbeitsphase. Seien P12 , . . . P1k die Peer-Bewertungen der anderen Studenten. Dann er- 116 -
gibt sich die gewichtete Bewertung B11 des Studenten für die erste Arbeitsphase nach der
folgenden Formel:
B11 = P11 ∗
k
∗ A11
Σk1 P1i
(1)
Im letzten Meilenstein muss anstatt einer Artefaktbewertung die Bewertung von Tool &
Dokumentation in die Formel eingesetzt werden und aus der sich ergebenden gewichteten
Bewertung und der Bewertung der beiden Artefakte (Einleitung & Resümee) das arithmetische Mittel berechnet werden. Denn in der letzten Projektphase ist die Dokumentation ein
Resultat der Teamarbeit und die Artefakte sind indivuelle Einzelarbeiten. Die abschließende Gesamtbewertung B1 dieses Beispielstudenten aus seinen Bewertungen B11 , . . . , B1n
zu den n Meilensteinen ergibt sich als arithmetisches Mittel, das man zusätzlich mit der
Dauer der Projektphasen gewichten kann, wenn die Dauer unterschiedlich ausfällt4 .
4
Schlussfolgerungen und Ausblick
Wir haben einen Ansatz vorgestellt, der eine individualisierte und gerechte Bewertung
der einzelnen Mitglieder eines längerfristigen Teamprojekts ermöglicht und einen didaktischen Ansatz vorstellt, mit dem sowohl fachliche als auch persönliche Kompetenzen für
Software-Entwicklung im Team vermittelt werden können. Wir verwenden dazu zwei in
der Lehre etablierte Konzepte, nämlich Portfolios und Peer-Assessment, und kombinieren
sie zu einer auf formativem Assessment basierenden Lehrumgebung, die dem Betreuer und
dem Team die Möglichkeit gibt, zu bestimmten Meilensteinen durch Bewertung, Diskussion und Feedback optimierend und korrigierend in die Teamarbeit, die Teamprozesse und
die inhaltlich-fachliche Arbeit einzugreifen. Dadurch und durch die Vorgabe der Erstellung
intensiv miteinander verzahnter Artefakte sowie der Zuweisung von Artefaktverantwortlichkeiten bietet der Ansatz ein hohes didaktisches Potential und unterstützt die Studenten
u.a. beim Erwerb von Skills, die für Teamarbeit und Selbstorganisation im Team nötig
sind. Die Teamarbeit wird motiviert, angeregt und angeleitet.
Die naive Vorgehensweise bei längerfristigen Teamprojekten bewertet nur das Endergebnis bzw. die entstandene Implementierung und gibt allen Studenten die gleiche Bewertung.
Der Betreuer hat relativ viel Aufwand, da er an vielen Teamsitzungen beteiligt sein muss,
um das Team zu lenken und Einblick in die Zusammenarbeit zu nehmen. Dadurch entsteht auch die Gefahr, dass der Betreuer zu intensiv in die Teamarbeit involviert wird und
sich sowohl inhaltlich als auch in die Teamprozesse zu stark einbringt. So verliert die
Bewertung durch den Betreuer aber noch mehr Objektivität. Durch unseren Ansatz kann
das Team die Zusammenarbeit selbst regulieren und der Betreuer hat nur vor Beginn des
Teamprojekts mit der Planung der Lehrveranstaltung, also vor allem der Definition der
Projektphasen, der Leistungsziele und der Artefakte für die ersten Arbeitsphasen etwas
mehr zu tun. Im Verlauf der Teamarbeit selbst kann das Team weitgehend sich selbst überlassen werden. Nur zu den Meilensteinen muss der Betreuer ein Artefakt pro Teammitglied
4 Eine
ausführliche Veranschaulichung unseres Ansatzes am Beispiel findet sich in [Pre10].
- 117 -
lesen und bewerten. Wie intensiv die einzelnen Teammitglieder an der Erreichung der Leistungsziele in den einzelnen Projektphasen beteiligt waren, kann der Betreuer anhand des
Peer-Assessment-Ergebnisses erkennen. In unserem Ansatz fließt das Ergebnis des PeerAssessments in die Bewertung der Artefakte ein. Dadurch wird die individualisierte Bewertung objektiv und fair. Es ist davon auszugehen, dass es in diesem Lehrkonzept auch
keine Trittbrettfahrer mehr geben wird, weil das Team sich selbst reguliert.
Wir haben uns dagegen entschieden, jedes Teammitglied ein eigenes Portfolio erstellen
zu lassen, um die Teamarbeit durch ein gemeinschaftlich erstelltes Portfolio zusätzlich zu
stimulieren und den Betreuer nicht mit der Bewertung mehrerer individueller Portfolios
zu überlasten. Die Verzahnung der Artefakte fördert die Zusammenarbeit. Sehr gut definierte, ineinander verzahnte Artefakte in den ersten Projektphasen lehren die Studenten, in
den fortgeschrittenen Projektphasen eigenständige Artefakte zu definieren, die sie in ihrer
Teamarbeit unterstützen.
Unser Ansatz ist unseres Wissens nach der erste Ansatz, der Portfolios im Bereich längerfristiger Teamprojekte in der Informatik oder Wirtschaftsinformatik einsetzt. Uns ist
auch kein ähnlicher didaktischer Bewertungsansatz im Bereich Bewertung längerfristiger
Teamprojekte in der Hochschullehre im Allgemeinen bekannt. Derzeit wird unser Ansatz
an der Universität Mannheim im Rahmen eines Teamprojekts evaluiert.
Acknowledgements: Vielen Dank an Annette Glathe für inspirierende Diskussionen und
Kommentare zu dieser Arbeit.
Literatur
[Big03]
John Biggs. Teaching for quality learning at university. McGraw-Hill, 2003.
[Col09]
Jens Coldewey. Schelchte Noten für die Informatik-Ausbildung. In OBJEKTspektrum
05/2009, 2009.
[DK08]
Marion Degenhardt und Evangelia Karakiannakis. Lerntagebuch, Arbeitsjournal und
Portfolio. Drei Säulen eines persönlichen Lernprozeßbegleiters. In Neues Handbuch
Hochschullehre, 2008.
[Hea99]
Mike Heathfield. Group-based Assessment: An Evaluation of the Use of Assessed Tasks
as a Method of Fostering Higher Quality Learning. In Assessment matters in Higher
Education. Open University Press, 1999.
[Ker09]
Harold Kerzner. Project Management: A Systems Approach to Planning, Scheduling,
and Controlling. John Wiley & Sons, 2009.
[MNTB09] Diann Musial, Gayla Nieminen, Jay Thomas und Kay Burke. Foundations of Meaningful Educational Assessment. McGraw-Hill, 2009.
[Pre10]
Livia Predoiu. Leistungsbewertung einzelner Team-Mitglieder bei längerfristigen
Team-Projekten in der Mannheimer Lehre im Bereich Wirtschaftsinformatik. Technischer Bericht. Hochschuldidaktikzentrum Baden-Württemberg, Universität Mannheim,
2010.
[RBS05]
Phil Race, Sally Brown und Brenda Smith. 500 Tips on Assessment. Routledge, 2005.
- 118 -
Einige Anmerkungen zum Begriff IniK
Dieter Engbring
Universität Paderborn und Gesamtschule Paderborn-Elsen
[email protected]
sowie
Arno Pasternak
Technische Universität Dortmund und Fritz-Steinhoff-Gesamtschule Hagen
[email protected]
Abstract: Vor gut zwei Jahren ist ein Konzept mit der Überschrift „Informatik im
Kontext“ (kurz IniK) vorgelegt worden, das im Wesentlichen aus einer Sammlung von
Unterrichtsbeispielen besteht, die auf einer zugehörigen Webseite versammelt sind.1
Es handelt sich um ein Konzept, dass nicht nur mit unseren Intentionen zum Informatikunterricht im Einklang steht, sondern auch zu dem passt, was in den Didaktiken der
Naturwissenschaften (Biologie, Chemie und Physik) in den letzten Jahren postuliert
worden ist.
Ein konzeptioneller Überbau für die Unterrichtseinheiten, die unter der Überschrift
„Informatik im Kontext“ versammelt wurden, ist nicht erkennbar aber nötig, damit
die Sammlung nicht beliebig wird. Einige Grundsätze eines solchen konzeptionellen
Überbaus werden wir skizzieren, in dem wir Kriterien benennen, die der Gefahr entgegenwirken, dass hier Beliebigkeit Einzug hält und aus der Vielzahl der Vorschläge
begründet ausgewählt werden kann. Denn nicht alles, was auf dem ersten Blick nach
IniK aussieht, ist tatsächlich geeignet,
• den Schülerinnen und Schülern etwas zur Bedeutung der Informatik (auch im
Kontext unseres gesellschaftlichen Zusammenlebens) zu zeigen,
• die Inhalte des Informatikunterrichts besser an die Lebenswirklichkeit der Schülerinnen und Schüler anzubinden und zugleich
• eine kritische Distanz zur Informationstechnik aufzubauen, denn nicht alles, was
dort entwickelt wird bzw. sich dort entwickelt sollte kritiklos hingenommen werden.
Weitergehende Gedanken und Überlegungen zu einer Begriffsbestimmung zu IniK
sind darauf aufbauend zu entwickeln.
1
Unterricht im Kontext
Die Idee zu einer Informatik im Kontext ist nicht neu. Sie ist nicht neu bezüglich des Faches, aber auch nicht bezüglich allgemeiner Entwicklungen in der Didaktik. Sie ist aber
auch nicht neu bezüglich der Idee, fachliche Aspekte eines Unterrichtsfaches nicht fachsystematisch, sondern ausgehend vom Schüler zu betrachten.
Etwa ab dem Jahre 2000 entstanden in den naturwissenschaftlichen Fächern Initiativen
zum kontextorientierten Unterricht. Diese Konzepte sind eine Reaktion auf das vermin1 http://www.informatik-im-kontext.de,
Zugriff: 15.6.2010
- 119 -
derte Interesse der Jugendlichen für die naturwissenschaftlichen Fächer in den Schulen.
Für Chemie im Kontext wird formuliert: „Naturwissenschaftliche Grundbildung (Scientific Literacy) ist die Fähigkeit, naturwissenschaftliches Wissen anzuwenden, naturwissenschaftliche Fragen zu erkennen und aus Belegen Schlussfolgerungen zu ziehen, um
Entscheidungen zu verstehen und zu treffen [..] (OECD 2000)“ [IPF08, S.18]
Der kontextorientierte Unterricht ist auf der einen Seite das Wiederentdecken (relativ) alter, (schon immer richtiger) didaktischer Ideen vor allem aus dem Bereich naturwissenschaftlicher und technischer Fächer. Auf der anderen Seite stellt er einen neuen Versuch
dar, diese Ideen systematisch in die Didaktik und damit in den Unterricht zu integrieren.
Um dieses zu festigen, wird Wert auf ein gestuftes Vorgehen gelegt.
•
•
•
•
Begegnungsphase
Neugier- und Planungsphase
Erarbeitungsphase
Vernetzungs- und Vertiefungsphase [IPF08, S.27]
Ausgangspunkt bei allen drei etablierten naturwissenschaftlichen Fächern sind fachliche
Basiskonzepte, die in (lebensnahen) Kontexten eingebettet werden sollen, um den Schüler
ausgehend von seinem aktuellen Verständnis und Wissensstand zur tieferen fachlichen
Einsicht zu führen. Da der Informatik-Unterricht in den Schulen vor ähnlichen Problemen
wie der naturwissenschaftliche Unterricht steht, ist es naheliegend, derartige Konzepte
auch in der Informatik zu etablieren.
Auch für die Didaktik der Informatik ist Informatik im Kontext nur von der Überschrift
her ein neuer Ansatz. Er nimmt zwar Bezug auf die oben dargestellten Ansätze aus den
Naturwissenschaften, ist von der Idee schon viel älter. Der Bezug auf den Kontext liegt
für die Informatik nahe, da sie auch in ihren fachsystematischen Handeln (vor allem bei
der Software-Entwicklung), darauf angewiesen ist, dass der Anwendungsbereich einer eingehenden Analyse unterzogen wird. Die Wechselwirkungsprozesse zwischen Informatiksystemen und Einsatzumfeld sind viel enger als in anderen Disziplinen, die sich mit der
Herstellung von Artefakten beschäftigen.2 So hat es schon immer auch in den fachdidaktischen Konzeptionen zur Schulinformatik Ansätze gegeben, die den Kontext miteinbeziehen. Die betrifft den anwendungsorientierte Ansatz vom Beginn der 1980er Jahre und die
daran zum Teil anknüpfenden Grundbildungsansätze. Das Scheitern dieser Ansätze zeigt
deutlich – ohne dass wir diese hier ausführlich darstellen können – die Notwendigkeit auf,
Kriterien zu haben, anhand derer die Unterrichtseinheiten beurteilt werden können.
2
Ein konzeptioneller Rahmen für Inik
Die Informatik hat sich als Fach Ende der 1960er Jahre an den Hochschulen und ca. 10
Jahre später an den Schulen etabliert. Diese Entwicklung war so rasant, dass die Professionalisierung der Lehrer mit dem Ausbau des Faches nicht Schritt halten konnte. Die
technischen Artefakte der Informatik haben sich zudem so schnell weiterentwickelt und
2 Dies
wurde ausführlich in [Eng04] dargestellt.
- 120 -
verbreitet, dass bei vielen Personen ein Bedürfnis entstand, diese auch anwenden zu können. Die Geschichte des Informatik-Unterrichtes in der Sekundarstufe I hat gezeigt, dass
die Kolleginnen und Kollegen häufig verunsichert waren und heute noch sind. Aus der
Fragwürdigkeit des fachsystematischen Unterrichtes und aus eigener Unsicherheit heraus
wird oft die Alternative einer Produkt- oder Werkzeugschulung gewählt. Da es zudem sich
um viele sich schnell verändernde Produkte handelt, deren Bezug zu den Hintergründen
sich zumindest für den Nicht-Fachmann fast völlig entzieht, ist die Versuchung groß, diese
Hintergründe zu ignorieren und sich in der Schule auf Anwendungsschulung zu beschränken.
Es ergibt sich damit in den Naturwissenschaften und in der Informatik eine völlig unterschiedliche Ausgangssituation: In den naturwissenschaftlichen Fächern wird in erster
Linie ein Unterricht erteilt, der sich an der Fachsystematik orientiert. In der Informatik
dagegen findet (in der Sekundarstufe I) oft eine mehr oder weniger intensive Applikationsschulung statt.
Naturwissenschaften
Informatik
Biologie, Chemie, Physik
Unterricht in NW in der Sek I
heute:
Unterricht in INF in der Sek I
heute:
mit Fachsystematik
ohne Kontexte
Applikationsschulung als Kontext
ohne fachliche Konzepte
Unterricht in NW in der Sek I
morgen:
Unterricht in INF in der Sek I
morgen:
Fachsystematik
entwickelt in und aus Kontexten
Fachsystematik
entwickelt in und aus Kontexten
NW - Unterricht als 'NW i K':
erfüllt die
Bildungsstandards
INF - Unterricht als 'IN i K':
erfüllt die
Bildungsstandards
Abbildung 1: Die Naturwissenschaften und Informatik im Kontext
In den Naturwissenschaften wie auch in der Informatik existiert eine Unzufriedenheit mit
dieser Situation: In den Naturwissenschaften sollen zur besseren Motivation der Schülerinnen und Schüler zumindest teilweise (lebenswirkliche) Kontexte als Ausgangspunkt
dienen, aus denen die fachlichen Konzepte extrahiert werden. Aufgrund der von den Lehrern verinnerlichten Fachsystematik soll und kann erreicht werden, dass eine Kohärenz
vorhanden ist und keine Beliebigkeit einzieht.
In der Informatik soll durch eine Reihe von Beispielen, die nicht beliebig, sondern kohärent sein müssen, erreicht werden, dass aus den (lebenswirklichen) Kontexten informatische Inhalte und Konzepte extrahiert werden können. Dabei gibt es sicher alternative Wege
- 121 -
und die Kollegen müssen bzw. können aus einer Auswahl von Beispielen auswählen.
Für die Naturwissenschaften und die Informatik gilt gleichermaßen: Im Unterricht sollen die in den Bildungsstandards [GI08], [KMK05a], [KMK05b], [KMK05c] definierten
fach-spezifischen Inhalte und Methoden erreicht werden. Ziel muss sein, dass Schüler aus
Kontexten heraus fachspezifische Inhalte und Methoden und Kompetenzen erlernen. Sie
sollen zu einem nicht unbeträchtlichen Teil die Motivation besitzen bzw. erwerben, sich
in ihrem weiteren Schul-, Ausbildungs- und Studienweg naturwissenschaftliche und informatische Inhalte anzueignen, damit ihnen viele attraktive Berufsmöglichkeiten offen
stehen und damit dem drohenden gesellschaftlichen Fachkräftemangel entgegengewirkt
werden kann.
Für Informatiker geht es auch im Informatikunterricht der Sekundarstufe I um die Vermittlung der informatischer Inhalte. Die Bildungsstandards Informatik [GI08] bieten hierfür
auch eine fachdidaktische Grundlage. Entsprechend formuliert auch die Initiative Informatik im Kontext auf ihrer Webseite: „Neu ist es, weil sich an den Bildungsstandards zur
Informatik orientiert, die 2007 zum ersten Mal vorgestellt und 2008 als Empfehlung der
Gesellschaft für Informatik veröffentlicht werden.“3
Diese Bildungsstandards sind bewusst nicht so formuliert, dass aus ihnen ein konkreter
Lehrgang abgeleitet werden kann. Dies ist natürlich für den Lehrenden eine Schwierigkeit,
wenn wie derzeit häufig keine festen Vorgaben, Richtlinien und Curricula existieren.
Die Bildungsstandards mit ihrer Verzahnung von inhalts- und prozessbezogenen Kompetenzen legen einen kontextorientierten Unterricht ähnlich den Forderungen der Naturwissenschaftler nahe. Aber auch andere Unterrichtsformen, wie z.B. ein Projekt, entsprechen
den Vorstellungen dieser Standards. Von einem kontextorientierten Unterricht kann erst
gesprochen werden, wenn ein nicht unwesentlicher Teil des Unterrichtes entsprechend
diesem Ansatz durchgeführt wird.
Die Kontexte dürfen daher nicht selbst zu einer Rechtfertigung eines solchen Unterrichtes
werden, indem aus einem lebenswirklichen Zusammenhang das Anwenden und das Training einer Anwendungsklasse abgeleitet wird. Daraus folgt, das die Kontexte und die darin vermittelten informatischen Inhalte einen für den Schüler erkennbaren Zusammenhang
repräsentieren müssen. Die Organisation dieser Inhalte u.a. in Form derartiger Roter Fäden ermöglicht, dass „der gemeinsame fachinhaltliche Zusammenhang [..] im Verlauf des
Unterrichts aus verschiedenen Blickwinkeln oder in verschiedenen Kontexten dargestellt“
wird. „Die Anordnung der unterrichtlichen Gegenstände durchzieht mehrere Unterrichtseinheiten.“ [PV09]
3
Kriterien
Es hat sich gezeigt, dass das Problem nicht darin besteht, eine Unterrichtseinheit zu einem IniK-Thema zu konzipieren, sondern in der Auswahl aus der Vielzahl der möglichen
Themen. Für die Auswahl werden jedoch Kriterien benötigt, auf deren Grundlage auch
3 ebenfalls:
http://www.informatik-im-kontext.de, Zugriff: 15.6.2010
- 122 -
Vorschläge als nicht oder weniger passend abgelehnt werden. Die Begründung der Kriterien folgt aus dem bisher Geschriebenen, das wir an dieser Stelle zusammenfassen.
potenziell
erlebbar
Basiskonzepte/
Fundamentale
Ideen
erfassbare
Komplexität
lebenswirklich
Rote Fäden
Informatikinhalte
sind
enthalten in
Kontexte
verstehen
beeinflussen
programmieren
modellieren
dekonstruieren
ordnen
erkennen
zeitstabil
motivieren
Schüler
Abbildung 2: Informatikunterricht und Kontexte
Von entscheidender Bedeutung ist die lebensweltliche Anbindung der Unterrichtsgegenstände. Der Kontext muss für die Lernenden insofern nachvollziehbar sein, dass er potentiell erlebbar ist. Damit ist die lebensweltliche Verankerung nicht auf die aktuelle Lebenswelt beschränkt. Sie kann (oder wird - soweit Prognosen möglich sind) auf die Schüler
zukommen, da z.B. alle Schüler nach der Schule damit in Berührung kommen. Dies klingt
eigentlich selbstverständlich, ist es aber tatsächlich nicht, da es auf eine Vielzahl von schulischen Inhalten eben nicht zutrifft.
Ein Beispiel für die potentielle Erlebbarkeit ist das Online-Banking. In der Sek. I, in der
wir Informatik im Kontext im Wesentlichen verankert sehen, haben noch nicht alle Schüler ein Online-Konto. Viele werden sich schon aus Kostengründen eines zulegen. Der bargeldlose Umgang mit Zahlungen und Rechnungen sollte in diesem Zusammenhang ebenso
bearbeitet werden.
Als zweite Forderung an Unterrichtsreihen (nicht nur aus dem Bereich Inik) ist eine gewisse Zeitstabilität wünschenswert. Schon vor 20 Jahren hat A. Schwill [Sch93] im Zusammenhang mit seinen „fundamentalen Ideen der Informatik“ darauf aufmerksam gemacht,
dass sich die Informatik in der Schule sich nicht an die neuesten Erkenntnisse aus der
Wissenschaft anhängen solle. Er verweist in diesem Zusammenhang auf die Physik. Ob
seine „fundamentalen Ideen“ diesen Ansprüchen genügen, sei jetzt mal dahingestellt, zumindest benennt er die Zeitstabilität als Kriterium für Unterrichtsinhalte. Leider lassen
- 123 -
sich seriös vielleicht die nächsten beiden Jahren überschauen. Man sollte aber davon absehen, sofort neue Anwendungen einzubeziehen, ohne dass man deren Neuigkeit schon
einschätzen kann. So sind die Web2.0-Anwendungen zwar neu, aber die dahinterstehenden Techniken sind es nicht. Auch im Web1.0 war im Prinzip die Trennung von Autoren
und Konsumenten bereits aufgehoben.
Schließlich folgt aus der Verankerung von Informatik im Kontext in der Sek. I auch, dass
die Komplexität der Themen erfassbar sein muss. Das Scheitern des anwendungsorientierten Ansatzes muss hier als Warnung genügen. Last but not least sollte man nach einer
Unterrichtsreihe zu Informatik im Kontext eine Reihe der Kompetenzen angeben können,
die in den Bildungsstandards der Informatik aufgeschrieben sind. Es sollte sich aber von
selbst verstehen, dass eine Unterrichtseinheit keine IniK-Einheit sein kann, wenn ausschliesslich Felder in einer Zeile oder Spalte der Bildungsmatrix der Bildungsstandards angekreuzt werden können. Dieses können und wollen wir an dieser Stelle nicht ausführlich
darstellen, da es hier nur darum ging, die Kriterien herzuleiten.
Literatur
[GI08]
Gesellschaft für Informatik e.V.: Grundsätze und Standards für die Informatik in
der Schule. LOGIN-Verlag, Berlin, Arbeitskreis „Bildungsstandards“ der GI, 2008.
[KMK05a]
Ständige Konferenz der Kultusminister der Länder der Bundesrepublik Deutschland. Bildungsstandandards im Fach Biologie für den mittleren Bildungsabschluss
- Beschluss vom 16.12.2004. Reihe: „Beschlüsse der Kultusministerkonfernez“.
Wolters Kluwer Deutschland - Luchterhand, Neuwied, 2005.
[KMK05b]
Ständige Konferenz der Kultusminister der Länder der Bundesrepublik Deutschland. Bildungsstandandards im Fach Chemie für den mittleren Bildungsabschluss
- Beschluss vom 16.12.2004. Reihe: „Beschlüsse der Kultusministerkonfernez“.
Wolters Kluwer Deutschland - Luchterhand, Neuwied, 2005.
[KMK05c]
Ständige Konferenz der Kultusminister der Länder der Bundesrepublik Deutschland. Bildungsstandandards im Fach Physik für den mittleren Bildungsabschluss
- Beschluss vom 16.12.2004. Reihe: „Beschlüsse der Kultusministerkonfernez“.
Wolters Kluwer Deutschland - Luchterhand, Neuwied, 2005.
[Eng04]
Dieter Engbring. Informatik im Herstellungs- und Nutzungskontext. Ein technikbezogener Zugang zur fachübergreifenden Lehre. 2004.
[IPF08]
Bernd Ralle Ilka Parchmann und David-S. Di Fuccia. Entwicklung und Struktur
der Unterrichtskonzeption Chemie im Kontext. In R. u. a. Demuth, Hrsg., Chemie
im Kontext - Von der Innovation zur nachhaltigen Verbreitung eines Unterrichtskonzepts, Seiten 9–48, Münster, 2008. Waxmann.
[PV09]
Arno Pasternak und Jan Vahrenhold. Rote Fäden und Kontextorientierung im Informatikunterricht. In Ingo-Rüdiger Peters, Hrsg., Informatische Bildung in Theorie
und Praxis, Seiten 45–56, Berlin, 2009. LOG IN Verlag. Praxisband zur INFOS
2009
[Sch93]
Andreas Schwill. Fundamentale Ideen der Informatik. In: Zentralblatt für Didaktik
der Mathematik 25 Heft 1 (1993) S. 20-31.
- 124 -
GI-Edition Lecture Notes in Informatics
P-1
P-2
P-3
P-4
P-5
P-6
P-7
P-8
P-9
P-10
P-11
P-12
P-13
P-14
P-15
P-16
P-17
Gregor Engels, Andreas Oberweis, Albert
Zündorf (Hrsg.): Modellierung 2001.
Mikhail Godlevsky, Heinrich C. Mayr
(Hrsg.): Information Systems Technology
and its Applications, ISTA’2001.
Ana M. Moreno, Reind P. van de Riet
(Hrsg.): Applications of Natural Language to Information Systems,
NLDB’2001.
H. Wörn, J. Mühling, C. Vahl, H.-P.
Meinzer (Hrsg.): Rechner- und sensorgestützte Chirurgie; Workshop des SFB
414.
Andy Schürr (Hg.): OMER – ObjectOriented Modeling of Embedded RealTime Systems.
Hans-Jürgen Appelrath, Rolf Beyer, Uwe
Marquardt, Heinrich C. Mayr, Claudia
Steinberger (Hrsg.): Unternehmen Hochschule, UH’2001.
Andy Evans, Robert France, Ana Moreira,
Bernhard Rumpe (Hrsg.): Practical UMLBased Rigorous Development Methods –
Countering or Integrating the extremists,
pUML’2001.
Reinhard Keil-Slawik, Johannes Magenheim (Hrsg.): Informatikunterricht und
Medienbildung, INFOS’2001.
Jan von Knop, Wilhelm Haverkamp
(Hrsg.): Innovative Anwendungen in
Kommunikationsnetzen, 15. DFN Arbeitstagung.
Mirjam Minor, Steffen Staab (Hrsg.): 1st
German Workshop on Experience Management: Sharing Experiences about the
Sharing Experience.
Michael Weber, Frank Kargl (Hrsg.):
Mobile Ad-Hoc Netzwerke, WMAN
2002.
Martin Glinz, Günther Müller-Luschnat
(Hrsg.): Modellierung 2002.
Jan von Knop, Peter Schirmbacher and
Viljan Mahni_ (Hrsg.): The Changing
Universities – The Role of Technology.
Robert Tolksdorf, Rainer Eckstein
(Hrsg.): XML-Technologien für das Semantic Web – XSW 2002.
Hans-Bernd Bludau, Andreas Koop
(Hrsg.): Mobile Computing in Medicine.
J. Felix Hampe, Gerhard Schwabe (Hrsg.):
Mobile and Collaborative Busi-ness 2002.
Jan von Knop, Wilhelm Haverkamp
(Hrsg.): Zukunft der Netze –Die Verletzbarkeit meistern, 16. DFN Arbeitstagung.
P-18
P-19
P-20
P-21
P-22
P-23
P-24
P-25
P-26
P-27
P-28
P-29
P-30
P-31
Elmar J. Sinz, Markus Plaha (Hrsg.):
Modellierung betrieblicher Informationssysteme – MobIS 2002.
Sigrid Schubert, Bernd Reusch, Norbert
Jesse (Hrsg.): Informatik bewegt – Informatik 2002 – 32. Jahrestagung der Gesellschaft für Informatik e.V. (GI) 30.Sept.3.Okt. 2002 in Dortmund.
Sigrid Schubert, Bernd Reusch, Norbert
Jesse (Hrsg.): Informatik bewegt – Informatik 2002 – 32. Jahrestagung der Gesellschaft für Informatik e.V. (GI) 30.Sept.3.Okt. 2002 in Dortmund (Ergänzungsband).
Jörg Desel, Mathias Weske (Hrsg.):
Promise 2002: Prozessorientierte Methoden und Werkzeuge für die Entwicklung
von Informationssystemen.
Sigrid Schubert, Johannes Magenheim,
Peter Hubwieser, Torsten Brinda (Hrsg.):
Forschungsbeiträge zur “Didaktik der
Informatik” – Theorie, Praxis, Evaluation.
Thorsten Spitta, Jens Borchers, Harry M.
Sneed (Hrsg.): Software Management
2002 – Fortschritt durch Beständigkeit
Rainer Eckstein, Robert Tolksdorf
(Hrsg.): XMIDX 2003 – XMLTechnologien für Middleware – Middleware für XML-Anwendungen
Key Pousttchi, Klaus Turowski (Hrsg.):
Mobile Commerce – Anwendungen und
Perspektiven – 3. Workshop Mobile
Commerce, Universität Augsburg,
04.02.2003
Gerhard Weikum, Harald Schöning,
Erhard Rahm (Hrsg.): BTW 2003: Datenbanksysteme für Business, Technologie
und Web
Michael Kroll, Hans-Gerd Lipinski, Kay
Melzer (Hrsg.): Mobiles Computing in
der Medizin
Ulrich Reimer, Andreas Abecker, Steffen
Staab, Gerd Stumme (Hrsg.): WM 2003:
Professionelles Wissensmanagement – Erfahrungen und Visionen
Antje Düsterhöft, Bernhard Thalheim
(Eds.): NLDB’2003: Natural Language
Processing and Information Systems
Mikhail Godlevsky, Stephen Liddle,
Heinrich C. Mayr (Eds.): Information
Systems Technology and its Applications
Arslan Brömme, Christoph Busch (Eds.):
BIOSIG 2003: Biometrics and Electronic
Signatures
P-32
P-33
P-34
P-35
P-36
P-37
P-38
P-39
P-40
P-41
P-42
P-43
P-44
P-45
P-46
P-47
Peter Hubwieser (Hrsg.): Informatische
Fachkonzepte im Unterricht – INFOS
2003
Andreas Geyer-Schulz, Alfred Taudes
(Hrsg.): Informationswirtschaft: Ein
Sektor mit Zukunft
Klaus Dittrich, Wolfgang König, Andreas
Oberweis, Kai Rannenberg, Wolfgang
Wahlster (Hrsg.): Informatik 2003 –
Innovative Informatikanwendungen
(Band 1)
Klaus Dittrich, Wolfgang König, Andreas
Oberweis, Kai Rannenberg, Wolfgang
Wahlster (Hrsg.): Informatik 2003 –
Innovative Informatikanwendungen
(Band 2)
Rüdiger Grimm, Hubert B. Keller, Kai
Rannenberg (Hrsg.): Informatik 2003 –
Mit Sicherheit Informatik
Arndt Bode, Jörg Desel, Sabine Rathmayer, Martin Wessner (Hrsg.): DeLFI
2003: e-Learning Fachtagung Informatik
E.J. Sinz, M. Plaha, P. Neckel (Hrsg.):
Modellierung betrieblicher Informationssysteme – MobIS 2003
Jens Nedon, Sandra Frings, Oliver Göbel
(Hrsg.): IT-Incident Management & ITForensics – IMF 2003
Michael Rebstock (Hrsg.): Modellierung
betrieblicher Informationssysteme – MobIS 2004
Uwe Brinkschulte, Jürgen Becker, Dietmar Fey, Karl-Erwin Großpietsch, Christian Hochberger, Erik Maehle, Thomas
Runkler (Edts.): ARCS 2004 – Organic
and Pervasive Computing
Key Pousttchi, Klaus Turowski (Hrsg.):
Mobile Economy – Transaktionen und
Prozesse, Anwendungen und Dienste
Birgitta König-Ries, Michael Klein,
Philipp Obreiter (Hrsg.): Persistance,
Scalability, Transactions – Database Mechanisms for Mobile Applications
Jan von Knop, Wilhelm Haverkamp, Eike
Jessen (Hrsg.): Security, E-Learning. EServices
Bernhard Rumpe, Wofgang Hesse (Hrsg.):
Modellierung 2004
Ulrich Flegel, Michael Meier (Hrsg.):
Detection of Intrusions of Malware &
Vulnerability Assessment
Alexander Prosser, Robert Krimmer
(Hrsg.): Electronic Voting in Europe –
Technology, Law, Politics and Society
P-48
P-49
P-50
P-51
P-52
P-53
P-54
P-55
P-56
P-57
P-58
P-59
P-60
P-61
P-62
P-63
Anatoly Doroshenko, Terry Halpin,
Stephen W. Liddle, Heinrich C. Mayr
(Hrsg.): Information Systems Technology
and its Applications
G. Schiefer, P. Wagner, M. Morgenstern,
U. Rickert (Hrsg.): Integration und Datensicherheit – Anforderungen, Konflikte und
Perspektiven
Peter Dadam, Manfred Reichert (Hrsg.):
INFORMATIK 2004 – Informatik verbindet (Band 1) Beiträge der 34. Jahrestagung der Gesellschaft für Informatik e.V.
(GI), 20.-24. September 2004 in Ulm
Peter Dadam, Manfred Reichert (Hrsg.):
INFORMATIK 2004 – Informatik verbindet (Band 2) Beiträge der 34. Jahrestagung der Gesellschaft für Informatik e.V.
(GI), 20.-24. September 2004 in Ulm
Gregor Engels, Silke Seehusen (Hrsg.):
DELFI 2004 – Tagungsband der 2. eLearning Fachtagung Informatik
Robert Giegerich, Jens Stoye (Hrsg.):
German Conference on Bioinformatics –
GCB 2004
Jens Borchers, Ralf Kneuper (Hrsg.):
Softwaremanagement 2004 – Outsourcing
und Integration
Jan von Knop, Wilhelm Haverkamp, Eike
Jessen (Hrsg.): E-Science und Grid Adhoc-Netze Medienintegration
Fernand Feltz, Andreas Oberweis, Benoit
Otjacques (Hrsg.): EMISA 2004 – Informationssysteme im E-Business und EGovernment
Klaus Turowski (Hrsg.): Architekturen,
Komponenten, Anwendungen
Sami Beydeda, Volker Gruhn, Johannes
Mayer, Ralf Reussner, Franz Schweiggert
(Hrsg.): Testing of Component-Based
Systems and Software Quality
J. Felix Hampe, Franz Lehner, Key
Pousttchi, Kai Ranneberg, Klaus Turowski
(Hrsg.): Mobile Business – Processes,
Platforms, Payments
Steffen Friedrich (Hrsg.): Unterrichtskonzepte für inforrmatische Bildung
Paul Müller, Reinhard Gotzhein, Jens B.
Schmitt (Hrsg.): Kommunikation in verteilten Systemen
Federrath, Hannes (Hrsg.): „Sicherheit
2005“ – Sicherheit – Schutz und Zuverlässigkeit
Roland Kaschek, Heinrich C. Mayr,
Stephen Liddle (Hrsg.): Information Systems – Technology and ist Applications
P-64
P-65
P-66
P-67
P-68
P-69
P-70
P-71
P-72
P-73
P-74
P-75
P-76
P-77
P-78
P-79
Peter Liggesmeyer, Klaus Pohl, Michael
Goedicke (Hrsg.): Software Engineering
2005
Gottfried Vossen, Frank Leymann, Peter
Lockemann, Wolffried Stucky (Hrsg.):
Datenbanksysteme in Business, Technologie und Web
Jörg M. Haake, Ulrike Lucke, Djamshid
Tavangarian (Hrsg.): DeLFI 2005: 3.
deutsche e-Learning Fachtagung Informatik
Armin B. Cremers, Rainer Manthey, Peter
Martini, Volker Steinhage (Hrsg.):
INFORMATIK 2005 – Informatik LIVE
(Band 1)
Armin B. Cremers, Rainer Manthey, Peter
Martini, Volker Steinhage (Hrsg.):
INFORMATIK 2005 – Informatik LIVE
(Band 2)
Robert Hirschfeld, Ryszard Kowalcyk,
Andreas Polze, Matthias Weske (Hrsg.):
NODe 2005, GSEM 2005
Klaus Turowski, Johannes-Maria Zaha
(Hrsg.): Component-oriented Enterprise
Application (COAE 2005)
Andrew Torda, Stefan Kurz, Matthias
Rarey (Hrsg.): German Conference on
Bioinformatics 2005
Klaus P. Jantke, Klaus-Peter Fähnrich,
Wolfgang S. Wittig (Hrsg.): Marktplatz
Internet: Von e-Learning bis e-Payment
Jan von Knop, Wilhelm Haverkamp, Eike
Jessen (Hrsg.): “Heute schon das Morgen
sehen“
Christopher Wolf, Stefan Lucks, Po-Wah
Yau (Hrsg.): WEWoRC 2005 – Western
European Workshop on Research in
Cryptology
Jörg Desel, Ulrich Frank (Hrsg.): Enterprise Modelling and Information Systems
Architecture
Thomas Kirste, Birgitta König-Riess, Key
Pousttchi, Klaus Turowski (Hrsg.): Mobile Informationssysteme – Potentiale,
Hindernisse, Einsatz
Jana Dittmann (Hrsg.): SICHERHEIT
2006
K.-O. Wenkel, P. Wagner, M. Morgenstern, K. Luzi, P. Eisermann (Hrsg.): Landund Ernährungswirtschaft im Wandel
Bettina Biel, Matthias Book, Volker
Gruhn (Hrsg.): Softwareengineering 2006
P-80
P-81
P-82
P-83
P-84
P-85
P-86
P-87
P-88
P-90
P-91
P-92
P-93
P-94
P-95
P-96
P-97
Mareike Schoop, Christian Huemer,
Michael Rebstock, Martin Bichler
(Hrsg.): Service-Oriented Electronic
Commerce
Wolfgang Karl, Jürgen Becker, KarlErwin Großpietsch, Christian Hochberger,
Erik Maehle (Hrsg.): ARCS´06
Heinrich C. Mayr, Ruth Breu (Hrsg.):
Modellierung 2006
Daniel Huson, Oliver Kohlbacher, Andrei
Lupas, Kay Nieselt and Andreas Zell
(eds.): German Conference on Bioinformatics
Dimitris Karagiannis, Heinrich C. Mayr,
(Hrsg.): Information Systems Technology
and its Applications
Witold Abramowicz, Heinrich C. Mayr,
(Hrsg.): Business Information Systems
Robert Krimmer (Ed.): Electronic Voting
2006
Max Mühlhäuser, Guido Rößling, Ralf
Steinmetz (Hrsg.): DELFI 2006: 4. eLearning Fachtagung Informatik
Robert Hirschfeld, Andreas Polze,
Ryszard Kowalczyk (Hrsg.): NODe 2006,
GSEM 2006
Joachim Schelp, Robert Winter, Ulrich
Frank, Bodo Rieger, Klaus Turowski
(Hrsg.): Integration, Informationslogistik
und Architektur
Henrik Stormer, Andreas Meier, Michael
Schumacher (Eds.): European Conference
on eHealth 2006
Fernand Feltz, Benoît Otjacques, Andreas
Oberweis, Nicolas Poussing (Eds.): AIM
2006
Christian Hochberger, Rüdiger Liskowsky
(Eds.): INFORMATIK 2006 – Informatik
für Menschen, Band 1
Christian Hochberger, Rüdiger Liskowsky
(Eds.): INFORMATIK 2006 – Informatik
für Menschen, Band 2
Matthias Weske, Markus Nüttgens (Eds.):
EMISA 2005: Methoden, Konzepte und
Technologien für die Entwicklung von
dienstbasierten Informationssystemen
Saartje Brockmans, Jürgen Jung, York
Sure (Eds.): Meta-Modelling and Ontologies
Oliver Göbel, Dirk Schadt, Sandra Frings,
Hardo Hase, Detlef Günther, Jens Nedon
(Eds.): IT-Incident Mangament & ITForensics – IMF 2006
P-98
P-99
P-100
P-101
P-102
P-103
P-104
P-105
P-106
P-107
P-108
P-109
P-110
P-111
Hans Brandt-Pook, Werner Simonsmeier
und Thorsten Spitta (Hrsg.): Beratung in
der Softwareentwicklung – Modelle,
Methoden, Best Practices
Andreas Schwill, Carsten Schulte, Marco
Thomas (Hrsg.): Didaktik der Informatik
Peter Forbrig, Günter Siegel, Markus
Schneider (Hrsg.): HDI 2006: Hochschuldidaktik der Informatik
Stefan Böttinger, Ludwig Theuvsen,
Susanne Rank, Marlies Morgenstern (Hrsg.):
Agrarinformatik im Spannungsfeld
zwischen Regionalisierung und globalen
Wertschöpfungsketten
Otto Spaniol (Eds.): Mobile Services and
Personalized Environments
Alfons Kemper, Harald Schöning, Thomas
Rose, Matthias Jarke, Thomas Seidl,
Christoph Quix, Christoph Brochhaus
(Hrsg.): Datenbanksysteme in Business,
Technologie und Web (BTW 2007)
Birgitta König-Ries, Franz Lehner,
Rainer Malaka, Can Türker (Hrsg.)
MMS 2007: Mobilität und mobile
Informationssysteme
Wolf-Gideon Bleek, Jörg Raasch,
Heinz Züllighoven (Hrsg.)
Software Engineering 2007
Wolf-Gideon Bleek, Henning Schwentner,
Heinz Züllighoven (Hrsg.)
Software Engineering 2007 –
Beiträge zu den Workshops
Heinrich C. Mayr,
Dimitris Karagiannis (eds.)
Information Systems
Technology and its Applications
Arslan Brömme, Christoph Busch,
Detlef Hühnlein (eds.)
BIOSIG 2007:
Biometrics and
Electronic Signatures
Rainer Koschke, Otthein Herzog, KarlHeinz Rödiger, Marc Ronthaler (Hrsg.)
INFORMATIK 2007
Informatik trifft Logistik
Band 1
Rainer Koschke, Otthein Herzog, KarlHeinz Rödiger, Marc Ronthaler (Hrsg.)
INFORMATIK 2007
Informatik trifft Logistik
Band 2
Christian Eibl, Johannes Magenheim,
Sigrid Schubert, Martin Wessner (Hrsg.)
DeLFI 2007:
5. e-Learning Fachtagung
Informatik
P-112
P-113
P-114
P-115
P-116
P-117
P-118
P-119
P-120
P-121
P-122
Sigrid Schubert (Hrsg.)
Didaktik der Informatik in
Theorie und Praxis
Sören Auer, Christian Bizer, Claudia
Müller, Anna V. Zhdanova (Eds.)
The Social Semantic Web 2007
Proceedings of the 1st Conference on
Social Semantic Web (CSSW)
Sandra Frings, Oliver Göbel, Detlef Günther,
Hardo G. Hase, Jens Nedon, Dirk Schadt,
Arslan Brömme (Eds.)
IMF2007 IT-incident
management & IT-forensics
Proceedings of the 3rd International
Conference on IT-Incident Management
& IT-Forensics
Claudia Falter, Alexander Schliep,
Joachim Selbig, Martin Vingron and
Dirk Walther (Eds.)
German conference on bioinformatics
GCB 2007
Witold Abramowicz, Leszek Maciszek (Eds.)
Business Process and Services Computing
1st International Working Conference on
Business Process and Services Computing
BPSC 2007
Ryszard Kowalczyk (Ed.)
Grid service engineering and manegement
The 4th International Conference on Grid
Service Engineering and Management
GSEM 2007
Andreas Hein, Wilfried Thoben, HansJürgen Appelrath, Peter Jensch (Eds.)
European Conference on ehealth 2007
Manfred Reichert, Stefan Strecker, Klaus
Turowski (Eds.)
Enterprise Modelling and Information
Systems Architectures
Concepts and Applications
Adam Pawlak, Kurt Sandkuhl,
Wojciech Cholewa,
Leandro Soares Indrusiak (Eds.)
Coordination of Collaborative
Engineering - State of the Art and Future
Challenges
Korbinian Herrmann, Bernd Bruegge (Hrsg.)
Software Engineering 2008
Fachtagung des GI-Fachbereichs
Softwaretechnik
Walid Maalej, Bernd Bruegge (Hrsg.)
Software Engineering 2008 Workshopband
Fachtagung des GI-Fachbereichs
Softwaretechnik
P-123
P-124
P-125
P-126
P-127
P-128
P-129
P-130
P-131
P-132
Michael H. Breitner, Martin Breunig, Elgar
Fleisch, Ley Pousttchi, Klaus Turowski (Hrsg.)
Mobile und Ubiquitäre
Informationssysteme – Technologien,
Prozesse, Marktfähigkeit
Proceedings zur 3. Konferenz Mobile und
Ubiquitäre Informationssysteme
(MMS 2008)
Wolfgang E. Nagel, Rolf Hoffmann,
Andreas Koch (Eds.)
9th Workshop on Parallel Systems and
Algorithms (PASA)
Workshop of the GI/ITG Speciel Interest
Groups PARS and PARVA
Rolf A.E. Müller, Hans-H. Sundermeier,
Ludwig Theuvsen, Stephanie Schütze,
Marlies Morgenstern (Hrsg.)
Unternehmens-IT:
Führungsinstrument oder
Verwaltungsbürde
Referate der 28. GIL Jahrestagung
Rainer Gimnich, Uwe Kaiser, Jochen
Quante, Andreas Winter (Hrsg.)
10th Workshop Software Reengineering
(WSR 2008)
Thomas Kühne, Wolfgang Reisig,
Friedrich Steimann (Hrsg.)
Modellierung 2008
Ammar Alkassar, Jörg Siekmann (Hrsg.)
Sicherheit 2008
Sicherheit, Schutz und Zuverlässigkeit
Beiträge der 4. Jahrestagung des
Fachbereichs Sicherheit der Gesellschaft
für Informatik e.V. (GI)
2.-4. April 2008
Saarbrücken, Germany
Wolfgang Hesse, Andreas Oberweis (Eds.)
Sigsand-Europe 2008
Proceedings of the Third AIS SIGSAND
European Symposium on Analysis,
Design, Use and Societal Impact of
Information Systems
Paul Müller, Bernhard Neumair,
Gabi Dreo Rodosek (Hrsg.)
1. DFN-Forum Kommunikationstechnologien Beiträge der Fachtagung
Robert Krimmer, Rüdiger Grimm (Eds.)
3rd International Conference on Electronic
Voting 2008
Co-organized by Council of Europe,
Gesellschaft für Informatik and EVoting.CC
Silke Seehusen, Ulrike Lucke,
Stefan Fischer (Hrsg.)
DeLFI 2008:
Die 6. e-Learning Fachtagung Informatik
P-133
P-134
P-135
P-136
P-137
P-138
P-139
P-140
P-141
P-142
P-143
Heinz-Gerd Hegering, Axel Lehmann,
Hans Jürgen Ohlbach, Christian
Scheideler (Hrsg.)
INFORMATIK 2008
Beherrschbare Systeme – dank Informatik
Band 1
Heinz-Gerd Hegering, Axel Lehmann,
Hans Jürgen Ohlbach, Christian
Scheideler (Hrsg.)
INFORMATIK 2008
Beherrschbare Systeme – dank Informatik
Band 2
Torsten Brinda, Michael Fothe,
Peter Hubwieser, Kirsten Schlüter (Hrsg.)
Didaktik der Informatik –
Aktuelle Forschungsergebnisse
Andreas Beyer, Michael Schroeder (Eds.)
German Conference on Bioinformatics
GCB 2008
Arslan Brömme, Christoph Busch, Detlef
Hühnlein (Eds.)
BIOSIG 2008: Biometrics and Electronic
Signatures
Barbara Dinter, Robert Winter, Peter
Chamoni, Norbert Gronau, Klaus
Turowski (Hrsg.)
Synergien durch Integration und
Informationslogistik
Proceedings zur DW2008
Georg Herzwurm, Martin Mikusz (Hrsg.)
Industrialisierung des SoftwareManagements
Fachtagung des GI-Fachausschusses
Management der Anwendungsentwicklung und -wartung im Fachbereich
Wirtschaftsinformatik
Oliver Göbel, Sandra Frings, Detlef
Günther, Jens Nedon, Dirk Schadt (Eds.)
IMF 2008 - IT Incident Management &
IT Forensics
Peter Loos, Markus Nüttgens,
Klaus Turowski, Dirk Werth (Hrsg.)
Modellierung betrieblicher Informationssysteme (MobIS 2008)
Modellierung zwischen SOA und
Compliance Management
R. Bill, P. Korduan, L. Theuvsen,
M. Morgenstern (Hrsg.)
Anforderungen an die Agrarinformatik
durch Globalisierung und
Klimaveränderung
Peter Liggesmeyer, Gregor Engels,
Jürgen Münch, Jörg Dörr,
Norman Riegel (Hrsg.)
Software Engineering 2009
Fachtagung des GI-Fachbereichs
Softwaretechnik
P-144
P-145
P-146
P-147
P-148
P-149
P-150
P-151
P-152
P-153
P-154
Johann-Christoph Freytag, Thomas Ruf,
Wolfgang Lehner, Gottfried Vossen
(Hrsg.)
Datenbanksysteme in Business,
Technologie und Web (BTW)
Knut Hinkelmann, Holger Wache (Eds.)
WM2009: 5th Conference on Professional
Knowledge Management
Markus Bick, Martin Breunig,
Hagen Höpfner (Hrsg.)
Mobile und Ubiquitäre
Informationssysteme – Entwicklung,
Implementierung und Anwendung
4. Konferenz Mobile und Ubiquitäre
Informationssysteme (MMS 2009)
Witold Abramowicz, Leszek Maciaszek,
Ryszard Kowalczyk, Andreas Speck (Eds.)
Business Process, Services Computing
and Intelligent Service Management
BPSC 2009 · ISM 2009 · YRW-MBP 2009
Christian Erfurth, Gerald Eichler,
Volkmar Schau (Eds.)
9th International Conference on Innovative
Internet Community Systems
I2CS 2009
Paul Müller, Bernhard Neumair,
Gabi Dreo Rodosek (Hrsg.)
2. DFN-Forum
Kommunikationstechnologien
Beiträge der Fachtagung
Jürgen Münch, Peter Liggesmeyer (Hrsg.)
Software Engineering
2009 - Workshopband
Armin Heinzl, Peter Dadam, Stefan Kirn,
Peter Lockemann (Eds.)
PRIMIUM
Process Innovation for
Enterprise Software
Jan Mendling, Stefanie Rinderle-Ma,
Werner Esswein (Eds.)
Enterprise Modelling and Information
Systems Architectures
Proceedings of the 3rd Int‘l Workshop
EMISA 2009
Andreas Schwill,
Nicolas Apostolopoulos (Hrsg.)
Lernen im Digitalen Zeitalter
DeLFI 2009 – Die 7. E-Learning
Fachtagung Informatik
Stefan Fischer, Erik Maehle
Rüdiger Reischuk (Hrsg.)
INFORMATIK 2009
Im Focus das Leben
P-155
P-156
P-157
P-158
P-159
P-160
P-161
P-162
P-163
P-165
Arslan Brömme, Christoph Busch,
Detlef Hühnlein (Eds.)
BIOSIG 2009:
Biometrics and Electronic Signatures
Proceedings of the Special Interest Group
on Biometrics and Electronic Signatures
Bernhard Koerber (Hrsg.)
Zukunft braucht Herkunft
25 Jahre »INFOS – Informatik und
Schule«
Ivo Grosse, Steffen Neumann,
Stefan Posch, Falk Schreiber,
Peter Stadler (Eds.)
German Conference on Bioinformatics
2009
W. Claupein, L. Theuvsen, A. Kämpf,
M. Morgenstern (Hrsg.)
Precision Agriculture
Reloaded – Informationsgestützte
Landwirtschaft
Gregor Engels, Markus Luckey,
Wilhelm Schäfer (Hrsg.)
Software Engineering 2010
Gregor Engels, Markus Luckey,
Alexander Pretschner, Ralf Reussner
(Hrsg.)
Software Engineering 2010 –
Workshopband
(inkl. Doktorandensymposium)
Gregor Engels, Dimitris Karagiannis
Heinrich C. Mayr (Hrsg.)
Modellierung 2010
Maria A. Wimmer, Uwe Brinkhoff,
Siegfried Kaiser, Dagmar LückSchneider, Erich Schweighofer,
Andreas Wiebe (Hrsg.)
Vernetzte IT für einen effektiven Staat
Gemeinsame Fachtagung
Verwaltungsinformatik (FTVI) und
Fachtagung Rechtsinformatik (FTRI) 2010
Markus Bick, Stefan Eulgem,
Elgar Fleisch, J. Felix Hampe,
Birgitta König-Ries, Franz Lehner,
Key Pousttchi, Kai Rannenberg (Hrsg.)
Mobile und Ubiquitäre
Informationssysteme
Technologien, Anwendungen und Dienste
zur Unterstützung von mobiler
Kollaboration
Gerald Eichler, Peter Kropf,
Ulrike Lechner, Phayung Meesad,
Herwig Unger (Eds.)
10th International Conference on
Innovative Internet Community Systems
(I2CS) – Jubilee Edition 2010 –
P-166
P-167
P-168
Paul Müller, Bernhard Neumair,
Gabi Dreo Rodosek (Hrsg.)
3. DFN-Forum Kommunikationstechnologien
Beiträge der Fachtagung
Robert Krimmer, Rüdiger Grimm (Eds.)
4th International Conference on
Electronic Voting 2010
co-organized by the Council of Europe,
Gesellschaft für Informatik and
E-Voting.CC
Ira Diethelm, Christina Dörge,
Claudia Hildebrandt,
Carsten Schulte (Hrsg.)
Didaktik der Informatik –
Möglichkeiten empirischer
Forschungsmethoden und Perspektiven
der Fachdidaktik
The titles can be purchased at:
Köllen Druck + Verlag GmbH
Ernst-Robert-Curtius-Str. 14 · D-53117 Bonn
Fax: +49 (0)228/9898222
E-Mail: [email protected]

Documentos relacionados